Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
arcanum
2022-10-11, 15:40:12
die karte ist schnell aber fürs gebotene einfach gnadenlos überteuert und die lücke zur 4080 16GB wird einfach zu groß sein. diese Gen gibt es wirklich nichts interessantes für mich im nvidia portfolio.
robbitop
2022-10-11, 15:41:38
~3x so viele Transistoren, grob 2,25x Rohleistung und 1,65-1,8x so viel Leistung in Spielen ggü GA102.
Exxtreme
2022-10-11, 15:44:41
Die Frage ist aber wiederum, warum ein so fetter und schwerer Kühler? Offenbar ist das gar nicht nötig. :freak:
Na logen ist das nötig, damit man auch für Ernstfälle gerüstet ist. Die optimierten 2,16 Kilogramm braucht man für ~450 Watt "sustained". Hätte man den mickrigen Dual-Slot-Kühler der RTX 3080 (Ti) als Basis genommen, würde das Ding dann ziemlich brüllen - tut die 3080 Ti FE ja schon bei ihren 350 Watt.
MfG
Raff
MiamiNice
2022-10-11, 15:48:04
Wie gesagt, ich vermute die Karten wurden kurzfristig kastriert damit der Refresh noch so viel Luft hat, dass 4090 Käufer direkt zur 4090Ti greifen werden. Zusätzlich kann man so die Ampere Karten besser abverkaufen.
Bin gespannt ob das so kommen wird.
Troyan
2022-10-11, 15:48:22
Die Frage ist aber wiederum, warum ein so fetter und schwerer Kühler? Offenbar ist das gar nicht nötig. :freak:
Fragst du dich das bei einem Tesla-Auto auch? Wieso soviel PS? :cool:
Ist doch okay. Liebers dicker, kühler und leiser als am falschen Ende gespart.
Dural
2022-10-11, 15:50:27
ich würde sofort zuschlagen, aber es kotz mich regelrecht an das die 4090 so dermassen beschnitten ist. :freak:
Wie so gehen die nicht in die vollen, meinetwegen für 3K+
MiamiNice
2022-10-11, 15:50:58
Fragst du dich das bei einem Tesla-Auto auch? Wieso soviel PS? :cool:
Ist doch okay. Liebers dicker, kühler und leiser als am falschen Ende gespart.
Du denkst wirklich, dass NV oder Partner, einen 150$ Kühler verbauen, wenn auch ein 100$ Kühler ausreicht?
Irgendwie mag ich das nicht glauben.
ich würde sofort zuschlagen, aber es kotz mich regelrecht an das die 4090 so dermassen beschnitten ist. :freak:
Wie so gehen die nicht in die vollen, meinetwegen für 3K+
Damit die 2x abkassieren können. Das Teil wird kommen, bissel in Geduld üben.
Troyan
2022-10-11, 15:53:15
Glaubst du wirklich der Unterschied ist so groß? Bisschen mehr Kupfer und Alu, fertig ist der Kühler. Lüfter und Abdeckung sind die selben.
r3ptil3
2022-10-11, 15:54:45
Lüfter und Abdeckung sind die selben.
Das ist schon mal definitiv falsch.
Dural
2022-10-11, 15:55:31
Abkassieren kann man auch jetzt: 4090 für 2K und 4090Ti für 3K oder so.
Ich sehe das Problem nicht, eine bessere Möglichkeit einen ad102 full zu vergolden gibt es nicht.
Cubitus
2022-10-11, 15:55:42
ich glaube nicht dass der Unterschied zur 4090TI so krass sein wird.
Eine 4090 wird erstmal ausreichen. :)
Troyan
2022-10-11, 15:56:07
Das ist schon mal definitiv falsch.
Nicht gegenüber Ampere, sondern wenn man "dünnere" Kühler bauen würde. Viele Neuerungen sind ja allgemein gehalten.
Edgecrusher86
2022-10-11, 15:56:24
@ Raff: Wie tief kann man denn mit dem MSI AB gehen bevor der VRAM-Takt gesenkt wird? Ist 7xx mV möglich? Bei der 3090 Ti war ja schon bei 900mV Sense.
Beeindruckende Werte in Metro EE 6K Extreme RT @ 875mV auf jeden Fall. Bei 4K wäre das wohl locker nochmals 100W darunter mit UV. :)
Edgecrusher86
2022-10-11, 16:00:08
Wie gesagt, ich vermute die Karten wurden kurzfristig kastriert damit der Refresh noch so viel Luft hat, dass 4090 Käufer direkt zur 4090Ti greifen werden. Zusätzlich kann man so die Ampere Karten besser abverkaufen.
Bin gespannt ob das so kommen wird.
2024 wär mir zu lang zum Warten, auch wenn das Ding 20% mehr Wumms hätte und vermutlich mit 23-24 Gbps VRAM kommt, evtl. auch noch 48GB schwer.
Mehr als ein kurzfristiger Lückenfüller zur 5090 wird das doch eh nicht.
Ich kann mir nicht vorstellen, dass NV die Dicke schon 2023 bringt.
FastAndy
2022-10-11, 16:02:42
Oh oh, ich glaube nach den Ergebnissen jetzt, wird es noch mal viel schwerer morgen eine Karte zu kriegen:frown:
wolik
2022-10-11, 16:03:25
Erster Undervolting-Test mit Worstcase-Load (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a3) - also im Powerlimit (bei Werkseinstellungen): AD102 lässt sich um 20 Prozent sparsamer machen und landet dann bei 350 Watt. Bei voller Last. Und ca. 80 Prozent Leistungsplus ggü. RTX 3090 Ti. Leider geil, muss man neidlos anerkennen.
MfG
Raff
Bis jetzt (Igor, xx) erste Tester wer überhaupt "von DLDSR" was gehört hat. Danke Ralf!
Ich spiele kein Spiel ohne DLDSR 4Kx2,25.
1080p oder 1440p mit 4090? Was für Verschwendung.
Oh oh, ich glaube nach den Ergebnissen jetzt, wird es noch mal viel schwerer morgen eine Karte zu kriegen:frown:
Mensch! mach doch nicht gleich in die Hose :biggrin:
Du wirds schon einer kriegen.
Fragman
2022-10-11, 16:04:37
die karte ist schnell aber fürs gebotene einfach gnadenlos überteuert und die lücke zur 4080 16GB wird einfach zu groß sein. diese Gen gibt es wirklich nichts interessantes für mich im nvidia portfolio.
Jep, gilt auch für mich.
Die Leistung ist auch nur in 4K an dem Punkt, in 1440p ist der Vorsprung deutlich kleiner. Dafür dann dieser Preis passt nicht zusammen.
Dazu noch das:
~3x so viele Transistoren, grob 2,25x Rohleistung und 1,65-1,8x so viel Leistung in Spielen ggü GA102.
Und es wird klar, das man hier einfach nicht gut genug ist oder es aktuell nicht besser konnte(? :redface:).
Mal schauen was in 2 Jahren kommt.
Cubitus
2022-10-11, 16:07:34
Und es wird klar, das man hier einfach nicht gut genug ist oder es aktuell nicht besser konnte(? :redface:).
Mal schauen was in 2 Jahren kommt.
Der Nachfolger ist dann 3x so teuer, und dann wird gemault, warum die Karte nicht 3x so schnell ist.. ;D
Fragman
2022-10-11, 16:09:58
Der Nachfolger ist dann 3x so teuer, und dann wird gemault, warum die Karte nicht 3x so schnell ist.. ;D
Ja, möglich, gemeckert wird sowieso, egal was kommt. :D
unl34shed
2022-10-11, 16:17:15
Sowas aber auch... Nur 70 Prozent oh wow so ne langsame Krücke :freak:
Bisschen mitdenken, die 4090 ist einfach nur weiter über den sweet Spot geprügelt und scheint deutlich schlechter mit dem Verbraucher zu skalieren als die 3090Ti ;)
Sardaukar.nsn
2022-10-11, 16:18:03
Erster Undervolting-Test mit Worstcase-Load (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a3) - also im Powerlimit (bei Werkseinstellungen): AD102 lässt sich um 20 Prozent sparsamer machen und landet dann bei 350 Watt. Bei voller Last. Und ca. 80 Prozent Leistungsplus ggü. RTX 3090 Ti. Leider geil, muss man neidlos anerkennen.
MfG
Raff
Sehr beeindruckend. Ich hatte mich erst geärgert das die favorisierte Inno3D Frostbite (ab Werk mit Wasserkühler) "nur" ein 450 Watt Powertarget bekommt. Aber scheinbar ist mit etwas Undervolting die volle Performance auch mit 450 Watt maximum gut zu erreichen.
Cubitus
2022-10-11, 16:25:53
Bisschen mitdenken, die 4090 ist einfach nur weiter über den sweet Spot geprügelt und scheint deutlich schlechter mit dem Verbraucher zu skalieren als die 3090Ti ;)
Made my Day ;D
Aber gut du lebst in deiner Realität und ich in meiner. ;)
Du hast bei dem Punkt mit der Skalierung im Verbrauch recht, aber am Ende des Tages hast du trotzdem mehr Leistung bei weniger Verbrauch.
Bin gespannt was mit UV gehen wird.
Warten wir mal was AMD so bringt...
Neurosphere
2022-10-11, 16:43:06
Hmm, sehe ich das richtig, bei OC scheint nicht viel bei rum zu kommen selbst mit 600 Watt, die Temps sind ja dann immernoch sehr gut. Evtl. hat NV deshalb einfach wirklich die Leistungsaufnahme auf einen guten Mittelwert angepasst. Mehr bringen halt nicht wirklich viel.
ChaosTM
2022-10-11, 16:44:13
Ganz bis an den Anschlag wurde sie nicht geprügelt, weil bei OC immer noch um 7% + drinnen ist.
Das sehen wir dann morgen bei den AIB`s.
Add.: im Winter kann man es ja machen zwecks Heizung. :D
Tangletingle
2022-10-11, 16:47:37
Wow 7%. Das ist im Vergleich zu "früher" einfach lächerlich. So nahe ans Limit ging früher schlicht kein aib.
Dural
2022-10-11, 16:48:03
Die Watt bringen nichts weil man den Takt nicht endlos steigern kann.
Die Karte läuft stock mit ca. 2750MHz, mit OC machen sie rund 3000MHz, das sind 9% mehr Takt.
Eine ziemlich einfache Rechnung.
ChaosTM
2022-10-11, 16:55:23
Wow 7%. Das ist im Vergleich zu "früher" einfach lächerlich. So nahe ans Limit ging früher schlicht kein aib.
AIB @ Stock. Viel mehr wird dann aber nicht mehr gehen außer man nähert sich den 600W.
bbott
2022-10-11, 17:46:30
2024 wär mir zu lang zum Warten, auch wenn das Ding 20% mehr Wumms hätte und vermutlich mit 23-24 Gbps VRAM kommt, evtl. auch noch 48GB schwer.
Mehr als ein kurzfristiger Lückenfüller zur 5090 wird das doch eh nicht.
Ich kann mir nicht vorstellen, dass NV die Dicke schon 2023 bringt.
Falls N31 die 4090 schlägt, wird die 4090 Ti viel schneller kommen. Eine Prognose würde ich erst nach Navi 3x wagen 😉
Niall
2022-10-11, 18:17:36
Beeindruckende Hardware keine Frage, ehrlicherweise verstehe ich diese Feierei jedoch nicht so recht - die Karte kostet 2000€+ und ist so groß wie ein Toaster. Leistung und Effizienz hin- oder her, bei dem Preis würde ich jedoch - gefühlt - die doppelte Leistung erwarten. ZWEITAUSEND EURO. Alter Schwede. Da kommt einem die 3090 Ti ja fast wie ein Schnäppchen vor. Und wofür? Cyberpunk? :freak:
Ex3cut3r
2022-10-11, 18:40:02
Beeindruckende Hardware keine Frage, ehrlicherweise verstehe ich diese Feierei jedoch nicht so recht - die Karte kostet 2000€+ und ist so groß wie ein Toaster. Leistung und Effizienz hin- oder her, bei dem Preis würde ich jedoch - gefühlt - die doppelte Leistung erwarten. ZWEITAUSEND EURO. Alter Schwede. Da kommt einem die 3090 Ti ja fast wie ein Schnäppchen vor. Und wofür? Cyberpunk? :freak:
Es werden ja in Zukunft noch HW intensivere Spiele kommen. Spätestens wenn die PS4 und Xbox One Ports endlich komplett wegfallen. Gehts nochmal ein gutes Stück nach oben. Wenn man dann in 4K mit High Refresh Rate zocken will. Macht so eine 4090 natürlich Sinn. RayTracing ist natürlich auch nochmal ein Faktor in einem AAA Game wo eine 4090 immer Sinn machen wird.
Der Preis bleibt natürlich trotzdem zu hoch, und da werden selbst Enthusiasten 2x mal überlegen bzw. Schlucken müssen.
Niall
2022-10-11, 19:07:02
Es werden ja in Zukunft noch HW intensivere Spiele kommen. Spätestens wenn die PS4 und Xbox One Ports endlich komplett wegfallen. Gehts nochmal ein gutes Stück nach oben.
Wann soll das denn sein? Bis dahin gibt's doch sicher eine 4090Ti. :D
Ex3cut3r
2022-10-11, 19:24:24
KA, relativ bald, schätze ich. Ende 2023, Anfang 2024 vermutlich.
rentex
2022-10-11, 20:06:18
Beeindruckende Hardware keine Frage, ehrlicherweise verstehe ich diese Feierei jedoch nicht so recht - die Karte kostet 2000€+ und ist so groß wie ein Toaster. Leistung und Effizienz hin- oder her, bei dem Preis würde ich jedoch - gefühlt - die doppelte Leistung erwarten. ZWEITAUSEND EURO. Alter Schwede. Da kommt einem die 3090 Ti ja fast wie ein Schnäppchen vor. Und wofür? Cyberpunk? :freak:
Hinterfragst du gerade wirklich den Preis?
Ist doch wumpe, wenn man sich keine holt...oder erst in zwei Jahren.
Wollte Sony nicht ab Anfang 23 die PS4 fallen lassen? Hatte sowas im Kopf. Dann gibts nur noch PS5. Microsoft ist hier ja eh schon weiter, die haben ja dafür, damit sie die Altkonsolen nicht mehr supporten müssen, die schrottige S eingeführt (die hoffentlich auch keine große Zukunft hat). Das Cyberpunk-Addon wird z.B. ohne Support für Altkonsolen kommen, die werden ab Patch 1.7 aussortiert.
Badesalz
2022-10-11, 21:01:03
Sehr beeindruckend. Ich hatte mich erst geärgert das die favorisierte Inno3D Frostbite (ab Werk mit Wasserkühler) "nur" ein 450 Watt Powertarget bekommt. Aber scheinbar ist mit etwas Undervolting die volle Performance auch mit 450 Watt maximum gut zu erreichen.Spätestens bei Rx400 und 500 erinnerte ich mich wieder wie die roten Fanboys ihre P-States immer ausgeklügelt und untereinander samt OC getauscht haben und wie sie dafür von den grünen Fanboys immer ausgelacht wurden, AMD kann wohl die Chips nicht konfigurieren und fährt irgendweche Brechstangen. Hmm...
why_me
2022-10-11, 21:33:00
Das war früher, damals wurde einem auch in Kaufberatungen erzählt, wie schlecht 20W Merhverbrauch bei den AMD karten doch wären und wieviel Geld das im Jahr kostet... und man doch besser zur 970 greifen soll.
Weil Nvidia sind ja immer so Sparsam und für AMD Karten brauchts ein AKW im Keller :freak:
Sardaukar.nsn
2022-10-11, 21:57:51
Der größte Sprung und die beste Grafikkarte seit 16 Jahren. Heute sehe ich keinen Platz für hate.
Der größte Sprung und die beste Grafikkarte seit 16 Jahren. Heute sehe ich keinen Platz für hate.
Das gilt es eindeutig zu feiern.
Dural
2022-10-11, 22:58:07
Das krasse ist ja das die 4090 noch lange nicht alles zeigt was möglich wäre:
AD102 hat noch 12,5% mehr Einheiten, 30% mehr Cache, und auch noch etwas Takt potential bei GPU so wie Speicher. Da wären noch min 15% mehr Leistung möglich, mit 600watt wahrscheinlich sogar 20%.
Daredevil
2022-10-11, 23:00:54
Und was ich immer wieder super wichtig finde zu erwähnen: Die Karte ist als FE leise, wie es die 3090 auch schon war.
Ja, die Kiste kostet viel Geld, dafür bekommt man aber nun einmal Performance, Speicher, massig Features in einer Box, die Kühl und leise ist. Diese "eierlegende Wollmilchsau" gibt es selten in der Technikwelt, daher bin ich sehr zufrieden mit dem gezeigten. :)
Keine Schwächen, erkauft durch den Preis. Muss man nicht mögen, kann man aber.
Sardaukar.nsn
2022-10-11, 23:09:19
Das krasse ist ja das die 4090 noch lange nicht alles zeigt was möglich wäre:
Wir haben jetzt einen seltenen Moment wo nicht nur die Leistung so einen riesigen Sprung macht. Sondern auch Displays verfügbar und bezahlbar sind die diese Revolution auf mehreren Ebenen darstellen können.
https://i.imgur.com/EF6Qb4V.jpg
LC 42C2 @ 120hz VRR
Neurosphere
2022-10-12, 06:43:02
https://twitter.com/XpeaGPU/status/1580024711072739329?t=kkd-2mQw6FnLeWLOewKYtw&s=19
Dann dürfte es nicht so lange dauern bis zu einer Ti oder Titan.
Edgecrusher86
2022-10-12, 08:31:05
https://twitter.com/XpeaGPU/status/1580024711072739329?t=kkd-2mQw6FnLeWLOewKYtw&s=19
Dann dürfte es nicht so lange dauern bis zu einer Ti oder Titan.
Mitte 2023 allerfrühstens würde ich tippen -> 4090 Ti + 23-24 Gbps G6X.
Gut, so eine TITAN (48GB @ 23 Gbps) haut man auch gerne mal Anfang Dezember raus -> in dem Fall wäre das aber easy $3499-3999 MSRP.
4-Slot FE Kühler in schwatt. :D
basix
2022-10-12, 09:07:51
Nvidia will die "World's first 100 TFLOPs Gaming-GPU" ;)
Dural
2022-10-12, 09:20:52
Mit der Karte könnte ich leben ;D
Das wären ziemlich exakt 100Tflops :freak:
basix
2022-10-12, 09:22:17
Klar, 144 SMs @ 2.72 GHz = 100 TFLOPs. Der angestrebte Boost von 2.75 GHz kommt nicht von ungefähr, Jensen liebt grosse und runde Zahlen ;) Oder kann sich noch wer an den Volta Release erinnern, wo "nur" 960 TFLOPs via Tensor für den 8-GPU DGX1 auf der Folie standen? Der Jensen war sichtlich angepisst :D Heute steht auf Nvidias Webseite 1000 TFLOPs ;)
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/dgx-1/NVIDIA-DGX-1-Volta-AI-Supercomputer-Datasheet.pdf
Dural
2022-10-12, 09:37:59
Einen vollen ad102 wird es wahrscheinlich eh nie geben, die 18176 Version nehme ich somit gerne.
Die 475Watt finde ich erstaunlich wenig.
Linmoum
2022-10-12, 09:43:42
https://www.dsogaming.com/news/nvidia-shares-more-gaming-benchmarks-for-the-rtx-4080-gpus/
Also wie erwartet, die 4070 12GiB wird langsamer als die 3090Ti, teilweise sogar deutlich.
dildo4u
2022-10-12, 09:55:40
Performance ist doch ok, ich hab immer erwartet das der Chip bei der 3090 liegt.
Ob der Preis passt wird man sehen, ich tippe drauf das nur AMDs 6nm Chip deutlich billiger sein kann.
Die kommen aber vermutlich nicht vor 2023.
Edgecrusher86
2022-10-12, 09:59:28
https://videocardz.com/newz/according-to-the-rumor-nvidia-is-already-saving-ad102-gpus-for-geforce-rtx-4090-ti
Nun auch als News. :)
Edgecrusher86
2022-10-12, 10:03:44
https://www.dsogaming.com/news/nvidia-shares-more-gaming-benchmarks-for-the-rtx-4080-gpus/
Also wie erwartet, die 4070 12GiB wird langsamer als die 3090Ti, teilweise sogar deutlich.
Was will man auch erwarten - es sind halt nur 7680SP. Die Karte müsste schon bei 3,x GHz liegen, um GA102 zu ersetzen bzw. zu schlagen.
Stock ist es halt grob 3080 Ti bis 3090-Level, was AD104-400 liefern kann - Abseits DLSS3.
Opps - Doppeldecker. :D
Daredevil
2022-10-12, 10:13:25
Sehr interessant ist, dass jede der aktuellen Ada Karten die gleichen "DLSS Einheiten" bekommen soll, die werden also nach unten nicht abgespeckt.
Das hilft am Ende zwar nur DLSS Fans, ist jedoch nett, weil man sicherlich bei einer 4070 mehr zu DLSS greift, als bei einer 4090 im Zweifel. Das erklärt vielleicht auch den hohen Preis, weil hier nicht "eingegriffen" wird bei defekten Chips?!
Fragman
2022-10-12, 10:16:22
Schaut so aus das die Existenzberechtigung der 4080 12GB einzig und allein an DLSS3 hängt. So recht ins Ampere/ADA Portfolio will sie nicht rein passen.
Edgecrusher86
2022-10-12, 10:17:07
Als 4070 (Ti) sähe das wieder ganz anders aus. Naja, soll mir egal sein - das Marketing und OEM Business freut es - kann man dann doch werben mit RTX 4080 verbaut! :D
The_Invisible
2022-10-12, 10:23:34
Ja in besseren Zeiten wärs eine 70er gewesen, da hatten die 70er immer die Performance des TopDogs der letzten Generation. Zu einem Drittel Preis oder so :D
Edgecrusher86
2022-10-12, 10:28:20
Die 4070 (Ti) bekommt dann wohl 4 GPC (48SM - 6144SP) samt 160-bit + 10GB? Sieht ziemlich nach einer 60 (Ti) aus.
Nun aber in der $599-699 MSRP-Preisklasse. :tongue:
unl34shed
2022-10-12, 11:14:24
https://videocardz.com/newz/according-to-the-rumor-nvidia-is-already-saving-ad102-gpus-for-geforce-rtx-4090-ti
Nun auch als News. :)
Die beiden fake-4080er sehen aber übel aus ohne DLSS. Da passt die Performance zur 4090 ja überhaupt nicht und selbst untereinander sieht es komisch aus. Die 16GB ist 30% schneller, die sollte doch nur ca. 20% schneller sein :confused:
Dural
2022-10-12, 11:16:33
Was ist das für eine Logik?
Alles unter 3090Ti Leistung hat keine Existenz Berechtigung? Wie so gibt es den überhaupt noch AMD? :freak:
Ich finde die 4080 12GB aktuell sogar die beste Karte, 3090 Leistung dafür deutlich kompakter und sparsamer (und billiger)
robbitop
2022-10-12, 11:19:29
https://www.dsogaming.com/news/nvidia-shares-more-gaming-benchmarks-for-the-rtx-4080-gpus/
Also wie erwartet, die 4070 12GiB wird langsamer als die 3090Ti, teilweise sogar deutlich.
Ui offenbar hat AD104 ähnliche Auslastungsprobleme.
Die 4080 12 GB hat 40 GFLOPs genau wie die 3090 Ti und hat 16% weniger Leistung in den den Benchmarks.
Und gerade da müsste man eher besser da stehen, da man die gleiche GFLOP Anzahl mit weniger SMs über den Takt erreicht. (Skalierung über den Takt liegt ohne Memory und CPU Bottleneck ~1; Skalierung von SMs lag zumindest bei den Current Gen GPUs eher bei ~0,7).
robbitop
2022-10-12, 11:20:57
Was ist das für eine Logik?
Alles unter 3090Ti Leistung hat keine Existenz Berechtigung? Wie so gibt es den überhaupt noch AMD? :freak:
Ich finde die 4080 12GB aktuell sogar die beste Karte, 3090 Leistung dafür deutlich kompakter und sparsamer (und billiger)
Last Gen ist keine Referenz für Nextgen. Natürlich ist die Nextgen pro Tier schneller. Entsprechend rutscht Last Gen High End Performance bei Next Gen natürlich in's Midrange der Next Gen.
Badesalz
2022-10-12, 11:21:38
Wir haben jetzt einen seltenen Moment wo nicht nur die Leistung so einen riesigen Sprung macht. Sondern auch Displays verfügbar und bezahlbar sind die diese Revolution auf mehreren Ebenen darstellen können.
https://i.imgur.com/EF6Qb4V.jpg
LC 42C2 @ 120hz VRRDer macht soviel Sinn wie die 4090 auch. 1600 Euronen dafür, daß sich das Teil immer mittendrin ausschalten will um sich zu refreshen. Total toll.
Platos
2022-10-12, 11:23:01
https://www.dsogaming.com/news/nvidia-shares-more-gaming-benchmarks-for-the-rtx-4080-gpus/
Also wie erwartet, die 4070 12GiB wird langsamer als die 3090Ti, teilweise sogar deutlich.
Erbärmliche Perfomance bei diesem Preispunkt.
Aber das war ja auch schon seit den ersten Benches von nvidia klar...
Leider wird auch AMD mit RDNA 3 keine Preise wie bei RDNA 2 liefern.
https://videocardz.com/newz/according-to-the-rumor-nvidia-is-already-saving-ad102-gpus-for-geforce-rtx-4090-ti
Nun auch als News. :)
18.176 FP32-Allüren wäre aber kein Vollausbau (da fehlen zwei SMs).
MfG
Raff
unl34shed
2022-10-12, 11:24:38
Was ist das für eine Logik?
Gleiches Performance-Target wurde last gen als 3070 und 3060Ti verkauft (50-60% vom full-chip)
Ich finde die 4080 12GB aktuell sogar die beste Karte, 3090 Leistung dafür deutlich kompakter und sparsamer (und billiger)
Really? Die hat die schlechteste perf/$ im 40er lineup. Die perf/$ ging sogar im Vergleich zur 3080 zurück!
Platos
2022-10-12, 11:32:10
Dural ist genau wie Troyan ein nvidia-Troll. Nehmt die doch nicht ernst:D
Vergleichen am liebsten mit den überteuerten 3090(Ti)s, damit die neuen Produkte irgendwo/irgendwie gut dastehen xD
Am besten mit DLSS 3.0 und RT usw.
Edit: haha, und schon wurde die von mir erwähnte Vergleichstaktik angewandt xD
3090Ti -Preis mit einer eigentlichen 4060Ti vergleichen. Nice xD
Edit 2: Und weiter unten wird natürlich gleich mit DLSS 3.0 verglichen xD
Dural
2022-10-12, 11:32:11
Ihr wisst die Strassenpreise der 4080 ja noch gar nichts.
Die 3090Ti hatte einen Listenpreis von 2000.- oder sowas. Da wirken 900.- ziemlich billig.
Jaja Abverkaufs Preise, richtig Abverkauf in 2 Monaten ist davon nichts mehr übrig.
robbitop
2022-10-12, 11:33:16
Erbärmliche Perfomance bei diesem Preispunkt.
Aber das war ja auch schon seit den ersten Benches von nvidia klar...
Leider wird auch AMD mit RDNA 3 keine Preise wie bei RDNA 2 liefern.
Jepp die 3070 hat die 2080ti geschlagen und hatte eine UVP 499 USD.
Die 4080 12 GB die 13% langsamer ist als der vorherige Top Dog (3090ti) wird für 899 USD UVP von NV angegeben.
Dural
2022-10-12, 11:41:20
Ihr habt einfach nicht den nötigen Horizont um es zu sehen ;)
Gerade auch mit DLSS3 hat die 4080 12GB ganz klar das beste Preis/Leistungsverhältnis.
Die Karte wird wie blöd über die Ladentheke gehen, Wetten?
Platos
2022-10-12, 11:43:00
Jepp die 3070 hat die 2080ti geschlagen und hatte eine UVP 499 USD.
Die 4080 12 GB die 13% langsamer ist als der vorherige Top Dog (3090ti) wird für 899 USD UVP von NV angegeben.
...und im Euroraum für 1100 Euro. Für den Kunden ist schlussendlich der bei Ihnen herrschende (Strassen-)preis relevant und der ist nochmals schlimmer.
die RTX 3070 hat 250% im 4k Index, die 4080 12Gb aka 4070/4060Ti wird vermutlich leicht unterhalb der 3090Ti landen, also vermutlich bei der 3090. D.H die Leistungssteigerung wird bei ~50.4% liegen. Die Preissteigerung aber für Dollar bei + 80.2% und für Euro bei ° 120.2% !
Also +50% Recheneistung bei + 120% an Preis. Na geil!
Platos
2022-10-12, 11:46:22
Ihr habt einfach nicht den nötigen Horizont um es zu sehen ;)
Nvidia Troll ;D
BlacKi
2022-10-12, 11:47:18
Really? Die hat die schlechteste perf/$ im 40er lineup. Die perf/$ ging sogar im Vergleich zur 3080 zurück!
normal, war ja auch so gedacht;( es sollen ja weiterhin ampere karten verkauft werden.
aber ich erwarte deutliche senkungen anfang 23, sobald die ampere verschwinden, amd mit konkurenz kommt, oder nv ihre karten doch vl in größeren menge verkaufen will. ich pers. hab nichts gegen den namen der 12gb karte, aber der preis hält mich aktiv vom kauf ab.
Dural
2022-10-12, 11:48:49
Schon die 3080Ti ist 59% schneller als eine 3070.
Wenn die 4080 12 eine 4070 ist, wird sie auf 3070 bezogen wohl so um die 65% mehr Leistung bringen. Komisch bei der 4090 wurden diese 65% bejubelt, bei der 4080 12 ist es schlecht, muss man nicht verstehen oder?
Ihr wieder sprecht euch selber. :rolleyes:
Mit Ada könnt ihr nicht mehr die Rohleistung 1:1 vergleichen.
why_me
2022-10-12, 11:49:31
Edit: haha, und schon wurde die von mir erwähnte Vergleichstaktik angewandt xD
3090Ti -Preis mit einer eigentlichen 4060Ti vergleichen. Nice xD
Nicht nur das, auch noch die MSRP in mitten der Miningblase. Wer hätte das gedacht.
Der Vergleich mit der 3090ti sieht natürlich deutlich besser aus als mit einer 3060ti:
450W->285W vs 200->285W
1999$->899$ vs 399$->899$
DrFreaK666
2022-10-12, 11:51:49
kürzlich auf ebay... XD
https://abload.de/thumb/screenshot_20221012_0q2clw.jpg (https://abload.de/image.php?img=screenshot_20221012_0q2clw.jpg)
Nazar
2022-10-12, 11:54:13
Hinterfragst du gerade wirklich den Preis?
Ist doch wumpe, wenn man sich keine holt...oder erst in zwei Jahren.
Du gehst auch zum Bäcker und kaufst dir ein Brötchen für 1000€. Nein, natürlich nicht, da würdest du auch den Preis hinterfragen und dann nicht kaufen.
Ständig diese selten durchdachten Kommentare. :rolleyes:
Platos
2022-10-12, 11:56:39
Schon die 3080Ti ist 59% schneller als eine 3070.
Wenn die 4080 12 eine 4070 ist, wird sie auf 3070 bezogen wohl so um die 65% mehr Leistung bringen. Komisch bei der 4090 wurden diese 65% bejubelt, bei der 4080 12 ist es schlecht, muss man nicht verstehen oder?
Und kostet 80% mehr in Dollar und 120% mehr in Euro.
Also weniger pro Dollar, wie ne 3070.
Aber lass mich raten: Du kommst jetzt mit DLS 3.0 ;D
Edgecrusher86
2022-10-12, 11:57:59
Ui offenbar hat AD104 ähnliche Auslastungsprobleme.
Die 4080 12 GB hat 40 GFLOPs genau wie die 3090 Ti und hat 16% weniger Leistung in den den Benchmarks.
Und gerade da müsste man eher besser da stehen, da man die gleiche GFLOP Anzahl mit weniger SMs über den Takt erreicht. (Skalierung über den Takt liegt ohne Memory und CPU Bottleneck ~1; Skalierung von SMs lag zumindest bei den Current Gen GPUs eher bei ~0,7).
Die halbe Bandbreite am VRAM wird die Karte auch mit dem Cache nicht kompensieren können in 4K(+) - siehe AMDs Einbruch mit dem Infinity Cache oberhalb WQHD.
18.176 FP32-Allüren wäre aber kein Vollausbau (da fehlen zwei SMs).
MfG
Raff
144 aktive wird man wohl auch nicht in freier Wildbahn sehen, wenn selbst die Pro-Karte nur mit 142 daher kommt - 1,6% darunter ist aber auch Korinthenzählerei. ;)
Ja, da hätte VC.com einen kleinen schwarzen Balken am Rand einbauen sollen. GPU-Z 2.5.00 ist aber auch noch ein wenig buggy - händisch einen falschen Transistorcount eingetragen gehabt - 76000M wäre korrekt. :D
Bekommst du noch PNs oder läuft der Posteingang über? ^^
Btw. - die nur 100% max PT im NVInspector - sind vll. nur 3x8 auf 1x16 Pol. bei euch angeschlossen gewesen zu dem Zeitpunkt?
2% Min. PT finde ich auch mal sehr krass...haha. Das maximale TT beträgt dann doch "nur" 88 Grad statt 90 Grad, wie NV kommuniziert.
Dural
2022-10-12, 11:59:25
Der Vergleich mit der 3090ti sieht natürlich deutlich besser aus als mit einer 3060ti:
450W->285W vs 200->285W
1999$->899$ vs 399$->899$
Die 4080 12 wird ca. 90% mehr Leistung bringen als die 3060Ti, der Vergleich ist völlig Sinnlos.
Wie kleine Kinder, hat 192Bit und die hat 192Bit = Völlig identisch :rolleyes:
Hört doch einfach auf über sachen zu Diskutieren wo ihr offensichtlich nicht den Überblick habt ;)
Platos
2022-10-12, 12:01:18
Aber das P/L hast du dabei nicht ausgerechnet :rolleyes:
Sonst wäre ja noch aufgefallen, dass dieses sinkt:D
Nur der absolute Leistungszuwachs angeben... weil... das hat ja auch irgend eine Aussagekraft, wenn man über das P/L diskutiert.
why_me
2022-10-12, 12:01:21
Die 4080 12 wird ca. 90% mehr Leistung bringen als die 3060Ti, der Vergleich ist völlig Sinnlos.
Wie kleine Kinder, hat 192Bit und die hat 192Bit = Völlig identisch :rolleyes:
Hört doch einfach auf über sachen zu Diskutieren wo ihr offensichtlich nicht den Überblick habt ;)
Nein, ich geh eigentlich von der theoretischen Leistung zum Top-Dog aus, da hat die 4080 12GB das gleiche Verhältnis zur 4090 wie eine 3060ti zur 3090ti.
Es gab noch nie eine 80er Karte die so schwach war verglichen mit dem Top-Dog.
arcanum
2022-10-12, 12:01:36
Ihr habt einfach nicht den nötigen Horizont um es zu sehen ;)
Gerade auch mit DLSS3 hat die 4080 12GB ganz klar das beste Preis/Leistungsverhältnis.
Die Karte wird wie blöd über die Ladentheke gehen, Wetten?
mit DLSS3 ist das P/L verhältnis gerade so ausreichend und auch nur, wenn es auf Ampere technisch wirklich unmöglich ist und in jedem neuen spiel verfügbar ist. klar tritt die software immer weiter in den vordergrund aber im moment scheint nvidia eher die ausbleibenden verkäufe nach dem mining boom kompensieren zu wollen und ich glaube, dass sie damit fett auf die nase fallen werden.
jetzt am anfang werden bestimmt viele scalper zuschlagen um ein paar early adopters auszunehmen aber wenn nvidia nicht korrigierend eingreift sollte der straßenpreis fix um 30-40% fallen um ein angemessenes preisniveau zu erreichen.
Platos
2022-10-12, 12:07:14
OT @ edgecrusher 68:
Willst du nicht mal deine Signatur etwas besser darstellen? Die ist nämlich so lange, dass du der einzige Nutzer im Forum bist, der die ganze Webseitendarstellung killt auf meinem Rechner:D
Vlt. alles auf mehr Zeilen verteilen, damit es nicht so in die Länge gezogen wird? Paar Absätze rein machen pls :D ?
robbitop
2022-10-12, 12:07:48
Ihr habt einfach nicht den nötigen Horizont um es zu sehen ;)
Gerade auch mit DLSS3 hat die 4080 12GB ganz klar das beste Preis/Leistungsverhältnis.
Die Karte wird wie blöd über die Ladentheke gehen, Wetten?
Natürlich muss die Nextgen ein besseres Preis Leistungsverhältnis haben. Es geht aber um Relation zum Bestehenden. Und DLSS 3 ist ein nettes Werkzeug, kann aber auch nicht für alle Situationen sinnvoll genutzt werden. Primär wenn eine hohe Grundframerate da ist.
Feines Werkzeug - aber unfein, dass man Ampere (trotz HW Unit) ausgeschlossen hat.
-------------
Es ist eigentlich schon längst klar, dass AD103 und AD104 relativ zu AD102 einfach ungewöhnlich stark beschnitten sind im historischen Vergleich. Das scheint sich ja auch mittlerweile durch die Medien zu ziehen. Die 4080 ist eher eine 4070ti nach altem Maßstab und die 4080 12 GB eher eine 4070 oder 4060ti.
Die 70 hat schon immer das alte highend abgelöst. Jetzt schafft es nicht mal die 80 (12 GB) und wird um 13% vom alten Highend überholt.
Der Grund warum der Shitstorm da ist: alles unterhalb von AD102 wird einfach total entwertet und es wird kein relativ gesehen vergleichbares Midrange mit der neuen Gen geben. Und das ist nachvollziehbar.
Exxtreme
2022-10-12, 12:10:55
Naja, ich sehe das eher so, dass DLSS3 eher was für Casuals ist. Die merken keinen Inputlag bei 30 fps und die Zwischenbildberechnung wird sie auch nicht stören. Was arg stören wird ist der Preis.
Edgecrusher86
2022-10-12, 12:12:47
OT @ edgecrusher 68:
Willst du nicht mal deine Signatur etwas besser darstellen? Die ist nämlich so lange, dass du der einzige Nutzer im Forum bist, der die ganze Webseitendarstellung killt auf meinem Rechner:D
Vlt. alles auf mehr Zeilen verteilen, damit es nicht so in die Länge gezogen wird? Paar Absätze rein machen pls :D ?
86, nicht 68. :D
https://abload.de/img/screenshot2022-10-1217ye6c.png
Passt doch - auf 34". ;)
Sardaukar.nsn
2022-10-12, 12:15:16
Der macht soviel Sinn wie die 4090 auch. 1600 Euronen dafür, daß sich das Teil immer mittendrin ausschalten will um sich zu refreshen. Total toll.
Dann passt es doch wieder gut zusammen :freak:
Die 42" OLED sind inzwischen unter 1000€ angekommen.
Platos
2022-10-12, 12:17:32
86, nicht 68. :D
https://abload.de/img/screenshot2022-10-1217ye6c.png
Passt doch. ;)
Bei mir nicht. Habe meinen 4k Monitor gesplittet, also immer 2 Fenster. Da bist du weit übers Ziel hinausgeschossen :D
Edgecrusher86
2022-10-12, 12:18:02
1200€ als EVO - wäre hier leider ein wenig groß in der Ecke, aber später werde ich mir sowas als normalen TV holen - habe nur 2 bis 2,5m Abstand, das passt. Bestimmt sehr nett, wenn man dann mal mit G-SYNC Comp. und 4090er zocken kann. :)
@ platos: https://abload.de/img/screenshot2022-10-1217ye6c.png
basix
2022-10-12, 12:20:37
18.176 FP32-Allüren wäre aber kein Vollausbau (da fehlen zwei SMs).
Ach ja, stimmt. 18'176 * 2.75 GHz = 99.97 TFLOPs. Ein paar MHz müssen noch druff ;D
vinacis_vivids
2022-10-12, 12:22:42
NVIDIA GeForce RTX 4090 Ti soll bis zu 20 % schneller sein als 4090.
https://digideutsche.com/nachrichten/nvidia-geforce-rtx-4090-ti-soll-bis-zu-20-schneller-sein-als-4090-zu-den-spezifikationen-gehoeren-eine-vollstaendige-ad102-gpu-475-w-tgp-96-mb-cache-und-fast-3-ghz-boost/
RTX 4090Ti
475W TGP
96MB L2 Cache
24GB VRAM
18.176 Cuda-Cores
bis zu 3.0Ghz Takt
Preis 2199 USD
Sind umgerechnet mit Steuern knapp 3000 EUR
robbitop
2022-10-12, 12:25:49
Schnapper.
Die Karte wird wie blöd über die Ladentheke gehen, Wetten?Auch wenn mich Performance und UV Potenzial der 4090 extrem (positiv) überrascht haben, ist die angekündigte Preisstrategie eine sehr hohe Hürde.
1100+ € für eine RTX 4080 12 GB, das ist halt einfach nicht mehr vertretbar. Oder anders ausgedrückt: Soviel ist mir das Spielen nicht mehr wert.
Edgecrusher86
2022-10-12, 12:38:25
NVIDIA GeForce RTX 4090 Ti soll bis zu 20 % schneller sein als 4090.
https://digideutsche.com/nachrichten/nvidia-geforce-rtx-4090-ti-soll-bis-zu-20-schneller-sein-als-4090-zu-den-spezifikationen-gehoeren-eine-vollstaendige-ad102-gpu-475-w-tgp-96-mb-cache-und-fast-3-ghz-boost/
RTX 4090Ti
475W TGP
96MB L2 Cache
24GB VRAM
18.176 Cuda-Cores
bis zu 3.0Ghz Takt
Preis 2199 USD
Sind umgerechnet mit Steuern knapp 3000 EUR
Äh, der Preis ist in "?" - aber zumindest $1999 MSRP wird es wohl werden für eine FE - also locker 2399€ inkl. nun.
Wie schnell so etwas kommt, hängt wohl vor allem von AMD ab, ob Jensen einen Bedarf in Bälde sieht. Wenn nicht, bringt man H1 2024 einen "Midlife-Kicker" vor "Blackwell".
Mich würde ja nicht wundern, wenn diesen Dezember noch eine sehr limiterte TITAN käme - zum doppelten Zahltag vor Weihnachten sozusagen. :D
Cyberfries
2022-10-12, 12:41:24
Ein paar MHz müssen noch druff
Das eine mickrige MHz wird sich doch noch finden lassen. 18176 ALUs @ 2751 MHz -> 100,004 TFlops
OT @ edgecrusher 68:
Willst du nicht mal deine Signatur etwas besser darstellen? Die ist nämlich so lange, dass du der einzige Nutzer im Forum bist, der die ganze Webseitendarstellung killt auf meinem Rechner
Dem schließe ich mich an, die Signatur nervt auf dem Notebook das ich hauptsächlich zum surfen nutze.
Auch wenn mich Performance und UV Potenzial der 4090 extrem (positiv) überrascht haben, ist die angekündigte Preisstrategie eine sehr hohe Hürde.
1100+ € für eine RTX 4080 12 GB, das ist halt einfach nicht mehr vertretbar.
Dem würde ich so zustimmen. Die 4090 ist besser als erwartet, $-Preis passt auch. Aber untenrum siehts schlecht aus.
Den Umrechnungskurs außen vor gelassen sind 899$/1199$ gegenüber den 699$/€ der 3080 nur schwer vermittelbar.
Badesalz
2022-10-12, 12:49:09
Naja, ich sehe das eher so, dass DLSS3 eher was für Casuals ist. Die merken keinen Inputlag bei 30 fps und die Zwischenbildberechnung wird sie auch nicht stören. Was arg stören wird ist der Preis.Die sehen doch aber die Matsche bei Quality?? Oder sehen die das auch nicht, weil sie eben keine Vergleichsmöglichkeit haben? :rolleyes:
BlacKi
2022-10-12, 12:50:06
ich glaub nicht wirklich das die 1099€ lange bestand haben werden. es sei denn amd liefert wirklich unterirdisch oder massiv teurer.
Edgecrusher86
2022-10-12, 12:52:00
OT: Ein Herz für Daumenkinos. :smile:
vinacis_vivids
2022-10-12, 12:57:59
Äh, der Preis ist in "?" - aber zumindest $1999 MSRP wird es wohl werden für eine FE - also locker 2399€ inkl. nun.
Wie schnell so etwas kommt, hängt wohl vor allem von AMD ab, ob Jensen einen Bedarf in Bälde sieht. Wenn nicht, bringt man H1 2024 einen "Midlife-Kicker" vor "Blackwell".
Mich würde ja nicht wundern, wenn diesen Dezember noch eine sehr limiterte TITAN käme - zum doppelten Zahltag vor Weihnachten sozusagen. :D
Ist mir ehrlich gesagt zu teuer, weil ich nicht in der Halbleiterfertigung arbeite. Die 2199 USD sind umgerechnet pi*Daumen ~ 3000€
Ob da irgendwelche Premium Lederjacken und Weihnachtsmützen dazu kommen ist mir völlig Rille, zu viel heiße Luft ;)
Die Kunden können nur wirklich auf AMD hoffen, dass da ordentlich Dampf auf die Straße gebracht wird und der Preis sich wieder nach unten bewegt.
Edgecrusher86
2022-10-12, 12:59:11
AMD wird $1199-1499 für die Dicke XT(X) verlangen, jede Wette - und in den nächsten Jahren auch Richtung $1999 MSRP gehen. ;)
Niall
2022-10-12, 13:00:17
Meint ihr die Dinger werden direkt weg sein oder hat NVIDIA "genug für alle" gebaut bei dem Preis? Hab das gerade irgendwie so gar kein Gefühl für. Einerseits ist die Karte wirklich gelungen, andererseits sind 2000€, vor allem in diesen Zeiten, auch kein Pappenstiel. :D
Sardaukar.nsn
2022-10-12, 13:14:01
Die 22 Manli Gallardo gehen sicher als letztes weg, wenn überhaupt :freak:
https://direkt.jacob.de/produkte/vga-man-geforce-n67540900m35300-artnr-8043714.html?utm_source=geizhals&utm_medium=cpc&utm_campaign=Preisvergleich&ref=103
Melbourne, FL
2022-10-12, 13:14:11
Meint ihr die Dinger werden direkt weg sein oder hat NVIDIA "genug für alle" gebaut bei dem Preis? Hab das gerade irgendwie so gar kein Gefühl für. Einerseits ist die Karte wirklich gelungen, andererseits sind 2000€, vor allem in diesen Zeiten, auch kein Pappenstiel. :D
Ich vermute, die Karte wird sich zu Beginn extrem gut verkaufen. Das sind dann die Leute, denen Geld egal ist oder die genug haben und man muss ja zugeben, dass die Hardware schon sehr eindrucksvoll und damit verlockend ist. Danach wird das aber schnell stark abflachen, weil die Leute ohne unendliche Geldresourcen, sich das Teil wegen des Preises nicht kaufen werden...
Ich frage mich eher wer die Käuferschaft für 4070-12GB und 4080-16GB sein soll. So wie es aussieht kommt man in die Nähe der 3090 (Ti), und die gibt es günstiger, hat mehr VRAM und wenn man sich an gebrauchte rantraut, kann man nochmals deutlich sparen. Oder man legt gar nicht mehr so viel drauf und bekommt viel mehr. Mal grob geschätzt von der 4080-16GB ausgehend ist die 4090 33% teurer und bietet 70% mehr Leistung.
Mein Plan ist, mir zu Überbrückung eine Karte aus der 3080/3090 Generation gebraucht zu kaufen und abzuwarten bis sich die Preise wieder etwas normalisieren. Ich hoffe, dass Nvidia nicht mit diesen Preisen durchkommt...AMD please?
Alexander
unl34shed
2022-10-12, 13:15:27
Schon die 3080Ti ist 59% schneller als eine 3070.
Wenn die 4080 12 eine 4070 ist, wird sie auf 3070 bezogen wohl so um die 65% mehr Leistung bringen. Komisch bei der 4090 wurden diese 65% bejubelt, bei der 4080 12 ist es schlecht, muss man nicht verstehen oder?
Ihr wieder sprecht euch selber. :rolleyes:
Nein, die Leistung ist für eine 80er Karte einfach nur schlecht bezogen auf die 4090 und 3080. Die 12GB liefer in plague tale 11%, ELF!, mehr fps. Das 16GB Modell legt zwar immerhin 45% drauf, das wäre ja prinzipiell noch in Ordnung, würde in dem Spiel die 4090 nicht 110% zur 3090Ti zu legen.
Zur 3070 legt die 4080 16GB dann übrigens 89% zu, das 12GB nur 44%.
Aber ja da ist nichts falsch da auf beide ein 4080 Kleber drauf zu bappen und dadurch den Preis mehr als zu verdoppeln.
robbitop
2022-10-12, 13:16:56
Ich frage mich eher wer die Käuferschaft für 407060ti-12GB und 408070-16GB sein soll. So wie es aussieht kommt man in die Nähe der 3090 (Ti),
FTFY :D
Malvinen
2022-10-12, 13:30:26
RnmyrYSZENE
Ich schliesse mich der Frage vom der8auer an, was sind das für merkwürdige Entscheidungen bei NVidia.
Troyan
2022-10-12, 13:41:06
Weil die Karte eben auch bis 475W gehen kann. Siehe z.B. auch Hardwareluxx: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/59631-geforce-rtx-4090-in-der-founders-edition-im-test.html?start=9
In Control verliert man 19% Leistung bei 23% weniger Verbrauch.
robbitop
2022-10-12, 13:49:27
Schon lustig, wie auf einmal konfigurierbare TDP bei dir anerkannt werden aber vor 2 Wochen noch im Zusammenhang mit Zen 4 ignoriert worden sind und auf der out of the box TDP rumgeritten wurde. :D
Propeller
Aber ja: konfigurierbare TDPs sind super und ermöglichen moderne CPUs und GPUs in besseren Betriebspunkten zu betreiben und ja neue Produkte erreichen damit mehr Perf/W als die Vorgänger. Unabhängig der out of the box TDP.
Troyan
2022-10-12, 14:01:50
Powerlimit kann man schon immer ändern. Hier geht es um die Standardvorgabe. Da die Karte deutlich effzienter arbeitet, ist es vollkommen egal, welches Limit man hat. Dann hat man eben 20W mehr Verbrauch, weil die Karte bei 2700MHz statt 2500MHz läuft. Nur ein hartes Limit bei 350W bedeutet auch deutlich weniger Leistung in Spielen, die bis zu 475W laufen.
Badesalz
2022-10-12, 14:21:48
AMD wird $1199-1499 für die Dicke XT(X) verlangen, jede Wette - und in den nächsten Jahren auch Richtung $1999 MSRP gehen. ;)Träum weiter.
BiG OnE
2022-10-12, 14:40:42
Du meinst die Roten werden noch teurer?
robbitop
2022-10-12, 14:42:51
Powerlimit kann man schon immer ändern. Hier geht es um die Standardvorgabe. Da die Karte deutlich effzienter arbeitet, ist es vollkommen egal, welches Limit man hat. Dann hat man eben 20W mehr Verbrauch, weil die Karte bei 2700MHz statt 2500MHz läuft. Nur ein hartes Limit bei 350W bedeutet auch deutlich weniger Leistung in Spielen, die bis zu 475W laufen.
Tja Zen 4 hat in Spielen trotz höherer TDP auch kaum mehr als Zen 3 (out of the box) verbraucht trotz höherer Leistung - darauf wurde mehrfach hingewiesen und das hast du dann auch ignoriert und nur auf der TDP herumgetrommelt. Jetzt schaust du tatsächlich bei nahezu der gleichen Sache hin und es ist für dich auf einmal legitim. :freak:
Es ist ja nicht falsch - aber es ist einfach lustig zu sehen, dass du das in einer Nicht-Nvidia Situation nicht anerkannt hast hier aber schon.
Melbourne, FL
2022-10-12, 14:44:20
FTFY :D
Ja, so kann man das auch sehen. Ich bin mal gnädig mit Nvidia und betrachte die 4090 als Ausreißer nach oben.
Alexander
Badesalz
2022-10-12, 14:51:07
Du meinst die Roten werden noch teurer?Ich glaub die wollen schon bisschen mehr verkaufen als Nv von der 4090.
Aber ja: konfigurierbare TDPs sind super und ermöglichen moderne CPUs und GPUs in besseren Betriebspunkten zu betreibenWie meinst du das? Ich konnte das schon beim 2500k im Bios einstellen. Was sind das für moderen Features? :wink:
ChaosTM
2022-10-12, 14:53:37
https://youtu.be/RnmyrYSZENE
Ich schliesse mich der Frage vom der8auer an, was sind das für merkwürdige Entscheidungen bei NVidia.
ist ähnlich wie bei AMD`s ZEN4 Launch - besser zu viel TDP als zu wenig - leider. Der ZEN4 lauft mit 65 Watt fast genauso gut bei Spielen wie mit 170.
Typischer Marketing Bullshit.
add.: hat Robbie schon thematisiert
Evil Ash
2022-10-12, 14:57:58
Die 22 Manli Gallardo gehen sicher als letztes weg, wenn überhaupt :freak:
https://direkt.jacob.de/produkte/vga-man-geforce-n67540900m35300-artnr-8043714.html?utm_source=geizhals&utm_medium=cpc&utm_campaign=Preisvergleich&ref=103
"Artikel zur Zeit nicht lieferbar" :freak: ;D
Troyan
2022-10-12, 15:00:22
Tja Zen 4 hat in Spielen trotz höherer TDP auch kaum mehr als Zen 3 (out of the box) verbraucht trotz höherer Leistung - darauf wurde mehrfach hingewiesen und das hast du dann auch ignoriert und nur auf der TDP herumgetrommelt. Jetzt schaust du tatsächlich bei nahezu der gleichen Sache hin und es ist für dich auf einmal legitim. :freak:
Es ist ja nicht falsch - aber es ist einfach lustig zu sehen, dass du das in einer Nicht-Nvidia Situation nicht anerkannt hast hier aber schon.
Zen4 nimmt sich immer die TDP. 4090 liegt irgendwo zwischen 300W und 475W in 4K. Es macht kein Sinn die Karte auf 350W zu beschränken, weil man in Spielen auch deutlich an Leistung verlieren wird.
Badesalz
2022-10-12, 15:11:08
Hej Leute hab ich das missverstanden, daß die 4090 auch in 4k nicht das aus dem Netzteil zieht was sie könnte, weil sie die CPUs limitieren? Und das erst mit u.a. 7800X3D klarer wird warum NV auf die neue Stromstrippe drängte?
Können wir trotzdem heute schon endgültige Urteile darüber fällen? Ist es nicht kluger erst wenigstens den 13900 abzuwarten? Oder bin ich da auf dem Holzweg?
davidzo
2022-10-12, 15:28:11
Zen4 nimmt sich immer die TDP. 4090 liegt irgendwo zwischen 300W und 475W in 4K. Es macht kein Sinn die Karte auf 350W zu beschränken, weil man in Spielen auch deutlich an Leistung verlieren wird.
ROFL, das hat robbi doch gerade gesagt dass dem eben nicht so ist.
Der 7950X verbraucht in Spielen im rahmen der Messungenauigkeit mehr als ein 5950x (118Watt statt 113Watt bei CB: https://www.computerbase.de/2022-09/ryzen-9-7950x-ryzen-7-7700x-gaming-benchmark-test/2/#abschnitt_die_leistungsaufnahme_in_spielen)
Also ±4% mehr Power bei +21% mehr FPS, was für eine CPU ein ungewöhnlich großer Leistungssprung ist.
Es ist genau umgekehrt wie du sagst, CPUs sind viel seltener an ihrer TDPgrenze in gaming workloads während GPUs meist viel näher dran liegen.
In beiden Fällen macht es trotzdem Sinn die Leistungsaufnahme zu limitieren weil dadurch die Effizienz erheblich steigt. Es ist nicht so als wenn das default setting ein guter Kompromiss bei der Effizienz wäre oder da irgendein sophisticated powermanagement dahinter stünde. Denn unlimitiert verbrauchen in manchen workloads teile der GPU oder CPU unnötig mehr Leistung ohne dass am Ende mehr FPS bei herum kommen. Die Spiele welche mit niedrigerer TDP nahezu linear weniger FPS liefern sind kaum vorhanden.
robbitop
2022-10-12, 15:42:55
Zen4 nimmt sich immer die TDP.
Bullshit.
https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk
In Spielen - out of the box:
7700X 72W average
7950X 118W average
5950X 113W average
12900KS 168W average
Pro Kern also in etwas gleicher Verbrauch bei ~22% mehr Spieleleistung (was für CPUs viel ist). Also ist er ~20% energieeffizienter in Spielen als Zen 3 out of the box. Und wenn man den Betriebspunkt runtersetzt, dann frisst Zen 4 Zen 3 richtig zum Frühstück (und dementsprechend mit deutlich höherer Effizienz).
Und den Link habe ich damals 3x im Zen 4 Thread gepostet. Und wurde schön von dir ignoriert und nur auf der TDP rumgeritten aber bei Ada ein ähnlicher Zusammenhang von dir abgefeiert :freak: Propeller.
Sardaukar.nsn
2022-10-12, 15:51:17
Der passende Treiber: https://www.nvidia.de/Download/driverResults.aspx/193750/de
Dural
2022-10-12, 16:05:49
Euer Problem ist das ihr die Leistung ausgehend vom Namen bestimmen wollt.
Namen sind aber nichts, das ist reines Marketing.
Die 4080 12 wird immer mit einem schlechten Preisleistung angesehen, und die 4080 16 mit einem besseren.
Aber auch das ist ja mal völlig falsch, die 4080 16 hat ca. 25% mehr Leistung, kostet aber 33% mehr als die 4080 12.
Ich bleibe dabei, die 4080 12 ist die rundeste Karte. Gerade wenn man DLSS 3.0 verwenden möchte macht die 4080 16 überhaupt gar keinen Sinn! Ob man jetzt 80 FPS oder 90+ FPS hat ist doch völlig egal.
Spring
2022-10-12, 16:11:55
Ich bleibe dabei, die 4080 12 ist die rundeste Karte.
https://media.tenor.com/tQbqcewBlbIAAAAC/bender-futurama.gif
Es ist schön, dass bei Troyans Quatsch mehr widerlegt wird.
Aber die Aussage von Dural, da weiß ich nicht ob ich lachen oder weinen soll.
Hej Leute hab ich das missverstanden, daß die 4090 auch in 4k nicht das aus dem Netzteil zieht was sie könnte, weil sie die CPUs limitieren? Und das erst mit u.a. 7800X3D klarer wird warum NV auf die neue Stromstrippe drängte?
Können wir trotzdem heute schon endgültige Urteile darüber fällen? Ist es nicht kluger erst wenigstens den 13900 abzuwarten? Oder bin ich da auf dem Holzweg?
Du kannst auch in 4K die Regler noch weiter anziehen. Ich verstehe eure panische Angst vor dem bösen CPU Limit nicht.
Wenn die Graka sich langweilt freust Du Dich über die Ruhe oder machst DLSR an bis die Graka zusammenbricht.
robbitop
2022-10-12, 16:17:07
Es ist ein miserabler Preis. 4080 12 GB.
Halbe 4090 in Bezug auf alles. Rohleistung, Bandbreite, Sizes, VRAM. Kostet aber 56% der großen Karte. Und normalerweise sollten kleinere Karten eigentlich ein zunehmend besseres P/L haben.
Niall
2022-10-12, 16:17:33
Schräg, quasi alles an 4090 bereits ausverkauft. :freak:
Exxtreme
2022-10-12, 16:21:11
Die 4080 12 wird immer mit einem schlechten Preisleistung angesehen, und die 4080 16 mit einem besseren.
Aber auch das ist ja mal völlig falsch, die 4080 16 hat ca. 25% mehr Leistung, kostet aber 33% mehr als die 4080 12.
Das Problem ist, dass beide überteuert sind. Das sind wohl eher Ampere Abverkaufspreise.
ChaosTM
2022-10-12, 16:35:50
https://www.youtube.com/watch?v=iWejNrSZSxw
Asus Strix ..
Unterschied -> nahe 0
robbitop
2022-10-12, 16:38:11
Schräg, quasi alles an 4090 bereits ausverkauft. :freak:
Dass ein paar hundert oder tausend Karten ausverkauft sind wundert dich? Es ist die schnellste GPU. Gibt genug Enthusiasten weltweit, die das Budget haben um mehrere 1000 oder 10.000 Karten zu absorbieren.
Niall
2022-10-12, 16:45:47
Dass ein paar hundert oder tausend Karten ausverkauft sind wundert dich? Es ist die schnellste GPU. Gibt genug Enthusiasten weltweit, die das Budget haben um mehrere 1000 oder 10.000 Karten zu absorbieren.
Mich wundert gar nichts, kann diesem extremen Hype nur einfach nicht ganz folgen. Gleiches beim iPhone jedes Jahr. :D
Ich hab auch gern potente Hardware, keine Frage - aber dafür um Punkt X Uhr im Shop hängen um bloß eine abzubekommen. Nee. ;)
robbitop
2022-10-12, 16:58:08
Verrückte gibt's genug auf der Welt bei knapp 8 Mrd Menschen... ;)
Sardaukar.nsn
2022-10-12, 17:02:42
Leider war die Inno3D Frostbite mit dem Wasserkühler doch nirgends zum Launch verfügbar. So ist es eine Asus geworden. Strix und TUF sind von der Platine kompatibel, also wird es bald auch mehrere Wasserkühler zur Auswahl geben.
TUF Review auf Computerbase: https://www.computerbase.de/2022-10/asus-geforce-rtx-4090-tuf-oc-review-test/ Mit OC über 3 GHz klingt schon mal gut.
Sardaukar.nsn
2022-10-12, 17:33:30
Oh je, im Luxx bekommen gerade Reihenweise Leute Storno E-Mails von NBB für ihre Founders Edition. Da scheint einiges schief gelaufen zu sein.
bbott
2022-10-12, 17:51:41
Tja Zen 4 hat in Spielen trotz höherer TDP auch kaum mehr als Zen 3 (out of the box) verbraucht trotz höherer Leistung - darauf wurde mehrfach hingewiesen und das hast du dann auch ignoriert und nur auf der TDP herumgetrommelt. Jetzt schaust du tatsächlich bei nahezu der gleichen Sache hin und es ist für dich auf einmal legitim. :freak:
Es ist ja nicht falsch - aber es ist einfach lustig zu sehen, dass du das in einer Nicht-Nvidia Situation nicht anerkannt hast hier aber schon.
Was ist an der Erkenntnis Neu? Trojan ist DER FANBOY schlecht hin, mehr Fanboy geht nicht :freak:
Eigendlich müsste/dürfte er bis zum Leben Ende kein Intel bzw. NV mehr kaufen ;D
MiamiNice
2022-10-12, 18:03:08
Damit bin ich nicht einverstanden ;D
Badesalz
2022-10-12, 18:04:26
Wenn ihr so schlaue Vollcheker seid, warum schreibt ihr all den Blödsinn zur Verfügbarkeit im Spekuthread? Verstehe ich nicht. Echt.
FastAndy
2022-10-12, 18:14:25
Oh je, im Luxx bekommen gerade Reihenweise Leute Storno E-Mails von NBB für ihre Founders Edition. Da scheint einiges schief gelaufen zu sein.
Warum werden die storniert?
Linmoum
2022-10-12, 18:14:57
Weil es NBB ist. Ziehen die nicht zum ersten Mal ab.
FastAndy
2022-10-12, 18:16:48
Mit welcher begründung denn? Müssen die doch oder? Meine supreme ist noch (?)nicht storniert
Badesalz
2022-10-12, 18:26:13
Sie haben viel zu viele Karten und jetzt fehlt das Personall um sie zu verpacken... :usweet:
Bester Launch ever und so.
wolik
2022-10-12, 18:43:07
Weil es NBB ist. Ziehen die nicht zum ersten Mal ab.
Dort sind viele lustige Sachen in Shop abgelaufen. Was für ein Dreckladen.
Online Handel braucht sein Musk.
lilgefo~
2022-10-12, 18:56:26
Die 22 Manli Gallardo gehen sicher als letztes weg, wenn überhaupt :freak:
https://direkt.jacob.de/produkte/vga-man-geforce-n67540900m35300-artnr-8043714.html?utm_source=geizhals&utm_medium=cpc&utm_campaign=Preisvergleich&ref=103
Jo das Ding schießt den Vogel ab. "Cyberpunk Metal Style" und dann steht Cybertank auf der Karte und hat 2 eingebaute Wasserwaagen. ;D Ziemlich manli.
unl34shed
2022-10-12, 19:08:23
Da gibt es einen eigenen Thread für... :ubash2: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612688
VooDoo7mx
2022-10-12, 20:59:16
According to the rumor, NVIDIA is already saving AD102 GPUs for GeForce RTX 4090 Ti (https://videocardz.com/newz/according-to-the-rumor-nvidia-is-already-saving-ad102-gpus-for-geforce-rtx-4090-ti)
TLDR Zusammenfassung 4090Ti Rumor:
142 von 144 SM des AD102 aktiv statt 128
24gbps GDDR6X statt 21gbps
2.75GHz Boost statt 2.55GHz
475W statt 450W
Angeblich soll sich das nVidia als Antwort auf RDNA3 aufheben.
Badesalz
2022-10-12, 22:05:00
Angeblich soll sich das nVidia als Antwort auf RDNA3 aufheben.Das hört sich exzellent an. Denn wenn DAS die Krone festhalten sollte, dann würde RDNA3 wohl liefern. Vor allem in dem relevanten da bezahlbaren Segment.
Damit müsste NV auch mit den bisher recht seltsamen non-Ti runter und auch mal vernünftige 4070ti und 4080ti bringen. Und damit würden wir wieder zur gewohnten Normalität zurückkehren.
Momentan sieht der Markt so krüppelig aus wie das mit Intel der Fall war, zu Zeiten des AMD Bulldozer...
Thunder99
2022-10-12, 22:16:17
Auf robbitop Post mit dem Vergleich von 4080 12GB zur 3090Ti und den 40TFlop zurückzukommen.
Was limitiert bei AD104, dass er schlechter die Leistung auf die Straße bringt als Ampere? Sollte es nicht Verbesserungen gegeben haben die es verbessert haben sollten?
ChaosTM
2022-10-12, 22:18:47
According to the rumor, NVIDIA is already saving AD102 GPUs for GeForce RTX 4090 Ti (https://videocardz.com/newz/according-to-the-rumor-nvidia-is-already-saving-ad102-gpus-for-geforce-rtx-4090-ti)
TLDR Zusammenfassung 4090Ti Rumor:
142 von 144 SM des AD102 aktiv statt 128
24gbps GDDR6X statt 21gbps
2.75GHz Boost statt 2.55GHz
475W statt 450W
Angeblich soll sich das nVidia als Antwort auf RDNA3 aufheben.
Ich hoffe man wir es auch brauchen..
Besser ginge es gar nicht !
Troyan
2022-10-12, 22:19:22
Bandbreite. 3090TI hat die doppelte Bandbreite. Auf der anderen Seite wird die 4080 12GB wahrscheinlich 200W weniger Strom benötigen.
ChaosTM
2022-10-12, 22:22:58
Die 12Gb "4080"er ist ein Krüppel, die sich 20-30 % unter der alten 90er einordnen wird.
unl34shed
2022-10-12, 22:43:34
@Troyan: Aber war da nicht was mit 10x L2 wunder cache?
E:
Mit dem geleakten AIDA Memory Copy Benchmark sieht man die Auswirkung des vergrößerten L2 Cache bei Lovelace:
RTX4080 (256bit, 22gbits/s, 64MB L2) -> 1.758.242 MB/s
RTX3070TI (256bit, 19gbits/s, 4MB L2) -> 524.456 MB/s
Prinzenrolle
2022-10-12, 23:26:42
Ich bleibe dabei, die 4080 12 ist die rundeste Karte. Gerade wenn man DLSS 3.0 verwenden möchte macht die 4080 16 überhaupt gar keinen Sinn! Ob man jetzt 80 FPS oder 90+ FPS hat ist doch völlig egal.
Die Karte ist in der Arbeit auf dem Benchtable und sie wird eine der beliebtesten Karten im Ada Lovelace Aufgebot werden. Name hin oder her, auch unabhängig von diesen ganzen Shit Beiträgen in Foren.
25% mehr Power als die 3080 10GB, bei rund 70 Watt weniger Verbrauch.
Im schlechtesten Fall eine 3090 im besten eine 3090 Ti + X. ( Cyberpunk, Dead by Daylight)
Nvidia nennt die Karte nicht umsonst 4080, die Karte hat mit dem Framegeneration Zusatzchip richtig Bumms.
Aber das will ja keiner von euch Heulsusen. War bei RT und DLSS das gleiche. Irgendwas von Nativ labern und dann aber doch TAA Aktivieren..
ChaosTM
2022-10-12, 23:41:13
3070 - eine 3080er sollte innerhalb von 20-30% unterhalb des top dogs sein. ;)
Diesmal wird es deutlich mehr sein.
just4FunTA
2022-10-12, 23:51:11
Die Karte ist in der Arbeit auf dem Benchtable und sie wird eine der beliebtesten Karten im Ada Lovelace Aufgebot werden. Name hin oder her, auch unabhängig von diesen ganzen Shit Beiträgen in Foren.
25% mehr Power als die 3080 10GB, bei rund 70 Watt weniger Verbrauch.
Im schlechtesten Fall eine 3090 im besten eine 3090 Ti + X. ( Cyberpunk, Dead by Daylight)
Nvidia nennt die Karte nicht umsonst 4080, die Karte hat mit dem Framegeneration Zusatzchip richtig Bumms.
Aber das will ja keiner von euch Heulsusen. War bei RT und DLSS das gleiche. Irgendwas von Nativ labern und dann aber doch TAA Aktivieren..
Für 500€ vielleicht, aber ganz sicher nicht für 1.200€.. aber jetzt muss man ja eh erstmal abwarten bis die lastgen Karten verkauft sind und der rest der 40x0 Karten kommt.
unl34shed
2022-10-12, 23:58:55
25% mehr Power als die 3080 10GB, bei rund 70 Watt weniger Verbrauch.
Im schlechtesten Fall eine 3090 im besten eine 3090 Ti + X. ( Cyberpunk, Dead by Daylight)
Wow, ganze 25% mehr Power für unschlagbare 28% mehr $ MSRP, wo diese Generation eigentlich sogar 60% ohne DLSS drin sein sollten und das zum in etwa gleichen Preis. Unschlagbar das Angebot... Düfte das das erste mal sein, dass man weniger fps/$ bekommt und das trotz full-node shrink?
Nvidia nennt die Karte nicht umsonst 4080, die Karte hat mit dem Framegeneration Zusatzchip richtig Bumms.
Richtig, das steht auf beiden 4080 drauf, damit man sie für min. 400$ zu viel verkaufen kann und die Kunden feiern den überteuerten Preis auch noch :eek:
Btw. welcher Zusatzchip für die Framegeneration bitte?
Mal ne ehrliche Frage in die Runde, seid ihr so schlecht in einfachster Mathematik, ist das euer erster Grafikkarten Release oder seid ihr Farbenblind und seht einfach den grauen Balken (nativ) in den letzten Nvidia Benchmarks nicht?
Wieso sollte man auf ein Software Feature wie DLSS3 setzten, das es nicht in allen Spielen geben wird, um den Preis zu rechtfertigen?
ChaosTM
2022-10-13, 00:06:46
@unl34shed
Ada/Linda ist der größte Performance Gewinn in über 10 Jahren von Gen 2 Gen..
Der Preis ist natürlich irrational..
Badesalz
2022-10-13, 00:11:19
Wow, ganze 25% mehr Power für unschlagbare 28% mehr $ MSRP, wo diese Generation eigentlich sogar 60% ohne DLSS drin sein sollten und das zum in etwa gleichen Preis. Unschlagbar das Angebot... Bähh.. :tongue: Wollt ich doch grad schreiben. Du hast aber leider die -70W ausgelassen. Nur geht das halt nur zum Bruchteil auf Nvidias Kappe, vergliechen mit der von TSMC. Macht nichts. Her mit den Federn ;)
Nun denn. Wenn solche Leute sowas im Benchtable "auf der Arbeit haben", dann weißt du welche Arbeit sie in Wirklichkeit verrichten. Sorry: zu verrichten haben...
Zur Verteidigung dagegen: Die Prophezeiung, die billigste RT40 wird die beliebteste sein, lässt trotzdem massig Sachverstand erkennen. Auch wenn es nur eine Binsensweisheit ist, sie ist auf der Arbeit wohl nicht unbekannt :uup:
Wieso sollte man auf ein Software Feature wie DLSS3 setzten, das es nicht in allen Spielen geben wird, um den Preis zu rechtfertigen?Dieses... Feature sollte die Karten billiger und nicht teurer mache
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13136462#post13136462
DrFreaK666
2022-10-13, 00:26:16
Einfach nicht auf den Prinzentroll achten :D
Die 12Gb "4080"er ist ein Krüppel, die sich 20-30 % unter der alten 90er einordnen wird.
Man muss einfach aus der 8 eine 7 machen, dann passt auch die Leistung.
https://videocardz.com/newz/geforce-rtx-4080-16gb-is-up-to-30-faster-than-12gb-version-according-to-nvidias-new-benchmarks
Nvidia hat das glaube ich ganz gut gemacht, 4090 extrem schnell alles dahinter 4080 16 GB 4080 12 4080 10 etc...schön "langsam"....und mit diesen Karten wird dann das große Geld gemacht...wenn die Konsumenten noch Geld nach der Gas und Strom Rechnung haben...
basix
2022-10-13, 08:07:15
Ada/Linda ist der größte Performance Gewinn in über 10 Jahren von Gen 2 Gen..
Ehm, Nein. Nvidia Marketing und das eigene Gedächtnis haben zugeschlagen ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13135444#post13135444
Pascal war in etwa auf selbem Niveau. Bei Kepler noch viel höher. Der Sprung ist gross, aber so ungewöhnlich ist er nun auch wieder nicht.
robbitop
2022-10-13, 08:10:27
Auf robbitop Post mit dem Vergleich von 4080 12GB zur 3090Ti und den 40TFlop zurückzukommen.
Was limitiert bei AD104, dass er schlechter die Leistung auf die Straße bringt als Ampere? Sollte es nicht Verbesserungen gegeben haben die es verbessert haben sollten?
Das muss man mal untersuchen mit richtiger Hardware in den Händen. Nicht immer ist die Auslastung von Gen zu Gen besser. Kepler hatte schlechtere Auslastung als Fermi aber viel mehr FPUs. Ampere hatte schlechtere Auslastung als Pascal und Turing aber viel mehr FPUs.
Ich glaube wir brauchen unabhängige Benchmarks und entsprechende Untersuchungen. Es ist auf jeden Fall nicht so banal wie Troyan schreibt ;)
Bandbreite. 3090TI hat die doppelte Bandbreite. Auf der anderen Seite wird die 4080 12GB wahrscheinlich 200W weniger Strom benötigen.
Nein. Wie ich bereits dargestellt habe, hat die 4080 12G die gleiche Bandbreite pro Flop wie die 4090. Und sogar mehr Cache pro Flop.
Die 3090ti hat mehr Bandbreite aber dafür ist ja der Cache bei Ada da.
Wenn die 4080 12G Bandbreitenlimitiert ist, ist es auch die 4090. Das halte ich für sehr unwahrscheinlich. Nv hat schon ewig keine bandbreitenlimitierten SKUs gemacht und wenn dann nicht mehrere SKUs in der Linie.
----------
Anbei die Bandbreitenbetrachtung:
2. Bandbreite pro Rechenleistung:
4090: 82,5 GFLOP/s + 1018 GB/s -> 12,3 (GB*s/GFLOP*s)
4080 12G: 40 GFLOP/s + 503 GB/s -> 12,57 (GB*s/GFLOP*s)
Das sind Werte von Techpowerup - die boost Taktraten werden die Rechenleistung jeweils anheben aber sicherlich in einem ähnlichen Maß, so dass sich das herauskürzen sollte.
Wie man sieht haben beide GPUs grundsätzlich rechenleistungsnormiert gleiche Bandbreite.
3. L3 Cache
4090: 82,5 GFLOP/s + 72 MiB L3 -> 0,87 MiB L3 pro GLFOP
4080 12G: 40 GFLOP/s + 48 MB L3 -> 1,2 MiB L3 pro GLFOP
L3 Cache pro Rechenleistung scheint sogar eher leicht besser dazustehen.
Daredevil
2022-10-13, 08:42:01
142 von 144 SM des AD102 aktiv statt 128
24gbps GDDR6X statt 21gbps
2.75GHz Boost statt 2.55GHz
475W statt 450W
Angeblich soll sich das nVidia als Antwort auf RDNA3 aufheben.
Wieso soll das unbedingt eine Antwort auf AMD sein?
Nvidia kann genauso die Chips bereit halten für eine Ti, um eine Antwort auf eine noch höhere Marge zu haben. :biggrin:
Die Ti kommt so oder so, völlig egal was AMD zu bieten hat.
Was aber sicherlich durch AMD entschieden werden kann, ob sie 2299€ oder 2999€ kostet. :D
Platos
2022-10-13, 10:02:13
@unl34shed
Ada/Linda ist der größte Performance Gewinn in über 10 Jahren von Gen 2 Gen..
Der Preis ist natürlich irrational..
Perfomancegewinn über was? Wenn du ja den Preis in dieser Aussage ausblendest... Gegenüber was? Die Namensgebung ist bei Ada ein Witz, also gegenüber was? Fläche ? Stromverbrauch ?
Daredevil
2022-10-13, 10:06:27
TSMC hat im letzten Quartal übrigens 80% mehr Gewinn gemacht. :D
20Mrd Umsatz, 9Mrd Gewinn.
Beim Goldgraben gewinnt nie der Goldgräber, sondern der Schaufelhersteller. ^^
Geschröpft werden am Ende alle Hardware Hersteller, da Angebot und Nachfrage durch uns Kunden direkt weiter gereicht wird.
Platos
2022-10-13, 10:47:11
Das passiert halt, wenn Samsung immer weiter abstinkt gegen TSMC.
Wo sind die noch drinn an der Spitze/in Spitzenprodukten abgesehen vom Mobile-SoC ? Eigentlich nirgendwo, oder?
some facts and opinion on missing DisplayPort 2.0 in RTX4000:
https://www.youtube.com/watch?v=THxkY59_xko&t=784s
Troyan
2022-10-13, 11:08:42
Techyoutuber der keine Ahnung hat. Schocking. Scheint wohl nie was von DSC gehört haben. Das DSC, was auch der im Video gezeigte Samsung Monitor mit den 240Hz in 4K verwendet, welcher einwandfrei mit einer Turing und Ampere Karte läuft.
Techyoutuber der keine Ahnung hat. Schocking. Scheint wohl nie was von DSC gehört haben. Das DSC, was auch der im Video gezeigte Samsung Monitor mit den 240Hz in 4K verwendet, welcher einwandfrei mit einer Turing und Ampere Karte läuft.
läuft natürlich. aber mit chroma subsampling.
Bildvergleich:
https://upload.wikimedia.org/wikipedia/commons/0/06/Colorcomp.jpg
robbitop
2022-10-13, 11:26:36
Nein DSC schafft es ohne Chroma Subsampling. 4K 240 Hz und 10 bit. Weil eben bis 3:1 komprimiert werden kann.
Troyan
2022-10-13, 11:26:44
Nein, DSC erlaubt 4K mit 240Hz und 10bit ohne Chromasubsampling. TFTCentral hat den Monitor mit einer nVidia-Karte getestet:
You can run at 3840 x 2160 resolution, 240Hz refresh rate and with 10-bit full 4:4:4 chroma as shown below
https://tftcentral.co.uk/reviews/samsung-odyssey-neo-g8
Nein, DSC erlaubt 4K mit 240Hz und 10bit ohne Chromasubsampling. TFTCentral hat den Monitor mit einer nVidia-Karte getestet:
https://tftcentral.co.uk/reviews/samsung-odyssey-neo-g8
ok wieder was gelernt. danke.
Troyan
2022-10-13, 11:34:13
Selbst ohne DSC schafft 1.4a 120Hz mit 8bit in 4K bzw, 96Hz mit 10bit. Selbst das ist für Gaming noch ausreichend.
robbitop
2022-10-13, 11:35:48
Naja mit DLSS 3 und der dicken 4090 hat man jetzt so hohe Frameraten, so dass 120 Hz einfach viel zu wenig sind um das nutzen zu können. Stichwort: Bewegtschärfe.
Troyan
2022-10-13, 11:38:51
Naja, erstmal müssten die Monitore so schnell sein, um nicht durch die Pixelresponse-Zeit ausgebremst zu werden. Dazu kommt, dass bei Adaptive-Sync der untere Bereich meisten auch höher ist bei hohen HZ-Zahlen. Der Samsung-Monitor hat eine untere Grenze von 68Hz.
wäre trotzdem mal interessant wo diese "scanlines" bei max settings (4k/240Hz/10bit) herkommen, von denen sie schreiben...
zumal sie bei 120hz scheinbar weg sind..
They are not visible all the time but in certain situations you might see these appear. We captured the above photos of even the simple Windows volume control where you can see faint horizontal lines in the left hand image on the blue bar when the screen is running at 240Hz, instead of what should be a smooth blue block. If you switch down to a lower refresh rate like 120Hz these disappear, but it does mean that should you want to take advantage of the screen’s full capabilities, you might experience some of these visual issues from time to time. They aren’t present in all situations, but could be distracting if you start to notice them in your normal usage.
We are pleased to see Samsung pushing the boundaries and offering 4K 240Hz which is certainly very impressive, but at the same time when it has some visual issues and limitations it starts to feel a bit like things are being pushed just a little too far at the moment.
robbitop
2022-10-13, 11:43:06
Naja, erstmal müssten die Monitore so schnell sein, um nicht durch die Pixelresponse-Zeit ausgebremst zu werden. Dazu kommt, dass bei Adaptive-Sync der untere Bereich meisten auch höher ist bei hohen HZ-Zahlen. Der Samsung-Monitor hat eine untere Grenze von 68Hz.
Mit DP2.0 wird das sicherlich auch kommen. Und dank OLED sind responsetimes auch kein Problem mehr.
Untere Refreshrategrenzen sind komplett irrelevant solange diese <2,5x der refrehsrate sind. Entsprechend wird Framedoubling betrieben. Da gibt es praktisch kein unteres Limit mehr.
They are not visible all the time but in certain situations you might see these appear. We captured the above photos of even the simple Windows volume control where you can see faint horizontal lines in the left hand image on the blue bar when the screen is running at 240Hz, instead of what should be a smooth blue block. If you switch down to a lower refresh rate like 120Hz these disappear, but it does mean that should you want to take advantage of the screen’s full capabilities, you might experience some of these visual issues from time to time. They aren’t present in all situations, but could be distracting if you start to notice them in your normal usage.
We are pleased to see Samsung pushing the boundaries and offering 4K 240Hz which is certainly very impressive, but at the same time when it has some visual issues and limitations it starts to feel a bit like things are being pushed just a little too far at the moment. Und das ist das einzige Gerät was das kann. Klingt ja nicht so toll.
Troyan
2022-10-13, 11:45:51
LFC bedeutet Latenz. Der Samsung benötigt mit Adaptive-Sync fast 6ms für die Darstellung eines Frames.
why_me
2022-10-13, 11:46:16
Naja mit DLSS 3 und der dicken 4090 hat man jetzt so hohe Frameraten, so dass 120 Hz einfach viel zu wenig sind um das nutzen zu können. Stichwort: Bewegtschärfe.
Kommt ja noch dazu, das Vsync in den Spielen nicht mehr verfügbar wird, wenn man Framge Generation aktiviert -> trearing kommt wieder zurück.
Oder man erzwingt Vsync per Treiber, aber dann steigt der inputlag enorm (DF video)
mironicus
2022-10-13, 12:52:29
Gibt es schon Benchmarks mit dem neuen 3D Mark Speedway auf der RTX 4090?
Sardaukar.nsn
2022-10-13, 12:54:49
Gibt es schon Benchmarks mit dem neuen 3D Mark Speedway auf der RTX 4090?
Forist SH aus dem Luxx, wird aber wohl das obere Ende der Fahnenstange sein: https://www.3dmark.com/3dm/80863301?
mironicus
2022-10-13, 13:11:07
Dieser Framedoubler von DLSS 3.0 ist eigentlich nichts neues, das machen moderne Fernseher in einer ähnlichen Art schon lange, die Latenz dabei ist das größte Problem. Ob AMD und Intel etwas ähnliches nachlegen werden/können?
Troyan
2022-10-13, 13:13:06
Dieser Framedoubler von DLSS 3.0 ist eigentlich nichts neues, das machen moderne Fernseher in einer ähnlichen Art schon lange, die Latenz dabei ist das größte Problem. Ob AMD und Intel etwas ähnliches nachlegen werden/können?
Peroblem ist immer Echtzeit. Samsung z.B. unterstützt es nur bei 60Hz und der Fernsehr benötigt 2,8x länger zur Darstellung des Frames (statt 10ms sind es dann 28ms Signalverarbeitung).
Exxtreme
2022-10-13, 13:25:02
Dieser Framedoubler von DLSS 3.0 ist eigentlich nichts neues, das machen moderne Fernseher in einer ähnlichen Art schon lange, die Latenz dabei ist das größte Problem. Ob AMD und Intel etwas ähnliches nachlegen werden/können?
Die Framedoubler eines Fernsehers ist absolut nicht vergleichbar mit dem, was eine Grafikkarte tun muss.
Sardaukar.nsn
2022-10-13, 13:28:43
Ich glaube das ist schon ein bisschen mehr dahinter steckt als bei der Zwischenbildberechnung im Fernseher.
Be quiet hat jetzt auch "das Kabel" falls jemand Bedarf hat https://www.bequiet.com/de/accessories/3959
amdfanuwe
2022-10-13, 15:24:33
Die Framedoubler eines Fernsehers ist absolut nicht vergleichbar mit dem, was eine Grafikkarte tun muss.
Der TV kann warten bis der 2te Frame empfangen wurde, aus erstem und 2tem Frame ein Zwischenbild berechnen und das ganze dann verzögert ausgeben.
Fällt beim Filme schauen nicht auf, ob der Film ein paar 10tel Sekunden später anfängt.
Die GPU muss das Zwischenbild aus den vorhergehenden Bildern "vorhersagen". Wäre witzlos auf den 2ten Frame zu warten, dann braucht man da die Zwischenbilder auch nicht mehr.
why_me
2022-10-13, 15:30:11
Der TV kann warten bis der 2te Frame empfangen wurde, aus erstem und 2tem Frame ein Zwischenbild berechnen und das ganze dann verzögert ausgeben.
Fällt beim Filme schauen nicht auf, ob der Film ein paar 10tel Sekunden später anfängt.
Die GPU muss das Zwischenbild aus den vorhergehenden Bildern "vorhersagen". Wäre witzlos auf den 2ten Frame zu warten, dann braucht man da die Zwischenbilder auch nicht mehr.
Aber genau das macht DLSS3 doch, auf das 2te Frame warten und dann das zwischen bild vom 1ter und 2ten Bild berechnen.
Deswegen braucht es auch Reflex um den zusätzlichen lag zu kaschieren.
Der Vorteil den DLSS3 hat, es hat zugriff auf die motion vektors, also mehr informationen über die beiden Bilder.
Wäre witzlos auf den 2ten Frame zu warten, dann braucht man da die Zwischenbilder auch nicht mehr.
Das Marketing findet die doppelte Framerate aber gut. Dass mehr FPS mal weniger Latenz bedeutete ist egal, weil die Graphen FPS zeigen, nicht Latenz.
davidzo
2022-10-13, 15:53:13
Aber genau das macht DLSS3 doch, auf das 2te Frame warten und dann das zwischen bild vom 1ter und 2ten Bild berechnen.
Deswegen braucht es auch Reflex um den zusätzlichen lag zu kaschieren.
Der Vorteil den DLSS3 hat, es hat zugriff auf die motion vektors, also mehr informationen über die beiden Bilder.
Soweit ich das verstanden habe wartet DLSS3 eben nicht auf den 2ten frame um einen 1.5ten zu berechnen, sondern verwendet den 1., nullten und -1ten um die Motionvectors zu generieren und einen zukünftigen Frame zu berechnen.
Ersteres würde den input lag verdoppeln, während letzteres den inputlag nicht verändert, aber eben die frames verdoppelt. Bei nativ 60FPS behältst du mit 120 DLSS3 FPS den inputlag wie mit 60FPS nativ, während mit der von dir beschriebenen Methode der Berechnung eines Zwischenframes der inputlag auf ein 30fps-niveau verlängert würde.
DLSS3 kann daher auch keine neu auftauchenden Objekte darstellen, und generiert keine Bewegungsvektoren für sehr kleine Objekte, was insbesondere in Szenen mit Partikeln, Explosionen etc. zu Problemen wie Flackern führt (siehe Grafikfehler in Cyberpunk "die große Parade").
Mit der 1+2Frame Interpolationsmethode würden auftauchende Objekte und partikeleffekte kein Problem sein, allerdings kostet diese Methode eben auch einiges an inputlag.
amdfanuwe
2022-10-13, 15:53:48
Aber genau das macht DLSS3 doch, auf das 2te Frame warten und dann das zwischen bild vom 1ter und 2ten Bild berechnen.
Sicher?
Hast du mal eine Quelle dazu?
Soweit ich das verstanden habe wartet DLSS3 eben nicht auf den 2ten frame...
Hab ich auch so verstanden.
Exxtreme
2022-10-13, 15:57:15
Aber genau das macht DLSS3 doch, auf das 2te Frame warten und dann das zwischen bild vom 1ter und 2ten Bild berechnen.
Deswegen braucht es auch Reflex um den zusätzlichen lag zu kaschieren.
Der Vorteil den DLSS3 hat, es hat zugriff auf die motion vektors, also mehr informationen über die beiden Bilder.
Nein, tut es nicht. DLSS3 errechnet einen neuen Frame von dem es annimmt, dass es ihn so gegeben hätte wenn das Ganze mit der doppelten Bildwiederholrate laufen würde.
Würdest du das so machen wie die Glotze, also aus zwei Frames einen neuen errechnen dann hättest du Monsterlag. Und zwar richtig Monsterlag. Wenn ein Spiel sonst mit 30 fps läuft und du das Spiel auf 60 fps pusht dann hättest du mit der Glotze-Zwischenbildberechnung einen Lag von 15 fps. Womöglich sogar weniger als das.
Würdest du das so machen wie die Glotze, also aus zwei Frames einen neuen errechnen dann hättest du Monsterlag. Und zwar richtig Monsterlag. Wenn ein Spiel sonst mit 30 fps läuft und du das Spiel auf 60 fps pusht dann hättest du mit der Glotze-Zwischenbildberechnung einen Lag von 15 fps. Womöglich sogar weniger als das.
Reviewer, z.B. Digital Foundry haben genau diesen Laganstieg gemessen, je nach Situation, mal mehr, mal weniger. 60FPS auf 120FPS skaliert hat dann mehr lag als nur 60FPS.
why_me
2022-10-13, 16:10:52
Es ergibt einfach keinen Sinn, dass die Frames aus der Vergangeheit vorhergesagt werden sollen. Alles spricht dagen.
Auch die Messungen/Tests aktuell zeigen genau das:
1. DLSS3 FG benötigt zwingend Reflex, dadurch bleibt der lag auf dem gleichen niveau wie ohne FG, trotz höhere FPS.
2. Im DF video dazu zeigen sie im Flight Simulator ein flickern beim Szenenwechsel. Da wurde etwas komisches aus zwei bildern mit verschiedenen Blickwinkeln errechnet. Würde man die Frames erraten, wäre so etwas nicht passiert.
3. Würde man die Inhalte erraten hätte man starke artefakte an Kanten, weil dort informationen fehlen, das ist nicht der fall.
Ich glaube sogar Nvidia hat das irgendwo gesagt, bin mir aber nicht sicher.
von NVidias DLSS3 Seite:
For each pixel, the DLSS Frame Generation AI network decides how to use information from the game motion vectors, the optical flow field, and the sequential game frames to create intermediate frames.
oder auch google translate:
Für jedes Pixel entscheidet das KI-Netzwerk der DLSS Frame Generation, wie Informationen aus den Spielbewegungsvektoren, dem optischen Flussfeld und den sequentiellen Spielframes verwendet werden, um Zwischenframes zu erstellen.
Das bedeutet, aus dem Bild was jetzt angezeigt werden sollte und dem vorherigen Bild, wird ein Zwischenbild errechnet, dann wird das Zwischenbild angezeigt und dann erst das Bild was "jetzt angezeigt werden sollte".
Manchmal gibt es nur ein paar ms mehr Latenz, manchmal mehr als die Doppelte (laut DF).
why_me
2022-10-13, 16:40:36
@NC: Danke, ich wusste doch, das stand irgendwo.
Exxtreme
2022-10-13, 17:02:09
Reviewer, z.B. Digital Foundry haben genau diesen Laganstieg gemessen, je nach Situation, mal mehr, mal weniger. 60FPS auf 120FPS skaliert hat dann mehr lag als nur 60FPS.
Ja eben. Weil DLSS3 es ganz anders macht als Fernseher. :)
unl34shed
2022-10-13, 17:16:17
Und was machen sie anders? Kleiner Hinweis, gar nichts, die rechnen wegen der hohen Rechenleistung nur schneller ;)
Tesseract
2022-10-13, 17:31:33
Das bedeutet, aus dem Bild was jetzt angezeigt werden sollte und dem vorherigen Bild, wird ein Zwischenbild errechnet, dann wird das Zwischenbild angezeigt und dann erst das Bild was "jetzt angezeigt werden sollte".
nein tut es nicht. der satz macht keinerlei aussage darüber ob die information nur aus vorhergehenden oder zukünftigen frames genommen wird.
Emil_i_Lönneberga
2022-10-13, 17:31:54
Gibt es auch Karten mit "nur" Wasserkühler (1 Slot)? Also ohne den ganzen AIO Dreck.
Wasserkühler mit einem Slot Platzverbrauch gab es bei der 3090 über eine Kooperation von EKWB und Asus. Von einer 4090 habe ich noch nichts gehört, müsste aber wieder machbar sein.
80791
https://www.ekwb.com/news/asus-partners-up-with-ek-to-deliver-water-cooler-geforce-rtx-30-series-gpus/
https://www.asus.com/Motherboards-Components/Graphics-Cards/ASUS/RTX3090-24G-EK/
https://geizhals.de/asus-geforce-rtx-3090-ekwb-90yv0f80-m0nm00-a2420163.html
Vielleicht auch noch interessant. Sind zwar auch 24mm & 6mm, aber dafür befinden sich die Anschlüsse in Verlängerung zur Karte.
https://www.aquatuning.de/detail/index/sArticle/30379
https://www.aquatuning.de/media/image/a8/05/46/Alphacool_ES_Geforce_RTX_4090_mit_Backplate_1023161_02.jpg
https://www.aquatuning.de/media/image/0c/89/08/Alphacool_ES_Geforce_RTX_4090_mit_Backplate_1023161_03.jpg
TheCounter
2022-10-13, 18:00:16
Danke dir, der ist preislich ja auch recht human :)
just4FunTA
2022-10-13, 18:15:01
ist schon ein krasser kontrast rtx4090 mit LuKü und rtx4090 mit wakü. Aber mal abgesehen davon das es cool aussieht lohnt sich eine wakü überhaupt wenn die lukü anscheinend so gut ist auf der rtx4090.
nein tut es nicht. der satz macht keinerlei aussage darüber ob die information nur aus vorhergehenden oder zukünftigen frames genommen wird.
Erlaube mir eine kleine wall-of-text
The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.
...
For each pixel, the DLSS Frame Generation AI network decides how to use information from the game motion vectors, the optical flow field, and the sequential game frames to create intermediate frames.
Also, input:
-momentanes Bild
-vorheriges Bild
-optical flow Bild (generiert von der GPU)
-motion vector Bild (generiert vom Spiel)
Aus diesen "aufeinander folgenden Bildern" generiert DLSS3 ein "Zwischenbild", kein Folgebild,
Falls es Zweif sind wie "intermediate" interpretiert werden kann, sind hier ein paar Synoneme:
halfway, in-between, middle, mid, midway, median, intermediary, intervening, interposed, transitional, in the middle, at the halfway point, equidistant between two points/stages
unl34shed
2022-10-13, 18:33:38
Wie wäre es mit der Digital Foundries Erklärung? Die durften es ja als erstes zeigen, also wird da Nvidia bestimmt ordentlich drauf geschaut haben.
Das ist Interpolation und keine Extrapolation.
ab 4:00 und ab 17:20
6pV93XhiC1Y
Thunder99
2022-10-13, 18:54:43
Die Leistung ist anscheinend doch nicht so extrem gestiegen wie behauptet, wenn man den neuen Treiber beachtet und die Verbesserungen bereits im RTX4090 Release Treiber drin waren (nur für die 4090)
https://www.computerbase.de/2022-10/geforce-522-25-im-benchmark-treiber-beschleunigt-geforce-rtx-3000-zum-rtx-4090-start/
Ganz toll nvidia :freak:, als ob das nötig gewesen wäre
Wenn NVidia diese Optimierungen nicht für Ampere rausgebracht/freigeschaltet hätte, hätten wir das nie erfahren. Von daher ist das ein echt ehrlicher Move von denen. Klar, ein wenig beschiss bei Ada, aber die haben vermutlich alle Optimierungen für Ada zum Start gemacht und die helfen dann auch Ampere.
Als Ampere Besitzer bin ich happy.
Emil_i_Lönneberga
2022-10-13, 19:17:21
ist schon ein krasser kontrast rtx4090 mit LuKü und rtx4090 mit wakü. Aber mal abgesehen davon das es cool aussieht lohnt sich eine wakü überhaupt wenn die lukü anscheinend so gut ist auf der rtx4090.
Vergleich bei 35dbA: https://www.techpowerup.com/review/asus-geforce-rtx-4090-strix-oc/38.html
--> Eine Karte mit mikriger 240er AiO führt das Feld an.
Rechnung, wenn eine Wakü vorhanden ist: Die günstigste Karte mit Referenzplatine, verbauter Luftkühler interessiert nicht, plus 150-170€ für den Kühler inklusive Backplate.
https://ezmodding.com/index.php?qs=4090&search=
https://www.aquatuning.de/wasserkuehlung/gpu-kuehler/gpu-komplettkuehler/?p=1&o=2&n=25&f=5145
--> Abhängig von der Radifläche unter 50°C Chiptemperatur bei 400-500 U/min möglich.
https://www.hardwareluxx.de/community/threads/rtx-30x0-wasserk%C3%BChlervergleich-gpu-block-comparison.1286430/page-25#post-29272802
Bei einem kompletten Neueinstieg in Wakü muss man immer erstmal eine gute Stange Geld setzen, um die nächsten 10, 15 Jahre "nur" noch bei jeder neuen Grafikkarte den 150-170€ Block draufzahlen zu müssen.
https://www.aquatuning.de/AtsdCartSave/load/key/f53b624fdf3aa8240c7d50f5349f2e6b
Gibt auch noch eine 270€ Lösung, die ich aber für Quark halte, (https://www.aquatuning.de/detail/index/sArticle/30438)da sich das Terminal mit Pumpe nicht vom Wasserkühler trennen lässt, um die Kühlung auf die nächste Karte in ein paar Jahren übernehmen zu können.
https://www.igorslab.de/community/threads/aphacool-eiswolf-2-mit-gpx-a-f%C3%BCr-die-sapphire-rx-6800xt-und-rx-6900xt-nitro-im-test-%E2%80%93-besser-als-die-toxic.4812/page-2#post-146519
Wenn die Kühlung und Lautstärke auf der Prioliste weiter unten stehen und oder man keinen Bock auf einen Kühlerwechsel hat und oder einfach nur eine schnelle Karte im System haben will und oder eine Karte mit mächtigem Kühler bei 250W nutzen möchte und oder Angst vor Wasser hat und oder ... bleibt gerne bei Luftkühlung.
Thunder99
2022-10-13, 19:39:04
Wenn NVidia diese Optimierungen nicht für Ampere rausgebracht/freigeschaltet hätte, hätten wir das nie erfahren. Von daher ist das ein echt ehrlicher Move von denen. Klar, ein wenig beschiss bei Ada, aber die haben vermutlich alle Optimierungen für Ada zum Start gemacht und die helfen dann auch Ampere.
Als Ampere Besitzer bin ich happy.
Das stimmt, aber es schmälert wie gut die 4090 ist gegenüber Ampere, rein vom Speed her
Spring
2022-10-13, 19:40:48
https://www.golem.de/news/rtx-4000-series-geforce-rtx-titan-hat-sich-in-tests-wohl-selbstzerstoert-2210-168919.html
"Die Geforce RTX 4090 ist bereits eine erste Ada-Lovelace-Grafikkarte, die in Tests die klare Nummer eins ist. Nvidia hat allerdings wohl auch an eine noch leistungsfähigeren Karte gearbeitet, einem Titan-Modell der Serie. Das Projekt musste aber erst einmal abgebrochen werden. Die Grafikkarte habe in Testszenarien Netzteile zerstört oder sich selbst zum Schmelzen gebracht. "
Das stimmt, aber es schmälert wie gut die 4090 ist gegenüber Ampere, rein vom Speed her
Naja, bei fast 3x Transistoren hab ich mir irgendwie auch mehr versprochen, aber dann bin ich wieder etwas froh dass meine Ampere noch so gut dasteht.
Mit all der neuen Tech entfalltet sich Ada vielleicht noch in der Zukunft. Diese RT Optimierungen usw. muss ein Spiel erstmal einbauen damit zu sehen ist, was das bringt.
...
Klingt irgendwie wie ein Aprilscherzartikel.
Sardaukar.nsn
2022-10-13, 20:20:07
@Thunder99: Auch mit dem neuen Treiber wird meine maximal ausgequetschte 3080 in DX12 +RT gnadenlos von der 4090 überrollt. +112% https://i.imgur.com/r03jkqO.jpg
@Emil_i_Lönneberga: Finde ich super spannend was Alphacool da gerade macht. Erst das Chrom auf dem Referenz Kühler, jetzt die Industrie Lösung mit Carbon. Bin sehr gespannt wie deren Strix/TUF Kühler aussehen wird.
Freestaler
2022-10-13, 20:58:06
Die 16% bei CP2077 (Whqd)durch Treiber sind aber hart. Das ist dann mal 1/4 des Vorsprung und von FarCry wollen wir gar nicht sprechen. Wie lang NV da wohl was zurück gehalten hat?
Schnitzl
2022-10-13, 21:09:05
Wenn NVidia diese Optimierungen nicht für Ampere rausgebracht/freigeschaltet hätte, hätten wir das nie erfahren. Von daher ist das ein echt ehrlicher Move von denen. Klar, ein wenig beschiss bei Ada, aber die haben vermutlich alle Optimierungen für Ada zum Start gemacht und die helfen dann auch Ampere.
Als Ampere Besitzer bin ich happy.
wurde hier bereits angesprochen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13134697#post13134697
armselig, unnötig, idiotisch.
nVidia kämpft eben mit ALLEN Mitteln... :rolleyes:
Linmoum
2022-10-13, 21:10:37
Naja, was willst du in WQHD mit einer 4090? Das ist hoffnungslos CPU-limitiert. Und selbst wenn du da CP2077 nimmst, ist der knappe Unterschied mit RT schon wieder komplett hinfällig. In UHD aufwärts sowieso. Und das P1 bei FC6 sieht nach einem harten Messfehler aus (ohne/mit RT +7%/+31% in WQHD, +10%/+44% in UHD).
Sind über den gesamten Parcours auch nur 2-5%, die die 3090Ti zulegt.
Emil_i_Lönneberga
2022-10-13, 21:14:20
@Sardaukar.nsn
Der Optimus reizt mich seit Ampere am meisten und auch der EKWB ist mehr nach meinem Geschmack, auch weil das V-PCB noch sichtbar bleibt. Gut kühlen werden wieder alle Fullcover:
https://optimuspc.com/products/absolute-strix-tuf-4090-gpu-waterblock?variant=40328456077395
https://cdn.shopify.com/s/files/1/0032/5530/4241/products/strix-4090-render-front-v1-1_2000x.jpg?v=1665585462
https://www.ekwb.com/shop/ek-quantum-vector2-fe-rtx-4090-d-rgb-nickel-plexi
https://www.ekwb.com/shop/media/catalog/product/cache/1/thumbnail/1600x1067/17f82f742ffe127f42dca9de82fb58b1/e/k/ek-quantum-vector2-fe-rtx-4090-d-rgb-nickel-plexi-front_1.jpeg
Linmoum
2022-10-13, 21:23:45
EK gefällt mir dieses Mal auch optisch, wirkt deutlich hochwertiger als die Blöcke der letzten Gen. Der für meine 6900XT war von der Kühlleistung gut und vor allem - was mich überrascht hat - erstaunlich "dämpfend" für Spulenrasseln/-fiepen, aber der wirkte haptisch und optisch nicht wirklich dem Preis entsprechend. Das Gefühl hab ich bei den neuen nicht.
Auch, wenn der Preis natürlich eine Ansage ist. Aber Eurokurs ist für uns halt auch einfach absolut beschissen... Ich werde mir am WE wahrscheinlich einen bestellen, hab ja die Gigabyte Gaming OC bekommen. Dafür gibt's schon den Block.
Thunder99
2022-10-13, 21:23:47
Aber Lovelace ist dennoch interessant genug wenn man noch keine RT Karte hat :)
Schiele aber eher auf die 4080 16GB
why_me
2022-10-13, 21:26:49
Wenn man noch keine RT karte hat, dann wird man sicherlich nicht 1,5k€ für eine neue Karte zahlen, sondern sich deutlich weiter unten umschauen.
Sardaukar.nsn
2022-10-13, 21:55:10
@Emil_i_Lönneberga Danke für die Info, ich finde es gerade einfach nur sensationell was rund um die 4090 abgeht. Alphacool mit ihrem 1-slot, Carbon, Chrom Modell auf der einen Seite. Optimus mit weißer Keramik wie bei mir im Lokus. Feier ich!
https://i.imgur.com/vF7CVbg.jpg
https://i.imgur.com/IKuwxdk.jpg
Ich glaube wir werden in nächster Zeit sehr krasse Builds sehen.
Thunder99
2022-10-13, 22:18:55
Wenn man noch keine RT karte hat, dann wird man sicherlich nicht 1,5k€ für eine neue Karte zahlen, sondern sich deutlich weiter unten umschauen.
Ganz sicher nicht, da unter 11GB ich nicht gehen werde und die 12GB zu wenig sind wenn man die Karte wieder 5 Jahre+ nutzen möchte. Hab die 1080Ti seit 2017 und langsam darf eine Aktualisierung kommen :wink:
Der veranschlagte Preis hält mich aber zurück bei Release oder kurz danach zuzuschlagen. Unter 1000€ sollten es schon werden, sofern realistisch.
TobiWahnKenobi
2022-10-13, 22:22:11
Naja, bei fast 3x Transistoren hab ich mir irgendwie auch mehr versprochen, aber dann bin ich wieder etwas froh dass meine Ampere noch so gut dasteht.
Mit all der neuen Tech entfalltet sich Ada vielleicht noch in der Zukunft. Diese RT Optimierungen usw. muss ein Spiel erstmal einbauen damit zu sehen ist, was das bringt.
Klingt irgendwie wie ein Aprilscherzartikel.
ich habe neben mir eine sehr schnelle rtx 3090 liegen. sehr schnell innerhalb ihrer zunft. es ist ne strix oc von asus.. die meisten andern karten mit ampere gpu sind langsamer. die hatte ich schlappe 2 jahre im system. nirgends habe ich heute, nach einem tag mit einer deutlich schnelleren RTX 4090 das gefühl, dass ampere noch irgendwo gut dasteht.
(..)
mfg
tobi
unl34shed
2022-10-13, 22:36:00
Wird sich nur kein bisschen im unteren Ada Stack widerspiegeln, so sehr wie die 4080er bereits beschnitten sind scheint da und darunter Stillstand zu herrschen...
nirgends habe ich heute, nach einem tag mit einer deutlich schnelleren RTX 4090 das gefühl, dass ampere noch irgendwo gut dasteht.
Stimmt, der GA102 steht schon unwahrscheinlich schlecht da gegenüber AD102:
https://www.computerbase.de/2022-10/geforce-522-25-im-benchmark-treiber-beschleunigt-geforce-rtx-3000-zum-rtx-4090-start/
Irgendwie muss man sich halt die über 2000 EUR schönreden, die man ausgegeben hat ;D. Versteh mich nicht falsch, die 4090 ist eine brachiale Karte, schlecht steht Ampere aber definitiv noch nicht da.
w0mbat
2022-10-13, 23:09:08
Eine Frage: Nvidia nutzt ja weiterhin GDDR6X Speicher, welcher ja deutlich mehr Strom verbrauchen soll als normaler GDDR6.
Vor zwei Jahren war das für mich verständlich, Ampere nutzte 20Gbps G6X (@19,5Gbps) und RDNA2 hatte langsameren 16Gbps G6.
Jetzt gibt es aber schon deutlich schnelleren "normalen" G6, Samsung bietet hier bis zu 24Gbps an. Die 4090 nutzt G6X mit 21Gbps. Wieso setzt Nvidia weiterhin auf G6X? Gibt es hier keinen Unterschied mehr beim Verbrauch und Preis?
desthydh
2022-10-13, 23:24:40
Um 10:20 Uhr bestellt und nicht mal 3h später versandt. Soll am Samstag kommen :freak:
https://abload.de/img/uitzuqqfqt.jpg
Angeblich soll Mindfactory 600 Suprim in 30 Minuten verkauft haben :ulol:
Von welchem Shop das Bild stammt, weiß ich nicht. Aber so in etwa kann man sich das vorstellen :D
https://www.hardwareluxx.de/community/attachments/1665682674952-png.801942/
TobiWahnKenobi
2022-10-13, 23:34:22
und nicht zu vergessen die vielen millionen anderer partnerkarten, die nicht mehr aufs bild gepasst haben. jeder hat schon eine solche karte - nur du nicht. also kauf endlich!
(..)
mfg
tobi
ich habe neben mir eine sehr schnelle rtx 3090 liegen. sehr schnell innerhalb ihrer zunft. es ist ne strix oc von asus.. die meisten andern karten mit ampere gpu sind langsamer. die hatte ich schlappe 2 jahre im system. nirgends habe ich heute, nach einem tag mit einer deutlich schnelleren RTX 4090 das gefühl, dass ampere noch irgendwo gut dasteht.
(..)
mfg
tobi
Ampere ist Altmetall gegen Ada und sieht nirgends Land (außer die CPU limitiert). Aber gut ist GA102 natürlich trotzdem noch. ;)
MfG
Raff
Ex3cut3r
2022-10-13, 23:53:10
Was ja ganz normal ist, wenn eine neue GPU Gen kommt, wäre es nicht so, wurden die Hersteller was falsch machen.
Ich bleibe dabei, ich werde, Stand jetzt, nichts kaufen. :)
Tesseract
2022-10-13, 23:57:31
Nvidia nutzt ja weiterhin GDDR6X Speicher, welcher ja deutlich mehr Strom verbrauchen soll als normaler GDDR6.
tut er nicht. der verbrauch pro übertragenem bit ist nahezu identisch bzw. bei X sogar besser. der "höhere verbrauch" kam daher dass er anfangs einfach viel schneller war.
im detail hängt das aber natürlich auch davon ab wie die jeweiligen chips gefertigt sind. keine ahnung wo neuere non-X da gerade stehen aber die verbrauchen sicher auch deutlich mehr als ältere non-X weil sie auch einfach deutlich "mehr machen".
und nicht zu vergessen die vielen millionen anderer partnerkarten, die nicht mehr aufs bild gepasst haben. jeder hat schon eine solche karte - nur du nicht. also kauf endlich!
Jetzt wird's langsam peinlich. Nein, danke.
w0mbat
2022-10-14, 00:45:00
tut er nicht. der verbrauch pro übertragenem bit ist nahezu identisch bzw. bei X sogar besser. der "höhere verbrauch" kam daher dass er anfangs einfach viel schneller war.
im detail hängt das aber natürlich auch davon ab wie die jeweiligen chips gefertigt sind. keine ahnung wo neuere non-X da gerade stehen aber die verbrauchen sicher auch deutlich mehr als ältere non-X weil sie auch einfach deutlich "mehr machen".
Macht Sinn, danke für die Aufklärung!
just4FunTA
2022-10-14, 02:50:03
und nicht zu vergessen die vielen millionen anderer partnerkarten, die nicht mehr aufs bild gepasst haben. jeder hat schon eine solche karte - nur du nicht. also kauf endlich!
(..)
mfg
tobi
Dank meiner 6900XT kann ich mich diesmal entspannt zurücklehnen und beobachten wie sich das ganze entwickelt. Selbst wenn ich keine neue Graka kriege nicht so schlimm. Allerdings für 700€ hätte ich bei der 4080 16gb wohl zugegriffen.
Edgecrusher86
2022-10-14, 07:17:06
Von welchem Shop das Bild stammt, weiß ich nicht. Aber so in etwa kann man sich das vorstellen :D
Alter Schwede - wie da mal alleine im Bild 288 Karten herum stehen, wenn ich mich nicht verzählt habe - die Mauer geht sicherlich noch weiter.
Das sind mal eben über 600K €!!!! (Endkundenpreis inklusive MwSt.) ;D;D;D;D;D;D
WOW - ein schöner Supersportwagen in Grafikkarten! :freak:
Wenn das mal nicht direkt von MSI ist - vor dem Abtransport. :D
Was ja ganz normal ist, wenn eine neue GPU Gen kommt, wäre es nicht so, wurden die Hersteller was falsch machen.
Ich bleibe dabei, ich werde, Stand jetzt, nichts kaufen. :)
Als Hesse kenne ich die Bedeutung der Redewendung "Stand jetzt" nur zu genau. :freak:
Thunder99
2022-10-14, 07:25:16
Eine Frage: Nvidia nutzt ja weiterhin GDDR6X Speicher, welcher ja deutlich mehr Strom verbrauchen soll als normaler GDDR6.
Vor zwei Jahren war das für mich verständlich, Ampere nutzte 20Gbps G6X (@19,5Gbps) und RDNA2 hatte langsameren 16Gbps G6.
Jetzt gibt es aber schon deutlich schnelleren "normalen" G6, Samsung bietet hier bis zu 24Gbps an. Die 4090 nutzt G6X mit 21Gbps. Wieso setzt Nvidia weiterhin auf G6X? Gibt es hier keinen Unterschied mehr beim Verbrauch und Preis?
Kann fast nur Verträge mit Micron sein, welches die Speicher günstiger macht als von Samsung
Thunderburne
2022-10-14, 07:27:16
Hoffe meine Aorus Master geht heute früh aus Berlin auf den Weg so das die morgen Nachmittag da ist .
Das neue Corsair Kabel ist schon am HX1200i dran .
Alles noch mal nachgemessen Gehäuse Wand geht wohl noch zu bei dem Beast aber das 1000D ist ja auch riesig.
Wen die ganzen Tests stimmen werde vielleicht nach all den Jahren das erste mal eine Karte auf Luft lassen.
Sardaukar.nsn
2022-10-14, 07:28:54
@Edgecrusher86 Das ist nicht mal die Hälfte von dem was Mindfactory gestern in knapp 30 Minuten rausgehauen hat.
RoNsOn Xs
2022-10-14, 07:30:52
Welcher gottverlassene Typ baut denn da so ne krumme Mauer aus Grakas? Ohne auf Palette gestapelt zu sein, nur fürs Bild? Da muss jemand lange Weile gehabt haben, oder aber fake.
Edgecrusher86
2022-10-14, 08:15:03
@Edgecrusher86 Das ist nicht mal die Hälfte von dem was Mindfactory gestern in knapp 30 Minuten rausgehauen hat.
Na ob das immer so stimmt, was sie angeben - vielleicht zählt ja auch nur bezahlt und nicht ausgeliefert als "verkauft". ;)
Eine Frage: Nvidia nutzt ja weiterhin GDDR6X Speicher, welcher ja deutlich mehr Strom verbrauchen soll als normaler GDDR6.
Vor zwei Jahren war das für mich verständlich, Ampere nutzte 20Gbps G6X (@19,5Gbps) und RDNA2 hatte langsameren 16Gbps G6.
Jetzt gibt es aber schon deutlich schnelleren "normalen" G6, Samsung bietet hier bis zu 24Gbps an. Die 4090 nutzt G6X mit 21Gbps. Wieso setzt Nvidia weiterhin auf G6X? Gibt es hier keinen Unterschied mehr beim Verbrauch und Preis?
Also der VRAM ist offiziell für 23 Gbps spezifiziert - siehe RTX 4080 16GB (22,4 Gbps). Soviel säuft der G6X auch nicht mehr wie damals - Micron konnte die Spannung nun drücken. Ergo soll der VRAM nun gegenüber der 3090 Ti um 10 Grad kühler bleiben! Wenn Micron gute Preise macht, braucht NV ja nicht auf Samsung zu wechseln.
Ailuros
2022-10-14, 09:15:17
Wenn ich beide Augen zu den GPU Verkaufspreisen (generell) zudruecke, sind die Ada GPUs ausgezeichnet. High end Systeme mit solchen GPUs schreien leider nach leistungsfaehigeren CPUs, aber dafuer kann ein jeglicher IHV nicht die Entwicklung flach liegen lassen.
Bei so vielen Faellen wo Systeme mit ADA GPUs von der CPU Seite limitieren und anhand dass CB einen durchschnittlichen Unterschied von 3% Zusatzleistung von 350 zu 450W TDP gemessen hat, wuerde ich persoenlich so ein Tier im Normalverbrauch auf 350W limitieren.
AffenJack
2022-10-14, 09:25:04
Wenn ich beide Augen zu den GPU Verkaufspreisen (generell) zudruecke, sind die Ada GPUs ausgezeichnet. High end Systeme mit solchen GPUs schreien leider nach leistungsfaehigeren CPUs, aber dafuer kann ein jeglicher IHV nicht die Entwicklung flach liegen lassen.
Bei so vielen Faellen wo Systeme mit ADA GPUs von der CPU Seite limitieren und anhand dass CB einen durchschnittlichen Unterschied von 3% Zusatzleistung von 350 zu 450W TDP gemessen hat, wuerde ich persoenlich so ein Tier im Normalverbrauch auf 350W limitieren.
Bitte verallgemeinere nicht "Ada GPUs", denn eine 4090 ist tatsächlich eine TOP GPU und ich kann sogar den Preis in Relation verstehen. Bei den 4080ern wird es dagegen deutlich schwieriger vom Preis und auch beim Rest sollten wir erstmal Reviews abwarten.
Cubitus
2022-10-14, 09:38:51
Ampere ist Altmetall gegen Ada und sieht nirgends Land (außer die CPU limitiert). Aber gut ist GA102 natürlich trotzdem noch. ;)
MfG
Raff
Besonders mit dem neuen Treiber, gibt Ampere doch noch ordentlich boost :)
robbitop
2022-10-14, 10:23:19
Ampere ist Altmetall gegen Ada und sieht nirgends Land (außer die CPU limitiert). Aber gut ist GA102 natürlich trotzdem noch. ;)
MfG
Raff
AD103 und AD104 werden es da allerdings deutlich schwerer haben. Leider fehlt sowas wie es bei Ampere mit der 3080 gab. Eine Version, die grob auf 75-80% rankommt mit halbiertem VRAM die nicht gleich 2 Nieren und 1 Lungenflügel kostet.
Platos
2022-10-14, 10:47:24
Ampere ist Altmetall gegen Ada und sieht nirgends Land (außer die CPU limitiert). Aber gut ist GA102 natürlich trotzdem noch. ;)
MfG
Raff
Ich hoffe doch schwer, das du als Journalist irgendwie auch deine Leser tangierst, wenn die nächsten Ada-Karten getestet werden und dann auch auf P/L 'etwas" mehr Wert gibst, wie bei der 4090 und nicht den Nerd durchhängen lässt, der sich riesig auf neue, fettere Hardware freut - egal wie der Preis aussieht.
Ich vermisse nämlich irgendwie im PCGH-Test die Praxisrealität. Nirgendwo im Fazit auch nur eine Spur von "Die Karte liefert eig. kaum oder nur ein leicht besseres P/L in Rasterleistung als ne GTX 1070 von vor 6 Jahren (in Euro)."
Oder halt so ähnliche Vergleiche, die aufzeigen, wie absurd das ganze mit Ada ist.
Hat man als Journalist nicht sowas wie ein Ehrencodex in "Die Masse aufklären" oder so ähnlich :D ?
Timbaloo
2022-10-14, 11:02:00
Ich vermisse nämlich irgendwie im PCGH-Test die Praxisrealität. Nirgendwo im Fazit auch nur eine Spur von "Die Karte liefert eig. kaum oder nur ein leicht besseres P/L in Rasterleistung als ne GTX 1070 von vor 6 Jahren (in Euro)."
Auch wenn du das Beispiel immer wieder bringst wird es nicht sinnvoller.
- Inflation
- Kurs
- Herstellungskosten
- Äpfel-Birnen Vergleich aufgrund Faktoren Unterschied in der absoluten Leistung
Ich kack doch auch einen Bäcker nicht an, dass eine Brezel nicht mehr 10 Pfennig kostet.
Sardaukar.nsn
2022-10-14, 11:11:03
Bei so vielen Faellen wo Systeme mit ADA GPUs von der CPU Seite limitieren ...
Gerade im CPU Limit sollte doch DLSS 3 besonders interessant sein: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/
Troyan
2022-10-14, 11:14:09
Wir haben dieses Jahr 10% und nächstes Jahr vielleicht 7% Inflation. Alleine das macht ein Produkt von 700€ schon 124€ teurer.
Durch den schwachen Euro kommen da nochmal 17% oben drauf: +130€
Alleine in zwei Jahren ist ein 700€ Produkt also um 254€ teurer geworden. Deswegen ist Inflation eben auch etwas, was man sofort bekämpfen muss.
Platos
2022-10-14, 11:18:17
Auch wenn du das Beispiel immer wieder bringst wird es nicht sinnvoller.
- Inflation
- Kurs
- Herstellungskosten
- Äpfel-Birnen Vergleich aufgrund Faktoren Unterschied in der absoluten Leistung
Ich kack doch auch einen Bäcker nicht an, dass eine Brezel nicht mehr 10 Pfennig kostet.
Und das ändert jetzt.... was?
Der Job eines Tech-Journalisten ist es, einen potentiellen Kunden aufzuklären, wie viel er kriegt für sein Geld und wie lohnenswert das ist (wie gross ist die Steigerung zu dem, was ich schon habe).
Wodurch das entstanden ist (oder nicht), interessiert den Leser nicht. Er will wissen, wie viel mehr Rechenleistung kriege ich für's gleiche Geld. Die Enthusiasten sind die Minderheit. Die Techseiten haben wesentlich mehr Leser, wie Nutzer, die ständig schreiben. Das sind meist auch gerade die Enthusiasten.
Spielt also keine Rolle, was du sagst.
Den Kunden interessiert, wie viel Kriege ich für mein Geld. Nicht an was liegt es, dass ich für's selbe Geld nur wenig mehr kriege nach 6 Jahren. Die lesen nicht die PCGH, um in "Hardwareindustrie-Geschichte" unterrichtet zu werden.
Interessiert alles einen feuchten Furz.
PS: Und hört endlich auf mit dem Spruch von "Wer viel Geld ausgibt, dem ist Geld egal". Ne, ist einfach nicht so. Enthusiastenblase und so.
Tech-Journalistenseiten sind eig. zum Aufklären der Masse (die, die sich nicht auskennen) da und nicht um unter Nerds "den neuen Scheiss" zu präsentieren und sich daran aufgeilen.
Sardaukar.nsn
2022-10-14, 11:28:52
Wir haben dieses Jahr 10% und nächstes Jahr vielleicht 7% Inflation. Alleine das macht ein Produkt von 700€ schon 124€ teurer.
Durch den schwachen Euro kommen da nochmal 17% oben drauf: +130€
Alleine in zwei Jahren ist ein 700€ Produkt also um 254€ teurer geworden. Deswegen ist Inflation eben auch etwas, was man sofort bekämpfen muss.
Ich sehe schon die 5090er wird uns 500 Trilliarden Reichsmark kosten.
Spaß, aber wenn das so weiter geht wirst du in zwei Jahren vielleicht 3 Riesen auf den Tisch legen müssen :mad:
Timbaloo
2022-10-14, 11:36:41
Den Kunden interessiert, wie viel Kriege ich für mein Geld.
Klar, aber nicht im Vergleich zu einem nicht mehr vorhandenen Angebot, sondern im Vergleich zu anderen am Markt verfügbaren Angebote.
Du laberst einfach deinen Schwachsinn den ganzen Tag runter und lebst komplett an der Realität vorbei. Und machst dann raff und Co an weil sie deinen Bullshit nicht "aufgreifen". Lächerlich, geh mal raus, schau dir die Welt an.
Cyberfries
2022-10-14, 11:44:46
Klar, aber nicht im Vergleich zu einem nicht mehr vorhandenen Angebot, sondern im Vergleich zu anderen am Markt verfügbaren Angebote.
Deine Aussage ist zwar korrekt, Platos Kritik aber trotzdem berichtigt.
Bei Computerbase (https://www.computerbase.de/2022-10/geforce-und-radeon-preis-leistungs-verhaeltnis-am-ende-einer-generation/) hat die 4090 das schlechteste Preis-Leistungs-Verhältnis aller aktuellen Grafikkarten.
Beim Topmodell kann man das verschmerzen, bei den Brot-und-Butter-4080ern muss der Preis aber Beachtung finden.
arcanum
2022-10-14, 12:01:25
die karten am oberen ende waren immer überproportional teuer. bei nvidia ist das auch meist durch den aufschlag an speichermenge gerechtfertigt, weil die karte dadurch auch für content creator zur ersten wahl wird. die 4090 hat damit ihre daseinsberechtigung, auch für den aufgerufenen preis.
die 4080, vor allem die 12GB variante hingegen sind als enthusiastenkarten einfach absurd schlecht für den aufgerufenen preis - außer man setzt voll und ganz auf DLSS3 und gibt sich mit der eingeschränkten unterstützung bei spielen und den artefakten zufrieden.
Troyan
2022-10-14, 12:04:35
Wartet doch einfach mal ab. Ist erst Tag drei und hier wird schon wieder geheult.
Die 4090 ist mit Raytracing und Upscaling 4x schneller als die 6900XT. Die 6900XT kostete 1000€ zum Release. P/L hat sich also massiv verbessert.
Rasterizing-Spiele sind doch latte. Da benötigt man auch keine 4090, um in 1080p 360Hz zu erreichen.
Exxtreme
2022-10-14, 12:09:30
Rasterizing-Spiele sind doch latte. Da benötigt man auch keine 4090, um in 1080p 360Hz zu erreichen.
Also wenn ich mir die meist gespielten Spiele auf Steam anschaue ...
https://store.steampowered.com/charts/mostplayed
RZ ist immer noch beträchtlich wichtiger denn RT. Und ja, man braucht keine 4090 wenn man keine RT-Spiele spielt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.