Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Glaub ich nicht. Ich denke, es wird einen Refresh geben, bei dem die Chips eine Stufe runterrutschen z.T., denn es ist davon auszugehen, dass die Hersteller diesmal für die Chiplet-Monster länger, also bis 25, brauchen werden. Damit wäre die Speicherproblematik ja gelöst.
Die 4060Ti wird zerrissen von der Presse, aber ich denke, das NV das trotzdem durchziehen wird bis zum Refresh.
Deren Problem ist der bescheuerte Prosumer-Treiber, da man damit professionelle Karten teilweise mit Mainstream-Modellen substituieren kann. Das wird bei der 5k-Serie beendet werden aus meiner Sicht.
Exxtreme
2023-05-09, 10:29:14
Die 12GB sind vollkommen ausreichend. TLoU bleibt in 4K bei exakt 12GB nach der Patchrunde der letzten Wochen.
Ist nur ein Spiel. Welches man offenbar auch noch speziell für 12 GB optimiert hat. Ist sehr wahrscheinlich, dass andere Spiele solche Sonderbehandlung nicht bekommen.
Und man sollte auch bedenken, dass die 70er Karten zumeist in WQHD mit maximalen settings Verwendung finden. 8GB gab es halt schon in dritter Generation (2016-2021). Ich gehe davon aus, dass 12GB auch in zwei Jahren unterhalb 4K noch OK sein werden, mit hier und da kleineren Abstrichen (Hohe Details statt Ultra etwa). 16GB wird erst die 5070 / Ti sinnvoll nutzen können von der Rohrleistung her. Mal schauen, ob Jensen nicht doch noch mindestens eine weitere Generation mit 12GB plant. ^^
Der VRAM-Verbrauch zwischen WQHD und UHD ist marginal. Das sind ca. 54 MB Unterschied und macht den Kohl bei 12 GB nicht fett. Sprich, wenn 12 GB in UHD zu wenig sind dann werden sie es auch in WQHD sein.
BlacKi
2023-05-09, 10:32:21
Der VRAM-Verbrauch zwischen WQHD und UHD ist marginal. Das sind ca. 54 MB Unterschied und macht den Kohl bei 12 GB nicht fett. Sprich, wenn 12 GB in UHD zu wenig sind dann werden sie es auch in WQHD sein.
die zeiten, in denen die auflösung eine große rolle gespielt hat, sind vorbei.
heute braucht eine mainstream karte für fhd praktische dieselbe menge vram wie das toptiermodell in 4k.
Die 4060Ti wird zerrissen von der Presse, aber ich denke, das NV das trotzdem durchziehen wird bis zum Refresh.
ich denke, 8gb wird nirgendwo mehr über 200€ groß eine berechtigung mehr haben.
aufkrawall
2023-05-09, 10:38:59
Der VRAM-Verbrauch zwischen WQHD und UHD ist marginal. Das sind ca. 54 MB Unterschied und macht den Kohl bei 12 GB nicht fett. Sprich, wenn 12 GB in UHD zu wenig sind dann werden sie es auch in WQHD sein.
Du rechnest vermutlich einfach die Größe des Frame Buffers hoch, was überhaupt nicht aufgeht. Es sind real mindestens mehrere hundert MB Unterschied, oft eher >1GB.
Aber knapp auf Kante genäht ist es in 1440p dann trotzdem. TLOU soll extrem viele unterschiedliche Texturen haben, aber trotzdem ist es nur ein LastGen-Titel ohne RT & FG. Dass in Resident Evil bei VRAM-Knappheit ständig der Grafiktreiber crashen soll, sollte einem auch sehr zu denken geben. Zwar bei 8GB, aber das kann sich mit neuen Titeln auch schnell nach oben verschieben.
Troyan
2023-05-09, 10:45:54
Ist nur ein Spiel. Welches man offenbar auch noch speziell für 12 GB optimiert hat. Ist sehr wahrscheinlich, dass andere Spiele solche Sonderbehandlung nicht bekommen.
Die meisten Spiele brauchen nichtmal 10GB in 4K. Hier Age of Wonders 4: https://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/age-of-wonders-4-test-gpu-cpu
6GB in 4K.
Der VRAM-Verbrauch zwischen WQHD und UHD ist marginal. Das sind ca. 54 MB Unterschied und macht den Kohl bei 12 GB nicht fett. Sprich, wenn 12 GB in UHD zu wenig sind dann werden sie es auch in WQHD sein.
UHD hat mehr als die doppelten Pixel, ergo benötigt man auch höheraufgelöste Texturen. Es ergibt null Sinn Texturen für 1440p zu verwenden, die sich aufgrund der geringeren Pixelanzahl nicht rekonstruieren lassen.
aufkrawall
2023-05-09, 10:51:29
UHD hat mehr als die doppelten Pixel, ergo benötigt man auch höheraufgelöste Texturen. Es ergibt null Sinn Texturen für 1440p zu verwenden, die sich aufgrund der geringeren Pixelanzahl nicht rekonstruieren lassen.
Das ist schlichtweg völliger Blödsinn. Als ob die Matsch-Texturen, die man ständig vorgesetzt bekommt, das technisch Machbare von 1440p Render-Auflösung ausreizen würden. ;D
Exxtreme
2023-05-09, 11:03:42
Du rechnest vermutlich einfach die Größe des Frame Buffers hoch,
UHD hat mehr als die doppelten Pixel, ergo benötigt man auch höheraufgelöste Texturen. Es ergibt null Sinn Texturen für 1440p zu verwenden, die sich aufgrund der geringeren Pixelanzahl nicht rekonstruieren lassen.
Ja, ich rechne den Framebuffer hoch. Denn das ist so, es ist egal welche Auflösung man eingestellt hat, die Texturen werden so oder so in jeglicher verfügbaren Auflösung ins VRAM geladen. Denn die Bildschirmauflösung ist nicht das einzige Kriterium welche Variante einer Textur gerendert wird. Da kommen auch noch so Dinge ins Spiel wie Entfernung der Kamera zur Textur etc. Würde man versuchen das dynamisch zu ermitteln und dann bei Bedarf ins VRAM zu laden dann wäre das noch viel langsamer als das System-RAM als Texturspeicher zu nutzen. Letzteres geht ja schon seit dem AGP-Port. Macht nur niemand weil es langsam ist.
DrFreaK666
2023-05-09, 11:08:49
Die 12GB sind vollkommen ausreichend. TLoU bleibt in 4K bei exakt 12GB nach der Patchrunde der letzten Wochen.
Nun stell dir vor das Spiel hätte noch RT...
Troyan
2023-05-09, 11:13:50
Ja, ich rechne den Framebuffer hoch. Denn das ist so, es ist egal welche Auflösung man eingestellt hat, die Texturen werden so oder so in jeglicher verfügbaren Auflösung ins VRAM geladen. Denn die Bildschirmauflösung ist nicht das einzige Kriterium welche Variante einer Textur gerendert wird. Da kommen auch noch so Dinge ins Spiel wie Entfernung der Kamera zur Textur etc. Würde man versuchen das dynamisch zu ermitteln und dann bei Bedarf ins VRAM zu laden dann wäre das noch viel langsamer als das System-RAM als Texturspeicher zu nutzen. Letzteres geht ja schon seit dem AGP-Port. Macht nur niemand weil es langsam ist.
Dann muss der Spieleentwickler eben mehrere Sets an Texturen erstellen, wenn er es nicht dynamisch handhaben kann. Nichts rechtfertigt sinnlose Verwendung von Ressourcen, wenn Leute diese überhaupt nicht sehen können.
Nun stell dir vor das Spiel hätte noch RT...
Du meinst so wie Hogwarts, wo eine 7900XTX kaum schneller als eine halbteure 4070 ist? Besser nicht.
BlacKi
2023-05-09, 11:15:39
Nun stell dir vor das Spiel hätte noch RT...das wäre dann anders optimiert worden. das spiel hätte auch für 8gb optimiert werden können. die entwickler haben das aber absichtlich nicht.
man hätte das spiel auch für 16gb, oder 24gb optimieren können...
spiele von heute brauchen nicht einfach 12 oder 16gb vram. das sind einfach optimierungsziele, bzw. obergrenzen die sich der entwickler selbst steckt. und wenns kacke läuft, haben sie es nicht richtig optimiert.
Der_Korken
2023-05-09, 11:17:55
Der selbe Blödsinn wie bei Ampere(3060/3070) 4060TI mit 16 GB kommt, schätze 4070Ti bleibt bei 12GB.
https://videocardz.com/newz/nvidia-to-launch-geforce-rtx-4060-ti-8gb-this-month-16gb-model-planned-for-july
Nvidias Lineup:
Schnelle GPU
Genug Speicher
Fairer Preis
Such dir zwei aus :freak:
Palpatin
2023-05-09, 11:22:17
Die 12GB sind vollkommen ausreichend.
Ja ausreichend ist genau die Schulnote die ich der 4070 und der 4070ti geben würde.
Nvidias Lineup:
[LIST]
Schnelle GPU
Genug Speicher
Such dir eins aus :freak:
Habs korrigiert. :biggrin:
Troyan
2023-05-09, 11:25:16
Ja ausreichend ist genau die Schulnote die ich der 4070 und der 4070ti geben würde.
Naja, bestanden ist bestanden. :cool:
dildo4u
2023-05-09, 11:26:27
Dann muss der Spieleentwickler eben mehrere Sets an Texturen erstellen, wenn er es nicht dynamisch handhaben kann. Nichts rechtfertigt sinnlose Verwendung von Ressourcen, wenn Leute diese überhaupt nicht sehen können.
Du meinst so wie Hogwarts, wo eine 7900XTX kaum schneller als eine halbteure 4070 ist? Besser nicht.
Wo hast du das her Hogwarts nutzt das alte UE 4 RT was ok auf AMD läuft siehe auch Calisto Protokoll.
https://youtu.be/ZrO8dVaidUw?t=669
Exxtreme
2023-05-09, 11:27:19
Dann muss der Spieleentwickler eben mehrere Sets an Texturen erstellen, wenn er es nicht dynamisch handhaben kann. Nichts rechtfertigt sinnlose Verwendung von Ressourcen, wenn Leute diese überhaupt nicht sehen können.
Das müssen die Spieleentwickler nichteinmal. Das kann der Nutzer selbst tun indem er eine schlechtere Texturqualität in den Grafikoptionen wählt.
Aber wie gesagt, mir geht's darum, dass ein Auflösungswechsel kein Wundermittel ist gegen zu wenig VRAM. Da gibt es andere Optionen, die viel mehr Auswirkungen auf den VRAM-Verbrauch haben. Und mit einer sehr hohen Wahrscheinlichkeit auch nicht so eine massive Bildqualitätsverschlechterung nach sich ziehen wie eine niedrigere Auflösung. Denn oft ist das so, dass der Unterschied zwischen "Ultra" und "Sehr hoch" kaum zu sehen ist und eher eine psychologische Hürde ist.
DrFreaK666
2023-05-09, 11:27:30
...Du meinst so wie Hogwarts, wo eine 7900XTX kaum schneller als eine halbteure 4070 ist? Besser nicht.
Schön vom Thema abgewichen und gleichzeitig über AMD hergezogen.
Hab nichts anderes von dir erwartet
davidzo
2023-05-09, 11:41:14
Die 4060ti 16GB klingt wirklich nach der idealen Karte.
3070ti / RX6800 Leistung bei halbiertem Stromverbrauch und ohne Mankos bei der Zukunftstauglichkeit. Wenn die jetzt noch unter 400€ kostet würde ich sie sogar einer gebrauchten 3080 vorziehen. - Hat kein 10Gb VRAM problem, ist effizienter, leicht zu kühlen und die 20% die da zur 3080 an Leistung fehlen sind bei RT wieder drin bzw. mit DLSS3.
Leider ist damit die Karte so attraktiv dass nvidia sie vermutlich zu nah an der 4070 12G positionieren wird. Und dann wird es schwer nicht doch diese oder eben eine rx6800 im Abverkauf zu empfehlen für mehr bang for the buck.
Nvidias Lineup:
Schnelle GPU
Genug Speicher
Fairer Preis
Such dir zwei aus :freak:
Vermutlich sogar nur eins von drei. Wie ich nvidia einschätze wird die 4060ti weder schnell noch fair im Preis.
Aber man kann immer noch auf das beste hoffen.
Aber wie gesagt, mir geht's darum, dass ein Auflösungswechsel kein Wundermittel ist gegen zu wenig VRAM. Da gibt es andere Optionen, die viel mehr Auswirkungen auf den VRAM-Verbrauch haben. Und mit einer sehr hohen Wahrscheinlichkeit auch nicht so eine massive Bildqualitätsverschlechterung nach sich ziehen wie eine niedrigere Auflösung. Denn oft ist das so, dass der Unterschied zwischen "Ultra" und "Sehr hoch" kaum zu sehen ist und eher eine psychologische Hürde ist.
Danke dass das endlich mal einer sagt! Kann dem nur zustimmen, ich spiele lieber in 4K mit High Texturen als in WQHD mit Ultra Texturen und ersteres verbraucht meist weniger VRAM. Sogar Medium Texturen finde ich meistens noch besser als interpolierte matschige Pixelkanten. Und plötzlich reichen selbst die 8GB VRAM meiner 5700XT für das meiste und wenn nicht dann hat man immer noch FSR.
prinz_valium_2
2023-05-09, 11:48:48
Nvidias Lineup:
Schnelle GPU
Genug Speicher
Fairer Preis
Such dir zwei aus :freak:
Zwei?
Bekommst doch bei nVidia zur Zeit noch maximal immer eine von den drei Sachen^^
Wobei die 4090 schon genug Speicher hat
davidzo
2023-05-09, 11:53:20
Zwei?
Bekommst doch bei nVidia zur Zeit noch maximal immer eine von den drei Sachen^^
Wobei die 4090 schon genug Speicher hat
Ja, die 4090 erfüllt immerhin zwei Kriterien. Aber dafür ist die 4090 exorbitant teuer und auch wieder weniger effizient als der Rest vom Lineup.
1. Schnelle GPU
2. Genug VRAM
3. Fairer Preis
4. Effizient
pick any two.
Ich tippe bei der 4060ti auf 2. und 4.
3. wird es in dieser Gen von nv wohl erstmal nicht geben, das überlässt man dann AMD.
Einige der Entwickler, die MLID zu Gast hatte sagen ganz unverblümt, dass 4k-Texturen bisher kaum im Einsatz sind, für ein echtes 4k-Erlebnis aber unerlässliich sind. Man kann sich schon vorstellen, dass auch die 16GB nicht ewig reichen werden (und der Platz auf der PS5-SSD immer kanpper wird :D).
The_Invisible
2023-05-09, 12:29:56
Ja, die 4090 erfüllt immerhin zwei Kriterien. Aber dafür ist die 4090 exorbitant teuer und auch wieder weniger effizient als der Rest vom Lineup.
1. Schnelle GPU
2. Genug VRAM
3. Fairer Preis
4. Effizient
pick any two.
Ich tippe bei der 4060ti auf 2. und 4.
3. wird es in dieser Gen von nv wohl erstmal nicht geben, das überlässt man dann AMD.
4090 ist mit großen Vorsprung Flagship, da könnens das verlangen.
Eine 4060Ti mit 16GB wäre aber echt nett, <200W, gute Mittelklasse/RT Leistung, DLSS3, wäre die perfekte Sommer-Karte :D
aufkrawall
2023-05-09, 12:40:19
gute Mittelklasse/RT Leistung
Was soll an RT-Leistung < RTX 3080 gut sein? >500€ für 1440p DLSS Performance in 2023? Ich bin begeistert.
The_Invisible
2023-05-09, 12:48:52
Was soll an RT-Leistung < RTX 3080 gut sein? >500€ für 1440p DLSS Performance in 2023? Ich bin begeistert.
Naja alles relativ zur Leistungsaufnahme und AMD muss da je nach Game schon mit 7900XT Leistung auffahren.
dildo4u
2023-05-09, 12:50:13
Der Plan ist vermutlich sie ab 399 zu bewerben Aufpreis für 16GB 50€.
Bei 500€ bleibt sie eh liegen.
OgrEGT
2023-05-09, 12:51:49
NVIDIA bundles Diablo IV with GeForce RTX 40 series
https://videocardz.com/newz/nvidia-bundles-diablo-iv-with-geforce-rtx-40-series
4090-4070...
Dabei sind die Hardware Anforderungen jetzt nicht übertrieben hoch für 4k Ultra...
https://www.computerbase.de/2023-04/diablo-iv-blizzard-gibt-finale-systemanforderungen-bis-4k-bekannt/
aufkrawall
2023-05-09, 12:52:07
Naja alles relativ zur Leistungsaufnahme und AMD muss da je nach Game schon mit 7900XT Leistung auffahren.
In welchen Spielen der letzten 12 Monate soll das der Fall gewesen sein? In welchem Verhältnis steht das zur Raster-Leistung oder in Spielen, wo RT recht gut auf Radeon läuft?
Auch mit 16GB wäre eine 4060 Ti einfach nur lächerlich teuer für die gebotene Leistung...
DozerDave
2023-05-09, 13:01:03
Die Frage ist jetzt: Zieht AMD bei der RX 7600 mit 16GB VRAM nach?
dildo4u
2023-05-09, 13:01:56
Die Frage ist jetzt: Zieht AMD bei der RX 7600 mit 16GB VRAM nach?
7600 ist der Gegner der 4060 ohne TI.
davidzo
2023-05-09, 13:20:21
Die Frage ist jetzt: Zieht AMD bei der RX 7600 mit 16GB VRAM nach?
Mir würde es schon reichen wenn es Partnermodelle mit Clamshell mode gibt und die auch verfügbar sind. Von Sapphire gibt es eine 6500XT mit 8GB, nur leider ist die hierzulande nicht verfügbar und Reviews gabs dazu auch keine.
Bei den jetzigen fallenden Speicherpreisen nehme ich aber an wäre das für die Partner ein lukratives Geschäft, da sich eine 16GB Karte trotz der Hardwareflaute sehr gut verkaufen würde. Solange AMD also keine verbindlichen Vorgaben macht, kann man noch hoffen dass es auch von Navi33 16GB Karten geben wird.
AMD kann dafür ja einfach ne XT nachlegen. Die wird nicht ohne Grund ohne XT erscheinen.
Letztendlich werden die 8GB-Varianten reine OEM-Ware werden, egal ob Geforce oder Radeon.
dildo4u
2023-05-09, 13:43:14
GPU Anforderungen steigen allgemein kann sein das eine 4060 DLSS für 1080p braucht und 8GB ok sind, ich hätte wesentlich lieber 4070 mit 16GB.
tXyCrXww6p0
Das wird leider nicht passieren. Solange das reicht, bleiben die bei 12GB. Das ist halt die neue 3070.
Platos
2023-05-09, 14:14:17
GPU Anforderungen steigen allgemein kann sein das eine 4060 DLSS für 1080p braucht und 8GB ok sind, ich hätte wesentlich lieber 4070 mit 16GB.
https://youtu.be/tXyCrXww6p0
Der testet ja nicht mal low-settings in nem Spiel, dass vermutlich +90% genau da spielen...
dildo4u
2023-05-09, 14:17:55
Es geht um die Engine nicht das Game an sich es gibt noch keine anderen die man mit Lumen/Nanite benchen kann.
Stalker 2,Witcher 4,Hellblade 2 sind zukünftige AAA Games die diese Technologie nutzen.
The_Invisible
2023-05-09, 14:47:52
In welchen Spielen der letzten 12 Monate soll das der Fall gewesen sein? In welchem Verhältnis steht das zur Raster-Leistung oder in Spielen, wo RT recht gut auf Radeon läuft?
Auch mit 16GB wäre eine 4060 Ti einfach nur lächerlich teuer für die gebotene Leistung...
Gibt schon einige: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/
Jedenfalls wird alles unter 7900xt stark daran zu knappern haben in RT aber bin gespannt was AMD in dieser TDP Klasse bringt
Was zu beweisen war. Das ist eben auch alles alter Käse, der da getestet wird. MMn wird Lumen+Nanite weder was beim Speicherverbrauch noch bei der Last richten. Das wird pur in Optiik umgesetzt und die Spiele werden für die Konsole immer mehr auf 4k optimiert werden, was immer mehr Speicher brauchen wird. Also wer da Hoffnungen reinsetzt, dass die neuen Engines da Entlastung bringen werden ist da ziemlich sicher auf dem Holzweg. Das wird einfach erheblich besser aussehen.
Und wie stark AMD mit Lumen im Nachteil ist - bisher sieht es eher nicht danach aus. Auch ist AMD in seiner 7900-Präsentation viel auf UE5 eingegangen, ich denke, da wird die RT-Leistung kein großes Hindernis sein. Cyberpunk ist ein Ausreißer, keine Regel.
https://www.techpowerup.com/308390/nvidia-geforce-rtx-4070-variant-could-be-refreshed-with-ad103-gpu
Interessant: AD103 basierte 4070 aufgetaucht. Wäre doch ne einmalige Gelegenheit für ne zusätzliche 4070 mit 16GB :D.
Rampage 2
2023-05-09, 21:16:01
https://www.techpowerup.com/308390/nvidia-geforce-rtx-4070-variant-could-be-refreshed-with-ad103-gpu
Interessant: AD103 basierte 4070 aufgetaucht. Wäre doch ne einmalige Gelegenheit für ne zusätzliche 4070 mit 16GB :D.
Wie ist das eigentlich mittlerweile mit dem "echten" AD103-Full-Chip? Diese hatte ja ursprünglich 84 SMs, aber wegen einem HW-Bug können angeblich nur maximal 80 SMs wirklich genutzt werden. Besteht da noch eine Chance auf einen Fix? (Intel hatte ja auch damals versucht, den Haswell-TSX-Bug bei Broadwell zu reparieren...)
R2
Lurtz
2023-05-09, 21:52:00
Die 12GB sind vollkommen ausreichend. TLoU bleibt in 4K bei exakt 12GB nach der Patchrunde der letzten Wochen.
Ist ja klasse dass jetzt veröffentlichte Spiele nach mehreren Patchrunden gerade so eben in die VRAM-Ausstattung von 900€-GPUs passen, das stimmt doch zuversichtlich für die nächsten zwei Jahre :uup:
Ex3cut3r
2023-05-09, 22:05:07
Irgendwas was ich wohl falsch. Wie kommt man bitte über 8GB mit High Texturen (ich sehe keinen Unterschied zwischen High und Ultra) auf über 12GB?
Neuster Patch natürlich installiert.
Ultra Settings, außer Volumetrische Beleuchtung und Schatten auf High.
4K, DLSS Q 3.1.11 DLL mit Preset F.
https://abload.de/thumb/tlou-i_2023_05_09_21_dcedh.jpg (https://abload.de/image.php?img=tlou-i_2023_05_09_21_dcedh.jpg)
High vs Ultra Texturen:
https://abload.de/thumb/tlou-i_2023_05_09_22_qife6.jpg (https://abload.de/image.php?img=tlou-i_2023_05_09_22_qife6.jpg) https://abload.de/thumb/tlou-i_2023_05_09_22_codxb.jpg (https://abload.de/image.php?img=tlou-i_2023_05_09_22_codxb.jpg)
Wie ist das eigentlich mittlerweile mit dem "echten" AD103-Full-Chip? Diese hatte ja ursprünglich 84 SMs, aber wegen einem HW-Bug können angeblich nur maximal 80 SMs wirklich genutzt werden. Besteht da noch eine Chance auf einen Fix? (Intel hatte ja auch damals versucht, den Haswell-TSX-Bug bei Broadwell zu reparieren...)
R2
Wenn das so ist, braucht der wahrscheinlich ne neue Rev. Mal sehen, obs einen Refresh gibt. Soll ja angeblich ein 4nm-Chip mit 144SMs kommen, das könnte auch ne neue Rev. sein, kein BW.
Rampage 2
2023-05-09, 22:43:56
Wenn das so ist, braucht der wahrscheinlich ne neue Rev. Mal sehen, obs einen Refresh gibt. Soll ja angeblich ein 4nm-Chip mit 144SMs kommen, das könnte auch ne neue Rev. sein, kein BW.
Wenn Blackwell wirklich 3nm nutzen soll (was naheliegend ist, damit sie auch ein ausreichendes Leistungsplus vorweisen kann), dann wird ein LL-Refresh tatsächlich deutlich wahrscheinlicher, um die Lücke zu füllen. Die längere Atempause bis Blackwell kann Nvidia ja als Zeit nutzen, um eine gefixte Version des AD103 rauszubringen:)
Wie ist es eigentlich um die ominöse "RTX 4090 Ti" und um "Titan Ada" bestellt? Schon lange keine neue News mehr diesbezüglich gehört... ich hoffe nicht, dass nur Letztere mit dem vollen Chip antritt.
Von AD102 ist gar keine neue Revision nötig, da sie diesen Bug gar nicht aufweist;) (nur AD103 ist davon betroffen)
R2
https://youtu.be/l5IFhdxodpU
Red gat ein paar neue Details zusammengetragen. Ich glaube langsam wirklich, dass hier was durcheinander gegangen ist. Ich denke, hier wurden Informationen zum Refresh und zur BW vermischt. Das 144SMs ist einfach extrem verdächtig und dass sich Kimi so vertan hat mit den 4nm, spricht auch dafür...
Dural
2023-05-10, 11:29:05
Bug im AD103? Glaubt ihr doch nicht wirklich?
Der ist einfach Teildeaktiviert, weil sie sonst die vielen Teildefekten Chips nicht los werden. Genau deswegen kommt jetzt auch eine 4070 damit.
Mir war der AD103 schon immer ein Rätsel, jedenfalls so wie er derzeit verkauft wird, praktisch nur auf der 4080.
Deutlich sinnvoll wäre es gewesen den AD103 in abgespeckter Variante und low Takt als 4070Ti zu verkaufen.
Andere Variante wäre gewesen den AD103 ca. 11-12K Alu stark zu machen, da hätte man das Problem mit dem zu nahen AD104 auch nicht.
NV wusste wohl selber nicht so genau was sie da genau gemacht haben, siehe 4080 12G und 4080 16G...
BlacKi
2023-05-13, 22:52:27
stecker bricht durch druck vom sidepanel. also kein desoldering durch überhitzung, sondern materialermüdung durch gehausedeckel + hitze.
jFr0Hb_S9UU
Ex3cut3r
2023-05-14, 00:55:53
WTF. :freak:
Was war das für ein Case? Bzw. wie kann man bitte mit Gewalt eine Seitenwand draufdrücken, wenn man gleich schon merkt, es passt nicht?
Manche Leute sind echt merkwürdig, kaufen Sie eine 1200-1400€ Euro Karte, packen diese dann aber in ein 20 Jahre altes 30€ Gehäuse. :freak:
Mit dem CableMod Adapter wäre das nicht passiert :upara:
Leonidas
2023-05-14, 12:21:15
Wie ist das eigentlich mittlerweile mit dem "echten" AD103-Full-Chip? Diese hatte ja ursprünglich 84 SMs, aber wegen einem HW-Bug können angeblich nur maximal 80 SMs wirklich genutzt werden. Besteht da noch eine Chance auf einen Fix? (Intel hatte ja auch damals versucht, den Haswell-TSX-Bug bei Broadwell zu reparieren...)
In einem späteren Stepping - vielleicht. Aber die Frage ist eher: Wird nVidia das jemals nutzen wollen? Dafür wäre eine Super-Serie notwendig, denn für eine 4080Ti ist der Sprung von 76 auf 84 SM zu klein. 4080Ti wird eher AD102-basierend mit dreistelliger SM-Zahl.
KarlKastor
2023-05-14, 18:26:52
Warum sollten sie es nicht nutzen wollen? Mehr Performance bei gleichem Kosten ist immer willkommen. Und wenn der Nachfolger in N3E kommt, hat man eh noch viel Zeit die man mit Refreshs überbrücken kann.
Der Name ist Schall und Rauch, das ändert sich jede Generation. Nvidia will irgendwas zwischen 4080 und 4090 bringen? Dann passt 4080Ti prima.
Einen AD102 noch weiter abgespeckt hat hingegen gar keinen strategischen Wert für Nvidia. AMD hat da nichts zu bieten, man würde nur 4090 Verkäufe kannibalisieren. Oder man macht die ziemlich uninteressant, aber dann kann man es auch gleich lassen.
Einziger Grund wäre jede menge Dies, die nicht für eine 4090 taugen.
Wo kommt eigentlich das Gerücht mit dem AD103 Bug her?
Langlay
2023-05-14, 18:30:28
Einziger Grund wäre jede menge Dies, die nicht für eine 4090 taugen.
Davon sollte es nicht viele geben, die 4090 ist schon so positioniert, das quasi nicht viel vom Band laufen sollte das diese "Hürde" nicht nimmt.
Thunder99
2023-05-14, 19:38:12
In einem späteren Stepping - vielleicht. Aber die Frage ist eher: Wird nVidia das jemals nutzen wollen? Dafür wäre eine Super-Serie notwendig, denn für eine 4080Ti ist der Sprung von 76 auf 84 SM zu klein. 4080Ti wird eher AD102-basierend mit dreistelliger SM-Zahl.
Für Super Serie ist noch Platz, daher könnte gut sein, dass es als Refresh kommt 82-84SM für 4080Super mit 350W -> 10-15% schneller (auch Takt höher)
00-Schneider
2023-05-14, 20:21:48
In einem späteren Stepping - vielleicht. Aber die Frage ist eher: Wird nVidia das jemals nutzen wollen? Dafür wäre eine Super-Serie notwendig, denn für eine 4080Ti ist der Sprung von 76 auf 84 SM zu klein. 4080Ti wird eher AD102-basierend mit dreistelliger SM-Zahl.
Mir erschließt sich gerade nicht der mögliche Sinn einer solchen Karte. :confused:
BlacKi
2023-05-14, 20:35:07
wenn man die 4080ti genau in die mitte platzieren will, dann reicht ad103 nicht. wenn man nur bis zu 10% schneller sein will, dann reicht ad103 noch aus, die margen sind dabei natürlich höher. auf der anderen seite könnte man mit 20gb vram natürlich auch mehr verlangen.
ich denke aber, aktuell ist nv mit dem portfolio 4080 aufwärts aber ganz zufrieden.
basix
2023-05-14, 20:53:46
Ich hätte behauptet, dass Nvidia gar nicht mehr als AD103 bieten muss. Mit 379mm2, 16 GB und starker Performance ist Nvidia bei den Herstellkosten viel tiefer als bei AD102 und 20...24 GByte. 80 SMs (falls 84 SM vom Chip her nicht gehen), etwas mehr Takt bei GPU und Speicher und man ist in der Nähe von ~10% mehr Performance. Wird nicht prickelnd sein und ist deswegen Stand heute einfach nicht nötig. Und die 4080 ist afaik die am schlechtesten laufende Ada SKU. Tiefere Preise wären sinnvoller.
Nvidia würde mMn zudem eine 4090 Ti obenraus mehr nützen als eine 4080 Ti und selbst die ist hinsichtlich wirtschaftlichen Standpunkten fraglich. Ist halt einfach nicht nötig und maximierte Preise hat man bereits erreicht.
Thunder99
2023-05-15, 10:08:02
Preisrutsch von 4080 und tiefer um auf die 80Ti vorzubereiten sehe ich mögliches Scenario an. Ggf will Nvidia die besten AD103 Laptops vorenthalten.
Who knows was Nvidia noch plant für den Herbst
dildo4u
2023-05-15, 11:16:40
Die wird man sicherlich für Laptop abzweigen AMD hat nix im High-End, also statt 90% ist das 100% Nvidia.
Und alles unter diesen Chips hat 8GB und ist nutzlos.
4060 mit FG in CP77.
https://www.youtube.com/live/-uphDpdPRcE?feature=share&t=7559
Leonidas
2023-05-15, 11:22:30
Warum sollten sie es nicht nutzen wollen? Mehr Performance bei gleichem Kosten ist immer willkommen.
Jein. Wenn es keinen Platz im Portfolio gibt, gibt es keine extra Grafikkarte und diese Mehrperformance würde ungenutzt bleiben. Nur weil es der Chip kann, wird man es nicht zwingend nutzen.
Ein AD102 noch weiter abgespeckt hätte den Vorteil, dass man dreistellige SM bieten kann - wo der volle AD103 lange nicht mithalten kann.
Mir erschließt sich gerade nicht der mögliche Sinn einer solchen Karte. :confused:
Sinn der 4080Ti auf dreistelliger SM-Zahl? Nahezu Ersatz der 4090 mit allerdings kleinerer Speicherbestückung. Und damit mehr Platz an der Leistungsspitze für eine 4090Ti. Siehe Ampere.
KarlKastor
2023-05-15, 15:33:38
Warum kein Platz? Zwischen 4080 und 4090 ist eine große Lücke. Und +10% sind locker drin. Ansonsten kann man auch die 4080 auslaufen lassen, wenn man die salvage in anderen Produkten unterbringt.
Ansonsten verstehe ich deine Argumentation nicht. Dreistellige SM ist doch kein Selbstzweck, es braucht dort einen Grund.
Also entweder mehr verkaufte Grafikkarten oder höhere Preise. Die Preise würde.man gut drücken. Man müsste also erheblich mehr AD102 in Summe verkaufen. Halte ich eher für unwahrscheinlich, dass das mehr Gewinn verspricht.
Mehr Platz für ne 4090Ti braucht man nicht. Die ist noch viel Luft, bei der Beschneidung.
Verstehe nicht ganz den Verweis auf Ampere. Eine 3090Ti ist kaum schneller als ne 3090.
The_Invisible
2023-05-15, 16:40:45
4080 Ti könnte höchstens für Antwort auf ein AMD Refresh kommen, wäre ja fast aufgelegt mit 20GB, die Frage ist ob Nvidia sowas braucht/will, da kann man ja nur AD102 nehmen.
Wäre interessant wie gut die AD102 Produktion läuft, mit den 2000 weniger shadern auf der 4090 zum full chip hat man doch sehr viel Luft. Wenn genug Chips übrig bleiben wird man da sicher 4090Ti/Titan bringen, wahrscheinlich aber recht spät wie bei 3090Ti, da warte ich dann doch lieber gleich
noch ein halbes Jahr auf NvidiaNext
iamthebear
2023-05-16, 14:05:41
Eine Preissenkung der 4080 auf 1000$ bzw. 4070 Ti (inoffiziell) auf 750$ wäre sinnvoll. Damit würde man sich dem Preisniveau des Rests angleichen. Damit wäre segmentierungstechnisch wieder Luft zwischen der 4080 und der 4090.
AD102 sehr stark zu beschneiden wird wohl wenig Sinn ergeben. Was ich mir für eine 4080 Ti vorstellen könnte ist:
.) 116 SMs
.) 320Bit SI (damit auch die Dies mit teildefektem SI verwendet werden können
.) 20GB VRAM (senkt die Kosten)
.) 350W TDP
Die niedrigere TDP hätte den Sinn, dass für die AIBs Kosten bei PCB und Kühldesign sparen können bzw. sich die Käufer den Kauf von neuem Gehäuse + Netzteil sparen können.
Altehardware
2023-05-17, 11:01:42
Da die rtx406ti endlich ein 16gb Modell bekommt aber dieselbe bandbreite haben wird wie die 8gb Modell habe ich die sorge ob diese bandbreite nicht ausbremst.
Den mehr vram bringt nix wenn die gpu die daten nicht schnell genug berechnet bekommt.
Dazu mal ne Spekulation mit der rtx50 Serie die sicher ein rebrand bis refresh wird von ada
Demzufolge
rtrx5050 ad107 24sm 8gb
rtx 5060 ad106 34sm 16gb
rtx 5060ti ad104 46sm 16gb
rtx 5070 ad103 60sm 16gb
rtx 5070ti ad103 70sm 16gb
rtx 5070ti ad103 84sm 16gb
rtx 5080 ad102 112sm 24gb
rtx 5080ti ad102 128sm 24gb
rtx 5090 ad102 142sm 24gb
Lehdro
2023-05-17, 15:06:55
Da die rtx406ti endlich ein 16gb Modell bekommt aber dieselbe bandbreite haben wird wie die 8gb Modell habe ich die sorge ob diese bandbreite nicht ausbremst.
Den mehr vram bringt nix wenn die gpu die daten nicht schnell genug berechnet bekommt.
Mehr Bandbreite bringt dir aber genau Null wenn die Größe nicht ausreicht. Der Einbruch durch "zu wenig Bandbreite" wird wohl kaum den Unterschied zwischen spielbar und unspielbar machen, die Größe des VRAM aber sehr wohl.
Irgendwie erinnert mich diese Diskussion an "lol 8 Kerne @ only Dualchannel" von 2017 - war auch Humbug.
Thunder99
2023-05-17, 15:15:37
Was wäre wenn Nvidia mit GDDR6X kommt? Dann wäre die Bandbreiten-Problematik gelöst.
Weiter könnte ein beschnittener AD103 später auch als 4070(Ti)Super 16GB GDDR6 erscheinen.
Gibt so viele Möglichkeiten...
dildo4u
2023-05-17, 15:20:54
Angeblich liegen 200€ zwischen 4060 Ti und 4070 vermutlich will man die eine große Performance Lücke durch die geringe Bandbreite halten, was Sinn macht da 4070 als 1440p Karte und alles drunter vermutlich für 1080p vermarktet wird.
basix
2023-05-17, 16:54:45
2023: 4060 Ti, 8GB, >400 Euro, 1080p :freak:
Thunder99
2023-05-17, 17:22:03
Traurig, aber wohl war
iamthebear
2023-05-17, 17:27:36
Die 4060 Ti ist AD106. Der Die hat von sich aus nur 128 Bit. Da geht nicht mehr.
Das Problem, das ich bei Nvidia sehe ist, dass AD106 zwar nur mehr 1/6 der Shader von AD102 besitzt aber mit 200mm² immer noch 1/3 der Größe und das obwohl SI auch schon auf 1/3 beschnitten wurde, PCIe werden vermutlich auch nur 8 Lanes sein. Hier macht der IO Teil schon einen sehr großen Teil aus.
Auf der anderen Seite:
Navi33 hat verglichen mit Navi31 noch 1/3 der CUs. Diese sind zwar etwas abgespeckt was sich aber performancetechnisch anscheinend nicht groß bemerkbar macht und von der Fläche her ist man mit 200mm² ca. auf 1/2.6 obwohl der ganze Die in N6 gefertigt ist.
Nvidia schleppt anscheinend viel mehr Ballast herum was sie daran hindert kleine flächeneffiziente Dies zu produzieren.
Troyan
2023-05-17, 17:33:11
Natürlich schleppt nVidia mehr Ballast mit RT-Cores und Tensorcores mit sich rum. Dazu skaliert das Interface nicht im selben Maße.
Thunder99
2023-05-17, 17:49:42
+ Cache, was auch viel ausmacht
Troyan
2023-05-17, 17:56:01
Naja, da spart nVidia, weil man keinen L3 Cache hat.
mczak
2023-05-17, 18:16:25
Das Problem, das ich bei Nvidia sehe ist, dass AD106 zwar nur mehr 1/6 der Shader von AD102 besitzt aber mit 200mm² immer noch 1/3 der Größe und das obwohl SI auch schon auf 1/3 beschnitten wurde, PCIe werden vermutlich auch nur 8 Lanes sein. Hier macht der IO Teil schon einen sehr großen Teil aus.
AD106 hat doch genau 1/4 der SMs von AD102 oder habe ich da was verpasst? Dazu ist das Die auch (etwas) kleiner als 1/3 von AD102 - die Skalierung ist also nicht so schlecht.
Natürlich schleppt nVidia mehr Ballast mit RT-Cores und Tensorcores mit sich rum.
Das ändert nichts an der Skalierung der Chips, weil die schön brav mitskalieren (sind ja Teil der SMs).
Naja, da spart nVidia, weil man keinen L3 Cache hat.
Sowohl N33 wie AD106 haben 32MB, ob das jetzt L2 oder L3 ist spielt da keine grosse Rolle, und sowohl nvidia wie amd skalieren den schön proportional zur Breite des SI.
Troyan
2023-05-17, 18:18:17
Das ändert nichts an der Skalierung der Chips, weil die schön brav mitskalieren (sind ja Teil der SMs).
Es sind Transistoren, die es bei AMD nicht gibt.
Sowohl N33 wie AD106 haben 32MB, ob das jetzt L2 oder L3 ist spielt da keine grosse Rolle, und sowohl nvidia wie amd skalieren den schön proportional zur Breite des SI.
AMD hat zusätzlich einen L2 Cache zum L3 Cache.
iamthebear
2023-05-17, 19:25:20
Das Problem, das ich bei Nvidia sehe ist, dass AD106 zwar nur mehr 1/6 der Shader von AD102 besitzt aber mit 200mm² immer noch 1/3 der Größe
Vergesst was ich gesagt habe. AD106 hat 36 SMs. das ist 1/4. AD107 ist 1/6 :uhammer:
Troyan
2023-05-17, 19:51:05
$399 bzw. $499 sollen es für die 8GB/16GB 4060TI werden: https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-rumored-to-cost-399-8gb-and-499-16gb
davidzo
2023-05-17, 23:08:47
Die 16GB ist damit wie erwartet deutlich zu teuer fürs gebotene.
Aber gegenüber 349 für eine RX7600 klingen 399 für eine deutlich schnellere 4060ti schon nach einem super Preis-Leistungsverhältnis.
Altehardware
2023-05-18, 04:01:47
bei dem Preis von 500$ kann nvidia die rtx4060ti 16gb gleich vergessen
Da kann man sich gleich die rtx4070 für 600€ kaufen wenn die rtx4060ti 16gb 550€ kosten soll
ich wäre bei 449€ schwach geworden und das trotz vermutlich nur 44% schneller als meine rtx3060
maßgeblich wegen dxr.
Wenn nvidia Hirn hat müsste diese allen sku min 20gbps dazugeben. Was dann in +76% ergebe vs rtx3060 oder +20% rtx3060ti.
Nun ein refresh der Serie sehe ich als einzige Lösung an dafür.
Dafür wird aber der ad104 chip irgendwie überflüssig oder man setzt 24gb drauf
Zur Einordnung warum das ein problem ist
ad107 40$
ad106 45$
ad104 85$
ad103 105$
ad102 195$
18gbps 16gbit 7$
20gbps 16gbit 8$
24gbps 16gbit 10$
amd
n33 40$
n32 90$
n31 120$
n23 50$
n22 60$
n21 130$
Nvidia alte gen Produktion seit ende 2022 eingestellt.
ga107 20$
ga106 40$
ga104 60$
ga102 90$
TheGood
2023-05-18, 08:02:08
Die 16GB ist damit wie erwartet deutlich zu teuer fürs gebotene.
Aber gegenüber 349 für eine RX7600 klingen 399 für eine deutlich schnellere 4060ti schon nach einem super Preis-Leistungsverhältnis.
Redest du hier von hühner, eier, gold, silber oder von was für werten redest du hier?
Leonidas
2023-05-18, 08:26:00
Aber gegenüber 349 für eine RX7600 klingen 399 für eine deutlich schnellere 4060ti schon nach einem super Preis-Leistungsverhältnis.
Technisch stimmt das. Aber soll wirklich gegenüber einer beim P/L-Verhältnis schwachen Karte verglichen werden?
Rein praktisch sind $399 für die 4060Ti nichts anderes als folgendes: Der Wechsel von Ampere zu Ada hat ausgehend von 3060Ti für $399 und einer 3070 für $499 nunmehr eine 4060Ti mit einer mittigen Performance zu $399 hervorgebracht. Sprich der Generations-Gewinn liegt also bei $50 niedrigerem Preis und ca. 10% Mehrperformance. Ich sehe bereits die Innenstädte voll von rasenden Kaufwilligen ...
dildo4u
2023-05-18, 08:26:39
Die 16GB ist damit wie erwartet deutlich zu teuer fürs gebotene.
NV kann Preis setzen wie sie möchten 4070 sollte 660€ kosten.
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/4/
+100€ für zusätzliche 8GB sind komplett nicht tragbar.
dildo4u
2023-05-18, 11:20:35
Specs und Benchmarks zur 4060/Ti direkt von Nvidia.
https://videocardz.com/newz/nvidia-announces-geforce-rtx-4060-ti-at-399-rtx-4060-to-launch-in-july
Die 4060 ist ein Spezieller Witz 15 Tflops besser man sichert sich jetzt eine 3060(13 Tflops) wenn man unbedingt Nvidia will.
Beide Karten sollten vernichtende Reviews erhalten.
DrFreaK666
2023-05-18, 11:31:41
Für 400€ wäre die 4060Ti 16GB interessant
Edgecrusher86
2023-05-18, 11:35:46
Aha, laut NV also +92% Bandbreitenskalierung bei der 4060 Ti durch die 32MB L2 Cache. Das mag wohl hin kommen, denn ansonsten würden 4070 und 4070 Ti nicht so gut gegen GA102 bestehen trotz nur 504GB/s.
E: Ja, 399 wäre ein Top Preis für die 4060 Ti 16GB.
aufkrawall
2023-05-18, 11:37:17
Mit Medium-Texturen kann man auf der 4060 in Diablo 4 sogar FG einschalten. -> Kaufen, kaufen, kaufen!
Linmoum
2023-05-18, 11:37:28
Specs und Benchmarks zur 4060/Ti direkt von Nvidia.
https://videocardz.com/newz/nvidia-announces-geforce-rtx-4060-ti-at-399-rtx-4060-to-launch-in-july
Die 4060 ist ein Spezieller Witz 15 Tflops besser man sichert sich jetzt eine 3060(13 Tflops) wenn man unbedingt Nvidia will.
Beide Karten sollten vernichtende Reviews erhalten.
Die 4060 dürfte $299 kosten. Weniger Speicher als die 3060, dafür aber halt auch ~60W weniger Verbrauch. 110W vs. 170W finde ich in dem Segment - gerade in der heutigen Zeit - schon massiv. Straßenpreise werden sich nach ein paar Wochen auch nichts mehr nehmen, sodass die 3060 da nicht irgendeinen einen deutlich Vorteil hätte. Finde ich so pauschal gar nicht einfach zu beantworten beim Gesamtpaket, sofern Nvidia nicht plötzlich $349 ansetzt.
Das wird links und rechts für AMD klatschen, Nvidia wird hier machen können, was sie wollen. Bei AMD gibt's halt auch nur max. 8GiB.
dildo4u
2023-05-18, 11:41:43
Die 4050 muss auch noch ein Platz finden also mal abwarten ob wir wirklich 299$ für 4060 sehen, NV hat kein Problem dort Schrott zu verkaufen siehe 3050.
Ich bezweifle das die Erfolgreich war.
DrFreaK666
2023-05-18, 11:43:22
299€ für die 4060 halte ich auch für utopisch
Hatstick
2023-05-18, 11:47:32
nVidia mit seinem VRAM HickHack... hoffentlich ist das mit der 5000er Reihe vorbei und die 70er Karten bekommen zumindest gleich ihre 16GB drauf, was in ca. zwei Jahren immer noch ok sein sollte.
dildo4u
2023-05-18, 11:50:34
Das TDP allein sagt dir das die immer als Mobile Modelle geplant waren im High-End gibt es massive Unterschiede bei der 4060 dürften die gegen Null gehen.
Troyan
2023-05-18, 14:15:14
Aha, laut NV also +92% Bandbreitenskalierung bei der 4060 Ti durch die 32MB L2 Cache. Das mag wohl hin kommen, denn ansonsten würden 4070 und 4070 Ti nicht so gut gegen GA102 bestehen trotz nur 504GB/s.
E: Ja, 399 wäre ein Top Preis für die 4060 Ti 16GB.
Dann wäre es sinnvoller gewesen nur 96bit zu verbauen, aber dafür 12GB anbieten zu können. Die 4060 mit 110W sieht schon top aus.
Dovregubben
2023-05-18, 14:58:40
Natürlich schleppt nVidia mehr Ballast mit RT-Cores und Tensorcores mit sich rum. Dazu skaliert das Interface nicht im selben Maße.
Ballast ist das falsche Wort. Beides wird immer wichtiger und dedizierte Hardware ist wesentlich effizienter was Transistorverbrauch angeht.
dildo4u
2023-05-18, 15:08:37
So startet die Geforce RTX 4060 Ti 8GB am 24. Mai für offiziell 439 Euro und wird sich somit gegen die Radeon RX 6750 XT beweisen müssen. Die Geforce RTX 4060 Ti 16GB sowie die Geforce RTX 4060 (8GB) erscheinen erst im Juli und ergänzen die RTX 4060 Ti 8GB an beiden Enden. Nvidia nennt 549 Euro für die Geforce RTX 4060 Ti 16GB und 299 US-Dollar für die RTX 4060 - das läuft hierzulande auf 329 Euro hinaus, was deckungsgleich zur RTX 3060 12GB wäre. :lol:
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-8GB-Grafikkarte-279648/Specials/RTX-4060-Ti-Release-RTX-4060-kaufen-RTX-4060-Ti-16GB-1419925/
ocAi9y4n1UQ
cQPGh2L6rB0
Wer lieber liest: Jetzt offiziell: Geforce RTX 4060 Ti am 24. Mai, RTX 4060 und RTX 4060 Ti 16GB im Juli (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-8GB-Grafikkarte-279648/Specials/RTX-4060-Ti-Release-RTX-4060-kaufen-RTX-4060-Ti-16GB-1419925/) ;)
Diablo 4 gibt es hier übrigens nicht dazu.
MfG
Raff
Platos
2023-05-18, 15:27:56
Ballast ist das falsche Wort. Beides wird immer wichtiger und dedizierte Hardware ist wesentlich effizienter was Transistorverbrauch angeht.
Jo, allerdings wird die Hardware auch nicht voll ausgelastet beim Gaming. Wenn du AI gedöns machst, sind diese Cores nämlich der heilige Gral (5-10 Fache Perfomance) und da siehst du dann auch, wie viel Strom das frisst. Während dem meine (getweakte) 4070Ti bei Witcher 3 mit RT, mit DLSS und mit DLSS Framegen ~170Watt zieht, zieht sie bei AI-Upscaling 200-210Watt. Wobei das gleiche ohne die Cores zu nutzen dann aber auch nur 170Watt zieht. Also das deutet schon darauf hin, dass die im Gaming (momentan) noch ziemlich ungenutzt daliegen. Also zumindest werden die nicht voll ausgenutzt (ich rede von Tensorcores).
Ravenhearth
2023-05-18, 15:36:16
Nach fast 3 Jahren kommt man mit 15% mehr Perf/$ zum MSRP an... diese Generation ist ein schlechter Witz. Die Karte müsste 4060 heißen und $299 kosten, die aktuelle 4060 ist eigentlich eine 4050. Die Version mit 16GB ist auch viel zu teuer, für das Geld bekommt man eine 6800 XT :freak:
Linmoum
2023-05-18, 15:40:34
Überrascht mich, dass man hier so proaktiv vorgeht selbst bei GPUs, die erst im Juli erscheinen und sogar schon die Preise dafür nennt. War ja zuletzt eigentlich immer eher so, dass man sämtliche Details erst am Reviewtag einen Tag vor dem Marktstart bekommen hat.
Schon durch die nur ~110W (die 3060 lag hier noch bei ~170W) ändert sich bei der potentiellen Käuferschaft bei so einer 4060 sicher einiges. Das allein macht so eine Karte auf einen Schlag deutlich attraktiver. Weniger Speicher als beim (performancemäßigen) Vorgänger sind halt just Nvidia-things. Doof an der Sache ist halt, dass es nicht einmal eine Alternative von der Konkurrenz gibt, weil die auch nur 8GiB verbauen wird.
$299 ergeben beim aktuellen Marktgefüge Sinn. Ist einfach so. Muss man mit Leben, auch, wenn so ein 1xxmm² Die unter normalen Umständen noch weiter runtergehört. Leidiges Thema und es betrifft nicht nur Grafikkarten, zumal ja auch die Konkurrenz seine Produkte preislich nicht attraktiv(er) ausrichtet.
Ich bin gespannt, wie AMD reagiert. IMO bleibt da kaum noch Luft zum atmen für N33, weil man jetzt nicht einmal mehr den Speicher als Vorteil hat und auch beim Verbrauch deutet ja absolut gar nichts auf <150W hin. Auch, wenn ich mich in ein paar Tagen gerne korrigieren lasse.
TheGood
2023-05-18, 15:44:52
Überrascht mich, dass man hier so proaktiv vorgeht selbst bei GPUs, die erst im Juli erscheinen und sogar schon die Preise dafür nennt. War ja zuletzt eigentlich immer eher so, dass man sämtliche Details erst am Reviewtag einen Tag vor dem Marktstart bekommen hat.
Schon durch die nur ~110W (die 3060 lag hier noch bei ~170W) ändert sich bei der potentiellen Käuferschaft bei so einer 4060 sicher einiges. Das allein macht so eine Karte auf einen Schlag deutlich attraktiver. Weniger Speicher als beim (performancemäßigen) Vorgänger sind halt just Nvidia-things. Doof an der Sache ist halt, dass es nicht einmal eine Alternative von der Konkurrenz gibt, weil die auch nur 8GiB verbauen wird.
$299 ergeben beim aktuellen Marktgefüge Sinn. Ist einfach so. Muss man mit Leben, auch, wenn so ein 1xxmm² Die unter normalen Umständen noch weiter runtergehört. Leidiges Thema und es betrifft nicht nur Grafikkarten, zumal ja auch die Konkurrenz seine Produkte preislich nicht attraktiv(er) ausrichtet.
Ich bin gespannt, wie AMD reagiert. IMO bleibt da kaum noch Luft zum atmen für N33, weil man jetzt nicht einmal mehr den Speicher als Vorteil hat und auch beim Verbrauch deutet ja absolut gar nichts auf <150W hin. Auch, wenn ich mich in ein paar Tagen gerne korrigieren lasse.
VOr drei tagen schreibst noch die AMD bei 349 ist dead on arrival und hier sind 329 ok. Sorry, also du solltest aus deinem Schneckenhaus auch mal rauskommen.
Das Komplettpaket aller drei Grakas ist beschissen. Mehr gibts nicht dazu zu sagen und so wie es aussieht, wirds bei AMD nicht besser werden.
Wie gesagt Abverkauf der alten Grakas holen oder einfach warten, bzw. noch besser sicher ne Konsole kaufen und die Hersteller in Ihrem Gier ersaufen lassen.... Nur so lernen sie es.
Platos
2023-05-18, 15:46:18
AMD hat doch bisher 1A bewiesen, dass sie kein bisschen daran interessiert sind, faire Preise zu verlangen.
dildo4u
2023-05-18, 15:48:04
Überrascht mich, dass man hier so proaktiv vorgeht selbst bei GPUs, die erst im Juli erscheinen und sogar schon die Preise dafür nennt. War ja zuletzt eigentlich immer eher so, dass man sämtliche Details erst am Reviewtag einen Tag vor dem Marktstart bekommen hat.
Schon durch die nur ~110W (die 3060 lag hier noch bei ~170W) ändert sich bei der potentiellen Käuferschaft bei so einer 4060 sicher einiges. Das allein macht so eine Karte auf einen Schlag deutlich attraktiver. Weniger Speicher als beim (performancemäßigen) Vorgänger sind halt just Nvidia-things. Doof an der Sache ist halt, dass es nicht einmal eine Alternative von der Konkurrenz gibt, weil die auch nur 8GiB verbauen wird.
$299 ergeben beim aktuellen Marktgefüge Sinn. Ist einfach so. Muss man mit Leben, auch, wenn so ein 1xxmm² Die unter normalen Umständen noch weiter runtergehört. Leidiges Thema und es betrifft nicht nur Grafikkarten, zumal ja auch die Konkurrenz seine Produkte preislich nicht attraktiv(er) ausrichtet.
Ich bin gespannt, wie AMD reagiert. IMO bleibt da kaum noch Luft zum atmen für N33, weil man jetzt nicht einmal mehr den Speicher als Vorteil hat und auch beim Verbrauch deutet ja absolut gar nichts auf <150W hin. Auch, wenn ich mich in ein paar Tagen gerne korrigieren lasse.
Du hast mit den Modellen mit 8GB keine Chance die selben Details wie ein PS5 zu fahren daher sehe ich nicht wo der PC hier Konkurrenz Fähig ist.
Da setzt NV drauf das du an Steam gebunden bist für Neukunden ist es ein Witz.
Leonidas
2023-05-18, 15:50:20
gemäß nVidias eigenen Benchmarks (ohne FG, aber mit DLSS2 und RT unter FullHD):
4060 ist um +18,0% schneller als 3060-12G unter 7 Spielen
4060Ti-8GB ist um +13,3% schneller als 3060Ti unter 7 Spielen
4060Ti-16GB ist um +13,4% schneller als 3060Ti unter 7 Spielen
https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4060-4060-ti-samt-erster-performance-werte-offiziell
Linmoum
2023-05-18, 15:53:44
Du hast mit den Modellen mit 8GB keine Chance die selben Details wie ein PS5 zu fahren daher sehe ich nicht wo der PC hier Konkurrenz Fähig ist.Was ist das für ein sinnloser Vergleich? Am PC hast du schon alleine immer noch die Freiheit, auch eine solche Karte an einem 120Hz+ Monitor zu betreiben und sämtliche Spiele darauf (und damit) spielen zu können. Bei den Konsolen musst du auf entsprechende Presets durch die Entwickler oder irgendwann mal Patches hoffen.
Aber wenn du willst, dann wünsche ich dir viel Spaß mit einem 30fps Redfall an einer Xbox. Hail Konsolen! (ja, P/L ist bei denen deutlich besser als bei einem Gaming-PC. Gerade bei den Preisen in letzter Zeit. Aber Konsolen waren aus der Sicht schon immer attraktiver als teure Gaming-PCs, das ist keine neue Entwicklung. Dass sowas wie DLSS(+FG) fehlt, kommt noch erschwerend hinzu. Auf Konsolen gibt's ja nicht mal FSR2 in der Form wie am PC. Ein totales Trauerspiel.).
Ravenhearth
2023-05-18, 15:57:48
Aber wenn du willst, dann wünsche ich dir viel Spaß mit einem 30fps Redfall an einer Xbox. Hail Konsolen!
Ist jetzt nicht so als würde das auf einem günstigen PC mit Zen 2 o.ä. bedeutend besser laufen :redface:
Man kann es auch so sehen: Ende 2020 hoffte man auf eine RTX 3070 16GB. Die kam nicht - dafür nur der Ti-Schrott. Die RTX 4060 Ti 16GB entspricht der ersehnten RTX 3070 16GB, mit 20 Prozent höherer Effizienz plus allen Ada-Errungenschaften rund um Raytracing und Frame Generation. Sicher, vor 2,5 Jahren wäre schöner gewesen, aber sobald die Ti/16G bei 500 Euro landet, gibt es da wenig zu überlegen, denn das ist ein schönes, zukunftssicheres Päckchen.
MfG
Raff
TheGood
2023-05-18, 16:02:51
Die Realität schaut aber bei den letzten AAA titeln eher so aus.
Auf der Konsole läufts einwandfrei, auf dem PC läufts beschissen.
Der Graifkunterschied ist marginal, wenn man es mit TOP Grakas vergleicht. Wenn man es mit den hier vorgestellten vergleicht wirds wohl sogar schlechter sein... und dann läufts auch nur ordentlich auf 1080P Auflösung.
Dazu interessiert 80% der Spieler sich nicht für höhere Frames als 60 FPS. Das ist auch so eine PC HighEnd Mär die im Massenmarkt nicht zählt.
Wenn AMD und NVIDIA so weitermachen, schaffen sie sich selbst im Gaming Bereich ab und das wird in die Nische wandern und noch teurere werden.
Vielleicht ist das ja auch das ziel, denn das Geld verdienen beide Hersteller hauptsächlich inzwischen woanders.
dildo4u
2023-05-18, 16:05:51
Was ist das für ein sinnloser Vergleich? Am PC hast du schon alleine immer noch die Freiheit, auch eine solche Karte an einem 120Hz+ Monitor zu betreiben und sämtliche Spiele darauf (und damit) spielen zu können. Bei den Konsolen musst du auf entsprechende Presets durch die Entwickler oder irgendwann mal Patches hoffen.
Aber wenn du willst, dann wünsche ich dir viel Spaß mit einem 30fps Redfall an einer Xbox. Hail Konsolen! (ja, P/L ist bei denen deutlich besser als bei einem Gaming-PC. Gerade bei den Preisen in letzter Zeit. Aber Konsolen waren aus der Sicht schon immer attraktiver als teure Gaming-PCs, das ist keine neue Entwicklung. Dass sowas wie DLSS(+FG) fehlt, kommt noch erschwerend hinzu. Auf Konsolen gibt's ja nicht mal FSR2 in der Form wie am PC. Ein totales Trauerspiel.).
Die haben zu großen Teilen die selbe Games daher ist es vergleichbar PS5 stellt gerade Rekorde auf und PC Gameing hat massive Verluste.
Und PC Gameing war relativ gesehen imo nicht so überteuert wie jetzt, du kannst CPU Performance oft nicht so skalieren wie GPU Performance und der Sprung von Jaguar auf Zen 2 ist massiv.
Cross-Gen Games gehen auf einem aktuellen i3 z.b ok, Jedi Survivor eher nicht.
TheGood
2023-05-18, 16:07:11
Man kann es auch so sehen: Ende 2020 hoffte man auf eine RTX 3070 16GB. Die kam nicht - dafür nur der Ti-Schrott. Die RTX 4060 Ti 16GB entspricht der ersehnten RTX 3070 16GB, mit 20 Prozent höherer Effizienz plus allen Ada-Errungenschaften rund um Raytracing und Frame Generation. Sicher, vor 2,5 Jahren wäre schöner gewesen, aber sobald die Ti/16G bei 500 Euro landet, gibt es da wenig zu überlegen, denn das ist ein schönes, zukunftssicheres Päckchen.
MfG
Raff
Bei dem Preis aber nichts für den Massenmarkt... und völlig überteuert, ich weiss gar nicht woher die Käufer in der heutigen Zeit dafür kommen sollen....
DAs ist wie mit der Wärmepumpe, da hat auch schnell mal jeder 30000 bis 50000 Euro (je nach abzocker Heizungsbauer) übrig (achtung ironie). Selbst bei 50% Förderung ist das kein Schnäppchen... Aber das ist etwas was lebensnotwendig ist.
Der Euro UVP ist übrigens 549. Wenn der zwei wochen nach release nach unten fällt weiss man was sache ist. Keiner interessiert sich für das Teil.
Bei dem Preis aber nichts für den Massenmarkt... und völlig überteuert, ich weiss gar nicht woher die Käufer in der heutigen Zeit dafür kommen sollen....
DAs ist wie mit der Wärmepumpe, da hat auch schnell mal jeder 30000 bis 50000 Euro (je nach abzocker Heizungsbauer) übrig (achtung ironie). Selbst bei 50% Förderung ist das kein Schnäppchen... Aber das ist etwas was lebensnotwendig ist.
Der Euro UVP ist übrigens 549. Wenn der zwei wochen nach release nach unten fällt weiss man was sache ist. Keiner interessiert sich für das Teil.
Der Pumpenvergleich hinkt eigentlich an jeder Stelle. :ugly: Für den Massenmarkt ist die RTX 4060, welche hierzulande circa 330 Euro kosten wird.
MfG
Raff
amdfanuwe
2023-05-18, 16:20:22
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Linmoum
2023-05-18, 16:21:06
Viele Leute sind auch in der aktuellen Zeit bereit, für ihr liebstes Hobby (viel) Geld auszugeben. Was so eine 4060 halt zusätzlich noch attraktiv macht, sind die nur etwas über 100W an Stromverbrauch. Wenig Abwärme, kompakte Bauweisen, extrem sparsam. Das zieht gerade im "Mainstream" IMO mehr als nur die reinen fps. Dank DLSS braucht man in der Hinsicht sowieso keine Angst haben, wenn man auch aktuelle(re) Titel spielen will.
dildo4u
2023-05-18, 16:26:39
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Die Investoren wollen bei Jeder Generation eine Steigerung sehen das heißt Nvidia lässt TSMC ordentlich produzieren irgendwann müssen diese Chips verkauft werden.
Siehe 4070 dort gab es direkt zum Launch mal Ebend 100$ Gutscheinkarten weil sie wie Blei im Regal liegen.
https://videocardz.com/newz/us-retailer-is-now-giving-away-100-steam-gift-cards-with-all-geforce-rtx-40-gpus
TheGood
2023-05-18, 16:26:47
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Schön du führst hier lauter Dinge auf die die meisten zum Leben brauchen :) Dann spart man halt bei dem was man nicht braucht. VIelleicht fällt der Groschen jetzt.
Ass die Preise übertrieben sind hat nur zum Teil mit der Inflation zu tun und zu einem große Teil mit der Gier mehr gewinn zu machen der Unternehmen. Das trifft auch sehr gut auf deine oben genannten PUnkte zu. Dazu müsste man sich halt auch etwa informieren, damit das nicht an einem vorbeigeht.
Inflation inst bei 7 % - 10 % aber bei Grakas sollen es 50 bis 100 % sein. Allein daran erkennt man, zumindest der der etwas rechnen kann, dass die Preise nichts mit den realen kosten zu tun haben. Noch besser an den Gewinnmargen der Unternehmen, was dann wieder den Kreis zur Gierinflation schließt. Man muss nur die Augen aufmachen.. (ja das gilt auch nicht bei allen, wie das halt immer so ist, aber bei der Masse passt das ganz gut)
TheGood
2023-05-18, 16:28:36
Viele Leute sind auch in der aktuellen Zeit bereit, für ihr liebstes Hobby (viel) Geld auszugeben. Was so eine 4060 halt zusätzlich noch attraktiv macht, sind die nur etwas über 100W an Stromverbrauch. Wenig Abwärme, kompakte Bauweisen, extrem sparsam. Das zieht gerade im "Mainstream" IMO mehr als nur die reinen fps. Dank DLSS braucht man in der Hinsicht sowieso keine Angst haben, wenn man auch aktuelle(re) Titel spielen will.
Warten wir mal die verkaufszahlen der nächsten Monate ab, für die 4070 und 4080 hat sich dieser Kreis massivst verkleinert... Wie auch für 7900 XT(X)
Bin mal gespannt wie es mit der 4060 serie dann aussehen wird und der trennt sich fortsetzt.
TheGood
2023-05-18, 16:31:07
Der Pumpenvergleich hinkt eigentlich an jeder Stelle. :ugly: Für den Massenmarkt ist die RTX 4060, welche hierzulande circa 330 Euro kosten wird.
MfG
Raff
Wir reden hier doch über eine 4060 TI für bis zu 549. Also 4060 war bisher immer schon der massenmarkt, wenn vermutlich auch am oberen Ende..
und gerade du willst doch eine 4060 8GB nicht gerade den leuten empfehlen im massenmarkt, welche gerade niccht das geld haben alle zwei jahre neu neue Graka zu holen?!? Langsam wirds aber komisch... vor allem weil ihr selbst set Jahren schon viel RAM propagiert und jetzt solls nicht mehr relevant sein....
OK, vielleicht hast du privat ne andre Meinung, sei dir gegönnt.
dargo
2023-05-18, 16:32:47
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Lebensmittel, Energie etc. sind überlebenswichtig, Grafikkarten nicht. Eher sehe ich aktuell einen schrumpfenden PC-Gaming-Markt. Was aber auch kein Wunder ist denn es gibt einfach keine Spiele als Zugpferde um den GPU-Verkauf ordentlich anzukurbeln. Für praktisch alle Spiele reicht auch die Generation 2020+ aus.
dildo4u
2023-05-18, 16:41:00
Und die Karten launchen im Sommer ein schlechteren Zeitpunkt gibt es eigentlich nicht, manchmal gab die Mainstream Karten in Januar/Februar.
Diesmal mussten sie warten damit Ampere abverkauft werden kann.
2060 Januar
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/
3060 Februar
https://www.computerbase.de/2021-02/geforce-rtx-3060-asus-msi-test/
MSABK
2023-05-18, 16:43:52
Bei Nvidia zieht halt das Image und die 4060 wird gut weggehen.
dargo
2023-05-18, 16:47:04
Und die Karten launchen im Sommer ein schlechteren Zeitpunkt gibt es eigentlich nicht, manchmal gab die Mainstream Karten in Januar/Februar.
Das kommt noch hinzu, schlechteste Jahreszeit für neue Hardware.
Bei Nvidia zieht halt das Image und die 4060 wird gut weggehen.
Du meinst so gut wie die 4070/4080? :lol:
dildo4u
2023-05-18, 16:48:33
Jede halbwegs kompetente Review sollte 3060 über 4060 empfehlen, schon 2060 zu 3060 war mäh aber es gab keine Degration beim Vram.
Troyan
2023-05-18, 16:50:16
Preisdiskussion, mal was neues hier.
Und nein, eine 3060 mit 60W bis 70W mehr Stromverbrauch ist bestimmt nicht eine bessere Karte als eine 4060. Bei der 4060TI sieht es dann schon wieder anders.
Linmoum
2023-05-18, 16:55:30
Jede halbwegs kompetente Review sollte 3060 über 4060 empfehlenIch zweifle jeden "seriösen" Reviewer an, der eine Karte mit ~60% höherem Verbrauch bei geringerer Performance und fehlendem FG empfiehlt. 4GiB mehr Speicher in dem Fall hin oder her. Bleibt ein absolut valider Kritikpunkt, man kann am Ende des Tages aber nicht ständig nur den Speicher als absolutes und endgültiges Totschlagargument für alles nehmen. Das ist nicht zielführend.
dildo4u
2023-05-18, 16:57:30
Das Verbrauchs Argument macht für die 4070 vs 3080 Sinn niemand braucht ein dickeres Netzteil oder ein neues Gehäuse für 4060 vs 3060.
Der zusätzliche Verbrauch ist bei 400 Watt fürs ganze System ein relativ geringer Anteil.
robbitop
2023-05-18, 16:59:59
Man kann es auch so sehen: Ende 2020 hoffte man auf eine RTX 3070 16GB. Die kam nicht - dafür nur der Ti-Schrott. Die RTX 4060 Ti 16GB entspricht der ersehnten RTX 3070 16GB, mit 20 Prozent höherer Effizienz plus allen Ada-Errungenschaften rund um Raytracing und Frame Generation. Sicher, vor 2,5 Jahren wäre schöner gewesen, aber sobald die Ti/16G bei 500 Euro landet, gibt es da wenig zu überlegen, denn das ist ein schönes, zukunftssicheres Päckchen.
MfG
Raff
So schnell wie 2,5 Jahre alter Mainstream für 500€. Ich hätte nie gedacht, dass das mal akzeptabel geschweige denn „gut“ sein sollte.
Die 60er SKU war eigentlich mal 299€ und eigentlich ist es eher eine umgelabelte 50er SKU.
Troyan
2023-05-18, 17:00:32
Die 3060 ist langsamer und benötigt 60W+ mehr. Die Karte hat nur dann ein Vorteil, wenn die 8GB (in 1080p) nicht mehr reichen.
Nun, wieviele Spiele benötigen mehr als 8GB in 1080p? Wieviele davon sind für Leute von Interesse, die sich eine $300 GPU kaufen?
Wir reden hier nicht von einer 3070 für $500, da kann man das als Argument bringen.
/edit: Fand die Grafik von nVidia ganz interessant:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-4060-4060ti/nvidia-geforce-ada-lovelace-memory-subsystem-performance-and-efficiency-improvements.png
Fragman
2023-05-18, 17:34:58
gemäß nVidias eigenen Benchmarks (ohne FG, aber mit DLSS2 und RT unter FullHD):
4060 ist um +18,0% schneller als 3060-12G unter 7 Spielen
4060Ti-8GB ist um +13,3% schneller als 3060Ti unter 7 Spielen
4060Ti-16GB ist um +13,4% schneller als 3060Ti unter 7 Spielen
https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4060-4060-ti-samt-erster-performance-werte-offiziell
Gilt das schon als Bankrotterklärung oder muss man dazu erst im Minusbereich landen? ;D
gnomi
2023-05-18, 17:35:40
Dieser Sommer wird entscheidend.
Nvidia versucht jetzt die Preise hoch zu halten und nochmal abzukassieren.
DLSS 3 und neuer Chip sind zwar toll, aber eben nicht, wenn man die Chips und den VRAM nach unten derart kastriert.
Wir haben keinen tatsächlichen Generationssprung abseits der 4090.
Hier ist es bald schon schwer, dem Kaufdrang nicht nachzugeben, weil wenigstens die Karte super ist und keine 2 Jahre Zeitverschwendung darstellt.
Als Kunde hoffe ich, sie gehen baden und müssen bei der nächsten Generation mal nachlegen.
Ansonsten kann man auf vier Jahre Haltedauer gehen.
Paar Watt mehr beim Spielen und nur 60-120fps per DLSS2 sehe ich als unproblematisch an.
Im Grunde ist ja eine 2080 nicht mal weit weg verglichen mit einer 4060TI 8GB.
dildo4u
2023-05-18, 17:40:55
Das einzige "PC" Game auf das ich heiß bin ist Diablo 4 rennt einwandfrei auf meiner 1070 ansonsten selbst 7 Jahre später kein dran erstaunlich.
dargo
2023-05-18, 18:13:25
Die 3060 ist langsamer und benötigt 60W+ mehr. Die Karte hat nur dann ein Vorteil, wenn die 8GB (in 1080p) nicht mehr reichen.
Nun, wieviele Spiele benötigen mehr als 8GB in 1080p? Wieviele davon sind für Leute von Interesse, die sich eine $300 GPU kaufen?
Wir reden hier nicht von einer 3070 für $500, da kann man das als Argument bringen.
/edit: Fand die Grafik von nVidia ganz interessant:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-4060-4060ti/nvidia-geforce-ada-lovelace-memory-subsystem-performance-and-efficiency-improvements.png
Was genau soll an der Grafik so interessant sein? Dass größere Caches Energie sparen? Breaking News.
Das einzige "PC" Game auf das ich heiß bin ist Diablo 4 rennt einwandfrei auf meiner 1070 ansonsten selbst 7 Jahre später kein dran erstaunlich.
Da Nvidia das Diablo-4-Bundle nicht auf die 60er ausweiten wird, brauchst du somit "zwingend" eine RTX 4070. :D
Was genau soll an der Grafik so interessant sein? Dass größere Caches Energie sparen? Breaking News.
Es geht um Speicherzugriffe. Im Kontext von L2$. Diese Zahlen hat Nvidia noch nie gezeigt, bisher hatten wir nur eine uralte Folie bezüglich RDNA 2/L3$.
MfG
Raff
dargo
2023-05-18, 18:17:18
Es geht um Speicherzugriffe.
:rolleyes:
Weniger Speicherzugriffe aufgrund größerer Caches, wieder ne mega Breaking News. :freak:
gnomi
2023-05-18, 18:17:54
Ist nochmal richtig selbstbewusst, dass sie Diablo 4 erst mit 70er Karten bundeln.
Ich bin echt mal gespannt. Wer ne brauchbare RTX Karte ab ~2070/3060 hat, kann erst mal lange weiterspielen.
10er Generation würde mir schon was fehlen. Trotzdem war die letzte GTX Generation eine gute. Habe auch noch ne 1080 und ne 1060 im Surface Book 2. Bezweifele aber, dass ich mit diesen GPU's noch Diablo 4, JA3 oder Baldurs Gate 3 spiele. Aber wahrscheinlich ginge das. :wink:
The_Invisible
2023-05-18, 18:24:18
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Bringt doch gleich den Autovergleich, warum fährt nicht jeder mit einem Dacia herum? Nein, ich sehe jeden Tag ziemlich viele neue teure premiumwagen herumfahren.
Ich find's eher witzig das in den Fachforen immer so herumdiskutiert wird über die Preise. Gibt's das in Autoforen auch und verweist dort auch jeder auf Dacia? :D
gnomi
2023-05-18, 18:30:46
Bei Autos regt sich auch jeder über steigende Preise und Luxus Strategien auf.
Gekauft wird trotzdem.
Allerdings zu 2/3 gewerblich und zumeist finanziert.
Voll bezahlt eher nur das Dream Car oder der praktische Gebrauchte. :wink:
maximus_hertus
2023-05-18, 18:59:16
Keine Überraschungen, im Prinzip ziemlich exakt wie erwartet.
4060 Ti 16G: preislich nahezu identisch mit Einsteiger 4070 Angeboten. Not gegen Elend (für den Preis). Man wird einen schlechten Kompromiss eingehen müssen, so oder so. Eine runde Empfehlung bei 550 Euro wird es wohl so nicht geben können.
4060 Ti 8G: 3070 Leistung zum exakten 3070 Preis mit ebenfalls 8GB. Man bekommt nach 30 Monaten eine etwas bessere Energieeffizienz und theoretisch tolle Fatures, die Dank der 8GB ggf. nicht wirklich sinnvoll nutzbar sein könnten. Next Gen hat sich wohl noch nie so mies angefühlt. Fühlt sich wie bei Intel 2010-2017 an.
4060 8G: Hier ist es egal, wie vel besser die Energieeffizienz zur 3060 ausfällt. Als Käufer fühlt es sich immer falsch an, wenn man weniger als vor 2 JAhren bekommt (8 statt 12G). Es bleibt immer ein Geschmäckle.
Positiv wird der geringe Verbrauch sein, nachdem es die Jahre davor doch teils sehr hoch gegangen ist. Auch hier: Intel Vibes.
Die 4060 Ti 16G als Vannilla 4060 (mit eben den 16G) für 349 USD / 399 Euro und man hätte ein rundes Produkt zum okayen Preis.
Die jetzige 4060 8G als 4050 8G für 229 USD / 259 Euro und man hätte auch hier ein vernünftiges Angebot.
Aber, hätte, hätte, die Realität ist eine andere. Schaun mr mal, was von AMD kommt. Ich befürchte, das wird eher schlimmer als besser.
Pumpi74
2023-05-18, 19:01:05
Das wird nach 20 Jahren die erste nVidia Grafikkartenarchitektur die ich auslasse. Als jemand der schon aus Prinzip keine neuen Spiele kauft ist FG völlig uninteressant. Der 3070Ti-Schrott wird mich locker bis zur 5000er Gen hinwegtrösten.
maximus_hertus
2023-05-18, 19:07:19
Immer diese Preisdiskussionen.
Wann wart ihr das letzte mal einkaufen? Lebensmittel, Energie, alles teurer geworden. Ich kann mich auch an Dieselpreise von 1€/Liter vor ein paar Jahren erinnern.
Wir haben Inflation, der Euro ist bald kaum noch die Hälfte Wert.
Was mal mit xx60 im 200€-300€ Bereich lag, rutscht jetzt halt auf 300€-500€.
Gilt das auch für RAM, SSD, CPUs, etc.? Oder gilt das Inflationsargument nur für GPUs?
DrFreaK666
2023-05-18, 19:26:12
Gilt das auch für RAM, SSD, CPUs, etc.? Oder gilt das Inflationsargument nur für GPUs?
Es gilt immer dann, wenn es passt ;)
Linmoum
2023-05-18, 19:59:55
Das hat überhaupt nichts mit "wenn es passt" zu tun. Intels Gewinn in der CCG-Sparte ist um 81% eingebrochen. Samsungs Konzerngewinn um satte 95%, Micron hat den größten Verlust der Unternehmensgeschichte eingefahren. Die Frage beantwortet sich schlicht von selbst.
Der Punkt ist vor allem, dass Nvidia den Markt dominiert und von 100 verkauften Grafikkarten 90 Stück von ihnen sind. Natürlich könnten sie, wenn sie wollten, auch die ganzen alten Ampere-GPUs massiv im Preis senken und die Karten verschleudern, wie es auf der anderen Seite aktuell bei RAM und Storage der Fall ist. Das macht da aber auch kein Unternehmen, weil es geil darauf ist, sondern weil es in dem Fall aktuell keine andere Möglichkeit gibt.
Zumal schnöde Desktop-Grafikkarten auch noch mal eine ganz andere Dimension sind, als die gesamte Speicherbranche. Ob du einer von gefühlten 152 Marktteilnehmern bist oder in einem Duopol den Ton angibst, ist noch mal was völlig anderes. ;)
Man dreht sich bei dieser Diskussion sowieso ständig im Kreis. Nvidia setzt diese Preise an, weil a) der Markt es hergibt und vor allem b) es nur einen "Konkurrenten" gibt und der ebenfalls keine Anstalten macht, am etablierten Preisgefüge "disruptive" zu sein. Der macht nämlich schön mit und ist froh, dass er für seine Produkte dadurch mehr Geld verlangen kann als u.U. initial geplant.
dildo4u
2023-05-18, 20:14:13
Das Diablo Bundle zeigt wie die Nachfrage aussieht, es ist sehr selten das du Games bekommst die zu den meist verkauften im Jahr zählen.
Das letzte davor war ein Overwatch Battlepass.
https://www.nvidia.com/de-de/geforce/campaigns/pc-game-bundle-overwatch-2-ultimate-battle-pass/
dargo
2023-05-18, 20:32:59
Man dreht sich bei dieser Diskussion sowieso ständig im Kreis. Nvidia setzt diese Preise an, weil a) der Markt es hergibt und vor allem b) es nur einen "Konkurrenten" gibt und der ebenfalls keine Anstalten macht, am etablierten Preisgefüge "disruptive" zu sein.
Der Markt gibt es nicht mehr her, wie man schön an den miesen Verkaufszahlen von Ada sieht. NV hat sogar die Produktion gedrosselt. Bin schon gespannt wie das bei der katastrophalen Nachfrage weiter gehen wird.
Lurtz
2023-05-18, 21:56:40
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
Schönes Gaslighting von nVidia ;D Die Karten sind absolut ausreichend dimensioniert... Wenn die Karte zu wenig VRAM für deinen Use-Case hast, hast du die Technik halt nicht verstanden und hättest mehr Geld für ein teureres Modell ausgeben müssen.
Ich glaube ich bleibe auf der 3070 sitzen und gönne mir lieber einen (überteuerten) PC-OLED :uup:
Exxtreme
2023-05-18, 22:23:33
Ja, und witzig ist wie sie auf FG als Wundermittel rumreiten obwohl die Verbreitung davon so winzig ist, dass selbst Homöopathie-Fans richtig neidisch auf so eine Verdünnung wären. Und sie verschweigen schön wie schlecht das in der Hinsicht auf den Inputlag sein kann wenn die GPU gefordert wird. Und bei einer 60er Karte erreicht man das GPU-Limit ziemlich schnell. FG ist eher was für die 80er und 90er Karten.
iamthebear
2023-05-18, 22:40:47
Das Problem an FG ist, dass dieses einen ziemlich heftigen Performance Overhead hat. Bei den Benchmarks mit der 4090 und CP2077 Pathtracing fällt das nicht so sehr ins Gewicht aber bei den kleineren Karten ohne RT wird das mehr und mehr uninteressant.
Hier einmal ein paar Benchmarks von CB zu der 4070:
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/2/#abschnitt_dlss_3_in_hogwarts_legacy_auf_der_rtx_4070
DLSS Quality mit FG ist kaum noch schneller als DLSS Performance ohne.
Jetzt wird man durch FG schon einmal deutlich mehr Verlust in der Bildqualität haben als wie wenn man von Quality auf Performance runter stellt.
Und dann wird zusätzlich noch der Input Lag um 76% höher.
Das wird mit der 4060 Ti nicht unbedingt besser werden.
crux2005
2023-05-18, 22:41:36
So schnell wie 2,5 Jahre alter Mainstream für 500€. Ich hätte nie gedacht, dass das mal akzeptabel geschweige denn „gut“ sein sollte.
Die 60er SKU war eigentlich mal 299€ und eigentlich ist es eher eine umgelabelte 50er SKU.
Eben. Verlieren die Leute langsam aber sicher jeglichen Bezug auf Realität?
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
Jetzt hauen sie ja richtig die Marketing Keule raus.
00-Schneider
2023-05-18, 23:03:50
DLSS Quality mit FG ist kaum noch schneller als DLSS Performance ohne.
Jetzt wird man durch FG schon einmal deutlich mehr Verlust in der Bildqualität haben als wie wenn man von Quality auf Performance runter stellt.
Öhm, dazu hätte ich gerne eine Quelle.
maximus_hertus
2023-05-18, 23:04:13
Das hat überhaupt nichts mit "wenn es passt" zu tun.
Klar, es ist korrekt, dass nV natürlich den Preis nehmen kann, den sie wollen. Marktwirtschaft halt und auch deine Ausführungen sind komplett richtig.
Die massiven Einbrüche (bei z.B. Intel) sind jedoch nicht durch die Inflation zu Stande gekommen. Das war ja das Argument, dass die GPU PReise Dank Inflation und Euroschwäche so sind, wie sie sind. Was der Euro mit USD MSRP zu tun hat ist mir .B: nicht klar und die Inflation müsste dann für ALLES gelten, aber irgendwie sind viele Bereiche des Hardwaremarktes so günstig wie nie (ja, das hat Gründe). Was ich sagen will, Inflation hat es immer gegeben, mal mehr, mal weniger und es hatte bisher nie eine Auswirkung auf GPU Preie. Dieses Argument halte ich daher für nicht korrekt.
Bisher hat nV Stück für Stück die Preise angepasst. Siehe =>
970 - 329
1070 - 379-449(FE)
2070 - 499
3070 - 499
4070 - 599
Bei Ada kommt aber zusätzlich noch dazu, dass nV die Hardware teils drastisch kastriert hat. Bishergab es substantiell mehr Performance (oder im Falle der 2070 mit RTX ein neues Main-Feature)
Die 4070 Ti hätte man als Vanilla 4070 für die 599 raus bringen müssen. Das wären immer noch +100 USD zur 3070, aber mit richtig viel mehr Performance und +50% VRAM.
Die 4080 16G hätte man im ersten Schritt für 899 USD bringen dürfen, also auch hier immerhin satte +200 USD im Vergleich zur 3080. Maximal 999 USD. Aber unter den wichtigen 1000 USD.
Hier hat nV imo den Fehler begangen, dass man sowohl beim Preis, als auch bei der Hardware zu viel auf einmal "gewagt" hat. Das eine neue 70er Karte unmittelbar nach Release einen mehr(!) als einen 4 wöchigen Lieferstopp erhält, gab es so wohl noch nie. Und das bei einer "modernen" nV GPU der Straßenpreis innerhalb von einem Monat um fast 100 Euro unterboten wird, ist auch krass.
Leider ist AMD nicht in der Lage da auch nur minimalen Profit zu schlagen und hat wohl seine eigenen sehr großen RDNA3 Probleme.
Die RTX 4060 Serie ist daher passend zur 4070 ziemlich "meh". Sei es Hardware oder Preise (dort wo die Hardware passt).
Man kann nur hoffen, dass Navi 32 was wird, jedoch habe ich da nur sehr wenige Hoffnungen. RDNA3 scheint eine Gen zu sein, in der AMD nur irgendwie "durch" kommen muss und man vor RDNA4 wohl nichts "disruptives" mehr erwarten kann. Und selbst das ist ja nicht in Stein gemeißelt, RDNA4 müsste auch erstmal zeigen, dass es passt.
Troyan
2023-05-18, 23:05:12
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
Schönes Gaslighting von nVidia ;D Die Karten sind absolut ausreichend dimensioniert... Wenn die Karte zu wenig VRAM für deinen Use-Case hast, hast du die Technik halt nicht verstanden und hättest mehr Geld für ein teureres Modell ausgeben müssen.
Ich glaube ich bleibe auf der 3070 sitzen und gönne mir lieber einen (überteuerten) PC-OLED :uup:
Absolut korrekt. Wie man an Naughty Dog gesehen hat.
Lurtz
2023-05-18, 23:16:44
Absolut korrekt. Wie man an Naughty Dog gesehen hat.
Ein Großteil des Lineups hat wieder eine zu geringe VRAM-Bestückung, egal hinter wie viel Technik-Blabla nVidia das verstecken will.
Troyan
2023-05-18, 23:20:47
Ein Großteil des Lineups hat wieder eine zu geringe VRAM-Bestückung, egal hinter wie viel Technik-Blabla nVidia das verstecken will.
Genau, weil das ist wichtig. Nicht, ob die Spiele vernünftig optimiert sind. Unoptimierter Rotz spielt man ja so gerne. ;D
Hier, The Last of Us in 1440p mit High-Prest auf einer 3060TI: https://youtu.be/2j8p5JIVSw4?t=423
7,2Gb. Wahrscheinlich geht auch Ultra mit High-Texturen (gibt ja kein Unterschied zu Ultra). Besseres Erlebnis als mit einer Series S und kaum schlechter als die PS5 im Performance-Modus.
DrFreaK666
2023-05-18, 23:23:02
Nvidia versteckt es nicht mal
https://abload.de/img/screenshot_20230518_2syc22.jpg (https://abload.de/image.php?img=screenshot_20230518_2syc22.jpg)
Kein Zufall, dass diese zwei Spiele bei der 8GB 4060 nicht mit maximalen Details laufen
Lurtz
2023-05-18, 23:23:55
Die Anforderungen von Spielen kann man nicht ändern, außer sie nicht zu kaufen, die Hardware kann man sehr wohl adäquat bestücken.
Schon komisch, dass unoptimierter Rotz dich angeblich nicht interessiert, du dann aber seit Monaten The Last Of Us durch jeden zweiten Hardware-Thread schleifst. Muss ein echtes Trauma ausgelöst haben.
Aber klar, 8 GB werden auf immer und ewig reichen, alles andere ist unoptimierter Rotz, deshalb hat deine GPU auch 24 GB davon :rolleyes:
Asaraki
2023-05-18, 23:33:27
Eben. Verlieren die Leute langsam aber sicher jeglichen Bezug auf Realität?
Antithese : Der war nie da, es gab schlichtweg keine teuren Karten zu kaufen. Schon die erste Titan für 999 (iirc) war doch nur ein winziger Bruchteil eines Jahreslohns und gefühlt gab es damals ähnliche Argumente bezüglich völlig absurden Preisen.
Man könnte also sagen, zynisch, die Hersteller haben es bloß jahrelang verpennt ihren Gewinn wirklich zu maximieren und haben retrospektiv ihre Güter verschenkt.
Das ist der tolle Markt den sich ein Semmel wünscht. Take it or leave it.
Troyan
2023-05-18, 23:36:29
Die Anforderungen von Spielen kann man nicht ändern, außer sie nicht zu kaufen, die Hardware kann man sehr wohl adäquat bestücken.
Naughty Dog hat 1,5GB an VRAM wegoptmiert. Nun ist das Spiel mit 8GB in 1440p statt 1080p spielbar.
Kein Plan was du willst, aber offensichtlich kann man Spiele optimieren, dass die Anforderungen keine nonsense VRAM-Bestückung erfordern. :rolleyes:
maximus_hertus
2023-05-18, 23:43:27
Genau, weil das ist wichtig. Nicht, ob die Spiele vernünftig optimiert sind. Unoptimierter Rotz spielt man ja so gerne. ;D
Um es mit aller Deutlichkeit zu sagen: es ist mir als Kunden / Zocker komplett egal, warum das so ist.
Ich will einfach nur ein paar tolle, spannende Stunden erleben. Software ist immer am längeren Hebel, im Zweifel verhungert die Hardware. Das ist die Schuld der unoptimierten Software? Schön, aber davon kann ich mir nichts kaufen. Es hilft mir 0,0 wenn ich dann den Finger auf den Gameentwickler zeigen kann. Das Spiel läuft dann immer noch keinen Deut besser.
Die Realität war und wird wohl so sein, dass der VRAM Bedarf immer steigen wird und wohl niemals fallen. Bis einschließlich RTX 30 hat es einigermaßen gepasst, bei RTX 40 hat sich nV schlicht verkalkuliert. Preiserhöhung plus Downgrade bei der Hardware (die 70 ist z.B. eigentlich keine "70" von der Hardware her) plus doch mehr VRAM Bedarf als erwartet war eine toxische Mischung.
Nochmals: Ich will (wie wahrscheinlich sehr sehr viele) einfach meine 400 - 600 Euro ausgeben und dann 2-4 Jahre alles mit vernünftigen Details zocken können, ohne groß nachdenken / optimieren / hoffen zu müssen.
Edit: Es ist natürlich gut, dass es bei TLOU deutliche Verbesserungen gegeben hat, aber ich hatte im April (Ostern) meine freien Tage, ergo war der Zustand dort entscheidend (sicher auch bei vielen anderen). Ergo ist es jetzt nur bedingt wichtig, ob da nochmal massiv optimiert wurde oder ob das Spiel jetzt erst hätte raus kommen sollen. Es kam halt raus, wie es raus kam (wie mittlerweile fat alle Spiele) und die Anforderungen sind dann wie sie sind.
nV hat einfach eine Gen zu lang an 8G fest gehalten. 2023 mag es gerade so noch passen, also mal mehr, mal weniger. Aber spätestens 2024 könnte es zum Massaker kommen. Und dafür ist dann der Preis viel zu hoch. Krasse Preise mit Hochrisiko, dass die Investiotion im Rekordtempo ersetzt werden muss. Nicht wirklich attraktiv.
Troyan
2023-05-18, 23:50:09
VRAM Bedarf wird nicht mehr steigern, weil die Konsolen die Limitierung darstellen. Und wie man an TLoU sieht, reichen 8GB, um in 1440p mit 60FPS spielen zu können. Eine 329€ Karte ist hier also ein bisschen schlechter als eine 550€ PS5.
Und selbst abnormaler Bedarf wie in Jedi Survivor reichen noch nichtmal aus, um überhaupt keine Textur- und LoD-Probleme zu haben. Das bringt uns wieder zum Punkt, dass unoptimierter Rotz eben nicht abzeptabel ist, nur weil man mit genug Leistung und VRAM dagegen ankämpfen kann.
Lurtz
2023-05-18, 23:54:04
Der VRAM Bedarf steigt am PC auch innerhalb einer Konsolengeneration kontinuierlich an. Erst recht mit heavy Raytracing, wofür die Nvidia Karten ja angeblich wie gemacht sind. Umso absurder der VRAM Geiz.
Gerade genug dass es jetzt für lange Balken reicht und in zwei Jahren soll man dann neu kaufen.
maximus_hertus
2023-05-19, 00:00:16
VRAM Bedarf wird nicht mehr steigern, weil die Konsolen die Limitierung darstellen. Und wie man an TLoU sieht, reichen 8GB, um in 1440p mit 60FPS spielen zu können. Eine 329€ Karte ist hier also ein bisschen schlechter als eine 550€ PS5.
Und selbst abnormaler Bedarf wie in Jedi Survivor reichen noch nichtmal aus, um überhaupt keine Textur- und LoD-Probleme zu haben. Das bringt uns wieder zum Punkt, dass unoptimierter Rotz eben nicht abzeptabel ist, nur weil man mit genug Leistung und VRAM dagegen ankämpfen kann.
Darf ich dich zitieren? 2024? Da wird man dann sehen, was los ist.
Nochmal, mir als Zocker ist es schlicht egal, wer die "Schuld" hat (nV oder Spieleentwickler). Wenn ein Topgame raus kommt, will ich es zocken. In der Regel kommen viele Topgames zu den üblichen Feiertagen raus. Ergo ist es entscheidend, wie dort die Performance aussieht.
TLOU ist sicherlich nicht die Speerspitze der kompletten PS5 Gen. Da wird noch der ein oder andere (Grafik)kracher kommen und mit 8GB VRAM nicht mehr so toll laufen. Zusätzlich können die PC Versionen weitere Features / etc erhalten, die den VRAM Bedarf weiter steigen lassen könnten (nicht müssen, aber könnten).
Last, but not Least, es wird auch immer noch PC only Games geben, die unter umständen die Hardware noch mehr ausreizen.
Einfach bei der Next Gen KArte den VRAM um 33% zu verkleinern(!) ist nicht geil. Und bei den Speicherpreisen doppelt nicht zu erklären. Es macht einfach 0 Sinn. Also gar keinen Sinn. Für mich als Kunden.
Jupiter
2023-05-19, 00:03:39
Um es mit aller Deutlichkeit zu sagen: es ist mir als Kunden / Zocker komplett egal, warum das so ist.
Ich will einfach nur ein paar tolle, spannende Stunden erleben. Software ist immer am längeren Hebel, im Zweifel verhungert die Hardware. Das ist die Schuld der unoptimierten Software? Schön, aber davon kann ich mir nichts kaufen. Es hilft mir 0,0 wenn ich dann den Finger auf den Gameentwickler zeigen kann. Das Spiel läuft dann immer noch keinen Deut besser.
[...]
Nochmals: Ich will (wie wahrscheinlich sehr sehr viele) einfach meine 400 - 600 Euro ausgeben und dann 2-4 Jahre alles mit vernünftigen Details zocken können, ohne groß nachdenken / optimieren / hoffen zu müssen.
Edit: Es ist natürlich gut, dass es bei TLOU deutliche Verbesserungen gegeben hat, aber ich hatte im April (Ostern) meine freien Tage, ergo war der Zustand dort entscheidend (sicher auch bei vielen anderen). Ergo ist es jetzt nur bedingt wichtig, ob da nochmal massiv optimiert wurde oder ob das Spiel jetzt erst hätte raus kommen sollen. Es kam halt raus, wie es raus kam (wie mittlerweile fat alle Spiele) und die Anforderungen sind dann wie sie sind.
Nochmal, mir als Zocker ist es schlicht egal, wer die "Schuld" hat (nV oder Spieleentwickler). Wenn ein Topgame raus kommt, will ich es zocken. In der Regel kommen viele Topgames zu den üblichen Feiertagen raus. Ergo ist es entscheidend, wie dort die Performance aussieht.
TLOU ist sicherlich nicht die Speerspitze der kompletten PS5 Gen. Da wird noch der ein oder andere (Grafik)kracher kommen und mit 8GB VRAM nicht mehr so toll laufen. Zusätzlich können die PC Versionen weitere Features / etc erhalten, die den VRAM Bedarf weiter steigen lassen könnten (nicht müssen, aber könnten).
Beschwerst du dich auch bei Intel und AMD über die CPUs, weil sehr viele Spiele in letzter Zeit beim Laden von Gebieten ruckeln? Oder liegt es doch an den Spieleentwicklern?
Bisher sah ich kaum ein Spiel, was einen übetmäßigen VRAM-Bedarf rechtfertigt. Wenn ein Spiel mehr VRAM als Star Citizen oder Cyberpunk 2077 Path Tracing voraussetzt, wurde etwas bei der Speichernutzungsoptimierung falsch gemacht.
DrFreaK666
2023-05-19, 00:25:19
Naughty Dog hat 1,5GB an VRAM wegoptmiert. Nun ist das Spiel mit 8GB in 1440p statt 1080p spielbar.
Kein Plan was du willst, aber offensichtlich kann man Spiele optimieren, dass die Anforderungen keine nonsense VRAM-Bestückung erfordern. :rolleyes:
Du mit deinem TLoU :rolleyes:
Das hast natürlich zufällig übersehen...
https://abload.de/img/screenshot_20230518_2syc22.jpg (https://abload.de/image.php?img=screenshot_20230518_2syc22.jpg)
A Plague Tale ist ein NV-Titel!
ChaosTM
2023-05-19, 00:39:57
Die VRAM Politik seitens NV hat nur einen ..
Ihr Idioten* sollt so bald wie möglich eine neue Karte kaufen
* ich Idiot hab 1777 für 24Gb bezahlt.. auch ned besser
Slipknot79
2023-05-19, 01:37:14
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
crux2005
2023-05-19, 02:41:54
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
Ich würde es dir glaube falls du keinen 9900K mehr hättest, der wahrscheinlich von einem 5600X mit getuntem RAM geschlagen wird. Und spätestens von einem 5800X3D zerlegt wird.
iamthebear
2023-05-19, 03:22:15
Du mit deinem TLoU :rolleyes:
Das hast natürlich zufällig übersehen...
https://abload.de/img/screenshot_20230518_2syc22.jpg (https://abload.de/image.php?img=screenshot_20230518_2syc22.jpg)
A Plague Tale ist ein NV-Titel!
Das interessante daran:
Die 4060 Ti 16GB wurde in Ultra gebencht und hier brechen die 2060 Super und die 3060 Ti (jeweils 8GB) auch nicht stärker als die 4060 Ti ein. Von daher kann es nicht so schlimm sein.
Einmal abgesehen davon:
Wenn man schon bis auf 1080p runter gehen muss dann bricht auch die Welt nicht zusammen wenn man bestimmte Details von Ultra auf High zurückschrauben muss.
In der Leistungsklasse muss man halt schon bestimmte Abstriche machen.
Altehardware
2023-05-19, 05:55:53
Man stellt keine settings herunter bei einer neu gekauften gpu
Erst recht nicht bei nur 1080p
rentex
2023-05-19, 06:45:11
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
Ja tut es...warum nicht?
Hätte es nicht nötig, achte aber ziemlich drauf.
Fragman
2023-05-19, 07:03:31
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
Wenn man mehrere Hobbys hat muss man etwas jonglieren. :D
TheGood
2023-05-19, 08:27:16
Das hat überhaupt nichts mit "wenn es passt" zu tun. Intels Gewinn in der CCG-Sparte ist um 81% eingebrochen. Samsungs Konzerngewinn um satte 95%, Micron hat den größten Verlust der Unternehmensgeschichte eingefahren. Die Frage beantwortet sich schlicht von selbst.
Der Punkt ist vor allem, dass Nvidia den Markt dominiert und von 100 verkauften Grafikkarten 90 Stück von ihnen sind. Natürlich könnten sie, wenn sie wollten, auch die ganzen alten Ampere-GPUs massiv im Preis senken und die Karten verschleudern, wie es auf der anderen Seite aktuell bei RAM und Storage der Fall ist. Das macht da aber auch kein Unternehmen, weil es geil darauf ist, sondern weil es in dem Fall aktuell keine andere Möglichkeit gibt.
Zumal schnöde Desktop-Grafikkarten auch noch mal eine ganz andere Dimension sind, als die gesamte Speicherbranche. Ob du einer von gefühlten 152 Marktteilnehmern bist oder in einem Duopol den Ton angibst, ist noch mal was völlig anderes. ;)
Man dreht sich bei dieser Diskussion sowieso ständig im Kreis. Nvidia setzt diese Preise an, weil a) der Markt es hergibt und vor allem b) es nur einen "Konkurrenten" gibt und der ebenfalls keine Anstalten macht, am etablierten Preisgefüge "disruptive" zu sein. Der macht nämlich schön mit und ist froh, dass er für seine Produkte dadurch mehr Geld verlangen kann als u.U. initial geplant.
Am Ende wird genau deshalb der PC Gaming Markt durch das zerstört werden. Die Leute werden nochmehr auf die Konsolen auswandern, da gut und günstig. Genau das kriegen sie am PC Markt nicht mehr. DAs ist am Ende das Problem, dass auch irgendwann alle die trifft die es sich leisten können und WOLLEN.
Da kann man jetzt 8 GB noch so schönreden, wie es hier einige tun, aber es ist dem Kunden eine lange Nase gezeigt und wenn dann selbst noch erfahrene Publikationen damit anfangen, dann wirds echt schwierig...
PS: die Gewinneinbrüche bei Speicher haben wir alle paar Jahre, weil das angebot zu hoch ist und hat in der Regel nichts mit der inflation zu tun sondern mit den Wirtschaftsdaten und zu viel Produktion. Haetten wir im Graka markt ja auch schon zweimal dank Cryptomining... und ist jetzt im PC MArkt bei den CPUs auch nichts anders, dank corona. der 4-5 JAhresschnitt zum wechsel der CPU ist nunmal halt da und wird sich in zukunft auch immer weiter verlängern, vür die Leute die nur office machen. Im Endeffekt lebt der Laptopmarkt ur vom Leasing der Unternehmen, welche ihre Zeiträume auch weiter ausdehnen, weil es eben geht.
DrFreaK666
2023-05-19, 08:28:14
Das interessante daran:
Die 4060 Ti 16GB wurde in Ultra gebencht und hier brechen die 2060 Super und die 3060 Ti (jeweils 8GB) auch nicht stärker als die 4060 Ti ein. Von daher kann es nicht so schlimm sein...
Das ist seltsam. Ist das VRAM-Management bei der RTX4000 schlechter?
TheGood
2023-05-19, 08:28:53
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
Bie einem normaldenken Mensch spielt das imemr eine Rolle.
DAs Problem ist doch auch, dass man sich selbst "als nicht betroffen" sieht und drum sagt "Ach das interessiert mich nicht".
WEnn dann aber mal ne Top graka mit zu wenig speicher kommt, dann schreit man wie ein Bär...
Komisches Verhalten, das ich so nicht nachvollziehen kann.
Lurtz
2023-05-19, 08:36:04
Seit wann spielt Geld bei einem Hobby eine Rolle? Oo
Warum argumentierst du dann immer, 4k wäre nicht vernünftig? Ist mit einer 4090 doch kein Problem, gönn dir!
Was die Leute hier, die angeblich überhaupt keine Budgets haben, nicht begreifen ist, dass wenn der Gesamtmarkt schrumpft oder hardwaretechnisch so abgehängt ist, dass sich grafische Schmankerl am PC nicht lohnen, das sich das auch auf die Verfügbarkeit von Spielen und technischen Features am PC auswirkt.
Niemand programmiert Spiele für 4090-Besitzer (außer CDPR wenn nVidia sie dafür bezahlt), sondern für die Durchschnitts-Hardware da draußen...
Thunder99
2023-05-19, 08:48:51
Nvidia will ein höheres Preisniveau und das schlägt sich durch bis nach unten. Willkommen in der post-Corona Zeit :wink:
Finde es auch nicht gut aber hab dennoch eine Karte gekauft, da ich seit über 5-Jahre keine neue mehr gekauft hatte. In den Abständen sollten eventuell mehr Leute HW kaufen, kommt besser :)
Die 4060Ti mit 16GB, immerhin hat Nvidia die Kritik der Leute gehört und erst genommen. Ihre Marketing Folien sollen zwar zeigen, dass 8GB dennoch genug sind. Wer sicher gehen möchte darf aber zahlen und zur 16GB greifen. Die Folien zeigen das Optimum. Wie wir wissen schaffen das die wenigsten Entwickler umzusetzen :wink:
Daher gilt auch 2023: VRAM kann man nur ersetzen mit MEHR VRAM
Edgecrusher86
2023-05-19, 09:21:13
:confused:
Soll das eine Referenz zur Leistung und den VRAM der Karte darstellen? Frametime-Spikes und :mad: sind ja auch zu erkennen.
https://abload.de/img/colorful-geforce-rtx-87ehf.jpg
;D
Auf jeden Fall gibt es bald auch erstmals kleine Karten mit 1-2 Lüftern.
P.S.: Es handelt sich um eine Colorful GeForce RTX 4060 Ti Mini-V
Ja, ich wäre ja auch dafür, dass man so etwas als RTX 4050 (Ti) für deutlich unter 300 USD vermarktet, besser gar unterhalb 200 USD (wie früher) - da wären die 8GB noch längerfristig ok.
Troyan
2023-05-19, 09:33:35
Darf ich dich zitieren? 2024? Da wird man dann sehen, was los ist.
Musst nicht warten. Hier eine 1.300€ AMD Karte, die gerade mal 60FPS in 1080p schafft:
https://tpucdn.com/review/asrock-radeon-rx-7900-xtx-taichi-white/images/cyberpunk-2077-rt-1920-1080.png
https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi-white/33.html
Wir reden immer noch bei der 4060 um eine 300€ Karte. Da muss man Abstriche machen. Und für viele ist es nichtmal VRAM, sondern Leistung, die zum Reduzieren von Settings führt.
Exxtreme
2023-05-19, 09:39:09
Musst nicht warten. Hier eine 1.300€ AMD Karte, die gerade mal 60FPS in 1080p schafft:
https://tpucdn.com/review/asrock-radeon-rx-7900-xtx-taichi-white/images/cyberpunk-2077-rt-1920-1080.png
https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi-white/33.html
Wir reden immer noch bei der 4060 um eine 300€ Karte. Da muss man Abstriche machen. Und für viele ist es nichtmal VRAM, sondern Leistung, die zum reduzieren von Settings führt.
Cyberpunk 2077 ist auch eine Nvidia-Techdemo wo Nvidia-Mitarbeiter selbst Hand angelegt haben. Und dass die Konkurrenz da schlecht aussieht, das sollte nicht verwundern.
dildo4u
2023-05-19, 09:40:59
Die Grafik soll fürn PC sprechen das normale RT braucht 600€ für 1080p60fps?
Was heißt das man mit der 4060 von 720p Upscalen müsste und wir reden nicht von Overdrive.
Ich versteh eh nicht, warum das immer noch mit gebencht wird. Das Ergebnis weicht so stark von anderen Implementierungen ab... Sogar vom Witcher.
Thunder99
2023-05-19, 09:46:12
Es zeigt dennoch was derzeit möglich ist, an.
dildo4u
2023-05-19, 09:49:55
Es zeigt das es keine Zukunft hat da die Mainstream Modelle mehr als jemand vom High-End abgehängt werden.
Die nästen CDPR Games kommen deshalb mit Lumen was ordentlich auf 4060/7600 laufen wird.
DrFreaK666
2023-05-19, 09:54:19
In Troyans Welt gibt es nur TLoU und CP2077 :lol:
Es zeigt dennoch was derzeit möglich ist, an.
Vielleicht im PT-Modus, aber so? Nein. Es ist eine veraltete Implementierung.
Ghost1nTh3GPU
2023-05-19, 10:08:35
Nvidias Statement zum VRAM bei RTX 4060:
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
Das sollte doch alle Fragen beantworten.;)
Vergessen wir mal die modernen Speicherkrüppel ;) und sehen uns frische Zahlen zum wohl heftigsten Spiel an:
Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/)
Worstcase-Benchmarkszene (neu), frische Treiber und alles, was man so braucht. Die Ergebnisse sind wicked sick. Nvidia hat den Code derart handoptimiert, dass TU102 es mit Navi 31 aufnehmen kann. :uup:
MfG
Raff
Dovregubben
2023-05-19, 10:57:29
Es zeigt das es keine Zukunft hat da die Mainstream Modelle mehr als jemand vom High-End abgehängt werden.
Die nästen CDPR Games kommen deshalb mit Lumen was ordentlich auf 4060/7600 laufen wird.
Mal schauen, ob das nächste CDPR Spiel überhaupt auf irgendeiner jetzt aktuellen Mittelklasse vernünftig läuft. Vor 2026 rechne ich da mit nichts.
Exxtreme
2023-05-19, 11:24:01
Mal schauen, ob das nächste CDPR Spiel überhaupt auf irgendeiner jetzt aktuellen Mittelklasse vernünftig läuft. Vor 2026 rechne ich da mit nichts.
Wenn man die Detailstufe entsprechend senkt dann wird es wohl vernünftig laufen. :)
Ach ja, lasst euch nicht von CP2077 blenden. Den ganzen RT+PT-Teil des Spiels hat Nvidia implementiert. Das ist nichts anderes als eine proprietäre Techdemo, optimiert für einen einzigen Hersteller.
Hier mal ein anderes Beispiel wenn man Nvidia an ein Spiel ranlässt:
https://twitter.com/JirayD/status/1601036292380250112
Niemand abseits von Nvidia-Großaktionären behauptet etwas anderes. :) Da CP2077 im Gegensatz zu irgendwelchen "echten" Techdemos aber ein volles, umfangreiches Spiel ist, sind die Werte nicht irrelevant - sondern interessant.
MfG
Raff
DrFreaK666
2023-05-19, 11:33:46
Das ist halt weiterhin ein Spiel von vielen, und nicht, wie Troyan es immer wieder darzustellen versucht, das einzige - neben TLoU
Exxtreme
2023-05-19, 11:37:46
Niemand abseits von Nvidia-Großaktionären behauptet etwas anderes. :) Da CP2077 im Gegensatz zu irgendwelchen "echten" Techdemos aber ein volles, umfangreiches Spiel ist, sind die Werte nicht irrelevant - sondern interessant.
MfG
Raff
Korrekt. Aber man sollte IMHO trotzdem wissen womit man es zu tun hat um es dann besser einordnen zu können. :) Sprich, es ist nicht zu erwarten, dass man solche Ergebnisse in anderen Spielen zu sehen bekommt.
Troyan
2023-05-19, 11:41:02
Korrekt. Aber man sollte IMHO trotzdem wissen womit man es zu tun hat um es dann besser einordnen zu können. :) Sprich, es ist nicht zu erwarten, dass man solche Ergebnisse in anderen Spielen zu sehen bekommt.
Warum sollte man das Ergebnis nicht in anderen Spielen erwarten? Fakt ist, AMD Karten sind technisch veraltet. Genauso wie 8GB VRAM nicht mehr überall ausreichend wird.
Aber in diesem Forum gibt es dagegen Leute, die 60 FPS in 1080p für 1.300€ als vollkommen akzeptabel empfinden, dagegen ein TLoU in 1440p mit High-Preset und ~60 FPS dagegen nicht.
Man schafft hier ja nichtmal mehr die Unterscheidung zwischen der 4060 und 4060TI. Die zweite ist mit 8GB VRAM einfach nicht mehr zeitgemäß.
dargo
2023-05-19, 11:49:36
Es zeigt dennoch was derzeit möglich ist, an.
Es zeigt eher was nicht möglich ist, nämlich wie weit wir noch vom performanten RT für den "Normalo" Gamer sind. :lol:
Slipknot79
2023-05-19, 11:50:05
Ich würde es dir glaube falls du keinen 9900K mehr hättest, der wahrscheinlich von einem 5600X mit getuntem RAM geschlagen wird. Und spätestens von einem 5800X3D zerlegt wird.
Das Geld ist nicht das Problem, der Aufwand für den Umbau ist das "Problem".
Das ist aber nicht das Thema. Es wird hier über Geld diskutiert. Warum soll das eine Rolle bei einem Hobby spielen?
Warum argumentierst du dann immer, 4k wäre nicht vernünftig? Ist mit einer 4090 doch kein Problem, gönn dir!
Niemand programmiert Spiele für 4090-Besitzer (außer CDPR wenn nVidia sie dafür bezahlt), sondern für die Durchschnitts-Hardware da draußen...
Auch bei 4k ist nicht Geld das Thema, sondern weil die 4090 einfach keine 4k-Karte ist.
Lederjacke programmiert die 4090 so, dass der User sie gut ins GPU limit drücken kann. Einfach pathtracingON (von mir aus auch mit DLDSR 2,25x) und gut ist, nochdazu sind wir nicht am Lebensende einer 4090. Da kommen noch Spiele.
Wenn man mehrere Hobbys hat muss man etwas jonglieren. :D
Das eine Hobby widerspricht nicht dem anderen. ;)
Bie einem normaldenken Mensch spielt das imemr eine Rolle.
Der normale Mensch hat aber kein Hobby (z.B. mangels 4090) :redface:
DrFreaK666
2023-05-19, 11:55:36
... Das ist aber nicht das Thema. Es wird hier über Geld diskutiert. Warum soll das eine Rolle bei einem Hobby spielen?...
Weil der Goldesel, der Geld scheißt, ein Märchen ist
Exxtreme
2023-05-19, 12:10:57
Warum sollte man das Ergebnis nicht in anderen Spielen erwarten? Fakt ist, AMD Karten sind technisch veraltet. Genauso wie 8GB VRAM nicht mehr überall ausreichend wird.
Veraltet ist RT mit AMD es nicht. Die Implementierung ist halt eine andere. Auch wenn sie unter dem Strich etwas schlechter ist. Veraltet wäre sie dann wenn bestimmte Dinge nicht möglich wären.
Linmoum
2023-05-19, 12:22:06
"Etwas schlechter" ist aber sehr rosig ausgedrückt. IMO geht es dabei auch nicht nur darum, was (nicht) möglich ist, sondern mit welcher Endperformance das einhergeht. Daher kann man das schon als "veraltet" bezeichnen, wenn man nicht ständig die RT-Effekte nur auf Medium schaltet.
Die Diskussion ist aber eh müßig, weil in 2 Gens auch bei AMD sowas wie CP2077 (ob mit oder ohne FG) ausreichend gut laufen wird. Dann beantwortet sich die Frage der RT-Implementierung der aktuellen Karten auch von selbst. ;)
Exxtreme
2023-05-19, 12:41:15
"Etwas schlechter" ist aber sehr rosig ausgedrückt. IMO geht es dabei auch nicht nur darum, was (nicht) möglich ist, sondern mit welcher Endperformance das einhergeht. Daher kann man das schon als "veraltet" bezeichnen, wenn man nicht ständig die RT-Effekte nur auf Medium schaltet.
So viel Mehr an Performance ist das jetzt auch nicht. Die RTX 4080 ist im Schnitt 25% schneller als der direkte Kontrahent. Real ist das dann aber auch nicht so viel. Wir reden hier von 25 vs. 20 fps oder so. Oder von 125 vs. 100 fps. Bzw. du musst viel mehr Geld in die Hand nehmen um spürbare Vorteile zu bekommen. Und wir reden hier von mindestens 600 EUR mehr. Dafür gibt es eine gute Hauptplatine + 64 GB RAM.
DrFreaK666
2023-05-19, 13:33:49
Es gibt halt RT (Resident Evil 4 Remake) und RT (CP2077)
aufkrawall
2023-05-19, 14:00:54
Die Diskussion ist aber eh müßig, weil in 2 Gens auch bei AMD sowas wie CP2077 (ob mit oder ohne FG) ausreichend gut laufen wird.
Dying Light 2 läuft auch heute schon besser als CP77 auf AMD und die RT-Effekte sehen trotzdem besser aus.
Dying Light 2 läuft auch heute schon besser als CP77 auf AMD und die RT-Effekte sehen trotzdem besser aus.
What? :|
MfG
Raff
dargo
2023-05-19, 14:26:14
"Etwas schlechter" ist aber sehr rosig ausgedrückt. IMO geht es dabei auch nicht nur darum, was (nicht) möglich ist, sondern mit welcher Endperformance das einhergeht. Daher kann man das schon als "veraltet" bezeichnen, wenn man nicht ständig die RT-Effekte nur auf Medium schaltet.
Du scheinst immer noch nicht zu begreifen, dass der Masse RT am Arsch vorbei geht, die schalten es nicht mal an aufgrund der horrenden Kosten je nach Implementierung. Würde die Milchkuh @RT von Lederjacke richtig zünden wären die Verkaufszahlen von Ada nicht so katastrophal wie sie sind. Ich wiederhole mich gerne nochmal... solange im Mainstream kein performantes Raytracing ankommt bleibt es weiterhin Nische. Es ist immer noch optional und keine Grundvoraussetzung.
Du scheinst immer noch nicht zu begreifen, dass der Masse RT am Arsch vorbei geht, die schalten es nicht mal an aufgrund der horrenden Kosten je nach Implementierung. Würde die Milchkuh @RT von Lederjacke richtig zünden wären die Verkaufszahlen von Ada nicht so katastrophal wie sie sind. Ich wiederhole mich gerne nochmal... solange im Mainstream kein performantes Raytracing ankommt bleibt es weiterhin Nische. Es ist immer noch optional und keine Grundvoraussetzung.
Das sieht man ja allein schon daran, dass man immer noch auf dem 2020er-RT-Leuchtturm CP77 herumreitet. Wir haben 2023 mittlerweile und wir sind immer noch da. Der Fortschritt ist nicht aufzuhalten, da möchte ich nicht mißverstanden werden, aber das geht eben über 10 Jahre oder so, bis da etabliert ist und da rede ich nicht von PT.
dildo4u
2023-05-19, 14:46:38
Wie immer es gibt nicht das RT das neue Jedi Game setzt es gut ein und die GPU Performance ist dort nicht das Problem.
aufkrawall
2023-05-19, 14:49:18
What? :|
In den schattigen Straßenschluchten gibts zwischen RT GI ultra und off oft nur geringfügige Unterschiede und die Schatten sind glitchy. Dafür sind die Leistungskosten auf RDNA2 lächerlich (und auf GeForce eigentlich auch). In DL2 gibts ein massiv saubereres Ergebnis mit häufig viel größeren Unterschieden vs. Raster-only. Und das läuft, anders als CyberStunk, auf einer 6800 mit allem @max durchaus spielbar in 1440p Quality-Upsampling mit irgendwas 50-60fps. Dass das gegen eine 3070 auch nicht überwältigend ist, ist natürlich ebenso klar.
Bei euch sinds jedenfalls in Jedi Survivor 6700 XT vs. 3060 +25% sowohl mit, als auch ohne RT.
Thunder99
2023-05-19, 15:19:53
Du scheinst immer noch nicht zu begreifen, dass der Masse RT am Arsch vorbei geht, die schalten es nicht mal an aufgrund der horrenden Kosten je nach Implementierung. Würde die Milchkuh @RT von Lederjacke richtig zünden wären die Verkaufszahlen von Ada nicht so katastrophal wie sie sind. Ich wiederhole mich gerne nochmal... solange im Mainstream kein performantes Raytracing ankommt bleibt es weiterhin Nische. Es ist immer noch optional und keine Grundvoraussetzung.
Aha und du willst das wissen :rolleyes:
RT wird immer mehr zum Standard werden. Mehrheitlich AMD konform aber hin und wieder auch Nvidia schön.
Bei richtig viel Last trennt sich ja die 4090 deutlich von der 4080. Das ruft ja nach einer Zwischenkarte, oder nicht?
dargo
2023-05-19, 16:12:05
Aha und du willst das wissen :rolleyes:
Ja... wenn man die Vergangenheit vom PC-Gaming verfolgt hat weiß man wie lange diverse Features am PC brauchen bis sie sich nennenswert durchsetzen.
Jupiter
2023-05-19, 16:48:23
Es zeigt das es keine Zukunft hat da die Mainstream Modelle mehr als jemand vom High-End abgehängt werden.
Die nästen CDPR Games kommen deshalb mit Lumen was ordentlich auf 4060/7600 laufen wird.
Es läuft vielleicht schneller, sieht aber auch erheblich schlechter aus. Insbesondere in Innenräumen.
In den schattigen Straßenschluchten gibts zwischen RT GI ultra und off oft nur geringfügige Unterschiede und die Schatten sind glitchy.
Weil die standardmäßige Globale Beleuchtung schon besser ist.
Das die Schatten fehlerhaft sind sehe ich nicht so, solange sie berechnet werden. Das größte Problem war das nicht alle Lichtquellen Schatten warfen.
Vergessen wir mal die modernen Speicherkrüppel ;) und sehen uns frische Zahlen zum wohl heftigsten Spiel an:
Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/)
Worstcase-Benchmarkszene (neu), frische Treiber und alles, was man so braucht. Die Ergebnisse sind wicked sick. Nvidia hat den Code derart handoptimiert, dass TU102 es mit Navi 31 aufnehmen kann. :uup:
MfG
Raff
Die AMD-Karten sind Pathtracing-Krüppel.
Eine RTX 3070 ist schneller als die 7900 XTX. Bei anderen Pathtracingspielen wird die Situation für AMD nicht viel besser sein. Die Zukunftstauglichkeit ist bei moderner Beleuchtung gering.
DrFreaK666
2023-05-19, 17:28:36
... Weil die standardmäßige Globale Beleuchtung schon besser ist...
Ich hab mir einige Vergleichs-Shots PT vs RT angeschaut. Auf manchen RT-Shots war kein GI zu sehen (bzw. keine Schattierung).
Keine Ahnung was da standardmäßig besser sein soll.
Nvidia warb damals selbst mit "diffuse illumination", was wohl weniger genau ist im Vergleich zu global illumination.
Thunder99
2023-05-19, 17:59:10
Ja... wenn man die Vergangenheit vom PC-Gaming verfolgt hat weiß man wie lange diverse Features am PC brauchen bis sie sich nennenswert durchsetzen.
Stimmt auch wieder :). RT wird sich dennoch schneller durchsetzten als so manche andere Technologie. In welcher Intensität sehen wir dann.
Unreal Engine 5 ist da leider (noch) kein Treiber, da vorerst software RT?...: Guter Artikel (https://www.hardwaretimes.com/unreal-engine-5-lumen-vs-ray-tracing-which-one-is-better/)
TheGood
2023-05-19, 18:00:18
Es läuft vielleicht schneller, sieht aber auch erheblich schlechter aus. Insbesondere in Innenräumen.
Weil die standardmäßige Globale Beleuchtung schon besser ist.
Das die Schatten fehlerhaft sind sehe ich nicht so, solange sie berechnet werden. Das größte Problem war das nicht alle Lichtquellen Schatten warfen.
Die AMD-Karten sind Pathtracing-Krüppel.
Eine RTX 3070 ist schneller als die 7900 XTX. Bei anderen Pathtracingspielen wird die Situation für AMD nicht viel besser sein. Die Zukunftstauglichkeit ist bei moderner Beleuchtung gering.
UE5 Games mit Lumen werden genutzt und damit wird RT salonfähig. Warum, weil lumen ein Softwarefallback hat und die Entwickler dann keine prebaked Lichtberechnung machen müssen. So wird ein Schuh drauß und dass Lumen jetzt scheisse aussieht, ist mir auch neu, aber egal.
Nur wenn der Aufwand für die Etnwickler niedriger wird, wird sich RT auch durchsetzen können, als reines Addon wird es eine Spielerei für einige AAA Titel bleiben, mehr leider nicht.
Die CP2077 implementierung ist ja extra so gemacht dass die 4090 perfekt aussieht um ein paar mehr dumme dazu zu bringen so viel geld auszubringen. Wenn man das Ding optimieren würde, würde es sicher auch auf kleineren KArten deutlich besser laufen, aber das ist ja nicht der Wunsch bei Showcases, vor allem wenn sie von Nvidia kommen...
basix
2023-05-19, 18:36:40
Unreal Engine 5 ist da leider (noch) kein Treiber, da software RT...: Guter Artikel (https://www.hardwaretimes.com/unreal-engine-5-lumen-vs-ray-tracing-which-one-is-better/)
Lumen High = Software RT
Lumen Epic und höher = Hardware RT
Und hey, die UE5 hat auch noch einen Pathtracer integriert ;)
Ausserdem ist dein verlinkter Artikel von April 2022. Insbesondere SW Lumen hat einen grossen Schritt nach vorne gemacht (Konsolen Performance Target), das sieht mittlerweile viel besser aus.
TheGood
2023-05-19, 18:43:18
Lumen High = Software RT
Lumen Epic und höher = Hardware RT
Und hey, die UE5 hat auch noch einen Pathtracer integriert ;)
Ausserdem ist dein verlinkter Artikel von April 2022. Insbesondere SW Lumen hat einen grossen Schritt nach vorne gemacht (Konsolen Performance Target), das sieht mittlerweile viel besser aus.
Ja, das ist ein interessanter ARtikel, aber Frotnite allein hat doch schon gezeigt, dass die Aussagen in dem ARtikel nicht mehr stimmen. Mir wäre nicht bekantn dass dort Hardware RT langsamer als die Softwarevariante ist. Imho war letzteres schneller und hat besseres RT.
ABer wie der ARtikel auch sagt, wichtig ist, dass es GI egal ob jetzt software RT oder hardware RT quasi for free gibt und die Entwickler somit viel weniger aufwand haben sich um das ganze beleuchtungsthema zu kümmern und alle direkt davon profitieren werden... WEniger Aufwand für die Entwickler drum wirds umgesetzt
Ist wie mit DLSS. Eigentlich erntet Nvidia gerade seine Samen die es damit ausgesäht hat. Die Entwickler optimieren die Spiele nicht mehr gescheit, denn mit DLSS wirds ja sowieso schneller....
Thunder99
2023-05-19, 18:45:19
Habs korrigiert. In der EPIC Unreal Dokumentation wird es entsprechend erwähnt. Auch mit dem Hinweis "might be removed in further version"
Bleibt spannend was uns letztendlich erwartet.
@TheGood: Die CP2077 Implementierung ist eine Machbarkeitsstudie und durchaus sehr optimiert sodass es überhaupt läuft. Es gibt halt nur derzeit die RTX Serie wo es "performant" darstellen kann. Die kleinen Karten sind einfach zu schwach! Die können es evt. in 5-8 Jahren
Exxtreme
2023-05-19, 20:35:36
Die AMD-Karten sind Pathtracing-Krüppel.
Ich würde eher sagen "Handoptimiert-für-Nvidia"-Krüppel. Intel Arc kackt da genauso ab obwohl deren RT-Leistung eigentlich höher ist denn die von vergleichbaren AMD-Chips. Schade, dass es keine neutralen Spiele mit PT gibt.
Thunder99
2023-05-19, 20:49:36
Noch nicht würde ich da behaupten :)
The_Invisible
2023-05-19, 21:25:43
"Handoptimiert" ist gut, gibt auch auf Geforces noch genug Grafikfehler und Glitches, ist eben nur mal eine Technical Preview.
Verstehe aber nicht was Nvidia dafür kann, kann ja AMD oder Intel auch eine Ray/Pathtracing Vendor-Demo raushauen. Da hat man dann aber wohl eher Sorge das die Geforces trotzdem schneller sind :D
crux2005
2023-05-19, 21:26:27
Das ist aber nicht das Thema. Es wird hier über Geld diskutiert. Warum soll das eine Rolle bei einem Hobby spielen?
Immer, weil du es nicht unbegrenzt hast.
Slipknot79
2023-05-19, 22:22:57
Immer, weil du es nicht unbegrenzt hast.
Lederjacke verlangt ja auch nicht unbegrenzt. (y)
DrFreaK666
2023-05-19, 22:27:59
Lederjacke verlangt ja auch nicht unbegrenzt. (y)
Stimmt: The more you buy, the more you save :ugly:
Slipknot79
2023-05-19, 22:49:23
Man saved Nerven. (y)
00-Schneider
2023-05-20, 07:57:26
"Handoptimiert" ist gut, gibt auch auf Geforces noch genug Grafikfehler und Glitches, ist eben nur mal eine Technical Preview.
Verstehe aber nicht was Nvidia dafür kann, kann ja AMD oder Intel auch eine Ray/Pathtracing Vendor-Demo raushauen. Da hat man dann aber wohl eher Sorge das die Geforces trotzdem schneller sind :D
Ich weiß auch nicht, was an Fan-Made Sachen wie z.b. Half-Life Raytraced Nvidia-handoptimiert sein soll. :freak:
DrFreaK666
2023-05-20, 08:49:53
Ich weiß auch nicht, was an Fan-Made Sachen wie z.b. Half-Life Raytraced Nvidia-handoptimiert sein soll. :freak:
Für AMD wurde es jedenfalls nicht optimiert
https://abload.de/img/screenshot_20230520_0mrc1q.jpg (https://abload.de/image.php?img=screenshot_20230520_0mrc1q.jpg)
robbitop
2023-05-20, 08:59:13
Ich weiß auch nicht, was an Fan-Made Sachen wie z.b. Half-Life Raytraced Nvidia-handoptimiert sein soll. :freak:
Weil das mit Nvidia Remix gemacht ist vielleicht? ;)
00-Schneider
2023-05-20, 09:38:48
Weil das mit Nvidia Remix gemacht ist vielleicht? ;)
Teil 2 ist mir bekannt, aber Teil 1 auch? :confused:
DrFreaK666
2023-05-20, 09:44:53
Nein, bei Teil 1 wurde es nicht mit RTX Remix erstellt
Sultims Werke sind nicht "remixed" - aber anscheinend entwickelt er auf Nvidia-GPUs und behandelt alle anderen aus Zeit- und Ressourcengründen stiefmütterlich.
MfG
Raff
robbitop
2023-05-20, 10:41:08
Neulich hat doch jemand mal bei einem dieser RT remakes den Performancemonitor angemacht und sich angeschaut was da pro Frame abläuft und die Hände überm Kopf zusammengeschlagen wie kacke das gemacht war für Nicht NV GPUs.
Linmoum
2023-05-20, 10:43:24
Wird halt auch ein gewisser Aufwand sein. Dass man für einen verschwindend kleinen Teil des Marktes, der selbst mit Optimierungen noch massiv der Konkurrenz hinterherlaufen würde, nicht viel Ressourcen investieren will, verwundert mich ehrlich gesagt nicht großartig.
robbitop
2023-05-20, 10:49:02
Tja wenn man es für Konsolen verfügbar machte wäre es schon relevant. Dafür haben die Konsolen entsprechende Appstores und man kann die Konsolen selbst im Devmode als Devkit verwenden.
00-Schneider
2023-05-20, 11:04:20
Wird halt auch ein gewisser Aufwand sein. Dass man für einen verschwindend kleinen Teil des Marktes, der selbst mit Optimierungen noch massiv der Konkurrenz hinterherlaufen würde, nicht viel Ressourcen investieren will, verwundert mich ehrlich gesagt nicht großartig.
Tja wenn man es für Konsolen verfügbar machte wäre es schon relevant. Dafür haben die Konsolen entsprechende Appstores und man kann die Konsolen selbst im Devmode als Devkit verwenden.
Gehe da mit Linmoum mit. Aufwand abseits von NVidia-GPUs lohnt sich für solche kleinen Projekte nicht.
Dev-Mode auf Konsole ist jetzt auch kein normaler usecase. Zumal man da auch nicht einfach Raubkopien mit Raytracing zocken könnte und die originalen Files(z.b. Quake 1) auf Konsole darf man nicht verändern.
Neulich hat doch jemand mal bei einem dieser RT remakes den Performancemonitor angemacht und sich angeschaut was da pro Frame abläuft und die Hände überm Kopf zusammengeschlagen wie kacke das gemacht war für Nicht NV GPUs.
Nichtkommerzielle Fanprojekte mit "kacke gemacht" zu kritisieren finde ich in dem Zusammenhang auch etwas fragwürdig.
gnomi
2023-05-20, 11:42:59
Ja... wenn man die Vergangenheit vom PC-Gaming verfolgt hat weiß man wie lange diverse Features am PC brauchen bis sie sich nennenswert durchsetzen.
Nicht unbedingt.
Voodoo 1 (3D Beschleunigung plus Glide, Unreal), Geforce 1 (T&L, Quake 3), Geforce 3/4 (Shader, Max Payne/3D Mark) ging recht schnell.
Auch Shader 2 (ATI Radeon 9700/9800 Pro, Half-Life 2) oder Shader 3 mit Splinter Cell Chaos Theory und Geforce 6800 Ultra.
Nach DX9 wurde es uninteressanter.
360 und PS3 waren das Hardware Thema schlechthin.
Aber immer mehr Leistung. Und dann Can it run Crysis? 2007
Hardware PhysX war mal ein Reinfall. (Effekt Physik ausreichend)
DX10 auch eher. (Vista mochte auch keiner und viele blieben bei 32Bit OS noch)
DX11 war wieder sehr erfolgreich. Genau wie Win 7. Damit ließ sich gut arbeiten.
DX 12 hat auch dadurch bedingt ewig gedauert.
Mittlerweile ist es trotzdem die Basis.
Zwischen 2007 und 2013 war PC Gaming ohnehin übelst vorne.
PS4 und später One X waren ganz gut ausgestattet, aber die Hardwarepower wurde dann mit TI und Titan Karten einfach noch mal krasser.
GSync war 2014 auch sofort zu gebrauchen.
DLSS ab 2019 in Version 2.
Ray Tracing setzt sich eben erst in den weniger anspruchsvollen Implementierungen durch, weil die neuen Konsolen nur das RT Einstiegsniveau auf maximal 2080 Basis von 2018 bieten.
Insgesamt aber meines Erachtens wieder spannendere Entwicklungen als 2013-2018. Da hat man eher die Auflösungen hochgezogen und nichts mehr mit unter 60 fps spielen wollen. (was natürlich auch ganz geil war; will 980 und 1080 nicht schlechtreden, da anders als jetzt immer doppelter VRAM und 60-80% mehr Leistung zum selben Preis. :wink:)
Fragman
2023-05-20, 12:13:31
Als Anmerkung vielleicht noch:
T&L war erst ab Geforce 3 zu gebrauchen.
Shader 2 (DX9) dann ab der Geforce 5 (aber die Karte selbst war ja ein Flop, also eigentlich erst ab 6 eher sogar 7).
DX10 war selbst auf der Geforce 8 nicht so wirklich gut, wenn man zb die Menge an unterstützten Lichtquellen mit Schatten auch genutzt hat.
Das Glück war das Techlevel der PS4 bei dem alles leaked und kaum was occluded.
Sparte massiv Rechenleistung, mehr war halt bei dem Hardwarebudget nicht drin. Gut, SSR's kamen dazu, das hat damals kurzfristig was her gemacht.
Aber die UE4 hat das interessanteste Feature aus Performancegründen rausnehmen müssen.
Deshalb war der high framrate Trend auf dem PC auch erst möglich, der mit Einführung von RT jetzt backfired, weil viele nicht mehr unter 60 Frames spielen wollen, trotz VRR.
Lurtz
2023-05-20, 14:41:03
Wird halt auch ein gewisser Aufwand sein. Dass man für einen verschwindend kleinen Teil des Marktes, der selbst mit Optimierungen noch massiv der Konkurrenz hinterherlaufen würde, nicht viel Ressourcen investieren will, verwundert mich ehrlich gesagt nicht großartig.
Am besten wir schaffen den PC einfach ab und machen nVidia-Machines daraus. Alles andere lohnt sich eh nicht mehr.
Lurtz
2023-05-20, 14:49:04
Nicht unbedingt.
Voodoo 1 (3D Beschleunigung plus Glide, Unreal), Geforce 1 (T&L, Quake 3), Geforce 3/4 (Shader, Max Payne/3D Mark) ging recht schnell.
Auch Shader 2 (ATI Radeon 9700/9800 Pro, Half-Life 2) oder Shader 3 mit Splinter Cell Chaos Theory und Geforce 6800 Ultra.
Nach DX9 wurde es uninteressanter.
360 und PS3 waren das Hardware Thema schlechthin.
Aber immer mehr Leistung. Und dann Can it run Crysis? 2007
Hardware PhysX war mal ein Reinfall. (Effekt Physik ausreichend)
DX10 auch eher. (Vista mochte auch keiner und viele blieben bei 32Bit OS noch)
DX11 war wieder sehr erfolgreich. Genau wie Win 7. Damit ließ sich gut arbeiten.
DX 12 hat auch dadurch bedingt ewig gedauert.
Mittlerweile ist es trotzdem die Basis.
Zwischen 2007 und 2013 war PC Gaming ohnehin übelst vorne.
PS4 und später One X waren ganz gut ausgestattet, aber die Hardwarepower wurde dann mit TI und Titan Karten einfach noch mal krasser.
GSync war 2014 auch sofort zu gebrauchen.
DLSS ab 2019 in Version 2.
Ray Tracing setzt sich eben erst in den weniger anspruchsvollen Implementierungen durch, weil die neuen Konsolen nur das RT Einstiegsniveau auf maximal 2080 Basis von 2018 bieten.
Insgesamt aber meines Erachtens wieder spannendere Entwicklungen als 2013-2018. Da hat man eher die Auflösungen hochgezogen und nichts mehr mit unter 60 fps spielen wollen. (was natürlich auch ganz geil war; will 980 und 1080 nicht schlechtreden, da anders als jetzt immer doppelter VRAM und 60-80% mehr Leistung zum selben Preis. :wink:)
Damals wurden Spiele aber auch innerhalb von 12-24 Monaten samt Engine fertig entwickelt. Heute dauert es fünf Jahre aufwärts und das mit LastGen-Engine...
Linmoum
2023-05-20, 14:49:49
Du kannst mir ja gerne erklären, warum ein Modder noch zusätzlichen Zeitaufwand betreiben sollte als den, den er ohnehin schon bei der Umsetzung hatte. Warum solche Leute mit NV-GPUs arbeiten, ist mehr als offensichtlich. Dass die nicht noch die Ressorucen für irgendwelche aufwendige Optimierungsarbeit bei der Konkurrenz aufwenden, ebenso. Wenn man da einen "Schuldigen" suchen will, dann AMD und nicht Modder. RT gibt's bei Grafikkarten immerhin schon seit 2018, Zeit war genug.
DrFreaK666
2023-05-20, 15:04:29
Wenn man NV-Tools zum Modden benutzt, dann läuft es natürlich schlecht auf AMD-Karten
aufkrawall
2023-05-20, 15:15:27
Die ganze Debatte ist doch völlig weltfremd? Das Problem bei RDNA3 ist zu geringe Leistung im Allgemeinen durch mieses MHz/W-Verhältnis. Niemand kauft eine Grafikkarte für einen PT-Mod für Half-Life 1, wtf am I lesend hier...
Es ist ein, je nach Betrachtung, mehr oder weniger netter Bonus, mehr nicht.
DrFreaK666
2023-05-20, 15:18:24
Hat doch niemand behauptet, dass man eine bestimmte Grafikkarte wegen der Mod kaufen soll.
Frag mich auch was du liest :uponder:
aufkrawall
2023-05-20, 15:23:04
Hat doch niemand behauptet, dass man eine bestimmte Grafikkarte wegen der Mod kaufen soll.
Fallen Aussagen ohne Kontext? Du solltest echt mal ein Semantik/Pragmatik-Seminar besuchen...
DrFreaK666
2023-05-20, 15:26:20
Fallen Aussagen ohne Kontext? Du solltest echt mal ein Semantik/Pragmatik-Seminar besuchen...
Gerne. Schicken mir Datum und Standort. Bitte nicht zu weit weg von meinem Wohnort entfernt. Seminare sind nie verkehrt
Thunder99
2023-05-20, 16:47:25
Und freuen wir uns doch, dass Nvidia RT gebracht hat was AMD in der nächsten Version auch brachte musste inkl. Konsole. Der Anfang ist gemacht :)
Weiterhin bleibt spanned, was PS5 Pro bringen wird, ggf. RDN3 Chiplet? Würde allen etwas helfen das die Grafikpower auch die Qualität bei allen erhöht.
Wird jetzt eigentlich ein AD102 142-144 Karte kommen? Wohl erst zum Refresh, oder? Ggf RTX 5xxx Refresh wie damals GTX 480 -> 580 Serie
robbitop
2023-05-20, 17:03:21
Gehe da mit Linmoum mit. Aufwand abseits von NVidia-GPUs lohnt sich für solche kleinen Projekte nicht.
Dev-Mode auf Konsole ist jetzt auch kein normaler usecase. Zumal man da auch nicht einfach Raubkopien mit Raytracing zocken könnte und die originalen Files(z.b. Quake 1) auf Konsole darf man nicht verändern.
Nichtkommerzielle Fanprojekte mit "kacke gemacht" zu kritisieren finde ich in dem Zusammenhang auch etwas fragwürdig.
Finde ist eine bescheidene Einstellung. Nur weil etwas kostenlos oder im Ehrenamt ist sollte es nich lange nicht mittelmäßig sein. Dann bezahle ich lieber für etwas und zwar richtig als kostenloses Mittelmaß gut zu finden. IMO ist die einzig wahre Einstellung: Ganz oder gar nicht. Dinge aus welchem Grund auch immer nur mit halbem Arsch zu machen ist nicht erstrebenswert.
Mit Dev mode meinte ich rein zum Entwickeln. Dann kann am seine App zertifizieren lassen und am Appstore an ganz normale User verkaufen. Und da hast du viele viele Millionen an installierter HW.
00-Schneider
2023-05-20, 17:15:58
Finde ist eine bescheidene Einstellung. Nur weil etwas kostenlos oder im Ehrenamt ist sollte es nich lange nicht mittelmäßig sein. Dann bezahle ich lieber für etwas und zwar richtig als kostenloses Mittelmaß gut zu finden. IMO ist die einzig wahre Einstellung: Ganz oder gar nicht. Dinge aus welchem Grund auch immer nur mit halbem Arsch zu machen ist nicht erstrebenswert.
https://media0.giphy.com/media/Fml0fgAxVx1eM/giphy.gif?cid=6c09b952uuoijvcv1yushd4gakt92usx1me3lgd4ry8kk8s9&ep=v1_gifs_search&rid=giphy.gif&ct=g
OK, ich erfreue mich derweil an den "mittelmäßigen" Lösungen. :up:
dargo
2023-05-20, 17:18:38
Nicht unbedingt.
Nvidia hat RT Ende 2018 ins Leben gerufen. Wenn ich mir anschaue was man in fast 5 Jahren erreicht hat dann komme ich aus dem Lachen nicht mehr raus. Da kannst du nochmal 5+ Jahre drauf legen bis RT halbwegs performant im Mainstream ankommt. Dann werden paar Strahlen mehr verschossen und schon wieder wird alles zur Schnecke. :ulol:
gnomi
2023-05-20, 18:10:56
https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
Der Support könnte schon noch besser sein. Stimmt schon.
Dennoch zähle ich bereits etwa 65 bekannte Spiele.
Ein Dutzend neuer Spiele im Jahr zocken/kaufen die meisten Gamer ja nicht mal.
Die Anzahl sollte weiter stark steigen.
Vor allem, wenn wir doch noch ein Mid Generation Upgrade bei den Konsolen sehen und/oder UE5 Games in hoher Anzahl kommen.
Natürlich muss man sich jetzt nicht für RT entscheiden.
Ein Hitman hat ja auch so schöne Reflexionen.
Aber egal, welche GPU oder Konsole jemand kauft, es ist dabei und spielt eine Rolle.
AMD strebt eine einfache Lösung an.
Nvidia ist auf Showcase Titel gepolt.
Wir sind dennoch nicht auf Goodie Niveau hier, wenn man sich mal Metro Exodus, Cyberpunk oder Watch Dogs Legion ansieht.
Gibt aber auch abseits dessen überall mal paar coole Sachen zu sehen und wertzuschätzen. Ist doch besser als vorhergehendes, wenn die GPU Power reicht. RT wird bleiben.
DLSS ist aktuell das wichtigere Feature im Mainstream.
Finde, nvidia hat das auch erkannt und ist nicht nur auf RT aus.
Das hat Turing gegenüber Pascal auch sehr aufgewertet.
Und auch hier hat AMD nachgezogen mit FSR.
Diese Geschichte ist schon annährend Standard und wird für jeden größeren Titel von PC Spielern erwartet.
Troyan
2023-05-21, 11:16:38
Nvidia hat RT Ende 2018 ins Leben gerufen. Wenn ich mir anschaue was man in fast 5 Jahren erreicht hat dann komme ich aus dem Lachen nicht mehr raus. Da kannst du nochmal 5+ Jahre drauf legen bis RT halbwegs performant im Mainstream ankommt. Dann werden paar Strahlen mehr verschossen und schon wieder wird alles zur Schnecke. :ulol:
Cool. UE5 ist 3 Jahre alt und es gibt 1 Spiel. Beeindruckend. ;D
Jupiter
2023-05-21, 11:26:35
NVidia bewegt technisch viel. Siehe Raytracing, Pathtracing, Reflex, KI, DLSS, Bildgeneration, Mesh Shader, den besten Streamingdinst und viele weitere Softwareentwicklungen.
AMD hat dem nichts entgegenzusetzen. AMD gibt nichts vor, schleicht nur hinterher und hat keine eigene Vision. AMD ist antriebslos, angestaubt und langweilig.
Wenn man überdurchschnittlich hohe grafische Ansprüche hat kommt AMD beim Neukauf generell nicht mehr in Frage.
Troyan
2023-05-21, 12:07:00
Timespy der 4060TI: https://videocardz.com/newz/amd-radeon-rx-7600-and-nvidia-geforce-rtx-4060-ti-3dmark-performance-leaks-out
13% besser als 3060TI.
basix
2023-05-21, 12:18:05
NVidia bewegt technisch viel. Siehe Raytracing, Pathtracing, Reflex, KI, DLSS, Bildgeneration, Mesh Shader, den besten Streamingdinst und viele weitere Softwareentwicklungen.
AMD hat dem nichts entgegenzusetzen. AMD gibt nichts vor, schleicht nur hinterher und hat keine eigene Vision. AMD ist antriebslos, angestaubt und langweilig.
Wenn man überdurchschnittlich hohe grafische Ansprüche hat kommt AMD beim Neukauf generell nicht mehr in Frage.
Ich hoffe doch, dass ein Marktführer technisch viel bewegt. Wenn das nicht so ist, landet man bei Intel ;)
Nvidia treibt in der Tat vieles voran. Das ist aber purer Eigennutzen (als Konzern verständlich) und kommt oftmals mit einem Vendor Lock-In Geschmäckle. Und dass AMD momentan eher Fast Follower ist, ist ebenfalls verständlich. Dazu fehlten bis anhin die Entwicklungsressourcen (welches sich innerhalb der letzten 3 Jahre aber verdreifacht hat). Als Fast Follower geht man weniger Risiko ein, R&D zu versenken wenn es nicht am Markt ankommt.
Und ausserhalb von GPUs treibt AMD sehr viel voran: CPUs & neu auch Accelerators (MI300). dGPUs werden folgen, da kannst du dir sicher sein ;) RDNA3 auf Chiplet Basis war mMn erst der Anfang.
Und das ist doch gut: Konkurrenz auf Augenhöhe bewegt den Markt. Ein Quasi-Monopol nützt niemandem was - ausser dem Monopolisten selbst.
robbitop
2023-05-21, 13:57:03
NVidia bewegt technisch viel. Siehe Raytracing, Pathtracing, Reflex, KI, DLSS, Bildgeneration, Mesh Shader, den besten Streamingdinst und viele weitere Softwareentwicklungen.
AMD hat dem nichts entgegenzusetzen. AMD gibt nichts vor, schleicht nur hinterher und hat keine eigene Vision. AMD ist antriebslos, angestaubt und langweilig.
Wenn man überdurchschnittlich hohe grafische Ansprüche hat kommt AMD beim Neukauf generell nicht mehr in Frage.
Ich sehe das auch so. Und das ist schlecht für den Markt. AMD lässt durch seinen Mangel an Feature Initiativen (und zuletzt mit RDNA3 seit GCN wieder eine sehr lauwarme uArch) zu, dass Nvidia ihre Technologie proprietär machen kann und damit immer mehr Kunden bindet und aus dem Markt praktisch ein Monopol macht. Und das ist schlecht für uns Endkonsumenten. Preis/Leistung ist mittlerweile lachhaft schlecht weil es keinen harten Wettbewerb mehr gibt. Vierstellig für eine Grafikkarte, die knapp mehr als nur 50% des vollen Chips sind? Und das ist Normalität. Furchtbar.
AMD und Intel müssen Gas geben und mit eigenen Initiativen wieder zu mehr Wettbewerb führen. Dann wird auch das P/L wieder besser.
robbitop
2023-05-21, 13:59:53
Ich hoffe doch, dass ein Marktführer technisch viel bewegt. Wenn das nicht so ist, landet man bei Intel ;)
Nvidia treibt in der Tat vieles voran. Das ist aber purer Eigennutzen (als Konzern verständlich) und kommt oftmals mit einem Vendor Lock-In Geschmäckle. Und dass AMD momentan eher Fast Follower ist, ist ebenfalls verständlich. Dazu fehlten bis anhin die Entwicklungsressourcen (welches sich innerhalb der letzten 3 Jahre aber verdreifacht hat). Als Fast Follower geht man weniger Risiko ein, R&D zu versenken wenn es nicht am Markt ankommt.
Und ausserhalb von GPUs treibt AMD sehr viel voran: CPUs & neu auch Accelerators (MI300). dGPUs werden folgen, da kannst du dir sicher sein ;) RDNA3 auf Chiplet Basis war mMn erst der Anfang.
Und das ist doch gut: Konkurrenz auf Augenhöhe bewegt den Markt. Ein Quasi-Monopol nützt niemandem was - ausser dem Monopolisten selbst.
Naja aber so langsam haben sie doch wieder die Mittel ganz vorn mit dabei zu sein. Ich finde sie könnten bei GPUs endlich mal Gas geben. RDNA2 war in der Hinsicht bereits absolut erfrischend. Mit RDNA3 hätte man genauso nachlegen müssen. Und auch die uArch mal wieder auf den neusten Stand bringen. Viel mehr Leistung in Raytracing, deutlich mehr Perf/W, auch Initiativen was modernere Upsamplingmethoden angeht (seit fsr 2.2 ist da ja Stillstand leider).
Exxtreme
2023-05-21, 14:17:39
Ich sehe das auch so. Und das ist schlecht für den Markt. AMD lässt durch seinen Mangel an Feature Initiativen (und zuletzt mit RDNA3 seit GCN wieder eine sehr lauwarme uArch) zu, dass Nvidia ihre Technologie proprietär machen kann und damit immer mehr Kunden bindet und aus dem Markt praktisch ein Monopol macht. Und das ist schlecht für uns Endkonsumenten. Preis/Leistung ist mittlerweile lachhaft schlecht weil es keinen harten Wettbewerb mehr gibt. Vierstellig für eine Grafikkarte, die knapp mehr als nur 50% des vollen Chips sind? Und das ist Normalität. Furchtbar.
AMD und Intel müssen Gas geben und mit eigenen Initiativen wieder zu mehr Wettbewerb führen. Dann wird auch das P/L wieder besser.
Wobei man fairerweise sagen muss, AMD respektive ATi waren früher sehr wohl hier und da innovativ. Aber der Markt hat es nicht angenommen. Und irgendwannmal haben sie es halt gelassen innovativ zu sein. Kostet ja bloß Geld und bringt ihnen nichts.
dargo
2023-05-21, 14:18:10
Timespy der 4060TI: https://videocardz.com/newz/amd-radeon-rx-7600-and-nvidia-geforce-rtx-4060-ti-3dmark-performance-leaks-out
13% besser als 3060TI.
Wow... was für ein Fortschritt nach ca. zwei Jahren. X-D
Lurtz
2023-05-21, 14:37:23
Naja aber so langsam haben sie doch wieder die Mittel ganz vorn mit dabei zu sein. Ich finde sie könnten bei GPUs endlich mal Gas geben. RDNA2 war in der Hinsicht bereits absolut erfrischend. Mit RDNA3 hätte man genauso nachlegen müssen. Und auch die uArch mal wieder auf den neusten Stand bringen. Viel mehr Leistung in Raytracing, deutlich mehr Perf/W, auch Initiativen was modernere Upsamplingmethoden angeht (seit fsr 2.2 ist da ja Stillstand leider).
Gefühlt hat AMD seit den Konsolendeals überhaupt keinen Antrieb mehr dazu und verkauft am PC nur noch mit guter Marge, was generell dabei mit abfällt. Leicht übertrieben, aber es gibt halt keine weiteren Investitionen ins PC-Ökosystem von AMD.
Jupiter
2023-05-21, 14:38:27
Ich hoffe doch, dass ein Marktführer technisch viel bewegt. Wenn das nicht so ist, landet man bei Intel ;)
Nvidia treibt in der Tat vieles voran. Das ist aber purer Eigennutzen (als Konzern verständlich) und kommt oftmals mit einem Vendor Lock-In Geschmäckle. Und dass AMD momentan eher Fast Follower ist, ist ebenfalls verständlich. Dazu fehlten bis anhin die Entwicklungsressourcen (welches sich innerhalb der letzten 3 Jahre aber verdreifacht hat). Als Fast Follower geht man weniger Risiko ein, R&D zu versenken wenn es nicht am Markt ankommt.
Und ausserhalb von GPUs treibt AMD sehr viel voran: CPUs & neu auch Accelerators (MI300). dGPUs werden folgen, da kannst du dir sicher sein ;) RDNA3 auf Chiplet Basis war mMn erst der Anfang.
Und das ist doch gut: Konkurrenz auf Augenhöhe bewegt den Markt. Ein Quasi-Monopol nützt niemandem was - ausser dem Monopolisten selbst.
Nur zu folgen und keine eigenen Akzente zu setzen hat auch Nachteile. Raytracing wird jetzt vorwiegend auf Nvidia-Grafikkarten entwickelt. Selbst mit geringerem Forschungsbudget könnten sie etwas bewegen. Ich sehe aber keine Initiativen.
Ich sprach nur vom Grafikkartenbereich.
Ich sehe das auch so. Und das ist schlecht für den Markt. AMD lässt durch seinen Mangel an Feature Initiativen (und zuletzt mit RDNA3 seit GCN wieder eine sehr lauwarme uArch) zu, dass Nvidia ihre Technologie proprietär machen kann und damit immer mehr Kunden bindet und aus dem Markt praktisch ein Monopol macht. Und das ist schlecht für uns Endkonsumenten. Preis/Leistung ist mittlerweile lachhaft schlecht weil es keinen harten Wettbewerb mehr gibt. Vierstellig für eine Grafikkarte, die knapp mehr als nur 50% des vollen Chips sind? Und das ist Normalität. Furchtbar.
AMD und Intel müssen Gas geben und mit eigenen Initiativen wieder zu mehr Wettbewerb führen. Dann wird auch das P/L wieder besser.
Ich würde es auch bevorzugen, wenn AMD eine größere Konkurrenz zu Nvidia darstellen würde. Allerdings scheint sich AMD im Gegensatz zum Konsolenmarkt kaum für PC-Spieler zu interessieren und daher verdienen sie es aus meiner Sicht aktuell nicht.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.