PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4070 Review-Thread


Seiten : 1 2 [3] 4

][immy
2023-04-18, 21:30:39
Das Preisgenöle wird nie weggehen. Und es ist halt so, hohe Preise sind für viele Leute eine echt harte Mauer, die nicht ohne Weiteres überwindbar ist. Wenn man sich etwas nicht leisten kann dann kann man sich es nicht leisten und fertig. Und das zieht wieder woanders einen Rattenschwanz an Konsequenzen nach sich. Die Leute, die sich eine teure Hardware kaufen wegen RT/DLSS/FSR/whatever werden diese Features mit allerhöchster Wahrscheinlichkeit nicht nutzen können. Weil kaum ein Spielehersteller sie in Spiele einbauen wird. Weil fast niemand die passende Hardware hat weil diese Hardware zu teuer ist etc. Und dann hast du eine 1700 EUR-Grafikkarte und darfst die meisten AAA-Spiele auf PS5-Level spielen. Es sei denn natürlich AMD oder Nvidia haben sich in ein Studio eingekauft und sponsorn mehr Effekte wie bei CP2077.

Und deshalb halte ich diese Preisentwicklung für sehr sehr schädlich für den PC-Spiele-Markt.

Es sind ja nicht nur Grafikkarten die so extrem im Preis gestiegen sind, sondern auch die Mainboards so das der Einstieg schon Recht extrem ins Geld geht.
Zugegeben, eine rtx 3050 hat bereits eine Recht solide Grundleistung, ist aber auch extrem weit entfernt vom dem ~150€ Bereich in dem die 50er Serie Mal unterwegs war.
Bei der 70er Serie ist das ganze halt noch schlimmer.

Thunder99
2023-04-18, 21:47:18
Nvidia ist dennoch 1. Wahl bei mir, da:
- DLSS, wenn es angeboten wird
- RT Leistung, da man mehr und länger was davon hat
- Brutal Effizient ist, im Vergleich nur älteren Generation + Konkurrenz
- Man immernoch alte Spiele auf seinen Wunsch anpassen kann (NVInspector sei dank)

Die 4070 macht ihre Sache sehr gut und die Preise werden eher nachgeben, als bei den grösseren Modellen. Wird ja schon gerüchteweise ein Rabatt von Nvidia hat die Händler gewährt. Die 5xx€ werden wir denke ich bald sehen und dann sieht die Welt ein wenig freundlicher aus an der Grafik-Front :)

crux2005
2023-04-18, 21:49:19
Hahaha... aber 2.16 Mio Follower - WTF

Hab aber mittlerweile glaub gecheckt auf was es ankommt:
- bisschen LED und halbwegs anständige Kamera
- jemand der das Klischee des typischen Nerds erfüllt (äusserlich), alles andere ist offensichtlich egal
- und halt das Produkt

Es ist halt einer der Linus Media Group YouTube Channels.
https://linusmediagroup.com/

Lurtz
2023-04-18, 22:29:42
Es ist halt einer der Linus Media Group YouTube Channels.
https://linusmediagroup.com/
Mit der einen Marke nVidia kritisieren, mit der anderen Marke von nVidia sponsoren lassen -> Profit :ugly:

Exxtreme
2023-04-19, 08:35:42
Die 4070 macht ihre Sache sehr gut und die Preise werden eher nachgeben, als bei den grösseren Modellen. Wird ja schon gerüchteweise ein Rabatt von Nvidia hat die Händler gewährt. Die 5xx€ werden wir denke ich bald sehen und dann sieht die Welt ein wenig freundlicher aus an der Grafik-Front :)

Das Ding ist IMHO eher eine <400 EUR-Grafikkarte. :freak: Ich glaube, da hätte sich eher niemand beschwert wenn sie so viel kosten würde.

aufkrawall
2023-04-19, 08:47:49
-in 1440p je nach Parkour schon geringfügig langsamer als eine 3080
-SER bislang eher mau
-nur 20% mehr VRAM als die 3080 10GB, GTX 1070 hatte 33% mehr gegenüber 980 Ti
-nicht so schlimm wie 8GB 2020, 2023 mit RT und FG trotzdem ständig nah an der Problemzone oder gar schon mal drüber

Aber man kann sicherlich Wege finden, sich auch das schönzurechnen. Wenn ich etwa genug Einnahmen über OnlyFans erzeuge, mag der Preis sogar komplett egal sein. Danke, Nvidia!

robbitop
2023-04-19, 09:05:44
Ist halt eine umgelabelte 4060.

Holundermann
2023-04-19, 10:12:08
Naja - unterm strich kostet sie weniger als die 3080, hat 2 GB mehr VRAM und kann DLSS 3. Ausserdem ist sie im Verbrauch geringer und ich denke das sie bessere RT performance hat. Ich würde sie auf jedenfall einer 3080 vorziehen.

So traurig das ist - von allen Grafikkarten dieser Generation hat die 4070 wohl das beste P/L Verhältnis.

basix
2023-04-19, 10:28:46
Die 4070 ist an sich eine gute Karte. aufkrawall hat es gut zusammengefasst. Für <=500 Euro wäre das ein vertretbares bis sogar gutes Gesamtpaket.

Viel schlimmer wird es aber vermutlich bei 4060 Ti und 4060. Beide mit nur 8GByte (welche 2023 bei neueren Spielen endgültig ans Limit kommen und das zum Teil bereits in 1080p) und die 4060 sogar mit AD107! Ein ~150mm2 kleiner Low End Chip...

Die 4060 wird sich zudem irgendwo zwischen 3060 und 3060 Ti einordnen. Also nur geringe Fortschritte bei der Performance. Nvidia versucht hier also wirklich einen auf Turing zu machen: Preise anheben sowie Feature Selling anstatt Performance Selling (DLSS3).

Raff
2023-04-19, 10:30:41
Das wird mit 8 GiByte nicht funktionieren, so viel ist schon jetzt klar. Die Frame Generation kostet zu viel Speicher, um etwas zu retten ("You can't polish a turd" ;)). Das Hoffen auf Varianten mit verdoppeltem Speicher bzw. endlich 1,5-GiByte-Speicherbausteine geht weiter.

MfG
Raff

dargo
2023-04-19, 10:31:09
Die 3080 10GB ist natürlich mit der 4070 komplett obsolet geworden. Schon alleine 2GB mehr Speicher und gigantische 120W weniger an Abwärme sprechen da deutlich für eine 4070. Da spielt es auch keine Rolle mehr wenn die 4070 bei höherer Auflösung minimal im Nachteil ist. Die 5% merkt kein Schwein.

Das Hoffen auf Varianten mit verdoppeltem Speicher bzw. endlich 1,5-GiByte-Speicherbausteine geht weiter.

Ist an diesen 1,5GB Speicherbausteinen überhaupt was dran oder ist das weiterhin ein Mythos? Irgendwie sehe ich keine Massenproduktion von solchen Bausteinen und ich bin mir nicht mal sicher ob die existieren/existiert haben. In welchen Bereich sollen diese jemals angewendet worden sein?

DrFreaK666
2023-04-19, 10:53:15
Die 4070 ist an sich eine gute Karte. aufkrawall hat es gut zusammengefasst. Für <=500 Euro wäre das ein vertretbares bis sogar gutes Gesamtpaket.

Viel schlimmer wird es aber vermutlich bei 4060 Ti und 4060. Beide mit nur 8GByte (welche 2023 bei neueren Spielen endgültig ans Limit kommen und das zum Teil bereits in 1080p) und die 4060 sogar mit AD107! Ein ~150mm2 kleiner Low End Chip...

Die 4060 wird sich zudem irgendwo zwischen 3060 und 3060 Ti einordnen. Also nur geringe Fortschritte bei der Performance. Nvidia versucht hier also wirklich einen auf Turing zu machen: Preise anheben sowie Feature Selling anstatt Performance Selling (DLSS3).

Ist ja nicht nur bei NV so. Auch AMDs 7600 wird nur 8GB haben.
Wer im niedrigen Preissequement mehr GB haben will, greift zu älterer RDNA2 Hardware oder zu Intels A770 16GB

The_Invisible
2023-04-19, 10:57:44
Ist an diesen 1,5GB Speicherbausteinen überhaupt was dran oder ist das weiterhin ein Mythos? Irgendwie sehe ich keine Massenproduktion von solchen Bausteinen und ich bin mir nicht mal sicher ob die existieren/existiert haben. In welchen Bereich sollen diese jemals angewendet worden sein?

Die G6X sind ja eigentlich auch nur Nvidia only oder? Wenn da Nvidia entsprechend ordern würde wäre das sicher machbar, wobei es dann ja eigentlich auch 3GB Chips geben müsste

dargo
2023-04-19, 11:01:49
Die G6X sind ja eigentlich auch nur Nvidia only oder? Wenn da Nvidia entsprechend ordern würde wäre das sicher machbar, wobei es dann ja eigentlich auch 3GB Chips geben müsste
Ich halte das für Quatsch. Das Volumen wäre immer noch viel zu klein, dass sich sowas lohnt. Es bringt nichts wenn die Preise von einem 1,5GB Riegel wesentlich höher liegen als für einem 2GB Riegel.

basix
2023-04-19, 12:27:10
Ist an diesen 1,5GB Speicherbausteinen überhaupt was dran oder ist das weiterhin ein Mythos? Irgendwie sehe ich keine Massenproduktion von solchen Bausteinen und ich bin mir nicht mal sicher ob die existieren/existiert haben. In welchen Bereich sollen diese jemals angewendet worden sein?

In Form von DDR5 gibt es das ja neuerdings bereits: 24GB / 48GByte Riegel. Die sollten 24 Gbit Chips tragen: https://www.computerbase.de/2021-12/ddr5-arbeitsspeicher-24-gbit-chips-von-sk-hynix-ermoeglichen-96-gbyte-module/

Bei GDDR6(X) sieht man das noch nicht und wenn man danach sucht, findet man nur 24 Gbps und nicht Gbit...
Ach ja, es müssten 3 GByte Bausteine sein (24 Gbit) sonst nützt uns das nicht viel ;) Bei 128bit und somit 4x Speicherbausteinen kämen wir dann auf 12 GByte, was für eine Mittelklasse Karte genau das richtige wäre.

HOT
2023-04-19, 13:33:35
Es wird Zeit für 32Gb-Module. Leider wird das erst mit GDDR7 was, wie es aussieht.
Das würde alle Probleme lösen, alle Speicher würden verdoppelt. Wie dargo schon schrieb, werden sich krumme Modulgrößen einfach nicht lohnen, es wäre zu wenig Nachfrage. Und mMn ist es damit auch nicht getan, wenn man sieht, in welche Richtung sich das entwickelt. 4060 bis 4070ti bauchen 16GB um langlebig zu sein, gleiches gilt für RX7600 bis 7800. Die 4050 und 7500 kann dann ja mit 12GB kommen, das wird eh das neue Minimum. 6X gibts sogar erst knapp ein Jahr auf dem Markt mit 16Gb, das dürfte also noch länger dauern...

Lehdro
2023-04-19, 13:43:38
Ich halte das für Quatsch. Das Volumen wäre immer noch viel zu klein, dass sich sowas lohnt. Es bringt nichts wenn die Preise von einem 1,5GB Riegel wesentlich höher liegen als für einem 2GB Riegel.
GDDR6X und GDDR5X wurden auch quasi nur für NV gefertigt, sogar in großen und kleinen Speichergrößen - siehe die doppelseitige Platinenbestückung der RTX 3090 vs. der einseitigen 3090 Ti. 8 GBit (=1 GiB) und 16 GBit (=2GiB) Speicherchips gibt es, die kleineren könnten zugunsten der 12 GBit (=1,5 GiB) Chips wegfallen. Wäre also 1:1 Ersatz.

Spezifiziert ist es sowieso schon seit GDDR5X. (https://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps)
The GDDR5 standard covered memory chips with 512 Mb, 1 Gb, 2 Gb, 4 Gb and 8 Gb capacities. The GDDR5X standard defines devices with 4 Gb, 6 Gb, 8 Gb, 12 Gb and 16 Gb capacities. Typically, mainstream DRAM industry tends to double capacities of memory chips because of economic and technological reasons. However, with GDDR5X the industry decided to ratify SGRAM configurations with rather unusual capacities — 6Gb and 12Gb.

The mobile industry already uses LPDDR devices with 3 Gb, 6 Gb and 12 Gb capacities in a bid to maximize flexibility of memory configurations for portable electronics. As it appears, companies developing standards for graphics DRAM also wanted to capitalize on flexibility. A GDDR5X chip with 16 Gb capacity made using 20 nm or 16/18 nm process technology would have a rather large die size and thus high cost. However, the size and cost of a 12 Gb DRAM IC should be considerably lower and such a chip could arguably address broader market segments purely on cost.
Das war 2016.

Edit: Eine hypothetische 4070/Ti hätte damit 18 GiB Speicher, eine 4060/Ti 12 GiB. Deutlich bessere Segmentation als durch eine Verdopplung der Kapazität - wäre definitiv im Interesse von NV.
48 GiB @ 384 Bit = Titan
36 GiB @ 384 Bit = X090
24 GiB @ 256 Bit = X080
18 GiB @ 192 Bit= X070
12 GiB @ 128 Bit= X060
12/9 GiB @ 96 Bit= X050
Da braucht man die 1 GiB Chips gar nicht mehr, 1,5 + 2 GiB all the way.

HOT
2023-04-19, 13:49:03
Spezifiziert sind krumme Größen auch für GDDR5 und wahrscheinlich sogar GDDR3 und 4, umgesetzt wurde es aber nie und ich würd auch nicht damit rechnen. Diese Diskussion ist schon gefühlt so alt wie das 3DCenter selber :freak:, es ist nie was geworden damit.

Wenn man sich die Produktkataloge anguckt sind die doch sehr beschränkt. Was da nicht alls spezifiziert wurde... umgesetzt sind:
8Gb 14 und 16GT/s (12GT/s sind offenbar EOL)
16Gb 14, 16, 20 und 24GT/s, 20GT/s nur SKHynix und Samsung, 24GT/s nur bei Samsung. Fertig, das wars. In der Produktion hat jeder Hersteller also genau 2 Chips, den 8Gb und den 16Gb.

Lehdro
2023-04-19, 13:55:22
Spezifiziert sind krumme Größen auch für GDDR5 und wahrscheinlich sogar GDDR3 und 4 [...]
Echt? Anandtech meint das glatte Gegenteil.

Diese Diskussion ist schon gefühlt so alt wie das 3DCenter selber :freak:, es ist nie was geworden damit.
Es ist halt eine Lösung, eine Verdoppelung wäre eine andere. Da NV aber mit Speicher geizt, wäre das ein brauchbarer Mittelweg. Wenn man sowieso alleinig GDDR6X bei Micron bestellt, warum dann nicht in diesen Größen?

HOT
2023-04-19, 13:59:19
Ich stimm dir ja zu, es ist nur totel unrealistisch ;). Ich wette, die Hersteller kündigen eher GDDR7 an, als das hier bei GDDR6 was neues kommt.

Lehdro
2023-04-19, 14:02:21
Ich stimm dir ja zu, es ist nur totel unrealistisch ;). Ich wette, die Hersteller kündigen eher GDDR7 an, als das hier bei GDDR6 was neues kommt.
Da sind wir wohl einer Meinung. Schade um die kleinen Karten diese Generation (8 GiB RX 7600 & RTX 4060&50) :(

dildo4u
2023-04-19, 14:02:57
Noch scheint Vram kein kritisches Verkaufsargument zu sein ansonsten würde die 7900XT ihre Preise besser halten.
Ich könnte mir dort eher vorstellen das es später Probleme geben wird, die 4070 muss schon Heute oft 4k DLSS Performance nutzen für fps über 60.

4k Balance DLSS Last of US.

https://youtu.be/O9PS8cWVFyk?t=35

HOT
2023-04-19, 14:15:56
Also die doch sehr schlechten Verkaufszahlen der 4070/Ti würde ich schon auch auf die 12GB zurückführen... Allerdings ist das Marktumfeld mit den billigen 7nm-AMD-Produkten auch schwierig für diese beiden Karten.

Exxtreme
2023-04-19, 14:21:36
Noch scheint Vram kein kritisches Verkaufsargument zu sein ansonsten würde die 7900XT ihre Preise besser halten.

In denke, selbst die 7900XT ist viel zu teuer für die meisten Kunden. Die geben maximal so 400 EUR für eine Grafikkarte aus.

basix
2023-04-19, 14:23:52
Edit: Eine hypothetische 4070/Ti hätte damit 18 GiB Speicher, eine 4060/Ti 12 GiB. Deutlich bessere Segmentation als durch eine Verdopplung der Kapazität - wäre definitiv im Interesse von NV.
48 GiB @ 384 Bit = Titan
36 GiB @ 384 Bit = X090
24 GiB @ 256 Bit = X080
18 GiB @ 192 Bit= X070
12 GiB @ 128 Bit= X060
12/9 GiB @ 96 Bit= X050

Genau so hätte ich das auch gedacht. Und diese Speichermengen sollten dann wieder für eine Weile ausreichen (=hohe Stückzahlen bei Samsung und Co. = Kostenstruktur stimmt). Die 60er kann man evtl. noch auf 16 GByte aufpumpen, wenn 12GB in ein paar Jahren zu eng werden sollten.

- 1080p = 12GB
- 1440p = 16...18GB
- 2160p = 18...24GB
- 8K = 24+ GB

Es kann sein, dass diese Kapazitätserhöhung die Preise nach oben drückt. GDDR7 sollte aber eher Massenware sein verglichen zu G6X, es wird die selbe Anzahl an VRAM-Packages verlötet und man wird bei GDDR7 die neuesten Fertigungsprozesse verwenden (höhere Speicherdichte). Alle drei Faktoren sollten $/GByte verglichen mit G6X drücken.

Und bei 4070, 4070 Ti & 4080 hat man die Preise bereits stark erhöht. Nochmals so einen Sprung kann sich Nvidia nicht erlauben (die Karten verkaufen sich ja jetzt bereits eher mässig)

Kostenprognose (Hoffnung, was bei den absolut gesehen sehr hohen Preisen eigentlich absurd ist):
- 36 GiB @ 384 Bit = X090 --> 1799$
- 24 GiB @ 256 Bit = X080 --> 1099$ -> 7900 XTX kostet 999$
- 18 GiB @ 192 Bit= X070 --> 679$ -> 1070 mit 8GB kostete 379$ und das war 2017 // 6800 XT mit 16GB kostete 679$
- 12 GiB @ 128 Bit= X060 --> 449$ -> 3060 mit 12GB kostete 329$
- 9 GiB @ 96 Bit= X050 --> 329$

Diese Preise sind nicht höher als heute und trotz deutlich erhöhter VRAM-Menge nicht unealistisch (siehe andere Produkte). Absolut gesehen sind die Preise allerdings immer noch hoch. Entry Level fängt >300$ an...
Und wenn die Gerüchte zu Blackwell halbwegs stimmen, wäre das eine P/L Steigerung um Faktor 2x und gleichzeitig ein Steigerung auf zukunftsorientierte Speichermengen. Würde ich nehmen.

Ich wette, die Hersteller kündigen eher GDDR7 an, als das hier bei GDDR6 was neues kommt.
Ich vermute, dass mit GDDR7 das kommen könnte, was Lehdro oben dargestellt hat. Für GDDR6 ist das mMn unwahrscheinlich geworden. GDDR7 wird ein Weilchen leben, da wären entsprechende DRAM-Chips die lange produziert werden können genau goldrichtig.
- 16 Gbit
- 24 Gbit (=Standard für Desktop GPUs)
- 32 Gbit (oder 2x 16 Gbit im Clamshell Modus)

Sumpfmolch
2023-04-19, 14:25:55
Noch scheint Vram kein kritisches Verkaufsargument zu sein ansonsten würde die 7900XT ihre Preise besser halten.
Ich könnte mir dort eher vorstellen das es später Probleme geben wird, die 4070 muss schon Heute oft 4k DLSS Performance nutzen für fps über 60.

4k Balance DLSS Last of US.

https://youtu.be/O9PS8cWVFyk?t=35

Man soll ja die Karten auch spätestens nach 2 Jahren wegwerfen. Solange man VRAM so gut für die geplante Obsoleszenz einsetzen kann, bleibt die Mangelwirtschaft.

dildo4u
2023-04-19, 14:29:39
Es gab in 2020 neue Konsolen der näste Sprung könnte erst 2026 oder 28 sein.
Hätte wesentlich schlimmer kommen können von 8 auf 16GB ist Historisch niedrig.(PS4 zu PS5)

Ex3cut3r
2023-04-19, 14:32:02
Man soll ja die Karten auch spätestens nach 2 Jahren wegwerfen. Solange man VRAM so gut für die geplante Obsoleszenz einsetzen kann, bleibt die Mangelwirtschaft.
Ich glaube bzw. hoffe, das ist den meisten Käufern auch bewusst, wer mehr "ruhe" haben möchte, muss 1200€ auf den Tisch legen, und zu einer 4080 greifen. Muss sich aber in klaren sein, dass die 4080 schon in 1,3 - 1,7 Jahren von einer neuen 5060 Ti für 450-500€ geschlagen werden wird. Bei vermutlich 150W.

Oder aber man benutzt die Regler, denn mal ganz ehrlich, optimised Settings, können für einen gigantischen FPS Gain sorgen, bei minimalem Bild unterschied. Wer dafür zu faul ist, bzw. ein Ultra Kandidat ist, für den wurde ich auch eher eine 4080 ans Herz legen.

Auf der anderen Seite, was habe ich denn jetzt? 2070, 2070S, 2080, 2080S? Da kann eine 4070 durchaus Sinn machen.

basix
2023-04-19, 14:37:32
Hätte wesentlich schlimmer kommen können von 8 auf 16GB ist Historisch niedrig.(PS4 zu PS5)

Das wird durch die schnelle SSD (viel Bandbreite) und intelligenteres Streaming aufgewogen (Sampler Feedback Streaming, virtualized Geometry aka Nanite / Meshlets).

Was noch nicht gelöst ist, ist der hohe Speicherbedarf von Raytracing. Das belastet das VRAM-Budget.

HOT
2023-04-19, 14:42:19
[...]


Ich vermute, dass mit GDDR7 das kommen könnte, was Lehdro oben dargestellt hat. Für GDDR6 ist das mMn unwahrscheinlich geworden. GDDR7 wird ein Weilchen leben, da wären entsprechende DRAM-Chips die lange produziert werden können genau goldrichtig.
- 16 Gbit
- 24 Gbit (=Standard für Desktop GPUs)
- 32 Gbit (oder 2x 16 Gbit im Clamshell Modus)

So wie bei DDR5, durchaus möglich.

Man soll ja die Karten auch spätestens nach 2 Jahren wegwerfen. Solange man VRAM so gut für die geplante Obsoleszenz einsetzen kann, bleibt die Mangelwirtschaft.

Das funktioniert halt nicht, wenn keiner kauft. Sollten die Verkäufe schlecht bleiben und auch moderate Preisabschläge nichts bringen, muss man die 20$ ausgeben um die Dinger mit viel VRAM auszustatten, hilft das immer noch nicht, müssen große Rabatte her. Mal sehen, wie das weitergeht mit der Rezession.

IchoTolot
2023-04-19, 14:47:00
Was gut ist, ist dass das Thema VRAM ja inzwischen von reichweiten starken Youtubern breitgetreten wird. Die Masse bekommt also auch langsam davon Wind. Da wird nvidia sicher früher oder später reagieren.

basix
2023-04-19, 14:48:21
Auf der anderen Seite, was habe ich denn jetzt? 2070, 2070S, 2080, 2080S?

4060 8GB mit etwa 2080(S) Performance. Hey, hat DLSS3 und ist somit 2x so schnell ;D

IchoTolot
2023-04-19, 14:50:51
Ja und mit FG frisst sich der VRAM voll und aber du brauchst ja FG damit du RT wieder nutzen kannst. RT braucht aber auch VRAM. 8 GB bei so ner Karte sind einfach nur fail. ^^ AMD is da aber auch nicht besser.

HOT
2023-04-19, 14:54:50
FG in den niedrigen Frameraten ist eh totaler Mist. Aber ich denke, auch NV wird noch reagieren.
Wenn die Verkäufe der 12GB-Varianten nicht läuft, wird AMD sicherlich im Sommer ihre Generation entsprechend mit mehr ausstatten, um an die guten Verkäufe der 7nm-Generation anzuschließen. Und dann bleibt NV nichts mehr anderes übrig, als das ganze Lineup zu refreshen.

Ex3cut3r
2023-04-19, 14:59:20
4060 8GB mit etwa 2080(S) Performance. Hey, hat DLSS3 und ist somit 2x so schnell ;D

:confused: Soweit ich weiß, hatte schon eine 3060, 2080 Leistung. Bei einer 4060 non Ti rechne ich eher, mit 2080 Ti/3070 Leistung.

fizzo
2023-04-19, 15:40:39
Ich glaube bzw. hoffe, das ist den meisten Käufern auch bewusst, wer mehr "ruhe" haben möchte, muss 1200€ auf den Tisch legen, und zu einer 4080 greifen. Muss sich aber in klaren sein, dass die 4080 schon in 1,3 - 1,7 Jahren von einer neuen 5060 Ti für 450-500€ geschlagen werden wird. Bei vermutlich 150W.

Das nenn ich mal trockenen Sarkasmus :ugly:

Lehdro
2023-04-19, 15:44:49
:confused: Soweit ich weiß, hatte schon eine 3060, 2080 Leistung. Bei einer 4060 non Ti rechne ich eher, mit 2080 Ti/3070 Leistung.
Eine 3060 ist ungefähr so schnell wie eine 2070 non Super. (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/) Eine 4070 ist 30% schneller als eine 2080 Ti/3070. (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/3/)
Demzufolge könnte eine 4060 Ti (ca. 30% schwächer als 4070 laut Leaks, 34 SM (https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-4060-4050-sollen-im-zeitrahmen-maijuni-antreten)) auf diesem Niveau landen, eine 4060 (nochmal -30%, 24 SM) dann unterhalb 3060 Ti Niveau.

The_Invisible
2023-04-19, 15:47:03
FG in den niedrigen Frameraten ist eh totaler Mist. Aber ich denke, auch NV wird noch reagieren.
Wenn die Verkäufe der 12GB-Varianten nicht läuft, wird AMD sicherlich im Sommer ihre Generation entsprechend mit mehr ausstatten, um an die guten Verkäufe der 7nm-Generation anzuschließen. Und dann bleibt NV nichts mehr anderes übrig, als das ganze Lineup zu refreshen.

Nur möglich wenns 3/4GiB Chips gibt, Clamshell wird sich Nvidia auf den "billigkarten" sicher nicht antun, Busbreite kann ja je nach Chip nicht erhöht werden.

Sehe da nicht viel Möglichkeiten außer Nvidia baut ihr Modellschema um, also AD103 für xx70er usw aber lets see...

Ex3cut3r
2023-04-19, 15:55:05
Eine 3060 ist ungefähr so schnell wie eine 2070 non Super. (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/) Eine 4070 ist 30% schneller als eine 2080 Ti/3070. (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/3/)
Demzufolge könnte eine 4060 Ti (ca. 30% schwächer als 4070 laut Leaks, 34 SM (https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-4060-4050-sollen-im-zeitrahmen-maijuni-antreten)) auf diesem Niveau landen, eine 4060 (nochmal -30%, 24 SM) dann unterhalb 3060 Ti Niveau.

Bin ich blind? Ich sehe da keine 2070, oder 2080.

Der_Korken
2023-04-19, 16:55:10
Ich glaube bzw. hoffe, das ist den meisten Käufern auch bewusst, wer mehr "ruhe" haben möchte, muss 1200€ auf den Tisch legen, und zu einer 4080 greifen. Muss sich aber in klaren sein, dass die 4080 schon in 1,3 - 1,7 Jahren von einer neuen 5060 Ti 5070 für 450-500 800-900€ geschlagen werden wird.

Fixed that for you ;).

Grindcore
2023-04-19, 16:55:51
Abgesehen vom Preis ne tolle Karte. Die Performance mit 200W Verbrauch ist schon echt geilo. Für 1440p perfekt.

DrFreaK666
2023-04-19, 17:17:42
In denke, selbst die 7900XT ist viel zu teuer für die meisten Kunden. Die geben maximal so 400 EUR für eine Grafikkarte aus.

Das wirds sein. Die Mehrheit wartet auf günstigere Karten und Preissenkungen

sun-man
2023-04-19, 17:20:44
...und genau diese Mehrheit kann weiter mit 8Gb leben.

64% in 1920x1080
https://store.steampowered.com/hwsurvey/?l=german

DrFreaK666
2023-04-19, 17:24:35
Jo, und die Nerds jammern.
1080p sprengt teilweise aber auch schon die 8GB

Ex3cut3r
2023-04-19, 17:36:49
Fixed that for you ;).

Ich gehe davon aus, dass Blackwell stand jetzt mehr zulegen wird, als Ampere und Ada.

Sodass diesmal die 5060 Ti anstatt 5070, 4080 Leistung erreichen wird. ;)

MAX|HASS
2023-04-19, 17:41:43
Abgesehen vom Preis ne tolle Karte. Die Performance mit 200W Verbrauch ist schon echt geilo. Für 1440p perfekt.


Man muß sich halt überlegen, wie viel einem die Karte zu teuer ist. Mein Standpunkt wäre (und der deckt sich scheinbar mit den Meinungen der größeren Foren): mit 500€ wäre sie fairer bepreist. Für 500€ würde man einen Gegenwert bekommen, der weit entfernt wäre von Altmetall, 12gb hin oder her. Das wäre ausreichend.

Wer jetzt aber sagt, die 4070 ist eigentlich auch nur eine verkappte 60/ti, für den sind natürlich auch 500€ noch zu hoch gegriffen. Aber ausgehend von ersterem Fall reden wir also von 150€ zu teuer und dann muß man halt gucken, wie dringend man was neueres bräuchte oder nicht.

Ich hatte hier letzten Sommer ne 3060ti für 350€ gekauft und vor sechs Wochen wieder verkauft für den gleichen Preis (in erster Linie wegen den 8gb). Nun spiele ich wieder mit meiner 1070, was für 1080p völlig ausreichend ist (2019 für 250€ NEU gekauft im Abverkauf). Aber ganz ehrlich: wenn es mich morgen juckt, bestelle ich so'ne 4070 und dann ist wieder Ruhe im Karton bis 2027. Ja, dann bin auch ich mitverantwortlich für hochbleibende Preise, ja, dann zieht mir nV monatlich 3,5€ extra aus der Tasche (150€:48Monate), ich pfeiff drauf.

dargo
2023-04-19, 17:46:00
Ich gehe davon aus, dass Blackwell stand jetzt mehr zulegen wird, als Ampere und Ada.

Und in welcher Glaskugel steht das?

Ex3cut3r
2023-04-19, 17:51:41
Das steht nirgendwo. Aber wenn man sich die Gerüchte ansieht, die Architektur, den Node Sprung, dann wird diesmal sehr viel geändert. Ada ist eigentlich nur Ampere noch mal aufgeblasen und mit besserem Prozess hergestellt.

https://i.extremetech.com/imagery/content-types/07kuCqInEKP0dtyuSA9u6xb/images-1.fill.size_670x374.v1681153685.png

Lurtz
2023-04-19, 18:07:43
Oder aber man benutzt die Regler, denn mal ganz ehrlich, optimised Settings, können für einen gigantischen FPS Gain sorgen, bei minimalem Bild unterschied. Wer dafür zu faul ist, bzw. ein Ultra Kandidat ist, für den wurde ich auch eher eine 4080 ans Herz legen.

FPS-Gewinn ja, eine deutliche VRAM-Einsparung bei minimalem Optikverlust eher nicht. Texturen machen oft sehr viel vom Bildeindruck aus.

...und genau diese Mehrheit kann weiter mit 8Gb leben.

64% in 1920x1080
https://store.steampowered.com/hwsurvey/?l=german
Als wäre die Auflösung das große Problem. Der Content macht gerade VRAM-Sprünge, da hilft auch das Verharren auf einer Auflösung nicht.

dargo
2023-04-19, 18:15:32
Das steht nirgendwo. Aber wenn man sich die Gerüchte ansieht, die Architektur, den Node Sprung, dann wird diesmal sehr viel geändert. Ada ist eigentlich nur Ampere noch mal aufgeblasen und mit besserem Prozess hergestellt.

https://i.extremetech.com/imagery/content-types/07kuCqInEKP0dtyuSA9u6xb/images-1.fill.size_670x374.v1681153685.png
Von Ampere zu Ada waren das fast zwei Nodesprünge und jetzt mit dem Wechsel von TSMC 4nm auf 3nm soll plötzlich deutlich mehr bei rum kommen? Wers glaubt... :tongue:

btw.
Weiterhin monolithisch beim Gaming + GDDR7? Bin schon auf die Preise gespannt. :D

Exxtreme
2023-04-19, 18:25:49
...und genau diese Mehrheit kann weiter mit 8Gb leben.

64% in 1920x1080
https://store.steampowered.com/hwsurvey/?l=german

Wobei die 1080er Auflösung nur unwesentlich weniger VRAM braucht denn WQHD oder UHD. Sprich, es ist sehr unwahrscheinlich, dass die 8 GB VRAM für 1080 reichen, für WQHD aber nicht mehr.

Langlay
2023-04-19, 18:31:41
Ich glaube bzw. hoffe, das ist den meisten Käufern auch bewusst, wer mehr "ruhe" haben möchte, muss 1200€ auf den Tisch legen, und zu einer 4080 greifen. Muss sich aber in klaren sein, dass die 4080 schon in 1,3 - 1,7 Jahren von einer neuen 5060 Ti für 450-500€ geschlagen werden wird. Bei vermutlich 150W.


Die 150W sind nicht schlimm, wenn du auf ~2-3% Leistung verzichten kann, rennt die 4080 mit <240W unter Last (ja auch in APTR nur in Q2RTX braucht sie etwas mehr).

Grundsätzlich ist die 4080 aber schon ne Runde Karte wenn der Preis 3 stellig wäre könnte man sie auch ruhigen Gewissens kaufen.

IchoTolot
2023-04-19, 18:50:41
Texturen sind heutzutage nicht mehr nur Texturen Teppiche, sondern ganze layer von Texturen und Geometrie. Das frisst alles VRAM. Die Auflösung spielt gar keine so große Rolle mehr. Das verstehen nur viele nicht und jammern dann..

Troyan
2023-04-19, 18:57:11
The Last of Us benötigt 9,3GB alleine an VRAM in 1080p, aber nur 11,5GB in 4K. Man haut also einfach die selben 4K-Texturen und Layer in 1080p über den Screen wie in 4K, trotzdem man von den 11,5GB nur 1/4 sieht.

Gleichzeitig reicht für Dead Island 2 selbst in 4K 10GB aus und das sieht Lichtjahre besser aus als ein TLoU mit Medium-Texturen in 4K...

/edit: So sehen mehr als 10GB in 1080p aus: https://youtu.be/ST63DzI41Lc?t=318
Und so sehen weniger als 10GB in 4K aus: https://youtu.be/bTp9bZd2iNQ?t=25

Bonusrunde: So sieht TLoU in 4K mit reinen 6GB VRAM aus:https://youtu.be/ST63DzI41Lc?t=810

Jaja, soviele Layers.

DrFreaK666
2023-04-19, 19:11:41
Ich gehe davon aus, dass Blackwell stand jetzt mehr zulegen wird, als Ampere und Ada.

Sodass diesmal die 5060 Ti anstatt 5070, 4080 Leistung erreichen wird. ;)

Namen sind Schall und Rauch. Auf den Preis kommt es an

Ex3cut3r
2023-04-19, 19:16:39
Namen sind Schall und Rauch. Auf den Preis kommt es an

Weiß nicht, was du da erwartest. Gute Preise dürften endgültig vorbei sein. Egal ob Nvidia oder AMD.

Von Ampere zu Ada waren das fast zwei Nodesprünge und jetzt mit dem Wechsel von TSMC 4nm auf 3nm soll plötzlich deutlich mehr bei rum kommen? Wers glaubt... :tongue:

btw.
Weiterhin monolithisch beim Gaming + GDDR7? Bin schon auf die Preise gespannt. :D

Ich sags mal so: Selbst die "LuftPumpe" Ada 4090. Reicht aus, um AMDs Topmodell auf 60-70% Vorsprung zu halten. Mit RT nochmal 80-100%.

Bei Blackwell, wirds leider noch schlimmer für AMD aussehen. ;)

Langlay
2023-04-19, 19:38:13
Ich sags mal so: Selbst die "LuftPumpe" Ada 4090. Reicht aus, um AMDs Topmodell auf 60-70% Vorsprung zu halten. Mit RT nochmal 80-100%.


Die 4090 ist 60-70% schneller im Raster als meine alte 6900XT. Der Abstand zur 7900XTX ist in Raster bei weitem keine 60%, eher <30%.

basix
2023-04-19, 19:43:15
:confused: Soweit ich weiß, hatte schon eine 3060, 2080 Leistung. Bei einer 4060 non Ti rechne ich eher, mit 2080 Ti/3070 Leistung.

Wie willst du das mit den mikrigen 24 SM von AD107 schaffen? :confused:;)

Ja, AD107, das ist kein Tippfehler.

dargo
2023-04-19, 19:44:42
Ich sags mal so: Selbst die "LuftPumpe" Ada 4090. Reicht aus, um AMDs Topmodell auf 60-70% Vorsprung zu halten. Mit RT nochmal 80-100%.

Bei Blackwell, wirds leider noch schlimmer für AMD aussehen. ;)
Keine Ahnung wo du dir deine Zahlen her saugst. Im Raster ist die RTX 4090 34% schneller als die RX7900XTX @4k.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_inkl_nextgen

Kostet dafür auch 60% mehr. Und für Blackwell kommt RDNA4.

Ex3cut3r
2023-04-19, 19:46:07
Die 4090 ist 60-70% schneller im Raster als meine alte 6900XT. Der Abstand zur 7900XTX ist in Raster bei weitem keine 60%, eher <30%.

Sry, hast recht. Sind so ca. 40% und 75% im RT.

dargo
2023-04-19, 19:46:57
Hast immer noch das Schloss bei der falschen Karte gesetzt. :freak:

Ex3cut3r
2023-04-19, 19:49:14
Genug 3DCenter für heute.
Guten Abend.

rtx4070
2023-04-19, 21:45:52
Könnt Ihr euren Off topic Müll in einem Review Thread bitte unterlassen hier lesen auch Leute mit die nicht angemeldet sind. Danke!

Thunder99
2023-04-19, 22:35:22
Sie werden kommen, da immer mehr die Größe an sich ein Problem wird. Am Beispiel 24GB sind 48GB Overkill schlecht hin aber 32GB genau richtig für private Haushalte für den AD Nachfolger. 512bit sehen wir nicht mehr und 256bit ist dann doch zu wenig im Nvidia High End Bereich.

dildo4u
2023-04-20, 07:29:29
Echt schade um die Ampere Karten die hätten wirklich noch eine lange Laufzeit mit 16GB.
Das ist wesentlich beeindruckender als Lovelace Samsung selbst nutzt aktuell seine Fertigung nicht für High-End Smartphones weil sie nicht Konkurrenzfähig ist.
Die Doom Werte wegen dem VRam 200 vs 70 fps. :down:

Vb1SLrkY6eI

mili2110
2023-04-20, 08:59:04
An alle die eine RTX 4070 kaufen möchten:
Schaut mal in eBay Kleinanzeigen und holt euch ne gebrauchte RTX 3090. da habt ihr länger was von (24GB). Die kann man auch undervolten und das PT etwas runter setzen wenn ihr etwas Strom sparen möchtet ;)

Gleiche Leistung, gleicher Preis (600-700€ schon oft gesehen), doppelt so viel VRAM.

Just my 2 Cents 🤪

Wuge
2023-04-20, 11:50:57
Jain... ne 4070 ist schon erheblich leichter zu kühlen und mit Strom zu versorgen. Die Karten sind nicht vergleichbar. Die 3090 ist natürlich viel cooler...

rtx4070
2023-04-20, 11:50:59
Kein DLSS3, keine Garantie, trotz UV wir reden hier von 140 watt bei der 4070 nicht vergleichbar.Vram gut. Muss jeder selber wissen. :)

Ich denke 12 gb ereichen paar jahre. 8gb ist tot bis auf esport und old games aber auch da werden neue games laufen....settings gibts es nicht umsonst. 10gb sind auch noch okay.

Vram Panik hilft neimanden wegen paar schlechten ports von ps4 spielen.

rtx4070
2023-04-20, 11:53:47
Echt schade um die Ampere Karten die hätten wirklich noch eine lange Laufzeit mit 16GB.
Das ist wesentlich beeindruckender als Lovelace Samsung selbst nutzt aktuell seine Fertigung nicht für High-End Smartphones weil sie nicht Konkurrenzfähig ist.
Die Doom Werte wegen dem VRam 200 vs 70 fps. :down:

https://youtu.be/Vb1SLrkY6eI
Wow ein Youtuber. Lies lieber einschlägigeg Fachzeitschriften . Bei dem Video könnte man meinen die 3070 ist fast besser. Weis nicht wie der das hinbekommen hat.;D

aufkrawall
2023-04-20, 12:08:28
Die Doom Werte wegen dem VRam 200 vs 70 fps. :down:

https://youtu.be/Vb1SLrkY6eI
Gibt auch dort in WD Legion Einbrüche mit den 8GB in 1440p, und das war Ende 2020...

Pumpi74
2023-04-20, 12:14:59
omg, zum Glück hab ich nochmal nach Anno 1800 Benchmarks geschaut. Die 4070@220Watt wird in dem Spiel in 4K von einer 3070Ti@stock geschlagen. WtF.

Während die RTX 3080 meist leicht hinter der RTX 4070 liegt, wendet sich das Blatt in Anno 1800 zugunsten des 3000er-Modells, vor allem in 4K und WQHD. Anno 1800 scheint dementsprechend weniger Wert auf eine hohe Taktrate und mehr VRAM zu legen und stattdessen eher von der höheren Speicherbandbreite und der höheren Zahl an Shader-Einheiten der RTX 3080 zu profitieren als die anderen Benchmark-Titel.

OK, das wars dann. Next Please...

Troyan
2023-04-20, 12:20:33
Doom hat ein Texturcache. Der sagt nichts aus, ob das Spiel bei Ultra oder so auch soviel Speicher im VRAM benötigt.

/edit: Nochmal zu Kostendiskussion:
https://pics.computerbase.de/1/0/7/4/7/5-59fd778976cfa41c/1-1080.88c6f8db.png
https://www.computerbase.de/2023-04/tsmc-quartalsbericht-mehr-umsatz-und-gewinn-mit-weniger-wafern/

5nm macht mehr als die Hälfte ein Drittel des Umsatzes bei TSMC aus. Trotz 15% weniger Waferauslieferungen hat man mehr Umsatz als vor einem Jahr gemacht. 5nm ist richtig teuer und deutlich teurer als der Uralt-8nm-Prozess von Samsung.

rtx4070
2023-04-20, 12:45:02
Ich sags ungern aber die 4070 ist in der Heutigen Zeit ein P/L brecher.....

Hat hier wer wirklich eine 500e 70 Karte erwartet wenn die 4080 das doppelte der 3080 kostet?

Eine 4070 für 500€ würde alles andere am Markt wie einen Witz erscheinen lassen was fps pro € angeht.

dildo4u
2023-04-20, 12:47:03
Doom hat ein Texturcache. Der sagt nichts aus, ob das Spiel bei Ultra oder so auch soviel Speicher im VRAM benötigt.

/edit: Nochmal zu Kostendiskussion:
https://pics.computerbase.de/1/0/7/4/7/5-59fd778976cfa41c/1-1080.88c6f8db.png
https://www.computerbase.de/2023-04/tsmc-quartalsbericht-mehr-umsatz-und-gewinn-mit-weniger-wafern/

5nm macht mehr als die Hälfte ein Drittel des Umsatzes bei TSMC aus. Trotz 15% weniger Waferauslieferungen hat man mehr Umsatz als vor einem Jahr gemacht. 5nm ist richtig teuer und deutlich teurer als der Uralt-8nm-Prozess von Samsung.
Zen 4 ist schon unter dem Zen 3 Launch Preis 7600x 230€ z.b.
Nvidia will einfach durch die Bank ihre Margen auf Crypto Level halten.

Troyan
2023-04-20, 12:53:43
Natürlich, weil Intel mit Raptor-Lake die Preise ad absurdum geführt hat. Ein 13600K hat mehr MT-Leistung als ein 7800X und mehr Spieleleistung als ein 7950X.

Würde AMD die 7900XT für 500€ verkaufen, wäre der Markt preislich auch komplett anders.

dildo4u
2023-04-20, 12:56:46
Ebend nur die 4090 hat keine Konkurrenz der Rest ist trotzdem Absurd bepreist.

Preisempfehlung unterschritten nach 1 Woche.

https://geizhals.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4070&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30


K8Kyeh2_jxY

Troyan
2023-04-20, 13:42:51
Deswegen nennt man es auch "unverbindlich". Mal davon abgesehen, dass der UVP der AIB Karten eben nicht von nVidia diktiert werden kann.

Mindfactory hat gerade 625€ aufgerufen. Schön mal ein Launch zu sehen, wo es genug Karten gibt. 30 Listungen bei Geizhal mit "sofort verfügbar".

dargo
2023-04-20, 13:47:14
5nm macht mehr als die Hälfte ein Drittel des Umsatzes bei TSMC aus. Trotz 15% weniger Waferauslieferungen hat man mehr Umsatz als vor einem Jahr gemacht. 5nm ist richtig teuer und deutlich teurer als der Uralt-8nm-Prozess von Samsung.
Mir kommen gleich die Tränen... armes Nvidia. :lol:

DrFreaK666
2023-04-20, 14:20:00
Deswegen nennt man es auch "unverbindlich". Mal davon abgesehen, dass der UVP der AIB Karten eben nicht von nVidia diktiert werden kann...

Früher waren Preise eigentlich immer unter UVP nach kurzer Zeit und heutzutage feiert man sowas mit Pauken und Trompeten :ugly:

Lehdro
2023-04-20, 14:38:18
Früher waren Preise eigentlich immer unter UVP nach kurzer Zeit und heutzutage feiert man sowas mit Pauken und Trompeten :ugly:
Das hatten wir halt ein paar Jahre lang quasi gar nicht. Man muss die Feste feiern wie sie kommen...

Rush
2023-04-20, 14:40:18
Früher waren Preise eigentlich immer unter UVP nach kurzer Zeit und heutzutage feiert man sowas mit Pauken und Trompeten :ugly:

Man verliert eben den Bezug zu den "alten" Preisen, wenn man sich nicht regelmäßig damit beschäftigt.
Das geht mir beim Lebensmittelkauf ähnlich: "Hat Frischkäse früher mehr als einen Euro gekostet?" :uponder: und no joke, ich weiß es einfach nicht mehr.

Ich finde die 4070 ist eigentlich ein rundes Paket nur leider 200€ zu teuer.
Aber angesichts der aktuellen Preisentwicklung haben wir die 600 schon in ein paar Wochen geknackt.
Die Sommerpreise werden fantastisch. ;)

BlacKi
2023-04-20, 14:43:38
alle preise werden sinken. gerade die teuren karten sinken prozentual am stärksten.

dildo4u
2023-04-20, 14:46:01
NV kann diese Chips an Elon verkaufen AMD will dort keiner wird Interessant wie es im Sommer aussieht.

AD104 als Profi Karte

https://www.computerbase.de/2023-03/nvidia-rtx-4000-sff-edition-profis-bekommen-ad104-mit-20-gb-und-nur-70-watt-tdp/

Troyan
2023-04-20, 15:03:07
alle preise werden sinken. gerade die teuren karten sinken prozentual am stärksten.

Ampere und RDNA2 sind doch nicht vergleichbar. Covid, Mining, Covid, Mining hat 18 Monate die Preise steigen statt sinken lassen.

Prinzenrolle
2023-04-20, 15:03:18
5nm ist richtig teuer und deutlich teurer als der Uralt-8nm-Prozess von Samsung.

Stimmt, allerdings dürfte Nvidia eher den Full Chip als 599 Dollar Produkt geplant haben und nicht den Cut Down.
Für den AD104 kassieren sie 799 Dollar, von daher kann man die beschnittene SKU durchaus für 499 Dollar anbieten, ohne am Hungertuch zu nagen.

dargo
2023-04-20, 16:02:47
Kann NV nicht denn dann müsste NV die SKUs drunter wieder mit zu wenig Marge verkaufen. Was sicherlich nicht in NVs Interesse liegt.

Ex3cut3r
2023-04-20, 16:36:05
Gibt auch dort in WD Legion Einbrüche mit den 8GB in 1440p, und das war Ende 2020...

Man kann in Doom einfach die Texturen 1-2 Stufen runterstellen, ändert gar nichts an der Bildqualität der Texturen. Gibt hier und da ein bisschen mehr aufploppen, das wars. Also, wer dazu echt nicht imstande ist, selbst schuld.

Ex3cut3r
2023-04-20, 16:40:46
Man kann in Doom einfach die Texturen 1-2 Stufen runterstellen, ändert gar nichts an der Bildqualität der Texturen. Gibt hier und da ein bisschen mehr aufploppen, das wars. Also, wer dazu echt nicht imstande ist, selbst schuld.

Ultra Nightmare Texturen vs Ultra Texturen.

https://abload.de/thumb/doometernalx64vk_2023opf8o.jpg (https://abload.de/image.php?img=doometernalx64vk_2023opf8o.jpg) https://abload.de/thumb/doometernalx64vk_20234pek2.jpg (https://abload.de/image.php?img=doometernalx64vk_20234pek2.jpg)

aufkrawall
2023-04-20, 16:43:30
Man kann in Doom einfach die Texturen 1-2 Stufen runterstellen, ändert gar nichts an der Bildqualität der Texturen. Gibt hier und da ein bisschen mehr aufploppen, das wars. Also, wer dazu echt nicht imstande ist, selbst schuld.
Ich sprach aber nicht von Doom Eternal, in WD Legion siehts ohne die HD-Texturen sichtbar schlechter aus...

ChaosTM
2023-04-20, 16:44:35
ich hab das letzte Video nicht gesehen, aber 12Gb sind HEUTE schön,

wer die Karten länger als 1-2 Jahre halten will _> Fuck you NV :)

dildo4u
2023-04-20, 17:27:27
Produktion könnte limitiert werden.

https://wccftech.com/nvidia-reportedly-limiting-production-of-geforce-rtx-4070-gpus-due-to-poor-sales/

Dorn
2023-04-20, 17:44:29
Weiterer Dick move von nvidia...

Der_Korken
2023-04-20, 17:58:38
Sollen sie ruhig. Ich hoffe, dass AMD in der Zeit einfach mehr verkauft und wenn es alte RDNA2-Karten sind. Das würde Sachen wie FSR oder generelle Optimierung für AMD mehr in den Fokus von Spiele-Devs rücken. Gefühlt lese ich bei Releases fast immer was von DLSS, aber selten was von FSR. Dabei sind bei DLSS3 sogar RTX3000-Karten ausgenommen, d.h. mit FSR3 (welches FSR2 impliziert) sitzen auch Last-Gen-Nvidia-Käufer mit im Boot.

Thunder99
2023-04-20, 18:39:30
Kunde zahlt das mit, das FG angeboten wird. Mit ein Grund der Preise.

Exxtreme
2023-04-20, 18:59:51
Weiterer Dick move von nvidia...

Wenn du auf Ware sitzt, die für 200 Tage reicht dann ist das eher logisch, dass die das machen.

Langlay
2023-04-20, 20:17:12
Wenn du auf Ware sitzt, die für 200 Tage reicht dann ist das eher logisch, dass die das machen.

Man könnte auch den Preis senken um die Nachfrage zu erhöhen.

Dorn
2023-04-20, 20:19:12
Man könnte auch den Preis senken um die Nachfrage zu erhöhen.Nein, dafür ist doch die Geforce 4060 TI mit grandiosen 8GB VRAM da.:wink:
Ich hoffe Intel und AMD werden stärker, ansonsten geht die Show so weiter oder die Konsumenten welche nur nvidia kennen, verzichten.

Langlay
2023-04-20, 20:29:59
Ich hoffe Intel und AMD werden stärker, ansonsten geht die Show so weiter oder die Konsumenten welche nur nvidia kennen, verzichten.

Werden sie nicht, selbst wenn sie ähnliche Produkte haben, wenn sie sich nicht zum Rächer der ausgenommenen PC Gamer aufschwingen. Die werden sich genauso die Taschen voll machen wie Nvidia auch. Friss oder Stirb.

Oligopole sind halt cool (für die Unternehmen).

Langlay
2023-04-20, 20:32:07
Ich hoffe Intel und AMD werden stärker, ansonsten geht die Show so weiter oder die Konsumenten welche nur nvidia kennen, verzichten.

Werden sie nicht, selbst wenn sie ähnliche Produkte haben, wenn sie sich nicht zum Rächer der ausgenommenen PC Gamer aufschwingen. Die werden sich genauso die Taschen voll machen wie Nvidia auch. Friss oder Stirb.


Oligopole sind halt cool (für die Anbieter der Waren).

Exxtreme
2023-04-20, 20:36:23
Man könnte auch den Preis senken um die Nachfrage zu erhöhen.

Das ist einfacher gesagt als getan. Auf die Preise auf dem Markt hat man nicht so viel Einfluss. Zudem könnte es gleichzeitig paar Hersteller von Grafikkarten killen.

Langlay
2023-04-20, 21:03:35
Auf die Preise auf dem Markt hat man nicht so viel Einfluss. Zudem könnte es gleichzeitig paar Hersteller von Grafikkarten killen.

Natürlich, hat Nvidia Einfluss auf die Marktpreise, sie würden ja nicht die Produktion drosseln wenn sie damit nicht den Preis oben halten wollen, Stichwort künstliche Verknappung von Gütern. Das machen sie weil die Nachfrage niedrig ist das Angebot aber hoch, ergo Angebot reduzieren um weiterhin Preise auf hohem Niveau lassen.
Die andere Variante dazu wäre halt die Preise zu senken und damit mein ich natürlich auch die Preise die die AIBs für das Zeug von Nvidia bezahlten.

Wieso AIBs pleite gehen sollen erschließt sich mir daraus nicht direkt. Viel mehr ist es so das die AIBs durch die Verknappung wohl mehr zuleiden haben als unter einem Preiscut von Nvidia den sie einfach an den Kunden weiterreichen können.

=Floi=
2023-04-21, 02:21:21
Das ist einfacher gesagt als getan. Auf die Preise auf dem Markt hat man nicht so viel Einfluss. Zudem könnte es gleichzeitig paar Hersteller von Grafikkarten killen.


Wenn nv ihre preise senkt, kann das problemlos und schnell an die kunden weitergegeben werden. Das funktionierte bei der 4070 doch absolut gut und problemlos. NV wird da auch ganz brauchbare und aktuelle verkaufszahlen zur hand haben.

Ich habe weniger probleme mit den preisen, wenn die produkte stimmen. Das ist imho das grössere problem bei NV.
Sparbrötchen zum wucherpreis. So geht es einfach nicht. Ewig auf produkte warten und noch weiterer kleinkram.
DLSS3 nur für die 4er gen und die 3er gen wird noch verkauft. :facepalm: Nichtmal die ausgamebuchsen können sie upgraden.

Exxtreme
2023-04-21, 08:41:39
Wenn nv ihre preise senkt, kann das problemlos und schnell an die kunden weitergegeben werden. Das funktionierte bei der 4070 doch absolut gut und problemlos. NV wird da auch ganz brauchbare und aktuelle verkaufszahlen zur hand haben.


Nein, so einfach ist das nicht. Denn selbst wenn NV die Preise senkt, die Hersteller der Grafikkarten und die Händler müssen das noch lange nicht. Sprich, sind die Preise hoch und die Produkte gehen trotzdem weg dann bleiben die Preise hoch. Genau das passierte beim Cryptomining-Boom.

NV müsste schon selbst eine Massenproduktion von Grafikkarten starten damit die da mehr Einfluss haben. Die paar Drops mit der FE reichen da bei Weitem nicht.

Rush
2023-04-21, 09:23:35
Nein, so einfach ist das nicht. Denn selbst wenn NV die Preise senkt, die Hersteller der Grafikkarten und die Händler müssen das noch lange nicht.

Die meisten Hersteller und Händler sind in der Regel nicht so gut aufgestellt, dass sie die Ware monatelang im Lager liegen lassen können und drehen die Preise soweit runter bis die Verkaufszahlen steigen. Das ist ja der Grund warum man die Produktion drosselt. Die Händlerlager sind voll, weil nichts rausgeht und dementsprechend nicht nachbestellt wird -> nV Lager laufen weiter voll -> Produktionsstop.
Wenn die Marge aber nur sehr gering ist, geht das nicht. Ergo wenn nGreedia die Preise senkt, haben die Händler mehr Spielraum nach unten und werden die Preise schnell senken.

dildo4u
2023-04-21, 09:31:46
6950XT gehen auch für 600€ weg wäre mal interessant was MF und Co dafür bezahlt haben und wie sie jetzt damit Geld machen.

HOT
2023-04-21, 10:17:56
AMD wird die EK-Preise vor dem 4070-Launch ordentlich gesenkt und die betroffenen Hersteller rabattiert haben.

dargo
2023-04-21, 13:04:48
Nein, so einfach ist das nicht. Denn selbst wenn NV die Preise senkt, die Hersteller der Grafikkarten und die Händler müssen das noch lange nicht. Sprich, sind die Preise hoch und die Produkte gehen trotzdem weg dann bleiben die Preise hoch. Genau das passierte beim Cryptomining-Boom.

Keine Ahnung was dieser Vergleich jetzt wieder soll. Wir haben kein Mining-Boom und Lager sind voll.

Hatstick
2023-04-21, 13:24:07
Volle Lager bedeutet doch nicht gleich, das die Preise purzeln, das will nVidia (und AMD) doch gar nicht.
Bestand war zum Release da, Karten gingen nicht gut weg und jetzt?
Tritt bestimmt nicht der Fall ein, das die Karten auf einmal für 550€ verschleudert werden.
Wenn selbst die 3xxxer Karten noch rumliegen und sich nix bzgl. Preise tut, wird bei der RTX 4070 erst mal gar nix passieren.

Exxtreme
2023-04-21, 13:29:06
Keine Ahnung was dieser Vergleich jetzt wieder soll. Wir haben kein Mining-Boom und Lager sind voll.

Der Vergleich soll illustrieren, dass die Preise maßgeblich von Angebot und Nachfrage generiert werden und nicht von Wünschen irgendwelcher Hersteller.

Und das Altmetall müssen sie auch noch loswerden. Denn wenn man das abschreiben muss dann könnte das einigen Herstellern und etlichen Händlern das Genick brechen. Nvidia ist da grad in einer echt blöden Situation. Denn die eigenen Kunden in den Ruin treiben möchte man nämlich auch nicht. Und MLID meinte schon in einem Video, dass ein weiterer Hersteller von Nvidia-Grafikkarten möglicherweise abspringen wird.

dargo
2023-04-21, 14:06:05
Der Vergleich soll illustrieren, dass die Preise maßgeblich von Angebot und Nachfrage generiert werden und nicht von Wünschen irgendwelcher Hersteller.

Breaking News. :freak:


Und MLID meinte schon in einem Video, dass ein weiterer Hersteller von Nvidia-Grafikkarten möglicherweise abspringen wird.
Daran sind ausschließlich die IHVs schuld. Das kommt davon wenn man AIBs nicht genug Luft zum atmen gibt.

Langlay
2023-04-21, 14:08:58
Der Vergleich soll illustrieren, dass die Preise maßgeblich von Angebot und Nachfrage generiert werden und nicht von Wünschen irgendwelcher Hersteller.

Ach danke das du uns aufklärst. Allein wären wir da nie drauf gekommen.

Natürlich, hat Nvidia Einfluss auf die Marktpreise, sie würden ja nicht die Produktion drosseln wenn sie damit nicht den Preis oben halten wollen, Stichwort künstliche Verknappung von Gütern. Das machen sie weil die Nachfrage niedrig ist das Angebot aber hoch, ergo Angebot reduzieren um weiterhin Preise auf hohem Niveau lassen.
Die andere Variante dazu wäre halt die Preise zu senken und damit mein ich natürlich auch die Preise die die AIBs für das Zeug von Nvidia bezahlten.

Wieso AIBs pleite gehen sollen erschließt sich mir daraus nicht direkt. Viel mehr ist es so das die AIBs durch die Verknappung wohl mehr zuleiden haben als unter einem Preiscut von Nvidia den sie einfach an den Kunden weiterreichen können.

][immy
2023-04-21, 16:15:52
Nvidia hat doch letztens noch zugegeben das sie nicht viel produzieren wollen, damit sie die letzte Gen noch hochpreisig verkaufen können.
Die 4070 zeigt ziemlich in diese Richtung, teuerer und kaum schneller als in der letzten gen. Features sollen es reißen, die vermutlich auch auf der alten gen funktionieren würden, wenn man sie unterstützen würde.
Allerdings verstehe ich Nvidia da nicht warum sie DLSS3 von der letzten gen fern halten. Schon der Knappe Speicher in der letzten Generation würde hier genug auf die Bremse treten damit die Features bei der neuen Generation immer noch deutlich in Führung wären.
Aber Nvidia will halt den Markt immer weiter Segmentieren. FSR, was quasi auf allem halbwegs aktuellen läuft sehe ich da als deutlich durchsetzungsfähiger. Würde Nvidia die Konkurrenz nicht immer künstlich auf Abstand durch sowas halten, könnten sich solche Technologien auch mal breiter durchsetzen ohne das Nvidia immer Sponsor sein muss

Rush
2023-04-21, 16:33:54
... ignorieren.

Spring
2023-04-21, 16:39:44
[immy;13287758']Nvidia hat doch letztens noch zugegeben das sie nicht viel produzieren wollen, damit sie die letzte Gen noch hochpreisig verkaufen können.
Die 4070 zeigt Ich ziemlich in diese Richtung, teuerer und kaum schneller als in der letzten gen. Features sollen es reißen, die vermutlich auch auf der alten gen funktionieren würden, wenn man sie unterstützen würde.
Allerdings verstehe ich Nvidia da nicht warum sie DLSS3 von der letzten gen fern halten. Schon der Knappe Speicher in der letzten Generation würde hier genug auf die Bremse treten damit die Features bei der neuen Generation immer noch deutlich in Führung wären.
Aber Nvidia will halt den Markt immer weiter Segmentierung. FSR, was quasi auf allem halbwegs aktuellen läuft sehe ich da als deutlich durchsetzungsfähiger. Würde Nvidia die Konkurrenz nicht immer künstlich auf Abstand durch sowas halten, könnten sich solche Technologien auch Mal breiter durchsetzen ohne das Nvidia immer Sponsor sein muss

Beim Dark and Darker spielen hatte ich einen Kollegen, der etwas mehr fps haben wollte mit seiner 1070Ti.

Ich (etwas vorschnell) empfehle ihm DLSS. Er sagt: "Die Option habe ich nicht".
Langlay (war auch anwesend im chat) weißt mich darauf hin, dass DLSS nur ab RTX2xxx geht.

Also FSR bei ihm eingeschaltet, lief und er war zufrieden.

Langlay
2023-04-21, 16:47:35
Beim Dark and Darker spielen hatte ich einen Kollegen, der etwas mehr fps haben wollte mit seiner 1070Ti.

Ich (etwas vorschnell) empfehle ihm DLSS. Er sagt: "Die Option habe ich nicht".
Langlay (war auch anwesend im chat) weißt mich darauf hin, dass DLSS nur ab RTX2xxx geht.

Also FSR bei ihm eingeschaltet, lief und er war zufrieden.

Grundsätzlich wäre es schon erstrebenswert, wenn DLSS wie FSR und XeSS auf einer breiteren Hardwarebasis als nur das "aktuelle" Nvidia Zeug laufen würde. Und man sich das beste rauspicken kann, gut mit na 20/30/40er Nvidia haste den Luxus. (FG mal aussen vor gelassen).

Weil es halt schon Spiele gibt wo DLSS 2.X nicer ist als FSR 2.X und andersrum. Je nach dem für welchen Fuckup man empfindlicher ist.

=Floi=
2023-04-22, 04:41:10
VRAM

Also bitte, du kannst nicht spiele untereinander vergleichen und darauf den benötigten vram verbrauch für textur/grafik X!
LOD, Texturformat, wie kleinteilig die map ist etc. spielen da mit rein.
Der eine streamt mehr und der andere weniger. Sichtweite etc. kommt noch hinzu.
Wer mehr optimiert, der kann auch mehr rausholen. Das kostet zeit und geld. Der einen engine liegt es mehr und der anderen weniger. So ist es einfach.
Selbst die gleiche engine kann unterschiedliche ergebnisse zutageführen.


Du solltest dich auch endlich mal überzeugen lassen, dass die teuren NV karten einfach mehr vram brauchen, weil das das produktleben fördert.
Wir reden jaden tag über ne reduktion von CO2 und dann kommt die nächste firma wieder mit so nem schrott um die ecke!
Auf den gesamten produktpreis kostet es einfach nichts! Selbst für ein eigenes PCB ist man zu faul. (da können die kosten nicht so dramatisch sein.)


Die könnten auch klartext reden, wenn die kosten für die karte selbst oder für die software so angestiegen sind, könne man zumidest prozentwerte kommunizieren.
Am ende vom tag will sich NV wahrscheinlich einfach nur mit ihren absurden 60+X% marge die taschen voll machen und so geht es einfach nicht.

Troyan
2023-04-22, 09:39:57
Richtig, wir reden jeden Tag um CO2 Reduzierung, aber du verteidigst absoluten Softwareschrott, der zu mehr CO2 Ausstoß führt.

=Floi=
2023-04-22, 12:46:16
Nein, so einfach ist das nicht. Denn selbst wenn NV die Preise senkt, die Hersteller der Grafikkarten und die Händler müssen das noch lange nicht. Sprich, sind die Preise hoch und die Produkte gehen trotzdem weg dann bleiben die Preise hoch. Genau das passierte beim Cryptomining-Boom.

NV müsste schon selbst eine Massenproduktion von Grafikkarten starten damit die da mehr Einfluss haben. Die paar Drops mit der FE reichen da bei Weitem nicht.

https://www.computerbase.de/2023-04/umfragen-zum-marktstart-die-geforce-rtx-4070-startet-gut-verfuegbar-ab-639-euro/#update-2023-04-18T09:46

NV hat es doch schon so gemacht.

sun-man
2023-04-24, 09:17:55
Da die 6950XT gerne dagegen gestellt wird (VRam) - es mag nicht jedem sein Ding sein sich durch die Videos zu klicken, ich finde es ganz anschaulich.

z109Di2g5s8

Raff
2023-04-24, 10:53:57
Ein paar ergänzende Betrachtungen: GPU-Praxistest: Kann man eine RTX 4070 zur Ti übertakten? Tuning, OC, UV und Fps pro Watt (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Specials/RTX-3080-vs-4070-Ti-im-Test-Uebertakten-OC-UV-Effizienz-Sparen-Fps-pro-Watt-1418111/)

MfG
Raff

dildo4u
2023-04-24, 11:33:02
jay hat auch bemerkt wie groß der Abstand zur Ti ist und NV deshalb versucht hat sie als 4080 Variante zu verkaufen.


wfRwhk1YUw0

Troyan
2023-04-24, 11:38:06
Stimmt, das wird wohl der Grund gewesen sein. :freak:

Die TI ist 23% schneller, die 3080 ist 30% schneller als die 3070.

dildo4u
2023-04-24, 11:39:24
Er gab das Beispiel 3070 zu Ti 10%,4070 zu Ti 25%.
Also Platz für eine Super Version.

][immy
2023-04-24, 11:46:34
Er gab das Beispiel 3070 zu Ti 10%,4070 zu Ti 25%.
Also Platz für eine Super Version.

Nun man muss wohl dazu sagen, das dort eine weitere Karte kaum noch einen Sinn macht, außer vielleicht für den Hersteller um mehr "bessere" Chips teurer verkaufen zu können. Bei den paar Prozent ergibt es doch sonst keinen Sinn. Muss es wirklich noch mehr unterschiedliche Grafikkarten geben? Gibt doch schon x overclock Varianten so das für so ziemlich jedes Performanceumfeld etwas existiert.

Troyan
2023-04-24, 11:47:06
Die 3070TI kam 12 Monate später auf den Markt. Bis dahin gab es nur die 3070 und 3080.

Die RTX2080 war 29% schneller als die 2070: https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#

Die GTX1080 war 20% schneller als die GTX1070: https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

Naja, verwirrter alter Mann auf Youtube.

Raff
2023-04-24, 11:47:31
jay hat auch bemerkt wie groß der Abstand zur Ti ist und NV deshalb versucht hat sie als 4080 Variante zu verkaufen.

Man hätte die RTX 4070 nach dem Umbenennen der "RTX 4080 12GB" bequem etwas up-speccen (nicht verwechseln mit "abspecken" ;)) können, etwa mit 6.144 bis 6.400 ALUs.

MfG
Raff

DrFreaK666
2023-04-24, 13:11:42
[immy;13289689']... Muss es wirklich noch mehr unterschiedliche Grafikkarten geben? Gibt doch schon x overclock Varianten so das für so ziemlich jedes Performanceumfeld etwas existiert.

Mehr Karten kann nicht schaden. Es gibt auch zig verschiedene 3060 und 1060, wenn ich mich nicht irre. Perfekt um den Kunden zu verwirren

basix
2023-04-24, 17:18:38
Er gab das Beispiel 3070 zu Ti 10%,4070 zu Ti 25%.
Also Platz für eine Super Version.

Die 3070TI kam 12 Monate später auf den Markt. Bis dahin gab es nur die 3070 und 3080.

Die RTX2080 war 29% schneller als die 2070: https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#

Die GTX1080 war 20% schneller als die GTX1070: https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

Ist doch egal, wie die Dinger jetzt exakt heissen, wie gross die Abstände sind und ob da ein paar Monate dazwischen lagen. Nvidia hat aber definitiv den Markennamen der 80er dazu verwenden wollen (missbrauchen eher), um den Preis hoch zu halten. Denn in den Köpfen der Leute bedeutet 80er = High End und 70er = obere Mittelklasse. Highend = Höhere Preise. Und bis anhin war das auch OK so. Die 80er verwendet seit Generationen entweder den stärksten oder zweitstärksten Chip. Ampere war seit Kepler sogar eine Ausnahme, wo nicht nur eine 80 Ti/90/Titan den stärksten Chip bekommen hat. Und hätte wohl mal mit GA103 bestückt werden sollen (womit zweitstärkster Chip wieder gepasst hätte). Bei Lovelace wollte man plötzlich mit dem drittgrössten Chip eine 80er releasen. Das erste Mal seit überhaupt und bezogen auf die Chipfläche und Performance dem grössten Abstand zwischen einer 80er (mittlerweile zur 70 Ti geworden) und der stärksten verfügbaren Karte (4090 in diesem Fall). Und oben drauf ohne wesentliche P/L Verbesserungen zu den Vorgängern. Klar schmeckt das den Leuten nicht ;)

Troyan
2023-04-24, 20:48:06
Auch bei Pascal war nur der drittgrößte Chip eine GTX1080 - GP100 wurde im März 2016 vorgestellt.

Es ist jedem hier klar, wieso die 4070TI 4080 heißen sollte. Aber bestimmt nicht, weil der Abstand zur "4070" künstlich hochgehalten wird. :freak:

MAX|HASS
2023-05-06, 11:15:01
Hallo, ich habe mir vorhin eine 4070 von KFA aufgesackt. Ursprünglich war es 60/40 zugunsten der FE, habe aber gestern aufgrund des zufällig zeitgleich erschienenen reviews von diesem Igor https://www.igorslab.de/kfa2-geforce-rtx-4070-ex-gamer-1-click-oc-12-gb-im-test-guenstige-oc-karte-kuehl-leise-und-ganz-viel-leuchtkraft/ entschieden, KFA einfach wieder mal eine Chance zu geben (hatte vor Jaaahren schon mal eine). Viel konnte ich bisher zu der Karte nicht lesen, scheint aber für den Preis grundsolide zu sein.

Meine Frage: was bedeutet dieses Ein-Klick-OC genau? Müßte man sich die Software installieren, um den Takt hochsetzen zu können? Oder ist die standardmäßig übertaktet? Ich will das nämlich nicht. Die ist bei meinem Anwendungsgebiet 1080p@60fps dermaßen unterfordert, da muß man die nicht noch mit OC quälen.

dildo4u
2023-05-06, 11:48:33
Wenn du wirklich mit der Auflösung zockts wird sie eh nicht an ihre Verbrauchs Limit laufen es sei denn du zockt Cyberpunk mit RT Overdrive.
Da musste dir keine Sorgen machen die Hersteller können schon lange nicht mehr Nvidias konservative Spannung Vorgabe überschreiten.

Gumril
2023-05-06, 12:06:07
Meine Frage: was bedeutet dieses Ein-Klick-OC genau? Müßte man sich die Software installieren, um den Takt hochsetzen zu können? Oder ist die standardmäßig übertaktet? Ich will das nämlich nicht. Die ist bei meinem Anwendungsgebiet 1080p@60fps dermaßen unterfordert, da muß man die nicht noch mit OC quälen.

Es ist wie du schon vermutest hast für Ein-Klick-OC brauchst du die Hauseigene Software.
Die Karte hat aber von Hause aus ein höheren Boosttakt.

GPU Engine Specs:

CUDA Cores: 5888
Boost Clock: 2535MHz
1-Click OC Clock: 2550MHz (by installing Xtreme Tuner Plus Software and using 1-Click OC)

Boosttakt der Founders: 2475 MHz

00-Schneider
2023-05-06, 12:35:58
Gemessen an den Strompreisen lohnt sich OC bei GPUs schon lange nicht mehr. Der Verbrauch steigt dermaßen stark an und der Leistungsgewinn ist bei modernen GPUs ein Witz.

MAX|HASS
2023-05-06, 12:53:12
Ok, danke erstmal. Nehme also mit, out of the box sollte sie nicht am Limit laufen und eine Software wird mir eh nicht auf den Rechner kommen.

Bin schon bisschen raus, was neuere Hardware betrifft, aber mir zeigt der Arschbrenner sowohl bei den eben ausprobierten FC6 und FH5 2775mhz an. Ich habe keine Ahnung, was das bedeutet. Also in der Sache schon, nur weiß ich nicht, ob das bei den 4070 normale oder eben schon höher Taktraten sind.

Was anderes zum ausprobieren muß ich erstmal installieren. Obige beiden Spiele liefen auf den höchsten Einstellungen, die jeweils möglich war und dann pendelte sich das auf die 2775 ein. Also da war natürlich schon die 60fps-Bremse draußen. Übrigens schafft es der 10700(non K) nicht mehr immer, die Karte ebenfalls ins Limit laufen zu lassen. Sowohl bei FarCry als auch bei Forza war eine Auslastung von rund 85% (mit kleineren Ausreißern nach oben) so die Schwelle, an der herum sich das abspielte. Ist ok bei dreistelligen Bildraten, aber dennoch schon ein bisschen zu wenig, wenn ich jetzt auch einen 144fps-Monitor hätte. Die schafft der Prozessor in neueren Spielen scheinbar nicht mehr. Oder was heißt neuer, taufrisch sind die Spiele ja auch nicht mehr.

**edit: Sind eigentlich meine Uhren oder das Forum falsch? Handy, Rechner sagen 12:53h, hier steht 11:53h?
**edit²: Ich packe nachher mal Q2RTX drauf, dürfte so das Fordernste sein, was ich besitze. Reicht es da übrigens, nur das RTX-Ding zu installieren oder erst das Ur-Spiel und dann RTX drüberbügeln?

00-Schneider
2023-05-06, 12:57:57
Dürfte eine dezidierte RTX-Anwendung im Steam Store dafür geben.

MAX|HASS
2023-05-06, 14:42:55
Die habe ich da ja hängen, installiere ich nachher. Wollte nur wissen, ob davor das Grundspiel draufgehört hätte.

00-Schneider
2023-05-06, 15:17:44
Die habe ich da ja hängen, installiere ich nachher. Wollte nur wissen, ob davor das Grundspiel draufgehört hätte.


Jep, ansonsten hast du nur drei Level. Um dir RTX anzusehen, reicht allerdings auch die abgespeckte Variante.

MAX|HASS
2023-05-06, 16:49:05
So, ausprobiert habe ich es und naja.. was ist denn jetzt die Erkenntnis daraus?

Ich bin mehr als einmal durch alle Einstellungen gegangen, um zu gucken, ob ich RT überhaupt eingeschaltet habe. Weil a) konnte ich da jetzt optisch nichts bahnbrechendes sehen, was in ähnlicher Weise nicht auch schon mal ein mod hinbekommen hat, auch wenn es nicht so korrekt ist/war, wie mit echtem RT. Und b) düdelt die Karte bei o.g. Kombi Auflösung + Bilder/s natürlich bei Minimaltakt rum und hat dennoch fast nichts zu tun.

Vielleicht kann man die Optik auch noch mehr aufbohren, aber so rein optisch hat mich da eben gar nichts angesprochen. Hatte hier aber eh schon genug immer über Q2RTX gelästert, wenn ich mal gameplay im Video gesehen habe. Der Mehrwert ist irgendwie nicht gegeben. Aber wie gesagt, ich meine, die Karte kam eben nicht über 52° hinaus, vielleicht war das noch gar nicht alles, was da möglich wäre.

Aber jetzt erstmal Haken dran, muß mit anderen Spielen mal probieren.

00-Schneider
2023-05-06, 17:46:24
#PerlenvordieSäue

MAX|HASS
2023-05-06, 17:48:57
Ääh, wie meinen? :confused:

*edit: IG einkaufen.

user77
2023-05-06, 20:11:49
Boost Clock: 2535MHz
1-Click OC Clock: 2550MHz (by installing Xtreme Tuner Plus Software and using 1-Click OC)

wow, 0,6% mehr Takt :freak:

BlacKi
2023-05-06, 20:28:41
naja, wenns kostenlos ist?

MAX|HASS
2023-05-06, 20:33:49
wow, 0,6% mehr Takt :freak:

Machst du dich lustig über meine Karte? :frown:

naja, wenns kostenlos ist?

Ich sehe das aber auch so, dieses bisschen ist wohl Mindestvoraussetzung gewesen, um den OC-Sticker auf die Packung kleben zu dürfen. Allerdings darf man das auch nicht in Prozent ausrechnen. 15Mhz hört sich doch gleich 2,5x soviel an.

Übrigens habe ich gesehen, hätte die Taktraten auch bei Geizhals finden können. Aber dann bliebe immer noch die Frage, was meine 2775mhz da nun eigentlich sind? Wie gesagt, bin schon bisschen raus, weiß das nicht mehr so einzuordnen.

https://abload.de/img/unbenannt0qccl.jpg (https://abload.de/image.php?img=unbenannt0qccl.jpg)

00-Schneider
2023-05-06, 20:38:43
Übrigens habe ich gesehen, hätte die Taktraten auch bei Geizhals finden können. Aber dann bliebe immer noch die Frage, was meine 2775mhz da nun eigentlich sind? Wie gesagt, bin schon bisschen raus, weiß das nicht mehr so einzuordnen.


Hatte die selbe Frage mal auf reddit gestellt, das kam als Antwort:

"Advertised boost clock is the minimum guaranteed boost. Almost everything will boost higher than that given it has enough power and a low enough temp and silicon that can support it. Every GPU is different slightly so they arent going to advertise on a per card basis."

MAX|HASS
2023-05-06, 20:48:47
Ok, dann heißt es wohl PL nach unten setzen.

Ich mache nochmal einen Versuch, im Treiber diesen Leistungsmodus auf "volle Lotte" statt "normal" zu setzen und fahre zB. mal ne Runde in Forza. Ich befürchte, mit maximalen Takt wird die Karte selbst mit höchsten Einstellungen nicht über 50% Last hinauskommen. So ein Ergebnis würde mir zur Einordnung der Karte mehr bringen als nur 1000mhz Takt und 67% Auslastung.

Tja, zu früh gekauft was? :frown: Muß ich wohl weiterverkaufen und in einem Jahr nochmal neu zuschlagen. Das meintest du wohl mit'de Perlen.

**edit:

Tja, also die Karte ist in der Tat viel zu stark für die Auflösung. Könnte man sehr wohl erstmal grob für ein Jahr PL um ~30% senken und man verpaßt nichts. Oder bis zu den ersten richtigen UE5-Spielen, sehen wir ja dann.

Habe das mit dem Takt eben mal probiert. Wenn richtig was auf dem Bildschirm los ist, bleibt die Karte sogar nur bei knapp über 40% in meinem Szenario. Soviel kann FH6 gar nicht zulegen, daß es da eng werden dürfte. Aber dafür hat nV ja die 12gb verbaut.. :redface:

https://abload.de/img/forzahorizon5_2023_05hhenm.png (https://abload.de/image.php?img=forzahorizon5_2023_05hhenm.png)

**edit²: ..und vorhin dachte ich noch, wow, so eine leise Karte hatte ich noch nie, ich vermute langsam, die Lüfter sind noch nicht einmal angesprungen lol.

aceCrasher
2023-05-06, 22:17:29
Ok, dann heißt es wohl PL nach unten setzen.

Ich mache nochmal einen Versuch, im Treiber diesen Leistungsmodus auf "volle Lotte" statt "normal" zu setzen und fahre zB. mal ne Runde in Forza. Ich befürchte, mit maximalen Takt wird die Karte selbst mit höchsten Einstellungen nicht über 50% Last hinauskommen. So ein Ergebnis würde mir zur Einordnung der Karte mehr bringen als nur 1000mhz Takt und 67% Auslastung.

Tja, zu früh gekauft was? :frown: Muß ich wohl weiterverkaufen und in einem Jahr nochmal neu zuschlagen. Das meintest du wohl mit'de Perlen.

**edit:

Tja, also die Karte ist in der Tat viel zu stark für die Auflösung. Könnte man sehr wohl erstmal grob für ein Jahr PL um ~30% senken und man verpaßt nichts. Oder bis zu den ersten richtigen UE5-Spielen, sehen wir ja dann.

Habe das mit dem Takt eben mal probiert. Wenn richtig was auf dem Bildschirm los ist, bleibt die Karte sogar nur bei knapp über 40% in meinem Szenario. Soviel kann FH6 gar nicht zulegen, daß es da eng werden dürfte. Aber dafür hat nV ja die 12gb verbaut.. :redface:

https://abload.de/img/forzahorizon5_2023_05hhenm.png (https://abload.de/image.php?img=forzahorizon5_2023_05hhenm.png)

**edit²: ..und vorhin dachte ich noch, wow, so eine leise Karte hatte ich noch nie, ich vermute langsam, die Lüfter sind noch nicht einmal angesprungen lol.
Vielleicht ist die Lösung dass du dir für ~250€ einen 1440p 144Hz Monitor holst :cool:

MAX|HASS
2023-05-06, 23:33:03
Ich habe jahrelang mit wqhd gespielt und 2019 wegen RDR² einen 24er angeschafft. Erstmal war die 1070 da ein bisschen zu schwach für Digital-Fury in 1440p (hätte man regeln können über die Einstellungen) und dann wollte ich unbedingt mal einen mit freesync haben, welches die große Schüssel noch nicht konnte.

Es hat eine Woche gedauert zur Umgewöhnung und seitdem daddele ich auf genau diesem AOC "Gamer-TFT" für 115-Deal-€. Mochte das irgendwie wieder, alles so im Blickfeld zu haben. Und durch dessen Schaltzeiten + 20% mehr hz + freesync spielte es sich mit dem generell dreimal so gut wie auf der alten, großen Kiste.

So, das Kranke kommt jetzt. Im Winter habe ich in der Tat nochmal einen Versuch unternommen, ob mir ein 27er nicht doch wieder passen täte. Die 1070 lag zu dem Zeitpunkt schon wieder im Schrank, ne hier im Forum gekaufte 3060ti steckte seit Sommer im PC. Aber du kriegst ja einfach zur Hälfte nur Scheiße nach Hause geschickt. Ein Samsung hatte "nur" die typischen hellen Bereiche nebst einer besonders schön hellen linken, unteren Ecke und ein LG hatte ähnliches und bei dem gefiel mir das Bild auch nicht so gut (vielleicht wegen Nano-IPS). Nach den zwei Versuchen habe ich das gleich wieder gelassen. Einen zurückgeschickt, den anderen bei Kleinanzeigen verhökert.

Aber richtig glücklich war ich sowieso nicht mit den Dingern. Kann ich schlecht beschreiben, aber ich merkte irgendwie, wie nun aus 2Mio Pixel fast 3,75Mio geworden sind. Spürte irgendwie, wie ich dem PC dieses fluffige Gefühl genommen habe, wenngleich Karte und Prozessor da auch nicht aus dem letzten Loch schnauften. Und dann wieder mehr Blickfeld, zB. das Interface in Spielen hing plötzlich wieder viel weiter außen in den Ecken. Längere Mauswege, ja, man erhöht die Nager-Geschwindigkeit wieder ein bisschen, aber dennoch: nach nichtmal einer Stunde hing der 24er wieder dran. Ist für mich einfach optimal bei nichtmal 30cm Abstand auf dem Schreibtisch. Die 27Zoll Test-Monitore waren ja beide 165hz-Modelle und habe ich das angemacht? Nö, muß die Hardware ja am Anschlag rödeln. Das gab mir nichts. Diese Schwärmerei, wie sich schon auf dem Desktop der Mauszeiger besser anfühlt.. mir völlig wumpe. Hätte mich vielleicht vor 20 Jahren noch interessiert, wo ich online gespielt habe. Ich Depp hatte dann also 165hz-Dinger zu Hause und spielte wieder Hardware-schonend mit 60fps.. Voll die Hirse unter'm Dach, ballaballa, plemplem.

Das nurmal, warum für mich derzeit erstmal kein größerer Monitor mehr infrage kommt. Ja, da gehört auch dazu, daß man sich mit immer größeren TFT-Größen auch immer mehr in eine Spirale begibt, in die man viele Hundert € mehr und früher reinpumpen muß, damit die weiterläuft. Aber primär ist es deswegen, weil ich mit dem AOC das für mich beste Spielerlebnis habe, mit einem perfekt ausgeleuchteten Bild und kein Bock mehr auf was anderes habe. Das die 4070 hier dieser Monitor-Größe mit ihrer Stärke nun soweit voraus ist, hatte ich ehrlich gesagt nicht gedacht. Und das war vorhin nicht nur so geschrieben, wenn es mich in einer Woche oder so juckt, verkaufe ich die wirklich wieder. Soviele neue Spiele habe ich gar nicht, für die ich die Karte derzeit bräuchte. Nur haben da leider die Ingenieure von KFA einen Riegel vorgeschoben und durch das Design der Karte sichergestellt, daß man nach Einbau nicht mehr an diese Nase kommt, die die Karte wieder aus dem slot entläßt. So muß die jetzt für immer in dieser Kiste bleiben, eben nicht mehr ausbaufähig.:wink:

Muskelbiber
2023-05-06, 23:50:00
…..und durch das Design der Karte sichergestellt, daß man nach Einbau nicht mehr an diese Nase kommt, die die Karte wieder aus dem slot entläßt. So muß die jetzt für immer in dieser Kiste bleiben, eben nicht mehr ausbaufähig.:wink: iFixit :biggrin:

00-Schneider
2023-05-07, 07:38:39
Ich versteh nicht, wo das Problem ist. Sei froh, dass die 4070 noch Reserven hat. Echte Next Gen Games gibt es ja bis jetzt kaum. Spätestens wenn Unreal Engine 5 zum Standard wird, wird die Karte mehr als ausgelastet werden, wenn du maximale Details willst, selbst in 1080p.

user77
2023-05-07, 09:04:27
naja, wenns kostenlos ist?

Kostenlos ja, aber ne zusätzlich Bloatware am PC, die CPU Leistung zieht.

MAX|HASS
2023-05-07, 09:19:41
Ich versteh nicht, wo das Problem ist. Sei froh, dass die 4070 noch Reserven hat. Echte Next Gen Games gibt es ja bis jetzt kaum. Spätestens wenn Unreal Engine 5 zum Standard wird, wird die Karte mehr als ausgelastet werden, wenn du maximale Details willst, selbst in 1080p.

DAS PROBLEM SIND 625 PIEPEN!!!!! :P

Gut, ich kann's mir jetzt schönrechnen. Habe ja noch 350€ für die 3060ti bekommen. Die habe ich aber Sommer 22 auch bezahlt für die Karte. Nun würde die derzeit wieder verbaute 1070 auch noch mindestens n Hunni bringen. Ach, scheiß drauf, man kann es drehen und wenden..

DAS PROBLEM SIND 625 PIEPEN!!!!! :P

Generell hast du Recht, Luft nach oben ist immer gut. Das meinte ich ja mit dem Gefühl, wenn Hardware die paar Pixel scheinbar mühelos bewältigen kann. Für mich war es jetzt ein richtiges Upgrade, aber dennoch ist es eine Karte, die sich aufgrund des eher überschaubaren Leistungs-Zuwachses den vorherigen Karten gegenüber eher über Software-Lösungen verkauft. Raytracing und Frame-Generation. Kam nV mal mit Balken um die Ecke, waren es eher skurile Vergleiche der 3090ti gegenüber, die natürlich nur mit eben diesem FG geschlagen werden konnte.

Für die Karte spricht:
+Leistungsaufnahme
+..damit einhergehend konnte ich auf 3080-Niveau wechseln, ohne mein NT tauschen zu müssen
+in meinem Fall die Leistung an sich, auch wenn andere diese eher mau finden dürften

Gegen die Karte spricht:
-625 Piepen
-Habe nicht wirklich große Spiele, die die 1070 nicht auch bewältigen konnte auf natürlich weitaus niedrigeren Einstellungen. Ja, CP2077 werde ich nun auch mal angehen, aber damit biste nach 30h auch durch und ich rechne dieses Jahr bis Weihnachten nicht mehr mit so richtig dicken Dingern, die ich spielen wollen würde. Spontan fiele mir außer Stalker gar nichts ein und ob das wirklich noch in 23 fertig wird?
-625 Piepen

Die Karte macht alles richtig (bis auf die 625 Piepen!!). Frage ist nur, ob ich sie jetzt schon brauche. RT finde ich selbst bei genanntem CP eher mittelmäßig, darunter sieht es für meine Belange noch unterwältigender aus. Metro ginge vielleicht noch, aber ich will damit nur ausdrücken, die Ergebnisse finde ich auch 5 Jahre später immer noch nicht wirklich gut. Ja, vielleicht wird's mit UE5 besser, aber die Spiele ploppen auch nicht gleich morgen alle auf. Und zum FG muß man halt sagen, daß ich nicht der richtige Kandidat dafür bin. Ich werde es gaaanz lange Zeit nicht nutzen müssen und wahrscheinlich auch nicht können, weil was soll ich damit machen? Mir später mal meine fps von 29 auf 61 aufblasen? Das dürfte sich wohl jaggy anfühlen und zu diesem Zeitpunkt dürfte eher eine stärkere Karte angeraten sein. Daher habe ich genau dieses "Beiwerk" der Karte nicht einsortiert in Plus oder Minus. Ja, die Karten haben das, ich komme aber auch ohne wunderbar zu Recht. Hatte ich schon erwähnt, daß die Karte 625 Piepen gekostet hat?

00-Schneider
2023-05-07, 09:23:35
Hättest dir von dem Geld auch eine PS5 kaufen können. Hätte bei dir wahrscheinlich mehr Sinn gemacht.

-> PC verkaufen
-> PS5 kaufen
-> restliche Kohle versaufen
-> Win-Win

MAX|HASS
2023-05-07, 09:33:27
Ne, das ist absolut keine Option. Bevor mir ein Klimperkasten ins Haus kommt, öffne ich lieber alle meine Ritalin-Fläschchen auf einmal auf saufe mich tot :eek:.

Ich sehe mich eher so, daß die 4070 ein Jahr zu früh hier ist. Eine 60ti/3070 hätte den angesammelten Software-Schrott auch erstmal noch so wuppen können, aber derzeit sieht es bei den Kleinanzeigen zB. so aus, daß 3060ti bei um die 350€ angekommen sind, 3070 bei 400-450€ und manch einer will für seine 70ti logischerweise noch bis zu 500€ haben. Ausreißer nach unten gibt es, aber generell ist die Generation selbst als Gebrauchtware abgefuckt. Und neu kaufen geht gar nicht, da liegt man noch etwas drüber, nV sei Dank. Erzähle ich ja keinem was neues, die Zeiten, wo man etwas im Abverkauf günstiger erwerben konnte, sind bei dieser Schwachmaten-Firma leider vorbei.

sun-man
2023-05-07, 09:43:30
Also ich hab 3060TI und bei 300 kommt da keiner angedackelt und will sie kaufen. :freak:

MAX|HASS
2023-05-07, 09:52:51
Vielleicht weiß ja keiner, daß du eine hast :confused:. **edit: Jetzt meine ich doch rauszulesen, daß du sie schonmal angeboten hast?

Ich hatte meine für 350€ im Februar verkauft, vielleicht ist das heute etwas schwerer für den Preis. Bis zu 350 kosten die aber gebraucht immer noch, für deine 300€ sehe ich eher immer die 3060 12gb.

sun-man
2023-05-07, 10:22:14
Ich hab meine Spaßeshalber ab und an mal Online gestellt. Die Durchschnittspreise auf Ebay sind schnell raus zu finden. Am Ende steht immer irgendwo ein Dummer auf der mehr zahlt, den muss man nur finden :D

MAX|HASS
2023-05-07, 10:36:01
Und wenn du sie jetzt verkaufen könntest, was kommt dann?

Was für eine hast du denn? Vielleicht ist das so ein Kackmodell, 2 Jahre alt, keine Rechnung, sowas?

sun-man
2023-05-07, 10:58:02
Das ist ne ganz normale KFA 3060TI, die 2 Jahre sind natürlich rum. Aber der Ausdruck "Kackmodel" passt zum Rest Deines Auftritts. Wenn Du jemanden hast der die für 350 gekauft hat ist das doch OK, das heißt aber nicht das alle so viel Glück haben.

MAX|HASS
2023-05-07, 11:19:17
Ich habe keine Ahnung, was du mit Rest irgendeines Auftritts meinst, aber soll ich das Wort für dich löschen? :confused:

dildo4u
2023-05-08, 13:54:09
Vergleich mit 7800x3D


GRMFGQoyyVY

MAX|HASS
2023-05-09, 07:20:26
Weiß jetzt nicht, was Konklusion im Video ist, aber nein, natürlich ist es das nicht wert. Jemand, der ti-Leistung braucht, wird sie auch für 200 Mücken Aufpreis buchen, aber wert ist es das von P/L her gesehen nicht. Dieser RAF hatte sich auch mal an einer Übersicht versucht, getrennt nach Raster und RT, muß ich aber erstmal gucken. Ach, hier: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Grafikkarten-Preise-Vergleich-Kauftipps-1418023/. Da sieht die ti erwartungsgemäß nicht so dolle aus.

**edit: Einen Fuffi zugunsten der ti hätte man vielleicht noch akzeptieren können, wenn sie mit einer besseren Grundausstattung wie zB. 16gb um die Ecke gekommen wäre. Aber ne, mit ebenfalls nur 12gb kann die ti in fps/€ eigentlich nur abstinken.

dildo4u
2023-05-09, 08:16:48
Fortnie mit Lumen dropt schon unter 40 in 1440p, die TI steht deutlich besser da wir reden hier nicht von Pathtracing sondern der neuen Standard Beleuchtung.
Nvidia hat die 4070 zu viel gedrosselt aber so machen zumindest die 12GB Sinn, die Ti wird in Zukunft deutlich öfter durch Vram Limitiert.

https://abload.de/img/forntite7aek3.png

https://youtu.be/GRMFGQoyyVY?t=339

MAX|HASS
2023-05-09, 08:35:09
Das mag ja sein, daß die kleinere Karte ab einer gewissen Auflösung unter eine gewisse Grenze rutscht, nur ändert sich ja nichts an den prozentualen Abständen (scheinbar, habe das anhand der obigen Balken nicht nachgemessen).

Und verkaufe mal die 47/54fps der ti als besseres Ergebnis. Ja, das ist es objektiv, aber selbst so würde hier im Forum kaum einer ernsthaft spielen wollen. Wäre einfach zu stuttery, wenn man es nicht auf 45Bilder/s deckelt, um dieses auf und ab nicht zu merken. Aber bitte, Fortnite und 45fps..:freak:

nV wird schon Wege finden, um diesem Zug bis 2030 immer noch einen weiteren Waggon anhängen zu können, aufdaß man alle zwei Jahre eine neue Lok braucht :smile:.

][immy
2023-05-09, 08:46:19
Fortnie mit Lumen dropt schon unter 40 in 1440p, die TI steht deutlich besser da wir reden hier nicht von Pathtracing sondern der neuen Standard Beleuchtung.
Nvidia hat die 4070 zu viel gedrosselt aber so machen zumindest die 12GB Sinn, die Ti wird in Zukunft deutlich öfter durch Vram Limitiert.

https://abload.de/img/forntite7aek3.png

https://youtu.be/GRMFGQoyyVY?t=339
Na sowas. Ich hätte nicht erwartet das Fortnite die Hardware so fordert. Ich hätte besonders mit den neuen Karten irgendwas mit >100 fps erwartet.
Gut in der Qualität spielt man das Spiel eigentlich nicht (lenkt nur ab) aber das ist schon extrem.

MAX|HASS
2023-05-09, 08:53:45
Vor allem mußt du dir mal den allgemeinen Zustand der Grafik angucken und dann diesen Hardware-Anforderungen gegenüberstellen. Als wären diese Krüppel-Steine zB. zu Beginn des Videos state-of-the-art und nur durch nanite entpuppen sie sich dann zu etwas(!) ansehenlicheren Brocken lol.

Funfact: diese Anforderungen <-> PCs der Spieler, die dieses Spiel spielen :freak:

https://www.youtube.com/watch?v=DPVyQZ5p6w8

dildo4u
2023-05-09, 09:05:01
Es geht nicht um Fortnite Speziell sondern darum das immer weniger Games mit eigener Tech kommen daher ist die Performance in UE 5.1 extrem wichtig für die Zukunft der Karte.
Tomb Raider und Witcher nutzten in Zukunft z.b UE 5.1 statt einer Eigentwicklung.

DrFreaK666
2023-05-09, 09:43:47
Third Party Studios nutzten in der Vergangenheit öfters mal die UE. Das ist nichts außergewöhnlich Neues.
Und da es mehr Studios gibt als vor 20 Jahren, wird die Engine natürlich auch öfters lizenziert.
Unity ist aber auch nicht tot.
Ubisoft hat auch eigene Engines und id Software werkelt wahrscheinlich auch weiterhin an ihrer.
Jede lebende Engine wird stetig verbessert und benötigt mehr Hardware.
Das ist ja nicht erst seit UE5 so

Raff
2023-05-09, 09:52:49
Fakt ist: Es nutzen mehr Studios die Unreal Engine, speziell Version 5.x, denn je. Somit hat dildo Recht - gute Unreal-Performance ist wichtig und Fortnite fungiert gerade als eine Art Pointer.

MfG
Raff

robbitop
2023-05-09, 09:59:08
Ja gruselig. Kurzfristig wirkt es verlockend (UE5x sieht gut aus und macht es Studios leichter anstatt ihre eigene Engine up to date zu halten) führt aber ggf. mittelfristig mangels echtem Wettbewerb zu einer Monokultur und potenziellem Innovationsrückgang. Wettbewerb ist der Motor der Innovation.

BlacKi
2023-05-09, 10:01:57
[immy;13300793']Na sowas. Ich hätte nicht erwartet das Fortnite die Hardware so fordert. Ich hätte besonders mit den neuen Karten irgendwas mit >100 fps erwartet.
Gut in der Qualität spielt man das Spiel eigentlich nicht (lenkt nur ab) aber das ist schon extrem.


lumen ist unreals RT. und TAA bedeutet das kein upscaling verwendet wurde. was erwartest du da ohne dlss mit "RT on" für fps? das ist dasselbe wie mit quake2 RTX in native. um die 40 fps.

aufkrawall
2023-05-09, 10:21:46
Ja gruselig. Kurzfristig wirkt es verlockend (UE5x sieht gut aus und macht es Studios leichter anstatt ihre eigene Engine up to date zu halten) führt aber ggf. mittelfristig mangels echtem Wettbewerb zu einer Monokultur und potenziellem Innovationsrückgang. Wettbewerb ist der Motor der Innovation.
Es gibt allerdings keinen Wettbewerb zwischen in-house Engines, was das Ergebnis erklärt. Epic sind stattdessen riesig geworden, da arbeiten unterm Strich mehr Leute an der Engine und deren Toolkits als viele größere Spieleschmieden insgesamt Mitarbeiter haben. Selbst nur in Deutschland haben die zwei Studios:
https://en.wikipedia.org/wiki/Epic_Games#Subsidiaries_and_divisions
Kann noch gruselig werden, ja. Aber Wettbewerb gab es eh nicht mehr.

DrFreaK666
2023-05-09, 11:01:27
Ja. Mit Factor 5 haben sie auch die Turrican-Rechte erworben.
Die Marke ist toter denn je

Sorry für OT, aber das ärgert mich

00-Schneider
2023-05-09, 11:02:57
Sehe das nicht so kritisch. Gibt noch zig andere Engines neben UE, die weiterhin entwickelt werden:

- Frostbite
- Northlight
- zig Engines von japanischen Studios

Sehe da auch nicht den Sinn dahinter, warum jedes kleine Studio seine eigene Engine braucht.

Thunder99
2023-05-09, 14:03:04
Red Engine wird aber zugunsten von UE fallen gelassen. Schade, oder?

00-Schneider
2023-05-09, 14:05:27
Red Engine wird aber zugunsten von UE fallen gelassen. Schade, oder?


Ist das Ironie?

Exxtreme
2023-05-09, 14:07:27
Sehe da auch nicht den Sinn dahinter, warum jedes kleine Studio seine eigene Engine braucht.

Oft können dämliche Lizenzbestimmungen ein absolutes No-Go sein. Deshalb bekommt H.265/H.266 keinen Fuß auf den Boden. Oder man macht irgendein Nischenspiel, und eine "general purpose"-Engine ist da suboptimal etc.

aufkrawall
2023-05-09, 14:09:48
- Frostbite

Wurde auch für Mass Effect eingedampft, EA Respawn nutzt es ebenfalls gar nicht...

YeahBuoy!
2023-05-09, 14:23:10
Hatte EA nicht bei Frostbite in Verbindung mit ME:A das Problem das man zwar eine schnittige Shooterengine hatte, aber vieles was die Kreativabteilung wollte (bspw. Erkundung von Planeten, war zur Zeit der Entiwklung wegen No Mans Sky und Starcitizen ja angedacht) oder benötigt (bspw. brauchbare Tools um Gesichtsanimationen in Dialogen passend darzustellen) nicht bringen konnte? Gleiches Spiel dann nochmal mit Anthem. Wäre man von vorneherein bei Unreal geblieben (ME2 / 3) hätte man sich viel Zeit und Geld sparen können. Oder Epic war damals bei der Lizenzierung einfach zu gierig und man meinte bei EA sich das mit einer Inhouse Engine schön rechnen zu können.

Lehdro
2023-05-09, 14:52:59
Hatte EA nicht bei Frostbite in Verbindung mit ME:A das Problem das man zwar eine schnittige Shooterengine hatte, aber vieles was die Kreativabteilung wollte (bspw. Erkundung von Planeten, war zur Zeit der Entiwklung wegen No Mans Sky und Starcitizen ja angedacht) oder benötigt (bspw. brauchbare Tools um Gesichtsanimationen in Dialogen passend darzustellen) nicht bringen konnte? Gleiches Spiel dann nochmal mit Anthem. Wäre man von vorneherein bei Unreal geblieben (ME2 / 3) hätte man sich viel Zeit und Geld sparen können.
Frostbite 3 wurde aber auch bei DA: O benutzt, da gab es komischerweise kaum Kritik. Die Probleme die Frostbite hat(te) sind also lösbar - wenn man realistisch bleibt und dafür auch Zeit einplant. Tools mussten erst geschrieben werden und auch sonst viel zugearbeitet werden.

Die Probleme von z.B. ME:A lagen definitiv bei den Verantwortlichen, nicht an der Technik. Das ist mittlerweile auch gut dokumentiert. (https://www.svg.com/298104/what-went-wrong-with-mass-effect-andromeda/) (2) (https://kotaku.com/the-story-behind-mass-effect-andromedas-troubled-five-1795886428) Der Zusammenprall von erzwungener Zusammenarbeit von drei verschiedenen physischen Locations, massivem Zeitdruck, mehrfachen plötzlichen Richtungswechseln in der Entwicklung, technischer Überforderung und überambitionierten Visionen führen zusammen mit einem eher unerfahrenem Team zu solch einem Ergebnis. Primär ist EA schuld, nicht Frostbite.

Oder Epic war damals bei der Lizenzierung einfach zu gierig und man meinte bei EA sich das mit einer Inhouse Engine schön rechnen zu können.
Ja.

YeahBuoy!
2023-05-09, 15:12:01
Haarspalterei meinerseits, Recht hast du hier dennoch: DA:O war noch Eclipse, du meinst DA:I (das hatte tatsächlich Frostbite 3 im Einsatz), was sogar noch vor ME:A herausgekommen ist. Daher ist es ja umso befremdlicher das man das so in den Sand gesetzt hat, und je nachdem welches Post Mortem man dazu liest bzw. sich ansieht wird der schwarze Peter mal mehr mal weniger der Engine (zumindest in der ersten Hälfte der Entwicklung) zugeschoben.

Troyan
2023-05-09, 16:31:25
Mal ein Vergleich zwischen 3080 12GB und 4070: https://www.youtube.com/watch?v=1IKHrdQecfA&embeds_euri=https%3A%2F%2Fwww.redditmedia.com%2F&source_ve_path=MzY4NDIsMjg2NjY&feature=emb_logo

Ganz gut eigentlich. Preisvergleiche sind ja nicht möglich. Abverkaufspreise bei der 3080 12GB waren ~800€ am Tiefspunkt.

Raff
2023-05-09, 16:37:08
Jo, wobei vor allem die Effizienz für die 4070 anstelle einer gebrauchten 3080 12GB spricht. Hier ein paar frische Watt-Werte: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Specials/RTX-3080-vs-4070-Ti-im-Test-Uebertakten-OC-UV-Effizienz-Sparen-Fps-pro-Watt-1418111/

Ampere ist einfach durch.

MfG
Raff

Jupiter
2023-05-09, 16:41:27
Ist das Ironie?

Unreal Engine ist die Ruckelengine schlechthin. Ich beschwerte mich schon bei Frostbite in Dead Space aber noch nie ruckelten Spiele in den letzten Jahren mehr als in Unreal. Unreal 5 ruckelt bei meinen letzten Tests ebenfalls.

DF sagte auch klar sei kein Unreal Titel grafisch annähernd mit Cyberpunk 2077 mithalten könne.

ChaosTM
2023-05-09, 16:56:18
Und selbst CD Projekt RED wechselt auf Unreal 5. Schade eigentlich.
Wahrscheinlich deutlich weniger Arbeit..

Thunder99
2023-05-09, 18:58:41
@00-Schneider, keine Ironie, kritisiere dass eine eigene Engine von einem grösseren Studio gegen einen Einheitsbrei getauscht wird. Hätte da von CD Projekt mehr erwartet, aber Geld ist da Ihnen wichtiger und nachhaltiger in Lizenzen zu investieren als in eigene Mitarbeiter und diese zu bezahlen...

Achill
2023-05-09, 20:53:46
Ja gruselig. Kurzfristig wirkt es verlockend (UE5x sieht gut aus und macht es Studios leichter anstatt ihre eigene Engine up to date zu halten) führt aber ggf. mittelfristig mangels echtem Wettbewerb zu einer Monokultur und potenziellem Innovationsrückgang. Wettbewerb ist der Motor der Innovation.

Es gibt halt auch hier, dass die Kosten im Verhältnis immer höher werden für weiteren Fortschritt.

(Imho) ist Wettbewerb ist nicht der Motor der Innovation - sondern Innovation (welche sich durchsetzt) ermöglicht (idR) Gewinn (oder Kostenreduktion) und kann damit zu Wettbewerb führen oder diesen aufrecht erhalten, solange dieser Vorteil aufrecht erhalten werden kann.

--

Red Engine wird aber zugunsten von UE fallen gelassen. Schade, oder?

Kommt darauf an mit welchen Hersteller man bei erscheinen der Spiele so spielen wollte ..

sun-man
2023-05-10, 09:26:12
Am meisten nerven mich ja in den News solche *div. oder einer Onlinezeitschriften aus Deutschland*...."4070 wird bei Alternate verramscht. Greifen Sie jetzt zu. So billigs wars noch nie".....599+VK^^ -> Reflink

Leider sind solche Reader wie G-News eben mit meinem Profil unterwegs und schlagen mir News vor. Das passt ja in der Regel auch, aber sowas....*grummel* :(

robbitop
2023-05-10, 09:42:25
Es gibt allerdings keinen Wettbewerb zwischen in-house Engines, was das Ergebnis erklärt. Epic sind stattdessen riesig geworden, da arbeiten unterm Strich mehr Leute an der Engine und deren Toolkits als viele größere Spieleschmieden insgesamt Mitarbeiter haben. Selbst nur in Deutschland haben die zwei Studios:
https://en.wikipedia.org/wiki/Epic_Games#Subsidiaries_and_divisions
Kann noch gruselig werden, ja. Aber Wettbewerb gab es eh nicht mehr.
Wie meinst du das? Du meinst mehrere Engines die sich pro Publisher im Wettbewerb befinden? Das stimmt - da hat sich fast jeder Publisher auf eine Engine festgelegt und so ziemlich alle Studios folgen. Entsprechend gibt es pro Studio keinen direkten Wettbewerb mehr. Aber: durch die Vielfalt an Engines zwischen vielen Games gibt es eine Art Wettbewerb vom optischen Ergebnis.

Wenn alles UE5 sein wird, besteht die Gefahr, dass Spiele optisch gleicher werden und es irgendwann auch weniger Innovation geben wird, weil Epic sich nicht mehr bemühen muss. Bis dato hatten sie ja noch ein paar ganz ordentliche Studio Engines, gegen die sie sich beweisen mussten. Das nimmt anscheinend immer weiter ab.

Es gibt halt auch hier, dass die Kosten im Verhältnis immer höher werden für weiteren Fortschritt.

(Imho) ist Wettbewerb ist nicht der Motor der Innovation - sondern Innovation (welche sich durchsetzt) ermöglicht (idR) Gewinn (oder Kostenreduktion) und kann damit zu Wettbewerb führen oder diesen aufrecht erhalten, solange dieser Vorteil aufrecht erhalten werden kann.
Mir ist klar, warum es dazu kam. Aber wenn Epic nicht mehr "gechallanget" wird, besteht mittelfristig eine ganz reale Gefahr, dass die Innovationrate abnehmen wird. So ist es in jedem Markt, wenn es keinen Wettbewerb oder Challange gibt. Dann werden vor allem Kosten optimiert und Innovation in Salamischeibchen verteilt.
Gibt und gab ja genug praktische Beispiele die diesen Mechanismus belegen.

Naja und leider wird die optische Vielfalt damit auch zurück gehen.

r3ptil3
2023-05-10, 12:30:53
Mal ein Vergleich zwischen 3080 12GB und 4070: https://www.youtube.com/watch?v=1IKHrdQecfA&embeds_euri=https%3A%2F%2Fwww.redditmedia.com%2F&source_ve_path=MzY4NDIsMjg2NjY&feature=emb_logo


Crazy - auf jeden Fall eine RTX 4070, auch zum gleichen Preis!
Der Verbrauch und die Effizienz sagen alles.


Aus dem Techpowerup-Forum:
https://www.techpowerup.com/forums/attachments/average-power-jpg.291919/
https://www.techpowerup.com/forums/threads/rtx-4070-efficiency-undervolting.307388/

DrFreaK666
2023-05-10, 13:22:18
Natürlich eine 4070 und erst recht wenn beide gleich teurer sind. Da gibt's doch gar keine Frage

Troyan
2023-05-10, 16:58:12
Nach zig Patches benötigt the TLoU nun noch 10GB in 4K und mit der Reservierung für OS+Apps sind es weniger als 12GB mit Ultra: https://www.youtube.com/watch?v=2G468N-aAts

In 1440p sind sogar 10GB nun ausreichend.

/edit: Sind 1,4GB weniger Speicher gegenüber Launch-Version.

Jupiter
2023-05-10, 17:24:19
Das der hohe VRAM-Bedarf an der schlechten Optimierung lag war von Beginn an klar. Gab es schon bei anderen Spielen, wo es später gemildert wurde. Siehe Horizon oder Dead Space.

Zuerst wurde aber behauptet, dass die Grafikkarten zu wenig Speicher hätten.

DrFreaK666
2023-05-10, 20:22:10
...Zuerst wurde aber behauptet, dass die Grafikkarten zu wenig Speicher hätten.

War zum Launch ja auch der Fall ;)

dargo
2023-05-10, 20:28:20
Nach zig Patches benötigt the TLoU nun noch 10GB in 4K und mit der Reservierung für OS+Apps sind es weniger als 12GB mit Ultra: https://www.youtube.com/watch?v=2G468N-aAts

In 1440p sind sogar 10GB nun ausreichend.

/edit: Sind 1,4GB weniger Speicher gegenüber Launch-Version.
Wie jetzt? Hat AMD Naughty Dog doch mit zu wenigen Dollarscheinen bestochen? ;D

robbitop
2023-05-10, 20:41:02
Das der hohe VRAM-Bedarf an der schlechten Optimierung lag war von Beginn an klar. Gab es schon bei anderen Spielen, wo es später gemildert wurde. Siehe Horizon oder Dead Space.

Zuerst wurde aber behauptet, dass die Grafikkarten zu wenig Speicher hätten.
Wenn eine brandneue Grafikkarte direkt nach Launch am Limit ist, ist das kein schönes Zeichen. Die Reduktion durch Optimierung um ~10-11% weniger VRAM Verbrauch ändert an der Situation nicht viel. Von über der Kotzgrenze zu knapp davor. Zum Start ihrer Lebenszeit. :freak:

Jupiter
2023-05-10, 20:59:38
Die meisten Karten sind bei Cyberpunk 2077 auch an der Grenze, allem voran AMD-Karten. Bei Cyberpunk 2077 sieht man aber auch, warum es so viel Leistung benötigt.

Der übermäßige VRAM-Bedarf bei vielen Spielen ist dagegen auf schlechte Optimierung zurückzuführen. A Plague Tale: Requiem hat mindestens eine genau so gute Grafik wie TLoU, benötigt aber nur halb so viel VRAM. Man kann auch ein 5 Jahre altes Spiel so schlecht optimieren, dass es eine RTX 4090 überfordert. Von daher greift die Kritik am VRAM-Mangel von 12 GB definitiv nicht. Cyberpunk 2077 benötigt auch weniger Speicher, hat aber eine vielfach fortschrittlichere Grafik.

ChaosTM
2023-05-10, 21:00:40
Wenn eine brandneue Grafikkarte direkt nach Launch am Limit ist, ist das kein schönes Zeichen. Die Reduktion durch Optimierung um ~10-11% weniger VRAM Verbrauch ändert an der Situation nicht viel. Von über der Kotzgrenze zu knapp davor. Zum Start ihrer Lebenszeit. :freak:


Der letzte Satz ist die Schlüsselaussage..

Jupiter
2023-05-10, 21:06:57
Es werden aber falsche Schlüsse gezogen. Ich nannte schon A Plague Tale: Requiem aks Beispiel, was eine mindestens genau so gute Grafik und Texturen hat und nur halb so viel VRAM benötigt. Was ist an schlechter Optimierung so schwer zu verstehen?

dargo
2023-05-10, 21:17:02
Es werden aber falsche Schlüsse gezogen. Ich nannte schon A Plague Tale: Requiem aks Beispiel, was eine mindestens genau so gute Grafik und Texturen hat und nur halb so viel VRAM benötigt. Was ist an schlechter Optimierung so schwer zu verstehen?
Das sagt der richtige mit seinem Beispiel @APTR und Dauerschallplatte @CP77 mit RT/PT. :lol: Seit wann ist ein Spiel repräsentativ für alles andere?

crux2005
2023-05-10, 21:19:52
Sehe das nicht so kritisch. Gibt noch zig andere Engines neben UE, die weiterhin entwickelt werden:

- Frostbite
- Northlight
- zig Engines von japanischen Studios

Sehe da auch nicht den Sinn dahinter, warum jedes kleine Studio seine eigene Engine braucht.

Frostbite lasse ich gelten.

Aber dann würde ich RAGE (R*), idtech (id) und die Snowdrop (Ubisoft Massive) nennen, als kleine/unbekannte Engines.

Lurtz
2023-05-10, 21:20:14
Das der hohe VRAM-Bedarf an der schlechten Optimierung lag war von Beginn an klar. Gab es schon bei anderen Spielen, wo es später gemildert wurde. Siehe Horizon oder Dead Space.

Zuerst wurde aber behauptet, dass die Grafikkarten zu wenig Speicher hätten.
Mit GPUs mit mehr VRAM konnte man gleich zu Beginn besser spielen, insofern war die Aussage nicht mal falsch.

Viel eher wurde die absurde Verschwörungstheorie, AMD würde für hohen VRAM-Verbrauch zahlen, widerlegt.

Aber die nVidia gesponsorte Dauerbaustelle Cyberpunk 2077 ist natürlich das Maß aller Dinge ;D

DrFreaK666
2023-05-10, 21:20:47
Es werden aber falsche Schlüsse gezogen. Ich nannte schon A Plague Tale: Requiem aks Beispiel, was eine mindestens genau so gute Grafik und Texturen hat und nur halb so viel VRAM benötigt. Was ist an schlechter Optimierung so schwer zu verstehen?

Asobos Engine ist halt eher für PCs optimiert. Ist ja nicht deren erstes Spiel, das auch für PCs erscheint.
Der VRAM-Verbrauch wird in Zukunft trotzdem nicht weniger

Jupiter
2023-05-10, 21:39:19
Spiele wie TLoU sind beim VRAM-Bedarf sehr schlecht optimiert. Das gleiche Ergebnis könnte man auch mit 6 GB VRAM erreichen. Andere Spiele machen es vor. Dead Space benötigt für seine Optik ungewöhnlich viel Rechenleistung. Eine nahezu identische Grafik könnte man auch mit weit weniger Rechenleistung erreichen. Es ist nicht die Aufgabe der Grafikkartenhersteller, grobe Fehlentscheidungen in der Entwicklung zu kompensieren.


Mit GPUs mit mehr VRAM konnte man gleich zu Beginn besser spielen, insofern war die Aussage nicht mal falsch.
[...]
Aber die nVidia gesponsorte Dauerbaustelle Cyberpunk 2077 ist natürlich das Maß aller Dinge ;D

Das sagt der richtige mit seinem Beispiel @APTR und Dauerschallplatte @CP77 mit RT/PT. :lol: Seit wann ist ein Spiel repräsentativ für alles andere?

Cyberpunk 2077 ist grafisch mit weitem Abstand das Maß aller Dinge. Und da Mangelt es in der Regel nicht am VRAM, sondern Rechenleistung.

Zur Dauerbaustelle. Wenn ein Spiel nach Jahren noch grafisch enorm aufgewertet wird ist das für mich als Endverbraucher nur von Vorteil. Andere Spiele aus der Zeit haben heute nicht einmal DLSS.

vinacis_vivids
2023-05-10, 21:41:33
Die CP2077-Engine ist einfach zu schlecht programmiert.
Nach dem Hype bleibt nicht viel zurück. Zu viel high-level zeugs, schlechte Texturen, schlechte Performance.

aufkrawall
2023-05-10, 21:42:27
Cyberpunk 2077 ist grafisch mit weitem Abstand das Maß aller Dinge. Und da Mangelt es in der Regel nicht am VRAM, sondern Rechenleistung.
Endlich siehst du ein, weshalb PT im Jahr 2023 Murks ist.

Jupiter
2023-05-10, 21:48:16
Gute Grafik braucht Rechenleistung. Ein Crysis 1 benötigte ebenfalls viel Rechenleistung.

Wir haben eine ähnliche Situation wie bei Crysis 1 damals. Alle anderen Spiele sind neben Cyberpunk 2077 aktuell grafische Zwerge.

Die CP2077-Engine ist einfach zu schlecht programmiert.
Nach dem Hype bleibt nicht viel zurück. Zu viel high-level zeugs, schlechte Texturen, schlechte Performance.

Die Bildrate ist mit Raytracing gut. Dead SPace läuft nicht viel schneller. Das Optik/Performance-Verhältnis ist besser als ohne Raytracing.

aufkrawall
2023-05-10, 22:02:10
Alle anderen Spiele sind neben Cyberpunk 2077 aktuell grafische Zwerge.

Als ob du den absoluten Anspruch darauf gepachtet hättest, was qualitativ hochwertig ist oder nicht. So ein Quatsch kommt von dir auch ständig im Hinblick auf ästhetische Designformen wie Cyberpunk/Bladerunner, was angeblich "überlegen" wäre. Kultur-Ästhetik-Erziehung mit vorgefertigten Sinn-Schablonen à la DDR? Echt deprimierend zu lesen.

Die Crysis 1-Grafik war jedenfalls keine Ghosting- und Rausch-Hölle...

Jupiter
2023-05-10, 22:13:53
Das Spiel hat Ghosting. Es soll aber in Cyberpunk 2077 Real-time-neural-Radiance-Caching eingebaut werden, um diese Nachzieheffekte zu beseitigen.
Generell kann mir aber kein LCD-Spieler etwas von Nachzieheffekte erzählen. Als CRT- und Plasmaspieler hat LCD generell Nachzieheffekte aus der Hölle.

Das liegt nicht nur an der Thematik, sondern auch an der technischen Umsetzung. Es gibt auch andere Spiele mit der Thematik, welche ich unansehnlich finde. Siehe The Ascent.

ChaosTM
2023-05-11, 08:16:00
Cysis 1 lief auf nur einem Faden. Das war der gröbste Murks und 77 hat immer noch massive LOD und Pop-In Probleme die daher rühren, dass das Spiel unbedingt in die 10GB der 3080er passen muss.
Würde man das ausbügeln, wären wohl auch 12GB zu wenig. Kann man aber nicht machen, da NV brav gesponsert hat..

dildo4u
2023-05-11, 09:33:54
Da wir im 4070 Thread sind Overdrive läuft mit 30fps in 1440p das heißt es fühlt wie ein Sack Nüsse an wenn man FG für 60 braucht.

https://youtu.be/XEFzFdSqQuc?t=894

Kein Plan was noch per Software geht aber ich würde da weiter auf die nächste Generation warten wenn ich nur Geld für 600€ "Midrange" habe.

Troyan
2023-05-11, 10:01:06
Und wieso nimmst du nicht 1440p: https://youtu.be/XEFzFdSqQuc?t=1253

90 FPS mit DLSS Quality und FG. Komplett spielbar.

dildo4u
2023-05-11, 10:32:32
Habe ich mein Link ist Overdrive deiner das alte RT.

Troyan
2023-05-11, 10:42:07
Hast recht. Hier ist 1080p mit DLSS, was 1440p mit DLSS Performance entspricht: https://youtu.be/XEFzFdSqQuc

Sind also >=50 FPS ohne FG.

Jupiter
2023-05-11, 16:42:45
Cysis 1 lief auf nur einem Faden. Das war der gröbste Murks und 77 hat immer noch massive LOD und Pop-In Probleme die daher rühren, dass das Spiel unbedingt in die 10GB der 3080er passen muss.
Würde man das ausbügeln, wären wohl auch 12GB zu wenig. Kann man aber nicht machen, da NV brav gesponsert hat..

2007 war das Standard. Da gibt es Modifikationen. Dafür hat Cyberüunk 2077 nahezu keine plötzlich erscheinenden Schatten oder überhaupt kaskadierende Schatten. Es kann beliebig viele Schattenwerfende Lichtquellen einbauen, während andere Titel auf ein Dutzend begrenzt sind.

Würde man das mit optionalem Pathtracing ausbügeln, wäre dafür jede AMD-Karte zu langsam.

Lurtz
2023-05-12, 13:44:52
yejQjXy-5Ik

Die 4070 legt gegenüber der 2070 in 1080p und 1440p 100% an Performance drauf.
Gutes, wenn auch nicht perfektes, Upgrade für 2070-Besitzer, für 3070-Besitzer empfiehlt er angesichts von 30% Mehrperformance und nur 50% mehr VRAM auf die RTX 5000er zu warten.

Dorn
2023-05-15, 18:03:24
Fange gerade mit dem Undervolten wieder langsam an:
2850 MHz 1,04 Volt Kernspannung (1,10Stock) ergibt 185 Watt max, ist schon mal sehr nice.

Aber die KFA2 GeForce RTX 4070 EX ist schon ein Wahnsinns Brocken, meine Grakas davor 6700xt, 1080gtx hatten mehr Stromanschlüsse und weniger Kühlmasse und waren leise, aber dass hier ist noch mal eine ganz andere Liga.

Ich finde es schon übertrieben wie lange die ist, naja aber egal Platz ist noch mehr im Gehäuse.

Hakim
2023-05-15, 18:52:44
Fange gerade mit dem Undervolten wieder langsam an:
2850 MHz 1,04 Volt Kernspannung (1,10Stock) ergibt 185 Watt max, ist schon mal sehr nice.

Aber die KFA2 GeForce RTX 4070 EX ist schon ein Wahnsinns Brocken, meine Grakas davor 6700xt, 1080gtx hatten mehr Stromanschlüsse und weniger Kühlmasse und waren leise, aber dass hier ist noch mal eine ganz andere Liga.

Ich finde es schon übertrieben wie lange die ist, naja aber egal Platz ist noch mehr im Gehäuse.

Wie weit kannst du den ausreizen wenn du Spannung etwas senkst und PT auf 215W maxt mit dem Takt?

Dorn
2023-05-16, 12:38:01
Die Grafikkarte hat @Stock schon ein Powerlimit von 215 Watt im Bios hinterlegt.
https://www.igorslab.de/kfa2-geforce-rtx-4070-ex-gamer-1-click-oc-12-gb-im-test-guenstige-oc-karte-kuehl-leise-und-ganz-viel-leuchtkraft/

Das dauert noch paar Wochen bis ich zu einem Validen Endergebnis komme, gerade wenig Zeit.

dildo4u
2023-05-16, 12:55:25
Die Karte macht irgendwie kein Sinn der Kühler und nur 1x8 Pin, ich hoffe die 4060 TI bekommt mehr kleine Modelle.


Framegen scheint hier der Framebuffer überlaufen zu lassen.

KRLbA3ke5cY

Dorn
2023-05-16, 14:18:13
Sinn macht das durchaus wie ich schon geschrieben habe. Siehe auch den Test bei Igor...

Psst...max Powertarget ist bei allen 4070 215 Watt. Da kannste noch soviele Stromstecker dran klöppeln, bringt halt nix und für was?!
Wenn du mehr Verbauch willst, dann kauf dir ne 4070 TI.

Edit: Noch was alle 4070 haben entweder einen 1x 16-Pin PCIe 5.0 (13 Stück) Stromanschluss oder einen 1x 8-Pin PCIe (23 Stück) Stromanschluss.
https://geizhals.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4070

denjudge
2023-05-17, 17:56:13
Sinn macht das durchaus wie ich schon geschrieben habe. Siehe auch den Test bei Igor...

Psst...max Powertarget ist bei allen 4070 215 Watt. Da kannste noch soviele Stromstecker dran klöppeln, bringt halt nix und für was?!
Wenn du mehr Verbauch willst, dann kauf dir ne 4070 TI.


Nee, das stimmt nicht ganz. Max Power bei meiner MSI Gaming X Trio ist 240 Watt. Ist aber ja fast nicht auszureizen, zumal man ja auch die Voltage nicht erhöhen kann wenn ich das recht verstehe.
Mit knapp 3000Mhz und +1500mhz auf dem RAM komme ich aber ab und an schonmal ins Powerlimit.

Dorn
2023-05-18, 10:48:07
Stimmt bei der gehts. :smile:
Auszug aus Igors Test:
Der Hersteller setzt das Power Limit standardmäßig auf 215 Watt, was völlig ausreicht. Erinnern wir uns an meinen Launchartikel, wo selbst die deutlich ineffizientere NVIDIA RTX 4070 FE trotz der 220 Watt maximalem Power Limit nie über 215 Watt kam. Dass MSI hier den Sweet Spot gesetzt hat, ist definitiv kein Zufall. Man erlaubt zwar bis zu 240 Watt, die diese Karte auch gefahrlos als Abwärme abführen kann, nur wird man es nie brauchen.

https://www.igorslab.de/msi-geforce-rtx-4070-gaming-x-trio-12-gb-im-test-effzienter-kuehler-und-schneller-als-die-founders-edition/

Was anderes ich spiel ja schon länger Apex Legends mit mittlerweile drei unterschiedlichen Karten. (Geforce 1080GTX & Radeon 6700XT)
Die 4070 mit 1080p@140fps Settings zwischen low bis Ultra verbraucht nur max ca. 75 Watt, die Lüfter bleiben so gut wie immer auf 600 Umdrehungen.:biggrin:

Pitman
2023-05-18, 13:43:13
Ich frag mich nur warum die MSI Karte so brutal lang sein muss. Bei mir passt sie wohl nicht mehr rein.

MfG
Pitman

denjudge
2023-05-18, 20:22:12
Ich frag mich nur warum die MSI Karte so brutal lang sein muss. Bei mir passt sie wohl nicht mehr rein.

MfG
Pitman

Wahrscheinlich damit sie 58 statt 60 Grad warm wird. Die Kühlkonstruktion ist der totale Overkill. Ein halber cm mehr und sie hätte bei mir auch nicht mehr gepasst.

Taigatrommel
2023-05-18, 20:26:14
Wahrscheinlich damit sie 58 statt 60 Grad warm wird. Die Kühlkonstruktion ist der totale Overkill. Ein halber cm mehr und sie hätte bei mir auch nicht mehr gepasst.
Bei mir würde sie nicht mehr reinpassen. Ich kann nicht nachvollziehen, wieso man bei solch relativ sparsamen Karten solche Klopper verbaut. Das ging früher besser. Wenn das so weiter geht, dann kann man bald mit 4-Slot Designs und 40cm langen Kühlern rechnen.

Lurtz
2023-05-19, 15:05:17
Gibts zwischen der KFA2 Ex-Gamer Und der MSI Ventus 3X irgendwelche relevanten Unterschiede?

Hakim
2023-05-19, 15:11:52
Gibts zwischen der KFA2 Ex-Gamer Und der MSI Ventus 3X irgendwelche relevanten Unterschiede?


Laut GH in etwa gleich groß, KFA ticken Größer, und angeblich bei der MSI keine PT Erhöhung möglich.

https://geizhals.de/?cmp=2930728&cmp=2931251&active=1

Dorn
2023-05-19, 15:22:43
LED Disco Beleuchtung kann man bei der KFA2 (zum Glück) ausschalten.

Lurtz
2023-05-19, 16:24:38
MSI bietet wohl noch drei Jahre Garantie, gegenüber 2 bei KFA2.

Die Kühlleistung soll super sein, leider braucht sie im Idle 10 W mehr als die FE?! :(

Surprisingly, the MSI Ventus consumes 10+ W more than the FE in idle, no idea why, there's no RGB. In gaming on the other hand, the power draw is almost exactly the same.
https://www.techpowerup.com/review/msi-geforce-rtx-4070-ventus-3x/42.html

Und Guru3D behauptet das Gegenteil, nämlich dass die FE die deutlich bessere Kühlleistung habe :uup:

Gumril
2023-05-19, 17:04:56
MSI bietet wohl noch drei Jahre Garantie, gegenüber 2 bei KFA2.

Die Kühlleistung soll super sein, leider braucht sie im Idle 10 W mehr als die FE?! :(


https://www.techpowerup.com/review/msi-geforce-rtx-4070-ventus-3x/42.html

Und Guru3D behauptet das Gegenteil, nämlich dass die FE die deutlich bessere Kühlleistung habe :uup:


Die Ventus würde ich nach den Bildern und Aussagen von Igor nicht gerade holen, auser MSI hat nachgebessert.
https://www.igorslab.de/geforce-rtx-4070-auf-den-preispunkt-gebracht-wenn-der-zwang-zur-uvp-die-vernunft-besiegt/2/

Lurtz
2023-05-19, 18:58:23
Ich dachte der Artikel bezieht sich nur auf die günstigeren Dual-Designs.

aufkrawall
2023-05-19, 19:17:12
Hatte kurz die brandaktuelle MSI 6800 Gaming Z Trio da und die Lüfter sind leider immer noch Müll mit tickendem Geräusch, das nach ~zwei Tagen schlimmer wurde. Beim Anlaufen fingen sie dann auch manchmal an zu knacken. Dieses Problem kannte ich schon exakt so von RX 580 Armor-Karten und einer 3080 Gaming Suprim.
Viele Leute werden dir sagen, dass sie so etwas nicht bestätigen können. Dürfte aber oft im geschlossenen Gehäuse und sonstigem Lärm untergehen...

Gumril
2023-05-19, 19:57:47
Ich dachte der Artikel bezieht sich nur auf die günstigeren Dual-Designs.

Also das Video und die Bilder sind von der Ventus mit 3 Lüftern sieht man an der Backplate.

pmx
2023-06-05, 23:07:56
Die 4070 mit 1080p@140fps Settings zwischen low bis Ultra verbraucht nur max ca. 75 Watt, die Lüfter bleiben so gut wie immer auf 600 Umdrehungen.:biggrin:

Kannst Du bei der KFA2 auch die Lüfterdrehzahl frei einstellen? Z.B. 20% für ca. 800U/min?

Ich habe eine Gainward Panther hier, bei der mich neben dem Spulenfiepen störrt, dass die minimale Drehlaufzahl bei 30% mit ca. 1200U/min liegt, was nicht besonders laut ist, aber angesichts der niedrigen Temperaturen würde ich es gerne etwas langsamer und leiser stellen, kann es aber nicht.

Hikaru
2023-06-06, 12:14:29
Hab mir die MSI Gaming X Trio für 660 bestellt für 1080p Gaming wozu 12GB ausreichend sein sollten. Jetzt aber hat der Shop überraschenderweise einen für mich sehr passenden 1440p VA Monitor am Start für lächerliche knappe 280. habe selber nicht mehr dran geglaubt nen vernünftigen nicht gebogenen VA zu bekommen und somit müsste die Karte nun 1440p (sehr bevorzugt ohne DLSS) meistern.

Ojeh, 12GB, richtig? Wichtig ist mir dass das Ding "GTA6 proved" ist. Ja ich weiss...

DrFreaK666
2023-06-06, 12:55:28
GTA6 wird auch auf der Series S laufen und NV wird wahrscheinlich alle Hebel in Bewegung setzen, damit das Spiel FG bekommt

dildo4u
2023-06-06, 13:36:12
Diablo 4 Ultra Texturen sind für 12GB ein bissel zu viel laut Computerbase.


https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/

Hikaru
2023-06-06, 13:55:55
GTA6 wird auch auf der Series S laufen und NV wird wahrscheinlich alle Hebel in Bewegung setzen, damit das Spiel FG bekommt
FG erhöht doch die VRAM Nutzung. Ausserdem halte ich mich sowieso davon fern. Auf "lossless" DLSS möchte ich mich ebenso wenig verlassen müssen. Nur native Leistung zählt für mich.

Diablo 4 Ultra Texturen sind für 12GB ein bissel zu viel laut Computerbase.
Der Artikel ist eher wage wie z.B. 4K mit Einshränkungen und das 8GB bei 1080p knapp wären. Mich aber interessiert 1440p, was sich aber prima in "@1440p wird's mit 12GB auch knapp sein" einreihen sollte.

Und D4 interessiert mich nicht mal aber zukünftige Games eben schon...

DrFreaK666
2023-06-06, 14:10:54
Was zukünftige Games benötigen kann dir Zukunfts-Hikaru sagen :D

Exxtreme
2023-06-06, 14:14:38
Diablo 4 Ultra Texturen sind für 12GB ein bissel zu viel laut Computerbase.


https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/

Tja, das Haltbarkeitsdatum von 12 GB-Grafikkarten liegt halt in der Vergangenheit. Wenn schon eher sehr genügsame Spiele von Blizzard Probleme damit haben. Bin gespannt wann das nächste Blogposting von Nvidia auftaucht und meint, das sei alles in Ordnung und die 32 MB Cache sowieso alles regeln. X-D

aufkrawall
2023-06-06, 14:17:52
In dem Fall ist es allerdings kein genügsamer Titel, das Streaming darf man schon als Schrott bezeichnen. Aber nützt einem ja nichts, wenn man es spielen will.

dildo4u
2023-06-06, 14:33:42
Zumindest kann man die Texturen von der Platte werfen da ist ja relativ selten aber nett da fast jedes AAA Game Heute 100GB braucht.

Weltraumeule
2023-06-07, 00:48:42
Jetzt aber hat der Shop überraschenderweise einen für mich sehr passenden 1440p VA Monitor am Start für lächerliche knappe 280. habe selber nicht mehr dran geglaubt nen vernünftigen nicht gebogenen VA zu bekommen und somit müsste die Karte nun 1440p (sehr bevorzugt ohne DLSS) meistern.

Verrate mir doch welcher Monitor das ist bitte? :smile:

Dorn
2023-06-07, 08:20:17
Kannst Du bei der KFA2 auch die Lüfterdrehzahl frei einstellen? Z.B. 20% für ca. 800U/min?

Ich habe eine Gainward Panther hier, bei der mich neben dem Spulenfiepen störrt, dass die minimale Drehlaufzahl bei 30% mit ca. 1200U/min liegt, was nicht besonders laut ist, aber angesichts der niedrigen Temperaturen würde ich es gerne etwas langsamer und leiser stellen, kann es aber nicht.
Ich schaue heute Abend nach der Arbeit via MSI Afterburner und gebe dir dann bescheid.

Edit: Gestern Diablo 4 1080p@Ultra plus DLAA gespielt hier sind die Grafikkarten Lüfter selten in meinem Gehäuse angesprungen und dann auch nur mit der mindest Drehzahl von 600 rpm gelaufen. Bei ca. 45-75 Watt Verbrauch auch kein Wunder. Bis zu 11 Gigabyte VRAM wurden unter 1080p beansprucht, ob gebraucht weiß ich nicht aber Laut CB wird es ja bei 4k sehr eng...

gnomi
2023-06-07, 08:42:56
Diablo 4 Ultra Texturen sind für 12GB ein bissel zu viel laut Computerbase.


https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/

Welche Textur Einstellung benutzen PS5 und Series X. Nur die zweithöchste?
Und reichen die 12 GB wenigstens bei Ultra für (U)WQHD mit DLSS.
Das sollte schon hinhauen. Notfalls muss nochmal nachgepatcht werden...

dildo4u
2023-06-07, 08:50:46
Die Konsolen sind auf 60 FPS gelockt kein Plan ob das am PC was gegen das streaming stottern bringen würde.


9c-OKZ2nKDo

Troyan
2023-06-07, 09:02:12
Nach dem Video von dildo sind es "Hoch". Scheinen selbst die Konsolen mit 16GB nicht genug VRAM zu haben. :cool:

Die Beta hat auch hier bei 24GB gestottert. Ist einfach Murks, offensichtlich ist DX12 einfach schon veraltet, um ab einer bestimmten Menge von Daten noch effizient arbeiten zu können.

aufkrawall
2023-06-07, 09:23:35
Kann ich für Server Slam mit 16GB Radeon und 24GB GeForce nicht bestätigen.

Hikaru
2023-06-07, 17:50:51
Verrate mir doch welcher Monitor das ist bitte? :smile:

https://www.rtings.com/monitor/reviews/lg/32gn600-b

Ca. 280 in 32" und 180 in 27" Der Ständer ist aber absoluter Mist. Die Kiste hat aber VESA mount.

Habe nun aber alles verworfen. 12GB sind mir zu meh und reinpassen würde sie auch nicht hab ich gestern festgestellt was mir die Entscheidung noch leichter machte.

Dorn
2023-06-07, 17:53:13
Kannst Du bei der KFA2 auch die Lüfterdrehzahl frei einstellen? Z.B. 20% für ca. 800U/min?
Ja, via MSI Afterburner kann man die Drehzahl ab 600 rpm einstellen, bzw. natürlich dann auch hochsetzten wie man will.