PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41

BlacKi
2023-02-12, 11:38:15
Weg mit den hohen Margen! Ich will mal wieder einen ordentlichen Preiskampf sehen wie aktuell bei CPUs.


ausgerechnet bei den margen sollte man cpus nicht hervorheben. die dienen eher als abschreckendes beispiel statt als orientierung. die vram auslegung was das minimum angeht ist hier im forum komplett gaga.

robbitop
2023-02-12, 11:47:02
Die Margen waren auf die GPUs bezogen. (35% nettomargen zuletzt bei NV also nach Abzug aller Kosten, Steuern, RnD und Investitionen - da ist viel Fett am Fleisch) Der Preiskampf auf die CPUs. Grundsätzlich erlaubt ein gesunder Wettbewerb keine überhöhten Margen. Wenn beide Marktteilnehmer absichtlich Lieferungen verknappen um Preise hochzuhalten ist das kein gesunder Wettbewerb. Darum gehts. Kann ja wohl nicht wahr sein dass eine SKU die normalerweise 400-450 usd kostet nun fast 1000 usd kostet. Der Preissprung war viel viel höher als die Inflation. Da wird sich primär bereichert mangels gesundem Wettbewerb. Also kann uns als Endkunden es nur Recht sein, wenn Intel macimal viel Erfolg die nächsten Jahre hat und zumindest das Potenzial hat, Wettbewerb in den GPU Markt zurück zu bringen.

Linmoum
2023-02-12, 11:49:37
AMD hat mit einem 1xCCD Ryzen für 200€ sicher immer noch eine deutlich bessere Marge als mit diesem >500mm2 Gesamtkonstrukt eines N31 für 900€. Die XT ist bei der UVP nicht ohne Grund so nah an der XTX und hat auf dem Papier eine schlechtere P/L.

Einen "Preiskampf" geht man davon ab nur ein, wenn man genug Spielraum bei den Margen hat. Also bei den CPUs, daher tatsächlich bezogen auf "weg mit hohen Margen" komplett schlechtes Beispiel. ;)

GPUs werden auch zu diesen Preisen gekauft, insofern müssen die Hersteller auch gar nicht extrem mit den Preisen runter. Der Markt entscheidet das am Ende schlicht.

robbitop
2023-02-12, 11:51:08
Dann hohe Margen überall weg. Der Punkt ist doch wohl klar oder? Wir zahlen bei gleicher GPU SKU locker das doppelte wie vor relativ Kurzem (das ist bei CPUs nicht so) und die Nettomargen zeigen das eindeutig. Bei CPUs natürlich auch gern weniger klar.

Bei Intel macht man inzwischen Verluste. Zumindest die Nettomargen sind da im moment also alles andere als fett. Und auf die Nettomargen kommt es ja an. Es soll ruhig weiter fett geforscht und investiert werden und alle bezahlt werden und auch ein gesunder Gewinn rauskommen. Ist ja kein Kommunismus. Aber nur ein ordentlicher Wettbewerb verhindert, dass Nettomargen explodieren.

BlacKi
2023-02-12, 12:00:12
da gehört mehr dazu. ich glaube amd hat realisiert, das eine große basis der käufer immer nv kaufen würden. weshalb also die gewinne opfern, wenn man den marktanteil dadurch sowieso nicht steigern kann. man kann nur hoffen, das diese gewinne in die entwicklung fließen.

auf der anderen, lassen solche preise zu, das sich intel gerade etablieren kann. bei deinen gewünschten preisen wäre das utopisch und nicht zu realisieren.

du magst meckern, aber es gibt auch positive nebenentwicklungen in der aktuellen lage. da ich häufig kaufe und verkaufe, ist mir der anschaffungspreis eigentlich komplett egal, ich will nur keine hohen wertminderungen. deshalb wäre eine amd karte und vermutlich auch die intel karte(mal abgesehen von der schlechten performance) auch kein guter deal. nv karten sinken deutlich weniger im preis. bei den cpus vs intel auch.

ich frage mich, warum nv nicht seinen einfluss nutzt um mit arm oder risk das elende x86/a64 monopol abzuschaffen. möglich wäre es.

=Floi=
2023-02-12, 12:34:22
unterschätzt bei gpus nicht die software!


Das sollte man nicht unterschlagen.

robbitop
2023-02-12, 16:16:57
da gehört mehr dazu. ich glaube amd hat realisiert, das eine große basis der käufer immer nv kaufen würden. weshalb also die gewinne opfern, wenn man den marktanteil dadurch sowieso nicht steigern kann. man kann nur hoffen, das diese gewinne in die entwicklung fließen.

auf der anderen, lassen solche preise zu, das sich intel gerade etablieren kann. bei deinen gewünschten preisen wäre das utopisch und nicht zu realisieren.

du magst meckern, aber es gibt auch positive nebenentwicklungen in der aktuellen lage. da ich häufig kaufe und verkaufe, ist mir der anschaffungspreis eigentlich komplett egal, ich will nur keine hohen wertminderungen. deshalb wäre eine amd karte und vermutlich auch die intel karte(mal abgesehen von der schlechten performance) auch kein guter deal. nv karten sinken deutlich weniger im preis. bei den cpus vs intel auch.

ich frage mich, warum nv nicht seinen einfluss nutzt um mit arm oder risk das elende x86/a64 monopol abzuschaffen. möglich wäre es.

Naja eine 4090 mit 2000€ oder eine 4080 mit 1300€ werden zur nächsten Generation sicherlich schon ordentlich Wertverlust haben.
Es braucht einfach ernsten Wettbewerb. Den will AMD aus verschiedenen Gründen nicht liefern bzw muss ihn nicht liefern. Wenn alle fett und satt sind ist offenbar Platz für einen Dritten, der die Konstellation aufmischen kann.

Gott1337
2023-02-12, 19:28:54
Dann hohe Margen überall weg. Der Punkt ist doch wohl klar oder? Wir zahlen bei gleicher GPU SKU locker das doppelte wie vor relativ Kurzem (das ist bei CPUs nicht so) und die Nettomargen zeigen das eindeutig. Bei CPUs natürlich auch gern weniger klar.

Bei Intel macht man inzwischen Verluste. Zumindest die Nettomargen sind da im moment also alles andere als fett. Und auf die Nettomargen kommt es ja an. Es soll ruhig weiter fett geforscht und investiert werden und alle bezahlt werden und auch ein gesunder Gewinn rauskommen. Ist ja kein Kommunismus. Aber nur ein ordentlicher Wettbewerb verhindert, dass Nettomargen explodieren.
dann hat AMD eine Bruttomarge von über 90%, die reinen Herstellungskosten sind ja ein joke
das du wirklich meinst das ein Preiskampf bei den CPUs herrscht zeigt ja wirklich das du nicht in unserer Realität verweilst. Dort sind die Margen mit RIESEM Abstand am größsten... ein 7950X kostet doch nur knapp 50-60$ in der Herstellung

Finds auch schön wie du immer die R&D kosten einfach vergisst, Nvidia investiert doch extrem in ihre Software und die zahlt man natürlich auch mit. Dafür bekommst du aber auch viel mehr Features, früher und bessere tools.

Platos
2023-02-14, 12:13:58
Hat eig. mal jemand TV Video Interpolation mit nvidias Frame Generation verglichen (Youtube etc)?

Und hat mal jemand beides gleichzeitig genutzt? Also Framegeneration an nem TV, der auch wieder Video Interpolation macht? :D

Troyan
2023-02-14, 12:21:03
Wozu willst du Interpolation beim TV Gerät verwenden? Die meisten erlauben es nur bei 60Hz und dann ist es noch langsamer als FG.

Leonidas
2023-02-14, 14:17:27
Gerüchteküche: GeForce RTX 4060 kommt wohl nur auf Basis des AD107-Chips = 24 SM @ 128 Bit
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-kommt-wohl-nur-auf-basis-des-ad107-chips

dildo4u
2023-02-14, 14:34:56
Wird da 1 zu 1 die Notebook Version übernommen?
Selbst gleiches TDP?

https://videocardz.com/newz/nvidia-geforce-rtx-4060-ad107-laptop-gpu-has-already-been-tested

Thunder99
2023-02-14, 18:35:16
Sehe ich als sehr fraglich an. Was macht nvidia mit den ganzen Salvage Chips?
Alles ins Laptop Segment? So viele Geräte kann man da jetzt auch nicht absetzten, oder?

dildo4u
2023-02-14, 18:44:09
Was meinst du salvage AD107 sind 4050 sowohl Desktop als Notebook.

Leonidas
2023-02-15, 03:15:05
Sehe ich als sehr fraglich an. Was macht nvidia mit den ganzen Salvage Chips?

Salvage von AD107? Einmal die 4050 Laptop und potentiell noch eine 4050 Desktop.

prinz_valium_2
2023-02-15, 10:13:30
In den USA gibt es jetzt die 3080 10G für $420.
Hammer

ZomBy7
2023-02-16, 11:25:44
Die 3080 gabs wohl nur in extrem kleinen homöopathischen Dosen und sind auch alle nicht mehr verfügbar.

Hakim
2023-02-16, 11:48:36
In den USA gibt es jetzt die 3080 10G für $420.
Hammer


Nicht vergessen bei den Preisen dort fehlt in der Regel die Steuer. Aber ja macht es mit immer noch sehr gut für den Preis

davidzo
2023-02-16, 11:53:21
Wird da 1 zu 1 die Notebook Version übernommen?
Selbst gleiches TDP?

https://videocardz.com/newz/nvidia-geforce-rtx-4060-ad107-laptop-gpu-has-already-been-tested

AD106 und 107 haben beide ein 128bit SI und sollten Pin Kompatibel sein wie bereits GA106 und 107. Es würde mich nicht wundern wenn wir also auch einige GA106 Salvages in den 4060 für den Desktop sehen werden.

Snoopy69
2023-02-17, 03:53:26
Wie teste ich die ungefähre Chipgüte mit ATItool? 1,0V einstellen und schauen, ab wieviel MHz Artfakte auftreten?

HOT
2023-02-20, 08:41:02
https://videocardz.com/newz/gigabyte-lists-geforce-rtx-4070-graphics-cards-with-10-12-and-16gb-memory

Offenbar war dieser 4080 mit 12 und 16GB Plan nicht nur für die 4080er vorgesehen ;).
Jetzt gibts schon Modellnummern der Gigabyte-Varianten der 4070 mit 10, 12 und 16GB.

Edgecrusher86
2023-02-20, 09:05:35
Zumindest der 4060 Ti dürfte man auch 12GB und der non Ti 10GB spendieren. 8GB sollte so langsam etwas für die 50 Ti sein.

HOT
2023-02-20, 12:20:51
4060 und Ti hat 8GB, basieren beide auf AD106, der hat nur 128Bit. Vielleicht gibts noch ne Variante mit 10GB (basierend auf dem 104er). 12GB kannste ziemlich sicher ausschließen bei den 60ern.

Fragman
2023-02-20, 12:36:05
Also wenn nv jetzt wirklich eine 4070 mit 16GB bringt ist diese Gen zumindest ein halbes Eingeständnis das man falsch geplant hat.

Edgecrusher86
2023-02-20, 12:42:29
4060 und Ti hat 8GB, basieren beide auf AD106, der hat nur 128Bit. Vielleicht gibts noch ne Variante mit 10GB (basierend auf dem 104er). 12GB kannste ziemlich sicher ausschließen bei den 60ern.

Ist bekannt - war nur bezogen darauf, was im Sinne des Kunden wäre und natürlich auch auf die alte 3060 (12GB).

HOT
2023-02-20, 14:38:37
Ah ok. Also 10G fänd ich für die 60er sehr passend. 8 ist einfach zu wenig.

Fragman hat aber recht, die merken langsam, dass das nicht funktioniert. Ich sehe die 16G als Option, um zu schauen, wie gut sich der RAM verkauft. Deshalb ist das ja auch nur ein Produkt.

BlacKi
2023-02-20, 16:16:06
this is almost certainly not the final product lists, as it still shows even the RTX 4080 12GB model that was cancelled.
ich glaub nicht an eine 16gb version. was soll das denn sein? ein halb deaktivierter ad103 mit 256bit? alles klar... oder ein ad104 mit 128bit? XDDD

die 10gb version halte ich für möglich, auch wenn die nicht wirklich attraktiv erscheint.

HOT
2023-02-20, 16:27:37
Klar, das ist Restpostenverwertung des 103ers und gleichzeitig Testballon, wie gut viel RAM vom Markt angenommen wird. Es kann sein, dass man das vorab wieder cancelt wie die 3080 mit 20G, aber ich glaube schon, dass sie die diesmal bringen werden. Ist ja auch ne völlig andere Situation, man weiss halt im Moment nicht, wie man die Chips loswerden soll auf dem Markt ohne die Preise zu senken. Da ist so ein Stunt doch sehr willkommen - man macht halt alles um die Preise hochzuhalten. MLID sagt beispielsweise, dass man im Moment den RTX6k-Markt mit Produkten flutet und die Cosumer AD102 quasi temporär eingestellt hat, sodass die Preise selbst hier unter die UVP sinken. Aber man bekommt halt mehr pro Chip.

Troyan
2023-03-11, 12:02:50
RTX4070 angeblich am 13.04: https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th

Mal sehen, für $599 wäre das ziemlich cool. Für $699 ziemlich meh.

reaperrr
2023-03-11, 12:34:54
RTX4070 angeblich am 13.04: https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th

Mal sehen, für $599 wäre das ziemlich cool. Für $699 ziemlich meh.
Naja, selbst 599$ wäre vom P/L kaum besser als die 4070 Ti, die in der Hinsicht auch schon nur mäßig ist.
Die 4070 hat ja nur ~75% der Rohleistung, viel mehr als 80% wird dabei in Spielen nicht rumkommen (wegen des niedrigen Powerlimits eher weniger), da wäre alles über 599$ schon frech und auch etwas riskant, wenn sich die Karten auch verkaufen sollen.

Fragman
2023-03-11, 12:47:42
Mal schauen ob sich die 4070 entsprechend von der 3070 wird absetzen können.
In einem Laptopvergleich eines Videos lief diese 4070 Version gegen die 3070ti Notebookversion und das war eine Riesenenttäuschung.
Hier kann man, wenn wir DLSS3 weglassen, nur von einem Replacement reden.
Für die potentiellen Käufer hoffen wir, das das Desktopmodell weit besser performt.

https://www.youtube.com/watch?v=ITmbT6reDsw&t=388s

BlacKi
2023-03-11, 13:02:36
Naja, selbst 599$ wäre vom P/L kaum besser als die 4070 Ti, die in der Hinsicht auch schon nur mäßig ist.
Die 4070 hat ja nur ~75% der Rohleistung, viel mehr als 80% wird dabei in Spielen nicht rumkommen (wegen des niedrigen Powerlimits eher weniger), da wäre alles über 599$ schon frech und auch etwas riskant, wenn sich die Karten auch verkaufen sollen.also bei 75% 4070ti performance wäre allles über 675 zu teuer. erst darunter verbessert sich das perf/euro verhältnis. da ich aber von 80% 470ti performance ausgehe, wäre schon 719€ dasselbe perf/€ verhältnis. ich tippe auf 699€, wenn man keinen echten pricecut will, 649€ wenn man vor hat viel karten zu verkaufen.


599€ wäre schon sehr günstig, ich glaub nicht dass das so kommt.

Troyan
2023-03-11, 13:13:46
Naja, selbst 599$ wäre vom P/L kaum besser als die 4070 Ti, die in der Hinsicht auch schon nur mäßig ist.
Die 4070 hat ja nur ~75% der Rohleistung, viel mehr als 80% wird dabei in Spielen nicht rumkommen (wegen des niedrigen Powerlimits eher weniger), da wäre alles über 599$ schon frech und auch etwas riskant, wenn sich die Karten auch verkaufen sollen.

Bei nVidia gab es bis jetzt nur 8GB in dem Preisbereich. Die 1080TI hatte mal 11GB für $699 vor sechs Jahren...

reaperrr
2023-03-11, 14:28:34
also bei 75% 4070ti performance wäre allles über 675 zu teuer. erst darunter verbessert sich das perf/euro verhältnis. da ich aber von 80% 470ti performance ausgehe, wäre schon 719€ dasselbe perf/€ verhältnis. ich tippe auf 699€, wenn man keinen echten pricecut will, 649€ wenn man vor hat viel karten zu verkaufen.


599€ wäre schon sehr günstig, ich glaub nicht dass das so kommt.
Ich schrieb ja auch $, aka USD MSRP ohne Umrechnungs- und MwSt-Aufpreis.

In Euro rechne ich bei MSRP 599$ natürlich auch nicht mit weniger als 699-719€ bei uns, jedenfalls nicht zum Launch.

Bei nVidia gab es bis jetzt nur 8GB in dem Preisbereich. Die 1080TI hatte mal 11GB für $699 vor sechs Jahren...
Die 3080 hatte 10GB zum MSRP von 699$, und da wurde schon (zu Recht) gejammert, dass das für den Preis eigentlich etwas wenig wäre.

Außerdem sind die Speicherpreise momentan im Keller.

KarlKastor
2023-03-11, 15:23:26
Mal schauen ob sich die 4070 entsprechend von der 3070 wird absetzen können.
In einem Laptopvergleich eines Videos lief diese 4070 Version gegen die 3070ti Notebookversion und das war eine Riesenenttäuschung.

Wird die Desktop 4070 nicht auf AD104 basieren?

dildo4u
2023-03-11, 15:41:46
Die Karte wird 700€ kosten es gibt nur eine 3070 TI für 600€ Rest kostet mehr.

https://geizhals.de/?cat=gra16_512&v=l&hloc=de&bl1_id=30&xf=132_8192~9810_06+16+-+RTX+3070+Ti&sort=p#productlist


NV hat genau das was sie wollten 3070 TI 600€,4070 700€, 3080 800€,4070 TI 900€ keine Karte steht sich direkt gegenüber.

Troyan
2023-03-11, 16:17:11
Die 3080 hatte 10GB zum MSRP von 699$, und da wurde schon (zu Recht) gejammert, dass das für den Preis eigentlich etwas wenig wäre.

Außerdem sind die Speicherpreise momentan im Keller.

Die wenigsten haben Ampere zum UVP kaufen können. Daher wären $599 eine klare Verbesserung zur Wirklichkeit der letzten zwei Jahre.

Atma
2023-03-11, 16:25:27
NV hat genau das was sie wollten 3070 TI 600€,4070 700€, 3080 800€,4070 TI 900€ keine Karte steht sich direkt gegenüber.
900 EUR für die 4070 Ti ist überwiegend noch Wunschdenken:

https://abload.de/img/mfqhi3o.png

Fragman
2023-03-11, 16:30:48
Wird die Desktop 4070 nicht auf AD104 basieren?

Laut videocardz ja.

"The RTX 4070 non-Ti is reportedly based on the same GPU as the RTX 4070 Ti, which is AD104, but with fewer cores."

BlacKi
2023-03-11, 19:25:12
900 EUR für die 4070 Ti ist überwiegend noch Wunschdenken:

https://abload.de/img/mfqhi3o.pngin deinem bild steht eine 4070ti lieferbar für 898,99€ drin. worauf willst du hinaus?

KarlKastor
2023-03-12, 12:38:05
Laut videocardz ja.

"The RTX 4070 non-Ti is reportedly based on the same GPU as the RTX 4070 Ti, which is AD104, but with fewer cores."
Deswegen verstehe ich deine Befürchtung nicht. Im Notebook hat die 4070 ja nur nen schmalen AD106 gegen den GA104 in der 3070Ti.
Im Desktop sieht das ganze deutlich besser aus.

Raff
2023-03-12, 21:16:14
ich glaub nicht an eine 16gb version. was soll das denn sein? ein halb deaktivierter ad103 mit 256bit? alles klar... oder ein ad104 mit 128bit? XDDD

die 10gb version halte ich für möglich, auch wenn die nicht wirklich attraktiv erscheint.

Für eine RTX 4060 Ti wären 10 GiByte eigentlich ziemlich clever. Allerdings nicht möglich, wenn man den Zwerg namens AD106 verwenden will. Mit um die 5.000 FP32-ALUs und nur noch 160 Bit wäre AD104 schon ziemlich "salvaged", aber das Produkt hätte einen Mehrwert gegenüber einer RTX 4060 mit 8 GiB. 16 GiB sind hingegen ganz sicher Schmarrn (war's bei der RTX 3070 & Ti leider auch schon).

MfG
Raff

Fragman
2023-03-12, 21:38:49
Deswegen verstehe ich deine Befürchtung nicht. Im Notebook hat die 4070 ja nur nen schmalen AD106 gegen den GA104 in der 3070Ti.
Im Desktop sieht das ganze deutlich besser aus.

Ah, ok, dachte das wäre auch der 104.

Leonidas
2023-03-13, 09:55:39
Für eine RTX 4060 Ti wären 10 GiByte eigentlich ziemlich clever.

Ich halte es für die bessere Lösung, selbst wenn man dafür AD104 verwenden muß. Man gewinnt einfach spielend gegenüber allem was AMD mit Navi33 daherbringt.

Raff
2023-03-13, 10:04:42
AMD macht es ja mit der Radeon RX 6700 ähnlich - bei anspruchsvollen Workloads demontiert der "zerschnibbelte" Navi 22 XL jede Navi-23-Karte. Wobei hier mehr zusammenkommt als zwischen AD104 und AD106. Weniger PCI-E-Lanes wird wohl erst AD107 haben.

MfG
Raff

Palpatin
2023-03-14, 09:24:29
Bei nVidia gab es bis jetzt nur 8GB in dem Preisbereich. Die 1080TI hatte mal 11GB für $699 vor sechs Jahren...
Die 3060 12 GB hatte eine UVP seitens NV von 329,- €

Raff
2023-03-14, 10:02:15
... und kostet gerade genau so viel, nebenbei bemerkt. ;)

-> Aktuelle Preis-Leistungs-Charts (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/A770-8GB-vs-16GB-Benchmark-Test-1414980/3/#a1)

MfG
Raff

basix
2023-03-14, 14:43:31
Die 3060 12 GB hatte eine UVP seitens NV von 329,- €

Leider faktisch im Markt eher 500+$ während der ganzen Zeit bis Ada Release.

Edgecrusher86
2023-03-15, 05:24:57
Die 4070 soll laut MLID (https://www.youtube.com/watch?v=JIqoMyjmC5A) ein MSRP von USD 749,99 haben und AIB sollen nicht über USD 799,99 gehen.

Schon böse, wenn man bedenkt, dass die 3070 1/3 der 3090 kostetete - damit wär es grob die Hälfte diese Generation (USD 750 vs. USD 1600).

crux2005
2023-03-15, 06:14:27
Die 4070 soll laut MLID (https://www.youtube.com/watch?v=JIqoMyjmC5A) ein MSRP von USD 749,99 haben und AIB sollen nicht über USD 799,99 gehen.

Schon böse, wenn man bedenkt, dass die 3070 1/3 der 3090 kostetete - damit wär es grob die Hälfte diese Generation (USD 750 vs. USD 1600).

Und wer soll sie dafür kaufen? :|

Außer die Leistung ist höher als was geleaked wurde (~75% der 4070 Ti), kann ich mir so einen Preis nicht vorstellen. Eigentlich wären auch $599 MSRP zu viel (identisch zu 3070 Ti).

Edit: Außer die 4070 Ti wird sehr stark durch die Bandbreite limitiert kann ich mir nicht vorstellen wie die 4070 89% Leistung der 4070 Ti erreichen soll wie es MLID ausgerechnet hat. Dazu soll die 4070 auch niedriger takten.

YeahBuoy!
2023-03-15, 07:25:35
Da Nvidia das 4070 Embargo wohl in MSRP und Nicht-MSRP Karten aufteilt kann ich mir vorstellen das die mit den ""günstigen"" Karten (würde tippen irgendwo um 650$) loslegen um eine Duftmarke zu setzen ohne das man gleich mit dem eigentlich höheren Preis ins Haus fällt.

Schnitzl
2023-03-15, 07:43:50
Und wer soll sie dafür kaufen? :|

Außer die Leistung ist höher als was geleaked wurde (~75% der 4070 Ti), kann ich mir so einen Preis nicht vorstellen. Eigentlich wären auch $599 MSRP zu viel (identisch zu 3070 Ti).

Edit: Außer die 4070 Ti wird sehr stark durch die Bandbreite limitiert kann ich mir nicht vorstellen wie die 4070 89% Leistung der 4070 Ti erreichen soll wie es MLID ausgerechnet hat. Dazu soll die 4070 auch niedriger takten.
ist eben die Frage inwiefern der Cache die geringere Bandbreite (zum Vorgänger) ausgleicht. Werde das Gefühl nicht los, dass der 4070ti irgendwann die Bandbreite zum Verhängnis wird.

dildo4u
2023-03-15, 07:52:48
Und wer soll sie dafür kaufen? :|

Außer die Leistung ist höher als was geleaked wurde (~75% der 4070 Ti), kann ich mir so einen Preis nicht vorstellen. Eigentlich wären auch $599 MSRP zu viel (identisch zu 3070 Ti).

Edit: Außer die 4070 Ti wird sehr stark durch die Bandbreite limitiert kann ich mir nicht vorstellen wie die 4070 89% Leistung der 4070 Ti erreichen soll wie es MLID ausgerechnet hat. Dazu soll die 4070 auch niedriger takten.
Die meisten 3070Ti sind bei über 600€, 4070 wird imo Minimum 25% schneller.
750 passt genau zur Preis/Leistung bei 700€ würden die Händler auf den alten Karten sitzen bleiben.
Wie Mild im Video angemerkt hat auch die 7900xt ist zu Teuer weil sie immer noch 6950xt abverkaufen müssen.

Lurtz
2023-03-15, 08:52:38
Und wer soll sie dafür kaufen? :|

Außer die Leistung ist höher als was geleaked wurde (~75% der 4070 Ti), kann ich mir so einen Preis nicht vorstellen. Eigentlich wären auch $599 MSRP zu viel (identisch zu 3070 Ti).

Edit: Außer die 4070 Ti wird sehr stark durch die Bandbreite limitiert kann ich mir nicht vorstellen wie die 4070 89% Leistung der 4070 Ti erreichen soll wie es MLID ausgerechnet hat. Dazu soll die 4070 auch niedriger takten.
Sie wird gekauft werden, allein weil es das güngstigste aktuelle Modell von nVidia ist. Bei den Preisen orientieren sich die Leute automatisch nach unten.

gnomi
2023-03-15, 09:40:23
Denke ich auch. 750-800€.
Knapp 3080 12GB Niveau.
Für 500€ Käufer vielleicht lieber gleich auf Konsole wechseln.
60er Serie wird noch mehr kastriert. Zum Glück ist die Generation ein ziemlich geiler Sprung. Leider muss man ihn bezahlen wie nie. :(

dildo4u
2023-03-15, 10:09:27
Der Sprung ist nur bei der 4090 da, eine 3070 war auf 2080 TI Level.
Da ist 4070=3080 mä.

Fragman
2023-03-15, 10:10:03
Zum Glück ist die Generation ein ziemlich geiler Sprung. Leider muss man ihn bezahlen wie nie. :(

Klar, spannend ist schon was nv da aus den kleinen Chips rausholt aber das geben sie aufgrund der Preise nicht an die Kunden weiter.
Sie behalten das fast komplett ein.
Gäbe es die 4090 nicht, würde man ADA auch anders bewerten.

Linmoum
2023-03-15, 10:23:48
Aus reiner Performancesicht vermutlich. Aber sie schaffen es abseits davon ja trotzdem, mit einem <380mm2 Die den 620mm2 des Vorgängers komfortabel zu schlagen. Das ist dennoch beeindruckend.

aceCrasher
2023-03-15, 10:44:22
750 passt genau zur Preis/Leistung bei 700€ würden die Händler auf den alten Karten sitzen bleiben.

...oder man senkt endlich mal die Preise der 3070ti.

Aus reiner Performancesicht vermutlich. Aber sie schaffen es abseits davon ja trotzdem, mit einem <380mm2 Die den 620mm2 des Vorgängers komfortabel zu schlagen. Das ist dennoch beeindruckend.
Ist das wirklich so beeindruckend wenn man bedenkt dass hier ein Sprung von Samsung 8nm (was de facto 10nm LPP+ ist) auf TSMC 4nm (state of the art) stattgefunden hat?

BlacKi
2023-03-15, 10:57:00
...oder man senkt endlich mal die Preise der 3070ti.


Ist das wirklich so beeindruckend wenn man bedenkt dass hier ein Sprung von Samsung 8nm (was de facto 10nm LPP+ ist) auf TSMC 4nm (state of the art) stattgefunden hat?du vergisst den großen cache.


die 4070ti hat 295mm²


die 3090ti hat 628mm²


durch den großen cache konnte man das SI halbieren.


cache skaliert schlecht mit kleineren fertungsprozessen. hätte die 4070ti ein 320/384bit si mit kleinem cache würden wir vermutlich 200-220mm² vs 628mm² vergleichen müssen.


das ist verdammt beeindruckend und dem verbesserten 5nm geschuldet. das ist eine drittelung bei der gesammtfläche. 10nm vs 5nm.

Lehdro
2023-03-15, 14:10:43
Speicherinterfaces skalieren aber auch mega schlecht mit feineren Fertigungsprozessen, vielleicht sogar noch schlechter als Cache.

Troyan
2023-03-15, 16:46:31
Speicherinterfaces skalieren aber auch mega schlecht mit feineren Fertigungsprozessen, vielleicht sogar noch schlechter als Cache.

Aufjedenfall schlechter als Cache. AD104 ist nur 10% größer als GA106 und 2,5x+ schneller.

Dovregubben
2023-03-15, 17:47:22
Aufjedenfall schlechter als Cache. AD104 ist nur 10% größer als GA106 und 2,5x+ schneller.
Das ist ne harte Aussage bei der Tatsache, dass Cache quasi nicht mehr skaliert. TSMC 3nm SRAM ist nur 5% kleiner als TSMC 5nm.

BlacKi
2023-03-16, 00:12:41
Speicherinterfaces skalieren aber auch mega schlecht mit feineren Fertigungsprozessen, vielleicht sogar noch schlechter als Cache.



wenn man bedenkt, das pcie, speicherinterface und cache praktisch nicht skalieren, was bitte schön skaliert dann noch. knapp die hälfte des chips wird nicht mehr schrumpfen können.


https://media.discordapp.net/attachments/539493768072790031/1021992506889605150/cachedImage.png?width=1422&height=909

Leonidas
2023-03-18, 08:21:44
Der Cache kann schon schrumpfen - braucht aber spezialisierte Fertigungsverfahren, sprich geht nur als Chiplets. Interfaces müssen tendentiell weniger breit werden, der Ausgleich ist mehr Takt. Wird bei PCIe 6.0 sicherlich passieren, da gibt es vielleicht für Consumer durchgehend nur 8 Lanes auf der Grafikkarte.

Snoopy69
2023-03-18, 16:37:57
Gibt es einen Grund, warum die Trasistoren/mm² bei Hopper wieder weniger werden?

dildo4u
2023-03-18, 16:56:12
Das Speicherinterface ist bei Hopper doch wesentlich komplexer.
Lovelace nutzt größere Caches und lässt das Interface bei 384 bit.

dildo4u
2023-03-20, 21:16:24
8Pin Stecker angeblich optional für Custom 4070/4060.


https://www.igorslab.de/en/back-to-the-roots-je-nach-tdp-boardpartner-karten-der-geforce-rtx-4070-rtx-4060-ti-und-rtx-4060-ohne-12vhpwr-stecker-2/

DrFreaK666
2023-03-20, 21:24:49
Wann erscheint eigentlich Nvidia Remix? Gibt es da einen Termin?

dargo
2023-03-21, 09:20:57
Der Blick sagt alles. :D

Yc7BCE_brOE

dildo4u
2023-03-21, 09:36:43
3080 10GB sind immer noch bei 800€ würde mich wunder wenn wir die Karte für 750€ bekommen mal abwarten.

Fragman
2023-03-21, 09:52:54
3080 10GB sind immer noch bei 800€ würde mich wunder wenn wir die Karte für 750€ bekommen mal abwarten.

Dank der 12 GB, die man in neueren Spielen wohl scheinbar mehr und mehr brauchen wird, könnte man zumindest auf 750 hoffen. :D

Platos
2023-03-21, 10:02:51
3080 10GB sind immer noch bei 800€ würde mich wunder wenn wir die Karte für 750€ bekommen mal abwarten.

Wohl eher wieder.

Die war auch schon bei 700 Euro.

dildo4u
2023-03-21, 10:06:24
Was kein Sinn macht wenn die 3070 Ti bei 600€ liegen, die Karte ist 20% schneller.

Raff
2023-03-21, 10:10:54
Die RTX 3070 Ti ist konzeptioneller Schrott (wenig VRAM, viel Durst), die darf nicht als Referenz dienen. :ugly:

Alles jenseits von 599 US-Dollar wäre Wahnsinn.

MfG
Raff

Platos
2023-03-21, 10:14:34
Was kein Sinn macht wenn die 3070 Ti bei 600€ liegen, die Karte ist 20% schneller.

20% von 600 sind 120, also 720. Macht sehr wohl Sinn. Hat ja auch noch weniger Speicher. Also ist sie auch weniger Wert.

Die 3070Ti war schon von Anfang an ein Speicherkrüppel. Keine wirkliche Referenz, wie Raff schon sagte.

Die RTX 3070 Ti ist konzeptioneller Schrott (wenig VRAM, viel Durst), die darf nicht als Referenz dienen. :ugly:

Alles jenseits von 599 US-Dollar wäre Wahnsinn.

MfG
Raff

Wäre es schon. Aber genau so wäre es wahnsinn, eine 4070Ti für 799 raus zu bringen oder eine 4080 für 1200 usw.

Genau das ist aber passiert.

aufkrawall
2023-03-21, 10:21:02
Will Nvidia die gleiche Marge wie mit der 4070 Ti haben, die die gleiche Speichermenge hat (hat sie doch?), muss das fps/€-Verhältnis der 4070 logischerweise schlechter sein. Tippe auch auf 750€ für "günstige" Customs. Zumal sie ja jetzt angeblich einen auf AMD machen und lieber noch mehr Marge mit Servern machen.

dildo4u
2023-03-21, 10:24:35
Ich schätze mal zu wenige Tester(Abseits PCGH) haben zum Launch drauf hingewiesen Hardware Unboxed hat es erst jetzt mit Hogwarts aufgezeigt.
Wenn man Tests der 3070 Ti such findet man welche von 2021 das ist das Problem, die Karte ist bei Steam erschreckend weit oben.

HOT
2023-03-21, 10:50:03
Na ja, ist ja nicht das erste Mal, dass sich der Normalokäufer mit Texturen @mittel zufrieden geben muss, wenn er solche Karten kauft. War ja bei der 1060 genauso.
Viel schlimmer wird die 4060 sein. Ich vermute, das wird so katastrophal laufen, dass es davon (genau wie bei N33) Refresh-Varianten mit 16GB geben wird mMn. 8GB kann man wirklich nur noch im Billigmarkt anbieten, N24 z.B.
Das wird ja mit den ganzen Next-Gen-Titeln ohne PS4-Support richtig eskalieren.

dildo4u
2023-03-21, 11:25:55
Wird man sehen ob die Entwickler die Serie S so ignorieren wie du es vorhersiehst für die braucht man eine Spec die mit 8GB läuft.
Ich denke ohne RT wird man auskommen was natürlich blöd ist da eine 4060 durchaus fähig wäre.

Ghost1nTh3GPU
2023-03-21, 11:50:30
720p + DLSSx wird es tun. Da erreicht man seine 4K120 /1440p144Hz.

Wie Jensen im CNBC Interview es vor ein paar Tage ausdrückte, wer braucht schon GP-Leistung wenn es Beschleuniger gibt. ;)

dildo4u
2023-03-21, 11:52:58
Wir brauchen noch mehr Test aber so langsamer die Hardware so weniger bringt DLSS3, die dicken Karten bleiben oft kalt da den Nvidia Treiber CPU Limits erzeugt.
Karten wie 4060/4070 kann man leichter komplett auslasten.

Raff
2023-03-21, 11:57:02
[...] die Karte ist bei Steam erschreckend weit oben.

Wie kann das eigentlich sein? Die RTX 3070 Ti war nie zur UVP erhältlich und außerdem nie attraktiv, wenn man eine RTX 3080 danebenstellt. 619 Euro UVP und Steam passen nicht zusammen. Steckte die in Millionen von China-Café-PCs? Does not compute. :|

Wir brauchen noch mehr Test aber so langsamer die Hardware so weniger bringt DLSS3, die dicken Karten bleiben oft kalt da den Nvidia Treiber CPU Limits erzeugt.
Karten wie 4060/4070 kann man leichter komplett auslasten.

Die bei Frame Generation zusätzlich anfallenden Daten (1 Frame mehr plus ein Mini-X) sind bereits bei 12 GiByte manchmal ein Problem. Mit 8 GiByte wird das mit Ansage ziemlich eklig. Nvidias Konzept geht mal wieder nicht auf: Man will der Technik-Vorreiter sein, verkrüppelt aber große Teile des Portfolios. Das war schon bei Ampere so, wo die Vorreiterrolle beim Raytracing nicht zur Kapazität passte. Jetzt saugt nur die Mittelklasse, aber da die bereits viel Geld kosten wird, ist das echt schlimm. Und noch schlimmer wird sein, dass sich die Dinger trotzdem verkaufen werden ...

MfG
Raff

dildo4u
2023-03-21, 11:58:44
Einfach sie war verfügbar die 3080 hatte deutlich bessere Reviews war deshalb aber auch lange weit über 1000€.

HOT
2023-03-21, 12:01:00
Wird man sehen ob die Entwickler die Serie S so ignorieren wie du es vorhersiehst für die braucht man eine Spec die mit 8GB läuft.
Ich denke ohne RT wird man auskommen was natürlich blöd ist da eine 4060 durchaus fähig wäre.
Ist irrelevant, weil die Konsolen völlig anders funktionieren als der PC. Die Speichermenge ist keinesfalls mit der auf dem PC vergleichbar. Die skalieren die Assets einfach so weit runter, dass der Speicher reicht. Das sieht dann aus wie Grütze und läuft auf ner Briefmarkenauflösung und fertig, der Rest läuft wie auf der X. Das geht auf dem PC nicht so einfach, weil die Assets durch den Prozessor müssen und bislang auch hier dekodiert werden, dann werden sie in den VRAM geladen. Das wird sich ändern etwas mit DirectStorage, hier muss man zwar immer noch über den Hauptspeicher+CPU, aber das braucht dann noch mehr VRAM, weil die Dekodierung dann auf dem Graikchip stattfindet, die Assets AFAIK aber dennoch im VRAM vorgehalten werden müssen. Der PC ist eben keine Streamingmaschine wie die altuellen Konsolen. Du müsstest dann, wenn du so wenig VRAM hast, die Auflösung auch auf dem PC so weit herunterskalieren, was niemand tun wird.
Die Entwickler werden sich (wie bei der alten Konsolengeneration auch), auf ein Minimum einschießen, und das ist jetzt eben 8GB inklusive Downsampling natürlich, auf der alten Generation war das Minimum 6GB wegen der 1060. Das bedeutet, man wird es auf 8GB lauffähig machen, aber mit minimalen Details, egal, wieviel Leistung die Karte hat. 12GB wird Standard und man wird 16GB für die höchsten Details benötigen. Die 4070(Ti) ist wieder mal ein extrem schlechter Deal. Der typische NV Speichermangel, damit NV noch mehr Geld verdient, denn viele werden ihre 3070 jetzt mit einer 4070 ersetzen und greifen wieder ins Klo. So zwingt man den Mainstream jede Generation zu kaufen und nebenbei entsteht gar nicht erst ein Gebrauchtmarkt, weil die alte Generation schlichtweg Elektroschrott ist, das ist mMn die Strategie. Die High-End-Käufer kaufen eh jede Generation. Man hat den Mainstream aber jetzt an hohe Preise gewöhnt und möchte trotzdem, dass er jede Generation kauft. So kann man trotz gestiegener Kosten das gleiche verdienen wie zum Mining Hype und die Aktionäre sind zufrieden.
Leider macht AMD das Spiel mit, was ich eigentlich sogar noch verwerflicher finde, aber bei denen gilt eben das gleiche, es wird dann jede Generation ein Kauf fällig.

dildo4u
2023-03-21, 12:05:02
Das ändert nix daran das du zwei Specs brauchst Callisto Protocol zeigt z.b schlechte Texturen auf Serie S als Serie X.
Da macht es nur sinn das man das so anpasst das 8GB karten damit klarkommen wenn AMD und Nvidia selbst in 2023 350€+ für neue "Low-End" Modelle wollen.(7600XT/4060)

HOT
2023-03-21, 12:31:16
Das ändert nix daran das du zwei Specs brauchst Callisto Protocol zeigt z.b schlechte Texturen auf Serie S als Serie X.
Da macht es nur sinn das man das so anpasst das 8GB karten damit klarkommen wenn AMD und Nvidia selbst in 2023 350€+ für neue "Low-End" Modelle wollen.(7600XT/4060)
Ok, dann hast du mich nicht verstanden ;). Ich sag ja, die S muss die Assets und Auflösung einfach so weit runterskalieren, bis sie in den Speicher passen und der sehr begrenzten Leistung.
Und ich schrieb ja, dass 8GB+FSR2 das neue Minimum ist. Das heißt natürlich, die Spieleentwickler werden sich darauf einschießen. Bei der letzten Generation war das Minimum 6GB dank der GTX1060, bei der jetzigen ist das Minium die RTX3060 mit 8GB. Aber Minimum heißt eben Minimum, egal, ob die eine 3070Ti mit 8GB hast oder ne 4060. Viel mehr als Minimum wird aufgrund des beschränkten VRAMs eben nicht gehen. Um noch mal ganz polemisch klar zu sein: der 10MB GesamtRAM auf der S entspricht dann künftig 16GB+8GB auf dem PC. Was letzte Generation Mainsteam war, wird jetzt Minimum.

Hatstick
2023-03-21, 12:36:09
Wir erwartet eine verkappte RTX 3080 mit 12GB diese 4070 ist... für 750€.^^
4060 dann 500€ und für 600€ die TI Version. Schon Wahnsinn 2023 eine 8GB Karte für 500€.
Bräuchte ich jetzt was zum zocken aber ist das Budget stark begrenzt, ganz klar eine RTX 3060 12GB für 329€. (wenn es nVidia sein muss)

Paradoxerweise steht die normale 4070 für 700-750€ vom P/L Verhältnis am besten da und für viele Leute nicht uninteressant, da zu der roten 1000€ Linie noch ein ganzes Stück weg.

HOT
2023-03-21, 12:45:52
Das ist mMn ebenfalls Strategie und AMD macht auch das mit. Die machen die 60 deshalb so teuer, damit der Käufer doch gleich zu 4070 greift aufgrund des Speichers. Man versucht auf Biegen und Brechen die Preise hochzubekommen und die Käufer an die Preise zu gewöhnen. Man lässt die Einkaufspreise einfach hoch und trägt die Rabattschlacht auf dem Rücken der Händler aus - Lego-Strategie. Dadurch hat man eine sagenhaft toll günstige 4080 für 1229€ gekauft, wert ist das Ding aber trotzdem nur 800€ - Marketing und Marktpsychologie. Und wenn man für ne 4060 eh 500€ berappen muss, kann man auch gleich die 200€ mehr ausgeben um bei 12GB zu landen. Das gleiche.
Ich hätt mir eben gewünscht, dass der Kunde das Spiel nicht mitspielt, aber er tut es.

The_Invisible
2023-03-21, 12:46:00
Wir brauchen noch mehr Test aber so langsamer die Hardware so weniger bringt DLSS3, die dicken Karten bleiben oft kalt da den Nvidia Treiber CPU Limits erzeugt.
Karten wie 4060/4070 kann man leichter komplett auslasten.

Kommt man mit den kleinen Karten zwecks DLSS3 nicht in Bereiche die auch Big-Ampere stemmen müsste oder ist die Rechenleistung dafür noch immer höher?

Hoffentlich testet man das bei Reviews...

Hatstick
2023-03-21, 12:50:12
Das ist mMn ebenfalls Strategie und AMD macht auch das mit. Die machen die 60 deshalb so teuer, damit der Käufer doch gleich zu 4070 greift aufgrund des Speichers. Man versucht auf Biegen und Brechen die Preise hochzubekommen und die Käufer an die Preise zu gewöhnen. Man lässt die Einkaufspreise einfach hoch und trägt die Rabattschlacht auf dem Rücken der Händler aus - Lego-Strategie. Dadurch hat man eine sagenhaft toll günstige 4080 für 1229€ gekauft, wert ist das Ding aber trotzdem nur 800€ - Marketing und Marktpsychologie. Und wenn man für ne 4060 eh 500€ berappen muss, kann man auch gleich die 200€ mehr ausgeben um bei 12GB zu landen. Das gleiche.
Ich hätt mir eben gewünscht, dass der Kunde das Spiel nicht mitspielt, aber er tut es.

Bei AMD hast aber auch im unteren Bereich schon dein VRAM Wohlfühlfaktor, wenn man selbst eine 6700XT mit 12GB für 400€ sieht aber ja, überteuert sind auch weiterhin die 7900XT und XTX Karten, keine Frage.

dildo4u
2023-03-21, 13:26:18
4070 mit einem 8Pin schätze mal auf 200 TDP limitiert.



https://wccftech.com/custom-nvidia-geforce-rtx-4070-graphics-card-leak-confirms-8-pin-connector-variant/

HOT
2023-03-21, 13:33:24
Bei AMD hast aber auch im unteren Bereich schon dein VRAM Wohlfühlfaktor, wenn man selbst eine 6700XT mit 12GB für 400€ sieht aber ja, überteuert sind auch weiterhin die 7900XT und XTX Karten, keine Frage.
Ja bis jetzt. Aber wenn die 7700(XT) auch nur 12GB hat und die 7600(XT) nur 8GB, ists halt damit auch vorbei. Dann gilt das gleiche wie bei NV. Nur die 7800(XT) hätte diesen Wohlfühlfaktor und wildert im Bereich der RTX4070(TI).

dildo4u
2023-03-21, 17:21:01
Dual Hopper mit 188GB HBM3 angekündigt

https://abload.de/img/hopperkkia4.png

https://www.computerbase.de/2023-03/nvidia-h100-nvl-doppel-gpu-mit-188-gb-hbm3-fuer-large-language-models/

Platos
2023-03-22, 02:09:06
Spezielles Teil. Dachte zuerst, es handelt sich hier um Dual-GPU, also 2 GPUs auf einer Platine. Aber es scheint sich hier um "nur" 2 Grafikkarten mit NVLink handeln. Mit dem Unterschied, dass sie vermutlich fest zusammen gebaut sind ?

Die GPUs werden sogar als 2 erkannt. War/ist das bei Dual-GPU (2 GPUs auf einer Platine) auch so?

Leonidas
2023-03-22, 03:52:19
Die RTX 3070 Ti war nie zur UVP erhältlich und außerdem nie attraktiv,

Nie attraktiv stimmt. Aber sie war lange Zeit nur zu 30-50 Euro Mehrpreis zur 3070 non-Ti erhältlich. Daraus haben gute Verkaufszahlen resultiert.



Die GPUs werden sogar als 2 erkannt. War/ist das bei Dual-GPU (2 GPUs auf einer Platine) auch so?

Üblicherweise ja (Ausnahme: Apple).

aceCrasher
2023-03-23, 16:10:37
Ich hätt mir eben gewünscht, dass der Kunde das Spiel nicht mitspielt, aber er tut es.
Am Ende halten dieses Spiel viele, einschließlich mir, eben nicht über mehrere Jahre durch. PC Spielen ist mein Hobby und mit einer 5+ Jahre alten Karte spielt es sich eben nicht gut. Ich habe Turing nicht gekauft weil das Preis Leistungs Verhältnis nicht gut war, ich habe Ampere nicht gekauft weil ich die Scalper Preise nicht akzeptieren wollte. Aber bei Ada ist mir dann der Geduldsfaden geplatzt. Ich werde nicht nochmal 2 Jahre warten und boykottieren in der fehlgeleiteten Hoffnung dass sich im GPU Markt signifikant etwas verändern wird. Vielen meiner Freunde geht es genauso. Man hat dann halt eben 300€ für seine Karte gezahlt als früher, aber immerhin kann man wieder anständig zocken - was sind da schon 300€?

Snoopy69
2023-03-27, 07:31:43
Gleich 3x den alten Score von Feb erreicht :freak:
https://www.3dmark.com/compare/sw/337631/sw/454394/sw/454436/sw/454516

Ansonsten sieht es so aus...
Alles @ 15°C Wasser ohne ohne Hard-Mod (EVC2)
https://www.3dmark.com/compare/sw/454402/sw/454422/sw/454451/sw/454485/sw/454512/sw/454523

Leonidas
2023-03-29, 15:12:46
4050, 4060, 4060Ti im Zeitrahmen Mai/Juni ..... 4050 nur mit 6GB VRAM
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-4060-4050-sollen-im-zeitrahmen-maijuni-antreten

Snoopy69
2023-03-29, 22:08:09
Jmd hier, der seine Strix umgebaut hat?
Dieses markierte Pad hatte nie Kontakt zu Bauteilen oder PCB. Nicht dramatisch, aber das Pad macht keinen Sinn

Ausser mir gibts noch 2 weitere User in der Sache...
https://abload.de/thumb/img_4546sifin.jpg (https://abload.de/image.php?img=img_4546sifin.jpg) https://abload.de/thumb/1aafej.jpg (https://abload.de/image.php?img=1aafej.jpg) https://abload.de/thumb/c1ac237e-2684-446d-b9qdpl.jpeg (https://abload.de/image.php?img=c1ac237e-2684-446d-b9qdpl.jpeg)

DrFreaK666
2023-03-30, 10:58:01
4050, 4060, 4060Ti im Zeitrahmen Mai/Juni ..... 4050 nur mit 6GB VRAM
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-ti-4060-4050-sollen-im-zeitrahmen-maijuni-antreten

6GB sind eine Frechheit.

ChaosTM
2023-03-30, 11:04:28
6GB ist perfekt aus NVs Sicht.:
Kann man kaufen, in die Tonne treten und sich gleich was neues, teureres kaufen mit 8 Gb. Die schmeißt man dann ein jahr später auch auf den Müll.

Win-Win-Win :D

DrFreaK666
2023-03-30, 11:22:39
Sogar die 3050 hat 8GB.
Hoffentlich gibt es genug Rage online

HOT
2023-03-30, 11:28:41
Da kann man sich eh nicht für Zockerei kaufen sowas, es sei denn, man spielt nur Paradox-Strategiespiele :freak:.

DrFreaK666
2023-03-30, 11:51:54
Trotzdem wird Nvidia auf ihren Folien mit DLLS3 dafür werben

dildo4u
2023-03-30, 12:14:50
4070 angeblich ab 599$.
Schätze mal Custom Modelle mit einem 8 Pin.


https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-retail-at-599

BlacKi
2023-03-30, 12:16:10
und wird mit texturen auf high statt ultra auch gut performen. man kann nur hoffen, das der preispunkt niedrig ist. was ich bezweifle.

4070 angeblich ab 599$.

da auch die anderen karten schon gefallen sind, passt das ins portfolio.

Lurtz
2023-03-30, 12:17:02
Wenn die Presse jetzt nicht deutliche Kaufwarnungen verteilt, weiß ich auch nicht mehr. Also nicht nur mit "bedenken Sie" im Fließtext, sondern mit dickem fettem Stempel auf der Testwertung.

Wird natürlich nicht passieren und wegen des "niedrigen" Preises werden sich die Modelle wieder gut verkaufen.

DrFreaK666
2023-03-30, 12:33:36
Das Problem ist halt dass es im Preisbereich der 4060 keine Karten mit mehr RAM gibt. Irgendwann sind auch die die letzten 6000er und 3000er Karten verkauft (wobei 3000er Karten dank dem VRAM auch nicht mehr wirklich empfehlenswert sind).
Alles nicht so geil irgendwie

dildo4u
2023-03-30, 12:36:33
NV verkauft noch immer 2060 mit 12GB macht Sinn das die 3060 auch lange weiter läuft, da sie dann Chips nicht exklusiv von TSMC beziehen.

DrFreaK666
2023-03-30, 12:39:58
NV verkauft noch 2060 mit 12GB macht Sinn das die 3060 lange weiter läuft, da sie dann Chips nicht exklusiv von TSMC beziehen.

Die 12GB 2060 sind kaum günstiger als die 12GB 3060. 13€ Differenz bei den günstigsten Karten laut Geizhals

Dorn
2023-03-30, 12:58:58
4070 angeblich ab 599$.
Schätze mal Custom Modelle mit einem 8 Pin.


https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-retail-at-599
Dann hab ich meinen Schätzwettbewerb wohl gewonnen. 700 Euro Nice... und ganze 12 GB Ram...

HOT
2023-03-30, 13:06:24
Also ich glaub so langsam, man sollte die Finger von allen Produkten lassen, die weniger als 16GB bieten und ich bin mir fast sicher, dass wird sowohl von GA106 als auch von N33 letztendlich zum Ende des Jahres hin auch 16GB-Varianten sehen werden.

dildo4u
2023-03-30, 13:11:18
Kannste imo vergessen Intel hat das gemacht da sie dachten sie konkurieren mit 500€ Karten.
Die beste Low Budget Option wird die 3060/6700 sein.

HOT
2023-03-30, 13:31:44
Das hat mit Intel nix zu tun. Es wird eben einfach so weit kommen, dass du mit 8GB so derart eingeschränkt wirst, dass sich die Karten schlichtweg nicht mehr verkaufen werden. Und die 3060 mit 12GB wird vom Markt verschwinden wenn die 4000er im Angebot sind.

dildo4u
2023-03-30, 13:37:33
Wie gesagt es gibt bis Heute neue 2060 12GB, 3060 bis Ende 2024 scheint mir sehr wahrscheinlich.
Was sein kann das 4060 8GB 300€ kosten und 3060 350€.

Snoopy69
2023-03-30, 13:38:32
6GB sind eine Frechheit.
:up:

Einige fordern in den 4090-Threads schon nach mehr als 24GB, weil diese bei manchen Spielen fast geknackt werden (oder schon geknackt wurden?)

HOT
2023-03-30, 14:08:07
Wie gesagt es gibt bis Heute neue 2060 12GB, 3060 bis Ende 2024 scheint mir sehr wahrscheinlich.
Was sein kann das 4060 8GB 300€ kosten und 3060 350€.
Wenn die die kleinen 4k-Karten bringen dürften die 3000er abverkauft sein. Vielleicht läd man dann die zuletzt produzierten GA106/4 mit 8GB bei chinesischen Internetcafés ab, die müssen ja ihre 1060er jetzt so langsam entsorgen, aber die 3000er dürften dann im Juni auch komplett auslaufen.

Snoopy69
2023-03-30, 15:42:32
Wenn die die kleinen 4k-Karten bringen dürften die 3000er abverkauft sein. Vielleicht läd man dann die zuletzt produzierten GA106/4 mit 8GB bei chinesischen Internetcafés ab, die müssen ja ihre 1060er jetzt so langsam entsorgen, aber die 3000er dürften dann im Juni auch komplett auslaufen.
Warum sollten sie das tun, wenn sie für 4K noch taugen?
Ich hab in einem Arbeits-PC noch eine "1660 Super" (6GB) , die mit 4K gut klarkommt. Die werd ich höchstens gegen die hier rumliegende 6600XT tauschen, die @idle super sparsam ist (glaube auch sparsamer, als die EVGA 3060 XC (12GB), die auch noch rumliegt)

The_Invisible
2023-03-30, 17:35:44
:up:

Einige fordern in den 4090-Threads schon nach mehr als 24GB, weil diese bei manchen Spielen fast geknackt werden (oder schon geknackt wurden?)

Das ist schon ein wenig übertrieben, welche Games sollen das sein außer jene mit Memory-Leak oder die einfach einen gewissen Prozentsatz vorreservieren?

Aber gut, gibt ja noch die RTX6000 Ada 48GB wenn man so speichergeil ist ;)

Snoopy69
2023-03-30, 19:08:47
K.A. ob Diablo4 nen Mem-Leak/-Bug hat, soll aber 23GB VRAM fressen

gnomi
2023-03-30, 19:21:09
Die 3060 könnte wegen mehr VRAM gut altern mit den zunehmend nachlässigen PC Versionen.
Falls alles normaler läuft, reicht z.B. 4060/3060TI oder 2080(S) 8GB VRAM aber auch noch ganz gut bis zur nächsten Generation Ende 24.
Notfalls eben DLSS Balanced/Performance und Texturen auf Konsolen Einstellung und DDR Ram auf 32 bei den fallenden Preisen.
4050 mit 6GB VRAM ist ja keine ernstzunehmende aktuelle Gamer Karte.
In die neue Welt des 3D Gaming konnte man mit einer zugesteckten Voodoo 1 mal ganz anders eintauchen.
Überhaupt nicht mehr überzeugend die Preise. :(
Ich werde meine GPU's einfach 1-2 Jahre länger nutzen und gut.
Selbst wenn die 50er Serie nicht so krass oben raus wird.
Die Preise kommen hoffe ich leicht runter. :wink:

crux2005
2023-03-31, 00:01:07
Dann hab ich meinen Schätzwettbewerb wohl gewonnen. 700 Euro Nice... und ganze 12 GB Ram...

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13258824&postcount=9050 ;)

Finde ich trotzdem schwach.

Also ich glaub so langsam, man sollte die Finger von allen Produkten lassen, die weniger als 16GB bieten und ich bin mir fast sicher, dass wird sowohl von GA106 als auch von N33 letztendlich zum Ende des Jahres hin auch 16GB-Varianten sehen werden.

Nur haben die wenigsten Karten 16GB VRAM oder mehr.

Wenn ich die letzten 2. Gen nehme sind es:

Intel: A770 LE
AMD: 6800 (XT), 69(5)0 (XT), 7900 XT/XTX
NV: 3090 (Ti), 4080, 4090

und welche noch?

basix
2023-03-31, 03:43:24
Ich würde 12 GByte für FullHD und WQHD als genug betrachten. 8 GByte max. FullHD und selbst dort nicht empfehlenswert bei Neukauf, wenn man AAA oder RT Titel spielen will.

Je nach Anwenderprofil wird bei 1080p/1440p alles <12 GByte wohl schnell ein Störfaktor. Dito <16 GByte bei 4K.

Die 3060 12GB war anhand MSRP die attraktivste Ampere Karte. Und wird aufgrund genügend Speicher, hoher RT-Acceleration sowie DLSS/FSR lange einen guten Dienst erweisen. Das kann man nicht von vielen Nvidia Karten behaupten.

dildo4u
2023-03-31, 07:02:33
Jup Last of US 3060=3070.

https://www.techpowerup.com/review/the-last-of-us-benchmark-test-performance-analysis/4.html

Thunder99
2023-03-31, 09:10:54
Das Spiel ist auch zickig was es braucht. Eine 3080 kann quasi nicht von der 2080Ti ansetzen. 3060 sogar schneller als 3070 ab WQHD.

Eine 4050 mit 6GB ist zwar nicht schön, aber für den Einsatzbereich könnte es noch langen. Und nicht jede Grafik frisst VRAM zum Frühstück, z.B. die UE ist Recht genügsam bei sehr guter Optik

gnomi
2023-03-31, 09:24:02
Jo, wenn man sich zum Beispiel Atomic Heart ansieht.
Zumeist locker dreistellige Bildraten in hoher Auflösung und gar keine Probleme.

Würde bei TLoU Part 1 gerne mal einen Benchmark/Vergleich in PS5 Settings sehen.
Also nicht maximale Details plus Upsampling auch bei WQHD/UWQD.
Wahrscheinlich läuft es dann auch unproblematischer mit 8 & 10 GB VRAM.
Oben raus ist einfach lachhafte Verschwendung von Ressourcen...

dildo4u
2023-03-31, 09:39:05
3060 1440p High leicht unter PS5 Performance, eine 6700 für 320€ ist vermutlich eine Punktlandung.


https://youtu.be/YIzBHEbtjLQ?t=596

gnomi
2023-03-31, 09:55:47
THX. Man sieht es dann auch, wenn er DLSS anstellt.
Mit einer 3060 TI würde gerade das gut gehen.
Eventuell Texturen eine Stufe runter und schon reichen die 8GB Vram. Performance ist ja sogar noch besser, da die Karte an und für sich schneller ist. (leicht über PS5 Niveau)
Mit einer 4000er 8GB Karte wird genau das auch gehen.
Man wird also genug flexibel sein, auch wenn die üblichen Tests die Karte dann schlechter aussehen lassen.
Man muss halt Hand anlegen. Ist nicht ganz optimal, denn mit 12GB VRAM könnte man sich das eben ersparen und nur nach fps einstellen.

BlacKi
2023-03-31, 09:55:59
Die 3060 12GB war anhand MSRP die attraktivste Ampere Karte. Und wird aufgrund genügend Speicher, hoher RT-Acceleration sowie DLSS/FSR lange einen guten Dienst erweisen. Das kann man nicht von vielen Nvidia Karten behaupten.
lustig.

praktisch die ganze online presse hat die 3060 als unattraktivste karte ausgewießen.

gnomi
2023-03-31, 10:02:52
Wenn der Speicher reicht, zählt eben die Rohleistung.
Und die meisten Spiele haben nicht mal jetzt so einen VRAM Anspruch.
Außerdem kann man es händisch passend machen.
Mit stärkerer Verbreitung solcher Spiele und VRR Bildschirmen ist man mit der 360 jetzt ganz gut aufgestellt, um es besser in die nächste Generation mit hoffentlich mehr VRAM zu schaffen.
Für die nächste Generation sehen wir hoffe ich Minimum 12GB in der 60er und 16GB ab der 70er Serie.

dildo4u
2023-03-31, 10:04:17
Raff hat immer Vram hervorgehoben und die 3050 für 300€ plus war natürlich ein Witz.
Da war nix positiv.

Nach all den Messwerten ist es Zeit, die in der Überschrift gestellte Frage zu beantworten: Die Geforce RTX 3060 12GB darf als insgesamt beste Ampere-Grafikkarte bezeichnet werden. Sie ist angenehm schnell, bietet zweifellos genug Speicherkapazität selbst für kommende Spiele, lässt sich leise kühlen und nötigt Aufrüster keinesfalls zum Kauf eines neuen Netzteils. Für den anvisierten Zweck des Full-HD-Gamings, auch mit Raytracing, eignet sich die RTX 3060 12GB sehr gut - höhere Auflösungen überfordern den kleinsten Ampere jedoch schnell. Um es deutlich zu sagen: Wir begrüßen Nvidias Entscheidung, endlich der Speicher-Knauserphase zu entwachsen und seinen Kunden damit ein zweites Modell neben der RTX 3090 zu geben, das zukunftssicher aufgestellt ist. Das lässt auf gute Folge-Produkte hoffen. Nein Raff Jensen braucht eine neue Jacke :lol:


https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Tests/12GB-Release-Date-Kaufen-Benchmark-Founders-Edition-1367318/4/

Raff
2023-03-31, 10:12:59
Die Aussage war trotzdem richtig, denn es folgten RTX 3080 12GB, RTX 3080 Ti und RTX 2060 12GB. :) Das waren ausgewogene Produkte (Verhältnis aus Rechenkraft und Kapazität). Die RTX 4070 wird wohl das letzte Produkt, das gut ist, dann geht es mit Ada bergab ...

MfG
Raff

Exxtreme
2023-03-31, 10:18:13
Jup Last of US 3060=3070.

https://www.techpowerup.com/review/the-last-of-us-benchmark-test-performance-analysis/4.html

Das lässt wirklich nichts Gutes erahnen für die RTX4070Ti und abwärts. Man schaue sich die Min-FPS-Werte mal an. Ich fürchte, das Ding wird echt nicht gut altern. Sprich, wenn Ada dann RTX4080 und höher. Aber da legt man ~1200 EUR auf den Tisch. :freak:

dildo4u
2023-03-31, 10:20:44
Jup die 3090TI holt bedrohlich auf in 4k,DLSS fast Pflicht für 4080.

Freestaler
2023-03-31, 10:24:19
4070 zieht ne 6800xt nicht ab nur gleich. Schade. Also mMn. wenn Ada dann 4080+, sonst letzte Gen.

davidzo
2023-03-31, 17:27:13
Ich finde die 4070 könnte für 600€ auch eine attraktive Option werden. Sie hat zwar erheblich weniger Rechenleistung als die 4070ti, aber dieselbe Speichergröße und Bandbreite. Und dafür verbraucht sie auch nur 200Watt.

Und das zum Preis einer 3070ti ist doch zumindest ein kleiner Fortschritt im Vergleich zur 3000er Generation. Die bisherigen Karten sind ja eher kein Fortschritt, bzw. bieten in ihrer Leistungsklasse nicht mehr (4070ti) oder sind eben teurer als bisherige Leistungsklassen (4090). Die 4070ti liegt zum Beispiel sowohl bei der Leistung als auch beim Preis zu sehr zwischen 3080ti und 3090.

Und dass 12GB erstmal genug sind zeigen ja die 6700XT und auch die 3080/12G bzw. 3080ti. Gerade in the Last of us ist die 6700XT eigentlich der Geheimtipp und performt weit oberhalb der 3070 und 3060 mit denen sie eigentlich konkurriert.

DrFreaK666
2023-03-31, 17:36:51
The Last of Us liegt glaub allgemein AMD sehr gut. Das sollte man nicht als Maßstab nehmen. Die 6700XT liegt im Durchschnitt etwa auf 3060 Ti Niveau

Schnitzl
2023-03-31, 20:16:49
Die Aussage war trotzdem richtig, denn es folgten RTX 3080 12GB, RTX 3080 Ti und RTX 2060 12GB. :) Das waren ausgewogene Produkte (Verhältnis aus Rechenkraft und Kapazität). Die RTX 4070 wird wohl das letzte Produkt, das gut ist, dann geht es mit Ada bergab ...

MfG
Raff
ich glaube nicht mal das. das VRAM Interface von 4070/4070ti wird sehr bald Spiele "finden", die es überfordern und das mehr an Cache auch nicht mehr hilft.
Ich weiss, es reiben schon ein paar hier die Knüppel... aber ich mache den Fehler nicht mehr den ich mit der 3070 gemacht hab. 16GB oder mehr. Wenn das 4stellig kostet dann eben gar nix.
Mein Auto braucht auch Liebe, nicht nur mein PC.

basix
2023-03-31, 20:32:31
lustig.

praktisch die ganze online presse hat die 3060 als unattraktivste karte ausgewießen.
Wüsste ich jetzt nichts davon. Technisch ist die Karte ja definitiv nicht schlecht. Und ich schrieb bewusst bei MSRP, was real fast nicht zu bekommen war.

Gott1337
2023-03-31, 21:28:49
ich glaube nicht mal das. das VRAM Interface von 4070/4070ti wird sehr bald Spiele "finden", die es überfordern und das mehr an Cache auch nicht mehr hilft.
Ich weiss, es reiben schon ein paar hier die Knüppel... aber ich mache den Fehler nicht mehr den ich mit der 3070 gemacht hab. 16GB oder mehr. Wenn das 4stellig kostet dann eben gar nix.
Mein Auto braucht auch Liebe, nicht nur mein PC.
Also wenn du von Interface und Cache größe sprichst, dann redest du über die Bandbreite!? Daran wird es nicht hapern. Die Karte ist auch nicht dafür gemacht in jedem Spiel auf Max details und Auflösung zu laufen.

Snoopy69
2023-04-01, 00:38:32
Wüsste ich jetzt nichts davon. Technisch ist die Karte ja definitiv nicht schlecht. Und ich schrieb bewusst bei MSRP, was real fast nicht zu bekommen war.
Konnte die 6600XT und 2x EVGA 3060XC zum MSRP über "Part Alert" (Discord) abfischen. Aber selbst mit "Part Alert" war es 2021 als Mensch nicht einfach eine Karte zu bekommen, weil die Bots oft schneller waren ;(

Über eine der beiden 3060XC konnte ich auf die EVGA 3090 FTW3 Ultra zum MSRP upgraden (dauerte etwa 6 Wochen)

Lurtz
2023-04-01, 12:58:06
Also wenn du von Interface und Cache größe sprichst, dann redest du über die Bandbreite!? Daran wird es nicht hapern. Die Karte ist auch nicht dafür gemacht in jedem Spiel auf Max details und Auflösung zu laufen.
Klar, darauf kann man sich immer zurück ziehen :ugly: Erst war die 3070 keine 4k-Karte, obwohl so leistungsstark wie die 2080 Ti, dann war sie keine 1440p-Karte, sondern eine 1080p-Karte für eSportler, die hohe FPS brauchen, jetzt ist sie eine 1080p-Karte für mittlere Details, innerhalb von zwei Jahren.

Oder die Spiele sind halt einfach schlecht optimiert. Irgendeinen Verantwortlichen außer nVidias-Produktgestaltung wird man schon finden.

Snoopy69
2023-04-01, 15:46:37
@Lurtz

Hängt wohl damit zusammen, dass die Ansprüche der Games gestiegen sind

Ich bekomme auch locker eine stark übertaktete 4090 klein

Troyan
2023-04-10, 14:39:31
https://cdn.videocardz.com/1/2023/04/NVIDIA-RTX4070-PERF-CLAIM-1.jpg
https://videocardz.com/newz/nvidia-claims-geforce-rtx-4070-and-rtx-3080-offer-equal-dlss-performance-without-frame-generation

prinz_valium_2
2023-04-10, 15:18:28
Das die sich für solche Folien nicht selbst schämen. Sind ja immerhin das Beste, was man produieren kann :D

basix
2023-04-10, 15:44:49
Faktisch nicht weit weg von P/L Stagnation innerhalb von 2.5 Jahren. Eh nein, halt, die 3070er sind ja unbrauchbar geworden in 1440p und mit RT, da zu wenig Speicher. Somit unendliche P/L Steigerung. DAS müsste man doch den Marketing-Fritzen einbläuen :D

Lurtz
2023-04-10, 16:41:10
Frame Generation rettet noch wenig als Super Resolution die 3070, weil das sogar mehr VRAM belegt, insofern verarscht Nvidia die Kunden hier sogar doppelt :ugly: Suggeriert mehr Leistungsfähigkeit per in Hardware beschleunigter KI11!!1! Technologie, um diese dann durch eins der simpelsten Bauteile einer GPU mit fetter geplanter Obsolenz auszustatten.

Snoopy69
2023-04-10, 16:49:42
Ist doch völlig normal bei gewinnorientierten Unternehmen :wink:
Man darf nicht glauben, dass wir als Verbraucher als erster Stelle stehen

w0mbat
2023-04-10, 17:20:47
Eine 8GB RTX 3070 für $499 im Oktober 2020 ist für mich auf jeden Fall eine bessere Invesition gewesen als eine 12GB RTX 4070 für $599 im April 2023.

2,5 Jahre später, 20% teurer, 50% mehr VRAM und 30% (?) schneller? Nach zwei einhalb Jahren? Ich finde Ada allgemein interessanter als RDNA3, aber die Preise sind einfach zu hoch, bzw. die Karten zu schwach für den aufgerufenen Preis.

Hakim
2023-04-10, 17:44:48
Was es wohl hier kosten wird, wenn es 599$ sind wäre es hier umgerechnet Wechselkurs + Steuer etwas über 650€, aber denke wir sehen eher 699€ als 649€ :)

Hatstick
2023-04-10, 17:48:37
Für 699€ wäre die RTX 4070 für mich tatsächlich die beste P/L Karte von nVidia.
Da kommst finanziell noch mit einem blauen Auge davon, hast eine RTX 3080 mit 12GB und den aktuellen Features und von der Leistung her sind 3080er Karten immer noch wunderbar dabei.
Bis zu 100% mehr für eine RTX 4080 tut dann einfach richtig weh und eine 12GB Karte für 900€ in Form der Ti fühlt sich auch nicht mehr gut an.

SentinelBorg
2023-04-12, 18:30:41
Für 699€ wäre die RTX 4070 für mich tatsächlich die beste P/L Karte von nVidia.
Da kommst finanziell noch mit einem blauen Auge davon, hast eine RTX 3080 mit 12GB und den aktuellen Features und von der Leistung her sind 3080er Karten immer noch wunderbar dabei.
Bis zu 100% mehr für eine RTX 4080 tut dann einfach richtig weh und eine 12GB Karte für 900€ in Form der Ti fühlt sich auch nicht mehr gut an.
Günstiger wäre schöner, aber letztendlich ist ein derzeit meist der beste Deal, vor allem wenn man auch noch den Stromverbrauch/preis mit einberechnet.

12GB sind für die aktuelle Generation von Konsolen Ports auch halt genug, aber bieten natürlich keine Reserve.

basix
2023-04-12, 19:41:54
12GB sind für die aktuelle Generation von Konsolen Ports auch halt genug, aber bieten natürlich keine Reserve.

Bei 1440p + RT + DLSS-FG wird es in den vielen Fällen wohl knapp, ja.

SentinelBorg
2023-04-12, 21:46:34
Bei 1440p + RT + DLSS-FG wird es in den vielen Fällen wohl knapp, ja.
Knapp aber halt doch für die Generation ausreichend. Situation ist letztendlich simpel. Auf einer PS5 haben Games 12.5 GB unified RAM zur Verfügung. Je nach dem wieviel für Spielmechaniken, AI, Worldstate usw. drauf gehen können davon gut 10 bis 11 GB für Grafikgedöns verwendet werden, was dann auf dem PC ins VRAM passen muss bei direktem Port der Assets.
Mit 12 GB VRAM funktioniert das dann, mit 8 GB halt nicht. Und dann bist du davon abhängig ob die Entwickler ausreichend Zeit investiert haben für qualitativ gute Assets, sprich primär Texturen mit reduziertem Speicherbedarf. Und wenn sie es nicht taten wie z.B. bei The Last of Us Part I, steht man am Ende blöd da mit 8 GB.

bbott
2023-04-12, 23:50:40
Knapp aber halt doch für die Generation ausreichend. Situation ist letztendlich simpel. Auf einer PS5 haben Games 12.5 GB unified RAM zur Verfügung. Je nach dem wieviel für Spielmechaniken, AI, Worldstate usw. drauf gehen können davon gut 10 bis 11 GB für Grafikgedöns verwendet werden, was dann auf dem PC ins VRAM passen muss bei direktem Port der Assets.
Mit 12 GB VRAM funktioniert das dann, mit 8 GB halt nicht. Und dann bist du davon abhängig ob die Entwickler ausreichend Zeit investiert haben für qualitativ gute Assets, sprich primär Texturen mit reduziertem Speicherbedarf. Und wenn sie es nicht taten wie z.B. bei The Last of Us Part I, steht man am Ende blöd da mit 8 GB.
Aber nur wenn das Streaming von SSD (4.0) auf dem PC vorhanden und funktioniert.

SentinelBorg
2023-04-13, 02:37:24
Aber nur wenn das Streaming von SSD (4.0) auf dem PC vorhanden und funktioniert.
Teils teils, kannst ja immer noch den zusätzlich vorhandenen Systemspeicher als Buffer verwenden. Aber Direct Storage mit Dekompression in der GPU funktioniert ja soweit ich das beurteilen kann unter Windows 10/11 ab Turing/RDNA2 an sich wunderbar. Fehlen nur die Games die es auch nutzen.

crux2005
2023-04-13, 02:38:34
Teils teils, kannst ja immer noch den zusätzlich vorhandenen Systemspeicher als Buffer verwenden. Aber Direct Storage mit Dekompression in der GPU funktioniert ja soweit ich das beurteilen kann unter Windows 10/11 ab Turing/RDNA2 an sich wunderbar. Fehlen nur die Games die es auch nutzen.

AFAIK nur Windows 11.

SentinelBorg
2023-04-13, 10:44:09
AFAIK nur Windows 11.
Nope, ich hab Windows 10 und es funktioniert auch. 20.5 GB/s auf meiner 990 Pro, 8.5 GB/s auf der 970 Evo Plus.
Unter Windows 11 soll es dann noch etwas schneller sein, aber ich denke die Größe eines aktuellen CoDs in 5 sek durchladen reicht auch so. ^^

basix
2023-04-13, 12:08:19
Knapp aber halt doch für die Generation ausreichend. Situation ist letztendlich simpel. Auf einer PS5 haben Games 12.5 GB unified RAM zur Verfügung. Je nach dem wieviel für Spielmechaniken, AI, Worldstate usw. drauf gehen können davon gut 10 bis 11 GB für Grafikgedöns verwendet werden, was dann auf dem PC ins VRAM passen muss bei direktem Port der Assets.
Mit 12 GB VRAM funktioniert das dann, mit 8 GB halt nicht. Und dann bist du davon abhängig ob die Entwickler ausreichend Zeit investiert haben für qualitativ gute Assets, sprich primär Texturen mit reduziertem Speicherbedarf. Und wenn sie es nicht taten wie z.B. bei The Last of Us Part I, steht man am Ende blöd da mit 8 GB.

"Knapp" ist für 660 Euro zu wenig ;) 12GB sind sicher für sehr viele Spiele ausreichend und viel besser als 8GB, aber wie Raff so schön sagt: Lieber etwas Puffer haben bei einer PC-Grafikkarte. Denn auf die Liebe der Entwickler kann man nicht unbedingt zählen. 12GB sind mMn genug, wenn man in 2 Jahren wieder aufrüsten will/kann. Soll sie aber >3 Jahre halten wird es definitiv eng mit 12GB @ 1440p. Das Problem ist nur: Was sind die Alternativen? Fast alle Karten kosten immer noch viel Geld. Wenn RT und DLSS wichtig sind, dann ist die 4070 eine gute Karte. Die 4080 mit mehr Speicher ist dann viel teurer. Wenn man ohne RT spielt, dann kann man auch eine Radeon kaufen, wo es 16GB für weniger Geld gibt.

Würde die 4070 ~500 Euro kosten, wäre die Situation etwas anders. Dann bekäme man verglichen zur 3070 einen deutlichen Mehrwert. So ist die Karte zwar nicht schlecht, aber auch nicht wirklich top.

Leonidas
2023-04-13, 12:14:47
Das Problem ist nur: Was sind die Alternativen?

Navi 32 bzw. 7800XT mit 16GB VRAM. Problem hier: Kommt erst Q3 - und bis dahin ist ungewiß, wie gut N32 wird.

basix
2023-04-13, 13:40:59
Richtig, wäre zu hoffen dass die in die Bresche springen kann. Nur gibt es sie leider noch nicht zu kaufen und die wird wohl ebenfalls 599 Euro kosten. Weniger wohl nicht.

crux2005
2023-04-13, 21:09:58
Nope, ich hab Windows 10 und es funktioniert auch. 20.5 GB/s auf meiner 990 Pro, 8.5 GB/s auf der 970 Evo Plus.
Unter Windows 11 soll es dann noch etwas schneller sein, aber ich denke die Größe eines aktuellen CoDs in 5 sek durchladen reicht auch so. ^^

Ich habe auch Windows 10 mit zwei NVMEs und das Xbox Overlay sagt:

GPU: DirectStorage wird unterstützt
OS: diese Version von Windows unterstützt keine DirectStorage IO Optimierungen
SSD: DirectStorage wird unterstützt

Wenn es trotzdem funktioniert ist das einfach irreführend.

Edit: Also ist der Text irreführend:
DirectStorage is compatible with Windows 10 devices, but Windows 11 has the latest storage optimizations built in and is our recommended path for gaming.
https://devblogs.microsoft.com/directx/directstorage-api-available-on-pc/

Besser wäre "DirectStorage wird unterstützt aber ohne die neusten IO Optimierungen".

BlacKi
2023-04-13, 22:51:23
Richtig, wäre zu hoffen dass die in die Bresche springen kann. Nur gibt es sie leider noch nicht zu kaufen und die wird wohl ebenfalls 599 Euro kosten. Weniger wohl nicht.kommt drauf an was die preise bis zum release machen. wenn man wegen nv gezwungen ist die preise zu senken, dann werden neu erscheinende karten auch eine besser uvp bekommen.

SentinelBorg
2023-04-13, 23:31:02
Edit: Also ist der Text irreführend:

https://devblogs.microsoft.com/directx/directstorage-api-available-on-pc/

Besser wäre "DirectStorage wird unterstützt aber ohne die neusten IO Optimierungen".
Korrekt, der Text ist bewusst irreführend geschrieben. Meint letztlich nur dass halt Optimierungen fehlen, nicht dass es gar nicht geht.

basix
2023-04-14, 09:36:55
DirectStorage kann jeder mit Win 10 & 11 testen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613025

Beim Bench kann man mit CPU oder GPU Decompression die Resultate ermitteln. Je nach Festplatte (HDD; Sata SSD, NVMe) unterscheiden sich die Resultate dann natürlich auch.

Platos
2023-04-14, 10:00:53
DirectStorage kann jeder mit Win 10 & 11 testen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613025

Beim Bench kann man mit CPU oder GPU Decompression die Resultate ermitteln. Je nach Festplatte (HDD; Sata SSD, NVMe) unterscheiden sich die Resultate dann natürlich auch.

Warum habt ihr da alle ~20GB/s mit einer 980Pro oder vergleichbarem?

Ist die Datei dekomprimiert in dem Fall ca. 3x grösser wie komprimiert?

Aber dann dürfte jede PCI-E 4.0 SSD mit besserer Qualität für die nächsten 10 Jahre ausreichen. Ist ja doppelt so hoch wie die 9GB/s Peak. Auch wenn die PS5 SSD besser ist, wie normale SSDs mit selber Leserate. Aber ist ja auch mehr wie 2x so hoch. Sollte also selbst für die PC Ports mit übertrieben Ultradetails reichen.

basix
2023-04-14, 10:23:40
Ja, ist komprimiert via GDeflate und GDeflate ist Teil von DirectStorage 1.1 (Kompression, Dekompression):
https://devblogs.microsoft.com/directx/directstorage-1-1-coming-soon/
https://devblogs.microsoft.com/directx/directstorage-gdeflate-reference-implementation-now-available/

Das ist ja genau der Witz des ganzen:
- GPU kann Daten nicht nur direkt in den VRAM laden sondern auch direkt on-chip dekomprimieren (via Shader-ALUs, soweit ich weiss)
- CPU Last wird massiv verringert, da die Dekomprimierung auf der GPU erledigt wird

DirectStorage v1.1 zusammen mit DX12U Sampler Feedback Streaming sind sehr mächtige Werkzeuge, um die RAM und insbesondere VRAM Auslastung möglichst gering zu halten. Nur habe ich keine Ahnung, wann wir das alles in Spielen sehen werden.

Platos
2023-04-14, 10:28:40
Ja, genau. Wollte nur eissen, ob die Datenrate also die dekomprimierte ist, weils sonst ergäben die Messwerte keinen Sinn, danke.

Das ist ja auch der Grund, warum die 16GB der neuen Konsolen eben nicht so schlimm ist und diese Grafikkartenvergleiche mit "Konsolen habe xy Speicher" sich nicht machen lassen, weil eben Texturstreaming.

Naja, solange das am PC in Spielen (wenigstens Triple A Spielen) nicht standart ist, ist dass ausserhalb der Konsolen sowieso nur Theorie.

Da die Mindestanforderung jede normale 2.5" Sata SSD disqualifiziert, sind somit auch ein haufen Rechner nicht dazu fähig. Man müsste also das Streaming 2 mal grundlegend anders programmieren, was vermutlich nur in den wenigsten Fällen passieren wird.

Oder irre ich mich da, dass man das Streaming grundlegend anders programmieren müsste für HDDs und Sata SSDs ?

basix
2023-04-14, 10:36:13
Mit einer Sata SSD läuft es ohne Probleme. Sind dann halt max. ~2GB/s Streaming. Auf einer HDD sehe ich DS als nicht sinnvoll an, zumindest sind heutige CPUs schnell genug um die vielleicht 300 MB/s zu dekomprimieren.

Ich vermute, dass man Spiele via Mindestanforderungen auf einer Sata SSD zum laufen kriegt oder halt mehr VRAM belegen muss. High oder Ultra Details verlangen dann nach einer NVMe. HDDs würde ich explizit ausschliessen.
In der heutigen Zeit sollte man erwarten können, dass jeder User mindestens eine Sata SSD im Rechner hat. Und NVMe SSDs sind mittlerweile auch sehr günstig geworden (1TByte ab ~50 Euro, schnelle PCIe 4.0 Dinger ab ~75 Euro) und eigentlich alle Motherboards der letzten 5-6 Jahre haben mindestens 1x NVMe PCIe 3.0 Steckplatz.

Exxtreme
2023-04-14, 10:48:38
Die Sata-Schnittstelle macht keine 2 GB/s. Das Schnellste, was man regulär kaufen kann ist Sata-600 was 750 MB/s entspricht.

basix
2023-04-14, 10:53:14
Mit Dekompression via GDeflate sind es 2GB/s ;)

DirectStorage v1.1 und Streaming in VRAM via GDeflate:
- Sata = ~2 GB/s
- PCIe 3.0 = ~9 GB/s
- PCIe 4.0 = ~20 GB/s
- PCIe 5.0 = ???

Ohne Kompression interessiert aus Anwendungssicht ja nicht. Man kann 2 GB/s an Nutzdaten streamen.

Exxtreme
2023-04-14, 12:53:47
Mit Dekompression via GDeflate sind es 2GB/s ;)


Da Gdeflate ein verlustfreier Kompressionsalgorithmus ist, sind die 2 GB/s nicht garantiert. Im schlimmsten Fall bleibt es bei 750 MB/s wenn sich Daten absolut nicht komprimieren lassen.

Platos
2023-04-14, 15:14:51
Mit Dekompression via GDeflate sind es 2GB/s ;)

DirectStorage v1.1 und Streaming in VRAM via GDeflate:
- Sata = ~2 GB/s
- PCIe 3.0 = ~9 GB/s
- PCIe 4.0 = ~20 GB/s
- PCIe 5.0 = ???

Ohne Kompression interessiert aus Anwendungssicht ja nicht. Man kann 2 GB/s an Nutzdaten streamen.

Ist die Mindestanforderung nicht irgendwo bei 2.5GB/s oder so? Oder habe ich das falsch in Erinnerung ?

bbott
2023-04-14, 18:20:28
Die Sata-Schnittstelle macht keine 2 GB/s. Das Schnellste, was man regulär kaufen kann ist Sata-600 was 750 MB/s entspricht.
Da ist bei ~560MB/s normal Schluss, daüber bedeutet Kompression. Von ~750 MB/s habe ich noch nie gehört :confused:

TheAntitheist
2023-04-15, 02:16:23
Da ist bei ~560MB/s normal Schluss, daüber bedeutet Kompression. Von ~750 MB/s habe ich noch nie gehört :confused:
es ist Sata 6G also 6000Mbit/8 = 750MB/s Brutto was dann 600MB/s Netto sind.

bbott
2023-04-15, 10:21:36
es ist Sata 6G also 6000Mbit/8 = 750MB/s Brutto was dann 600MB/s Netto sind.
Danke, aber habe noch nie die 600 MB/s in einem SATA Bench gesehen und niemanden bei SATA mit Brutto rechnen :D

dargo
2023-04-19, 08:18:06
RGT schwadroniert was von einer Preissenkung der RTX 4070 um 50$, was wiederum den Preis der kommenenden RTXen darunter beeinflussen würde.
ytCEJa3i9UU

Einerseits würde es Sinn machen da die Nachfrage miserabel ist. Andererseits passt hier aber was nicht wenn die Lager mit Ampere immer noch angeblich so voll sein sollen. :freak:

dildo4u
2023-04-19, 08:39:17
Laut dem war die 4070 Launch Woche beim Umsatz 50/50 NV weniger Karten dafür fast 800€ Durchschnitts Preis.
Immer noch über 200 4090 verkauft absurd.


https://twitter.com/TechEpiphany/status/1647231335575040000


Wenn sich ein 600€ NV wie ein 200€ AMD Modell verkauft hat NV sein Ziel imo erreicht.
Das ist das Apple Modell man will keine Modelle unter bestimmten Margen.

dargo
2023-04-19, 09:18:04
Laut dem war die 4070 Launch Woche beim Umsatz 50/50 NV weniger Karten dafür fast 800€ Durchschnitts Preis.
Immer noch über 200 4090 verkauft absurd.

Was ist denn daran absurd? Im Prinzip ist die RTX 4090 das interessanteste Produkt vs. Ampere im Ada-Portfolio sofern einen der hohe Durst nicht stört und man den Preis zahlen möchte. Alles drunter ist gähn. Wie ich schon sagte... bei Ada profitieren Enthusiasten High-End Interessenten und die Masse muss diesmal mehr bluten. Früher war das anders... da war das schnellste Produkt im Portfolio immer am unattraktivsten bei perf/$. Möglicherweise steckt da ein Plan hinter... den Pöbel in höherpreisige Segmente zu schubsen damit man sich langfristig von den unteren Preissegmenten verbschieden kann. Ob so ein Plan aufgeht wird sich zeigen müssen. Birgt auch einige Risiken.

dildo4u
2023-04-19, 09:24:45
Vielleicht kaufen Leute zusammen mit 7800x3D, die 4090 ist am längsten verfügbar wundert mich halt wann dort der Markt gesättigt ist.

HOT
2023-04-19, 09:44:21
Die großen Chips lassen sich im Profimarkt gut absetzen, bei den kleineren wird das schwieriger, hier muss man über den Preis gehen.

dildo4u
2023-04-19, 09:49:07
Hm 4070 mit 24GB ist nicht möglich als Profi Karte?
Kommt vermutlich auf das KI Modelle an ob es reicht.

HOT
2023-04-19, 11:36:02
Ist ja ne Frage der Absatzmenge. Wenn es dafür einen Markt gibt ja, wenn nicht, eben nicht. Und wenn man die Preise weiter reduzieren will, sieht es eher so aus, als müsste man die Dinger über Consumer loswerden. Die werden die Teile ja trotz massiv gedrosselter Produktion nicht los. NV tut halt alles dafür die Preise zu halten, aber irgendwann schlägt der Markt dann eben doch durch.

vinacis_vivids
2023-04-19, 11:45:48
Altmetall Ampere liegt auch noch in rauhen Menge auf der Halde. Vielleicht hilft noch einmal ein unerwarteter Mining-Boom eines ETH-Abkömmlings. Ansonsten ist es zu begrüßen, dass GPUs im Preis runter gehen. Das ist doch gut für die Kunden.

4070 bei 300-400€ ließe sich sehr gut verkaufen denke ich mal. 600-700€ sind derzeit krass überteuert. Da ist noch viel Platz und Luft nach unten.

dildo4u
2023-04-19, 12:00:39
Die Karte ist ideal wenn man ein Micro ATX System bauen will vor allem in Verbindung mit Ryzen x3D.
Wenn AMD 200 GPU Watt Modelle erst zur Computex kommen wird sich nicht viel tun.

HOT
2023-04-19, 14:04:53
Altmetall Ampere liegt auch noch in rauhen Menge auf der Halde. Vielleicht hilft noch einmal ein unerwarteter Mining-Boom eines ETH-Abkömmlings. Ansonsten ist es zu begrüßen, dass GPUs im Preis runter gehen. Das ist doch gut für die Kunden.

4070 bei 300-400€ ließe sich sehr gut verkaufen denke ich mal. 600-700€ sind derzeit krass überteuert. Da ist noch viel Platz und Luft nach unten.
Da wird mMn NV nichts anderes übrig bleiben, als noch mals große Mengen abzuschreiben und zu entsorgen.

davidzo
2023-04-19, 17:18:32
Die Karte ist ideal wenn man ein Micro ATX System bauen will vor allem in Verbindung mit Ryzen x3D.
Wenn AMD 200 GPU Watt Modelle erst zur Computex kommen wird sich nicht viel tun.

Umso ärgerlicher dass es neben der FE kaum 2-Slot Modelle gibt und auch kaum jemand kürzer ist.
Die Karte hat weniger TDP als eine 2080 und ein ultrakurzes PCB fast auf Vega Nano Niveau. Wieso nutzt das keiner?

Der Markt für SFX ist zwar klein aber Margenstark. Und außerdem würde ich nicht unterschätzen wieviele Leute eine neue GPU zum Aufrüsten in einen HP, Dell, Lenovo FertigPC stecken wollen und dann feststellen dass das case zu schmal oder kurz für eine tripleslotkarte von 30cm Länge ist oder nur noch zwei Slotblenden frei hat.

Das letzte mal dass es durch die Bank 2-Slot Karten gab war zu Turing Zeiten, die 2080 waren alle 2 Slot und meist kürzer als 30cm. Davor waren Performancekarten der 70er Serie immer maximal 27cm lang und es gab zahlreiche Mini ITX Versionen (bis 18cm, z.B. von der 1070, 970, 770, 670 etc.)

Und ein kleinerer Kühler heißt ja nicht unbedingt schlechterer. EVGA hatte in der 900er und 1000er Serie die besten Kühler und das waren alles 2-slot Varianten während andere schon 2,5fach oder 3fach hatten. Weniger Material, dafür aber bessere Wärmeübergänge (verlötete lamellen) und Verarbeitung (bei Kingpin sogar Kupferlamellen).

Mit der Zotac Twinedge gibt es eine einzige Karte die einigermaßen kompakt ist, 23cm lang und 2,1Slot dick. Leider scheint das lediglich eine Kostenoptimierung zu sein, also nichts von besseren Wärmeübergängen oder Materialien. Wieso man die Lüfterblende dann auch dicker macht als die Slotblende verstehe ich aber beim besten Willen nicht, völlig unnötig einen Slot verschenkt. Und Zotacs 4000er Karten sehen leider auch durch die Bank schrecklich nach 2000ern aus.

Am besten gefällt mir bisher eigentlich die Inno3D. Die machen irgendwie in dieser Generation hochwertigsten Designs, jetzt wo EVGA aus dem Rennen ist. Schön das auch eine "Midrange"-Karte" zum MSRP mit teureren features wie verlöteten Lamellen und metall-backplate aufwarten kann, auch wenn man es für den preis sicher erwarten kann.
https://www.eteknix.com/nvidia-rtx-4070-graphics-card-review/3/
- Dualslot
- 25cm Länge
- Dualfan
- 5 Heatpipes, verlötete Lamellen
- Backplate mit Wärmeleitpads
- Temperatur leicht niedriger als Referenz
- Lüfterdrehzahl leicht niedriger als Referenz
- Verbrauch wie Referenz
- Performance gleich bzw. sogar leicht höher wie die Referenz

Thunder99
2023-04-24, 12:42:08
Der Abstand 4080 zu 4090 ist ja relativ groß. Das schreit ja förmlich nach einer Karte dazwischen.
Könnte mir vorstellen, zum Herbst ein Preisrückgang bei 4080 und tiefer um dann für 1,2k+ eine 4080Ti auf AD102/20GB 350W zu sehen.

Gibt's dazu schon Gerüchte oder mehr handfestes?

dargo
2023-04-25, 18:56:37
Lol... der Verkauf von Lovelace ist dermaßen schlecht, dass sogar Leute ihre Geforces gegen RDNA2 umtauschen lassen. ;D
kES0H8fTPoE

HOT
2023-04-25, 19:00:14
Die 4070 läuft derart schlecht - das muss auch andere Implikationen haben. Ich denke, dass viele Käufer der 3070 so am Arsch gebrannt sind, dass die einfach keinen Bock auf die 4070 haben. Das sind ja oft Käufer, die ne Karte 4 Jahre behalten. Das war mit der 3070 und 3060ti schlichtweg nicht möglich.

Und dann ploppen in Social Media ja auch noch die Schlagzeilen über die tolle Performance der modded 3070 auf, da kommen sich einige stark verarscht vor.

dargo
2023-04-25, 19:12:00
Jetzt bin ich umso mehr auf die Preise von N33 und N32 gespannt. Offenbar lässt sich die Masse nicht mehr von den IHVs verarschen, was ich sehr begrüße. Egal ob Nvidia oder AMD.

BavarianRealist
2023-04-25, 19:24:39
Der Verkauf der 4070 könnte einfach schon deshalb so schlecht sein, dass die 4070 für ihren Preis zu schwach bzw. kein Fortschritt ist, d.h.:
- die potenziellen Interessenten hätten für diesen Preis eher eine 4080 erwartet, die ist denen aber zu teuer
- und die Kunden, die bereit sind 600€ auszugeben, haben wohl aktuell schon einen Graka ähnlicher Leistung, sodass sich der Umstieg einfach nicht lohnt

Dural
2023-04-26, 16:47:39
Keine Ahnung was ihr nimmt, aber die 4070 ist derzeit die meist verkaufte Grafikkarte überhaupt.

Die Marktlage ist aber extrem schwierig, der PC Markt ist komplett zusammen gebrochen, das hat aber rein gar nichts mit der 4070 zu tun.

Langlay
2023-04-26, 16:50:56
Keine Ahnung was ihr nimmt, aber die 4070 ist derzeit die meist verkaufte Grafikkarte überhaupt.

Die Marktlage ist aber extrem schwierig, der PC Markt ist komplett zusammen gebrochen, das hat aber rein gar nichts mit der 4070 zu tun.

https://abload.de/img/informationsminister-a7dd6.jpg

gnomi
2023-04-27, 08:55:29
Wenn die Kaufzurückhaltung mal anhält, werden die Preise auch sinken.
Denke aber, dass nvidia das clever aussitzt/verzögert und dann lieber positiv mit der 5000er Serie überrascht.
Wer also ne ernsthafte Gamer Karte braucht, wird weiter gut bezahlen. (500-550€)
Selbst als Privatkunde möchte man zum Beispiel gebrauchte 3080er in dieser Situation jetzt nicht billig abgeben. Ist mit allen schönen Dingen gerade so.
Nvidia packt also DLSS3 dazu, speckt die Chips ab (Ada ist ja technisch klar besser als Ampere, was praktisch ist) und reduziert über den Sommer dann ganz leicht. Und ab Herbst kann man dann mehr Bundle mit Software verkaufen oder so....

BlacKi
2023-04-27, 10:47:39
https://abload.de/img/informationsminister-a7dd6.jpg


wenn man genauer hinschaut, findet man modelle mit verkaufszahlen von 300-600 verkauften 4070 auf MF nach 2 wochen.



zum vergleich, die 4070ti verkaufszahlen nach 3,5 monaten sind nicht viel besser.



MF ist als verkaufsbarometer schon immer nur ein indikator gewesen, keine gute quelle. und die influenzer tun halt wie immer das was sie am besten können, meinungen beeinflussen und die kleinen influes reiten die welle.


das die verkaufszahlen schlechter sein sollen als bei der 4070ti ist auf jedenfall quatsch. das die verkaufszahlen schlechter sind als nv erwartet hat, mag sein, schließlich ist die masse der käufer stärker im unteren segment vertreten.

HOT
2023-04-27, 11:22:15
In Europa sind die Verkäufe nicht so schlecht, nur überall anders, deshalb ist MF als Quelle schlichtweg irreführend. Aber auch hier sind 600 Einheiten lächerlich gegen 1070, 2070 und gar 3070.
Die 40er Karten haben sich alle beschissen verkauft, die 4070Ti hatte einen kleinen Anfangshype (aufgrund der 200$ "Preissenkung"), das wars dann aber auch, und die 4090 läuft angesichts ihres Preises ok, aber auch nicht mehr, sonst würde die nicht ständig im Preis sinken.

Wie gesagt, NV hat die 4080-Produktion jetzt schon zum 2. Mal angehalten und auch die 4070-Produktion steht/stand.

gnomi
Die Verlängerungspolitik kann ne Weile gut gehen, aber das Problem ist, dass die Radeons ja immer billiger werden und irgendwann wird auch der härteste Geforce-Fan schwach, wenn die Preise einfach sehr gut sind. Hab ich jetzt schon ein paar mal erlebt - auf 6800 umgestiegen und hoch zufrieden, vorher immer nur Geforce gehabt. Die Leute sind dann immer überrascht über die sehr schnelle und umfangreiche Treibersoftware ;).

Slipknot79
2023-04-27, 20:53:53
Und TSMC ist das egal, wenn Nvidia einfach mal anweist die Produktion zu stoppen? Oo
TSMC: Kein Thema, lassen wir eben unsere 200 Millionen$ Belichtungsmaschinen abchillen. (y)

Thunder99
2023-04-27, 20:58:39
Wer weiß schon wie die Verträge sind. Sie zahlen mehr pro Chip, können aber die Produktion flexibel handhaben? Warum nicht?

Langlay
2023-04-27, 20:59:52
Und TSMC ist das egal, wenn Nvidia einfach mal anweist die Produktion zu stoppen? Oo
TSMC: Kein Thema, lassen wir eben unsere 200 Millionen$ Belichtungsmaschinen abchillen. (y)

Normalweise produzierst du erstmal einfach anderes Zeug, wenn das wieso auch immer nicht möglich ist, musste dann halt ggf. ne Vertragsstrafe zahlen weil du die Mindestabnahme nicht erreicht.

wenn man genauer hinschaut, findet man modelle mit verkaufszahlen von 300-600 verkauften 4070 auf MF nach 2 wochen.


Er sagte die meist verkaufte Karte überhaupt.

Also die 4070 verkauft sich besser als jeder andere Karte von Nvidia, AMD und Intel. Und das glaub ich eher weniger. Das sich sich noch besser verkauft als die nochmals teurere 4070ti wundert jetzt aber imo keinen.

iamthebear
2023-04-27, 21:33:54
Und TSMC ist das egal, wenn Nvidia einfach mal anweist die Produktion zu stoppen? Oo
TSMC: Kein Thema, lassen wir eben unsere 200 Millionen$ Belichtungsmaschinen abchillen. (y)

TSMC kann das komplett locker sehen. Nvidia hat schon 2 Jahre im Vorhinein knapp 9 Mrd. an TSMC für 5nm Wafer bezahlt. Das entspricht ca. 6 Mio. Wafern bzw. 600 Mio. AD102 Dies. Da wird MF mit ihren 600 verkauften 4070ern auch nicht viel ändern.

Wenn Nvidia nun meint, dass sie für die 9 Mrd. nur die halben Wafer geliefert haben wollen lässt TSMC die Maschinen eben stehen und spart sich die Stromkosten ;D

Laut Gerüchten hat Nvidia vor Locelace Launch versucht die Verträge neu auszuhandeln sodass die Lieferung später erfolgt aber TSMC war nur bereit Nvidia 3 Monate Aufschub zu gewähren. Die sind ja schon letzten Herbst verbraucht worden und seither lässt Nvidia groß produzieren und legt die Dies auf Lager.
Finanziell wird es Nvidia verkraften, da sie sich dank AI Boom dumm und dämlich verdienen aber das sind eben Karten die für 20K verkauft werden. Da bringt zwar vuel Kohle, verbraucht aber nicht unbedingt viele Wafer.

Die Frage ist wie es nun weiter geht: Gibt Nvidia irgendwann nach und startet das große Preisdumping um den Konsum weiter anzukurbeln oder stellt man sich auf bockig und verkauft dieselben Ada Dies im Midrangebereich über die nächsten 10 Jahre laufend ab.

Thunder99
2023-04-28, 09:19:42
Letzteres, traue ich eher Nvidia zu...

BlacKi
2023-04-28, 11:33:34
Er sagte die meist verkaufte Karte überhaupt.

Also die 4070 verkauft sich besser als jeder andere Karte von Nvidia, AMD und Intel. Und das glaub ich eher weniger. Das sich sich noch besser verkauft als die nochmals teurere 4070ti wundert jetzt aber imo keinen.


die 4070 ist derzeit die meist verkaufte Grafikkarte überhaupt.


he is probably right.


nur sind das so ziemlich alle karten nach dem launch. es ist zumindest nicht wirklich unreasonable.

Wuge
2023-04-28, 12:29:00
Waferkapa für AD102 nutzen, Full Chip bringen um den Enthusiasten noch mal einen Anreiz zu geben viel Geld für DIE-Fläche auszugeben, rest in Datacenter verscherbeln. Oder die Generation einfach länger laufen lassen und die großen Chips nach und nach abverkaufen bevor man Mid-Range aus der nächsten Gen bringt. Da gibts schon Optionen...

The_Invisible
2023-04-28, 12:38:06
Naja Nachfrage im KI Bereich ist riesig weil anscheinend jeder jetzt seine eigene KI Tech haben will (ahoi Musk). Nicht umsonst gehen die eigentlich 6k 6000er Adas für aktuelle >10k übern Tisch. Im Prinzip sind das aber nur 4090er mit doppelt so viel VRAM.

Warum dann eine Titan ADA bringen und nur für 3k oder so verscherbeln ;D

Bin ja gespannt wohin die Reise geht und ob sich Nvidia eventuell sogar vom Lowend Markt zurückzieht?

Platos
2023-04-28, 13:34:39
Bin ja gespannt wohin die Reise geht und ob sich Nvidia eventuell sogar vom Lowend Markt zurückzieht?

Zurückziehen :confused::biggrin:

Sie haben praktisch ein Monopol. Als ob sie sich "zurückziehen". Wenn überhaupt, dann kann man eher hoffen, dass AMD sich nicht zurückzieht und sich auf Konsolen-only konzentriert.

Wenn nvidia GeForce aufgibt, dann sind die anderen Marktteilnehmer schon seit Äonen nicht mehr dabei.

Langlay
2023-04-28, 13:56:54
Zurückziehen :confused::biggrin:

Sie haben praktisch ein Monopol. Als ob sie sich "zurückziehen". Wenn überhaupt, dann kann man eher hoffen, dass AMD sich nicht zurückzieht und sich auf Konsolen-only konzentriert.


Monopol im Lowendmarkt? I don't see it. Die "neuste" Lowend Karte von Nvida ist imo die GT 1030.

DrFreaK666
2023-04-28, 14:36:19
1630

Platos
2023-04-28, 15:12:00
Monopol im Lowendmarkt? I don't see it. Die "neuste" Lowend Karte von Nvida ist imo die GT 1030.

Ich dachte er bezeieht sich mit Low-End auf GeForce als ganzes, im Vergleich zu den Profi-Karten.

Langlay
2023-04-28, 15:13:31
1630


Die ist wirklich an mir vorbeigegangen.

Weltraumeule
2023-05-02, 17:10:23
Hallo, ich hatte zuvor die 1060 und nun eine 3060 und spiele vermehrt alte Titel, nutze dabei auch sehr gerne OGSSAA oder SGSSAA. Wird das bei der 4000er Generation und dem Profile Inspector auch noch unterstützt?

DrFreaK666
2023-05-04, 11:28:52
Was hat es damit auf sich?

https://abload.de/img/screenshot_20230504_1n0dip.jpg (https://abload.de/image.php?img=screenshot_20230504_1n0dip.jpg)

dildo4u
2023-05-04, 12:30:44
Das ist Unreal Engine 4 wird extrem CPU Lastig mit RT.

Hier 4080 = 4090 in 1080p mit RT mit 7800x3D

https://youtu.be/GZNpWAbPH9M?t=210

basix
2023-05-04, 12:56:20
Callisto Protocol verhält sich auch auf der 4090 so. Das hat nichts mit der 4070 zu tun.

DrFreaK666
2023-05-04, 13:35:13
Callisto Protocol verhält sich auch auf der 4090 so. Das hat nichts mit der 4070 zu tun.

Er erwähnt dass Callisto Protocol das dritte Spiel ist, nicht das einzige

dildo4u
2023-05-04, 13:37:11
Alles Unreal Engine 4?
Epic hat das alte RT nicht umsonst rausgeworfen und mit Lumen ersetzt.

ChaosTM
2023-05-04, 13:38:13
Das ist Unreal Engine 4 wird extrem CPU Lastig mit RT.

Hier 4080 = 4090 in 1080p mit RT mit 7800x3D

https://youtu.be/GZNpWAbPH9M?t=210


jo, @1080p ist fast alles CPU Limitiert. Schau mal auf die 4k Werte

Thunder99
2023-05-04, 14:02:55
Hallo, ich hatte zuvor die 1060 und nun eine 3060 und spiele vermehrt alte Titel, nutze dabei auch sehr gerne OGSSAA oder SGSSAA. Wird das bei der 4000er Generation und dem Profile Inspector auch noch unterstützt?
Ja, zu 100%. Könnte bisher nichts gegenteiliges feststellen.

Lurtz
2023-05-04, 14:06:26
Was hat es damit auf sich?

https://abload.de/img/screenshot_20230504_1n0dip.jpg (https://abload.de/image.php?img=screenshot_20230504_1n0dip.jpg)
Ist das neu? Auf der RTX 3070 sinkt der Verbrauch mit RT teils auch deutlich, aber kann man daraus die Schlussfolgerung ziehen?

basix
2023-05-04, 14:27:27
Er erwähnt dass Callisto Protocol das dritte Spiel ist, nicht das einzige

Ja. Und ich sage, dass Callisto Protocol kein gutes Spiel ist um seinen Rückschluss zur Bandbreite zu untermauern. Die 4090 ist ebenfalls nicht voll ausgelastet, auch in 8K ohne CPU Limit (siehe Benchmark Thread hier im Forum, habe dort selbst Werte gepostet). Ersichtlich an tiefem Verbrauch. Wieso weiss keiner, ist aber so. Anhand der 2x Leistungsdifferenz zwischen 4090 und 4070 und dem selben Unterschied bei der Bandbreite, wäre die 4090 exakt gleich bandbreitenlimitiert wie die 4070. Nur bringt Speicher OC bei der 4090 nicht wahnsinnig viel. Bandbreitenlimitation? Wenn dann nur gering.

Ausserdem gibt es viele andere Spiele, die sich ähnlich verhalten (auch in 4K, aber typischerweise weniger ausgeprägt wie in Callisto Protocol). Das dynamische Power Management von Ada ist deutlich feiner als die der Vorgängerkarten. Gibt Spiele, die bei <250W rumdümpeln und andere gehen auf 350W. Beides in 4K, beide Male liegt der selbe Takt an, kein CPU Limit. Mit und ohne RT, je nach Spiel, alles egal.

Ich vermute eher, dass er mit dem dynamischen Powermanagement von Ada nicht vertraut ist und seine vorherige z.B. Ampere Karte halt immer ins Power Limit gerannt ist, egal welches Spiel. Die Ada Karte macht das halt nicht. Deswegen interpretiert er da was hinein, was wohl kein Issue ist sondern ein (positives) Feature ;)

Dass sich die Leistungsaufnahme mit RT ändert kann sein. Nur würde ich nicht bei der Bandbreite den Übeltäter suchen. Eher bei der Latenz, da deutlich mehr inkohärente Speicherzugriffe. Und dann dreht die GPU Däumchen, bis dei Daten ankommen und ergo, die Leistungsaufnahme geht runter. Ist aber kein Problem der 4070, sondern von allen Karten.

DrFreaK666
2023-05-04, 14:59:21
Alles Unreal Engine 4?
Epic hat das alte RT nicht umsonst rausgeworfen und mit Lumen ersetzt.

Auf Anfrage sind die anderen Spiele NFS Heat (ja, nicht Unbound. Weiß nicht ob er es verwechselt hat) und FC6

... Ich vermute eher, dass er mit dem dynamischen Powermanagement von Ada nicht vertraut ist und seine vorherige z.B. Ampere Karte halt immer ins Power Limit gerannt ist, egal welches Spiel...

Er meint dass er das bei der RTX4070 Ti nicht beobachten konnte. Das schließt das tolle Ada-Feature irgendwie aus

Lehdro
2023-05-04, 15:15:39
Auf Anfrage sind die anderen Spiele NFS Heat (ja, nicht Unbound. Weiß nicht ob er es verwechselt hat) und FC6

NFS Heat hat die Frostbite Engine und kann gar kein RT. Also die Engine schon, aber das Spiel hat keins iirc.

dildo4u
2023-05-04, 15:16:17
Sollten normale CPU Limits sein Unbound hat z.b DLSS3 bekommen und das zu umgehen.
FC6 sollte in 1440p teilweise CPU Limitiert sein selbst auf High-End CPU Modellen.


qJDec9mJgV4

Langlay
2023-05-04, 15:39:18
Auf Anfrage sind die anderen Spiele NFS Heat (ja, nicht Unbound. Weiß nicht ob er es verwechselt hat) und FC6


Ich bin der Meinung ich hatte das Phänomen auch in A Plaque Tale Requiem, das die 4090 mit RT weniger Strom gezogen hat als mit Raster.

basix
2023-05-05, 09:24:03
Er meint dass er das bei der RTX4070 Ti nicht beobachten konnte. Das schließt das tolle Ada-Feature irgendwie aus

4070 Ti bietet 25% mehr Performance bei 25% mehr Bandbreite. Bandbreite kann also ebenfalls nicht das Problem sein ;)

Dass ein Reduktion der Leistungsaufnahme bei der 4070 Ti nicht passiert: Das will ich sehen. Gleiche Settings, gleiche Stelle im Game (oder der ingame Benchmark). Wenn die 4070 so reagiert, wird die 4070 Ti mMn exakt gleich reagieren. Würde mich sehr wundern wenn nicht. Beide laufen bei ihrer Standard-Powerlimit faktisch mit dem Maximaltakt, gleicher Chip, gleiches Perf/Bandbreitenverhältnis etc.
Der einzige relevante Unterschied sind 5 GPC vs. 6 GPC. Aber das sollte in 1440p nichts ausmachen und passt auch wieder zur Performance-Differenz zwischen den Karten.

Ich bin der Meinung ich hatte das Phänomen auch in A Plaque Tale Requiem, das die 4090 mit RT weniger Strom gezogen hat als mit Raster.
Ist in vielen Spielen so, ja. Nicht in allen aber in vielen.

dildo4u
2023-05-05, 13:26:09
Neue Textur Kompression von Nvidia schätze mal da wird es Druck von Nvidia geben um ihre 8GB Karten zu "retten".

https://videocardz.com/newz/nvidia-neural-texture-compression-offers-4-times-higher-resolution-than-standard-compression-with-30-less-memory


Wobei wir nach 5 Jahren weiterhin auf RTX I/O warten :lol:

Exxtreme
2023-05-05, 13:38:02
Es kann sein, dass man mit aktivem RT ins CPU-Limit reinrennt weil RT auch ordentlich an der CPU knabbert. Und wenn die Grafikkarte auf die CPU wartet dann frisst sie weniger Strom.

Hier gibt es Benchmarks:
https://www.pcgameshardware.de/Star-Wars-Jedi-Survivor-Spiel-73723/Specials/Tech-Test-PC-Review-Benchmarks-1418501/4/#a2

Leider nur mit älteren CPUs. Aber auch mit den ganz schwachen CPUs verliert man viel FPS wenn man RT aktiviert. Das wird leider praktisch nirgendwo thematisiert, dass wenn man starke RT-Leistung will, dass man dann auch eine starke CPU haben sollte. Grafikkarte alleine reicht nicht. Bzw. eine RT-starke und teure Grafikkarte alleine kann kontraproduktiv sein wenn man im Gegenzug an der CPU sparen muss.

Fragman
2023-05-05, 13:44:37
Schaut gut aus.

Neue Textur Kompression von Nvidia schätze mal da wird es Druck von Nvidia geben um ihre 8GB Karten zu "retten".


Sollte keinen Unterschied machen da bei beiden Verfahren die Dateigröße gleich ist und nur der Output qualitativ besser.

Jetzt könnte man halt sagen, wir schrauben den Input runter, aber das ist wohl von Content Creation Seite her kaum zu erwarten. So oder so sind die 8 GB raus. Interessanter ist das dann eher für die 12 oder 16 GB Karten.

DrFreaK666
2023-05-05, 13:52:59
Dauert eh noch bis es flächendeckend genutzt wird. Anfangs nur bei Nvidia-Titeln

basix
2023-05-05, 14:05:21
Neural Texture Compression kombiniert mit Direct Storage und Sampler Feedback Streaming :D

Bei einer Kombination aller Technologien ist ein sehr grosser Gewinn denkbar. Deutlich erhöhte Qualität ohne grösseren Festplattenverbrauch und gleichzeitig verringertem VRAM Verbrauch.

Jetzt könnte man halt sagen, wir schrauben den Input runter, aber das ist wohl von Content Creation Seite her kaum zu erwarten. So oder so sind die 8 GB raus. Interessanter ist das dann eher für die 12 oder 16 GB Karten.
8GB ist wohl wirklich raus. Texturen sind ja nur ein Teil der VRAM Belegung. Bei modernen Spielen ist insbesondere auch die Beleuchtung ziemlich speicherintensiv (Shadow Maps, Surface Caches, GI, RT, ...)

robbitop
2023-05-05, 14:31:46
HBCC :D

BlacKi
2023-05-05, 14:34:26
wobei die veringerung eher durch direct storage kommen wird, da schlichtweg die texturen nichtmehr im speicher verbleiben die nicht gerade für das rendern benötigt werden. weil die texturen durch NTC sogar größer werden, wird sogar mehr vram benötigt. durch DS kann das aber egal sein, wohl auch bei 8gb karten, es sei denn die texturen vervielfachen sich in der zukunft.

BTW: wie kommt VCZ auf 30% einsparung?

Exxtreme
2023-05-05, 14:52:04
DS ist hier kein Wundermittel gegen zu wenig VRAM. Denn dieses Mittel gibt es bereits: das Auslagern der Texturen ins System-RAM. Das geht schon seit dem AGP-Port und wird trotzdem kaum praktiziert da es die Performance ordentlich drücken kann. Und DS ist noch viel langsamer da viel weniger Durchsatz und die Latenzen sind auch höher. DS macht eher die Programmierung einfacher.

basix
2023-05-05, 15:44:58
Bei DirectStorage werden die Daten komprimiert über PCIe übertragen. Ohne wird es dekomprimiert übertragen. Im Endeffekt gewinnt man durch DirectStorage also die Kompressionsrate als Bandbreitenmultiplikator. Umso höher die Kompressionsrate desto mehr gewinnt man. Neben Entlastung der CPU und wie du sagst einfacherer Programmierung.

HBCC :D

Das noch obendrauf :)

weil die texturen durch NTC sogar größer werden, wird sogar mehr vram benötigt.

Wie kommst du darauf? Im Paper steht 3x geringere Speichermenge bei gleicher Qualität. Und bei sehr geringen Bitraten erkennt man bei BC fast nichts mehr und bei NTC sind die Textur-Features noch gut erkennbar (Seite 9 im Paper).

The_Invisible
2023-05-05, 15:50:08
Bei DirectStorage werden die Daten komprimiert über PCIe übertragen. Ohne wird es dekomprimiert übertragen. Im Endeffekt gewinnt man durch DirectStorage also die Kompressionsrate als Bandbreitenmultiplikator. Umso höher die Kompressionsrate desto mehr gewinnt man. Neben Entlastung der CPU und wie du sagst einfacherer Programmierung.



Das noch obendrauf :)

Hat man jetzt eigentlich eine dedizierte Dekompressionseinheit oder läuft das über die Shader? Da war man sich bei Forspoken ja irgendwie nicht einig ob jetzt Performance verloren geht oder nicht.
Jedenfalls wärs schade wenns so wäre

BlacKi
2023-05-05, 15:51:23
ja, nee, DS1.1 ist schon der killer. ganze schritte fallen weg(auslagern, komprimieren von der cpu), bandbreitennutzung reduziert.

hat doch die expanse demo doch gezeigt, das die texturen von 350gb in wenige 100mb physischen grafikspeicher passen.

s-IZFyIw7mU




Wie kommst du darauf? Im Paper steht 3x geringere Speichermenge bei gleicher Qualität. Und bei sehr geringen Bitraten erkennt man bei BC fast nichts mehr und bei NTC sind die Textur-Features noch gut erkennbar (Seite 9 im Paper).

ok, das erklärt es.

basix
2023-05-05, 16:07:09
Hat man jetzt eigentlich eine dedizierte Dekompressionseinheit oder läuft das über die Shader? Da war man sich bei Forspoken ja irgendwie nicht einig ob jetzt Performance verloren geht oder nicht.

Soweit ich weiss läuft es bei PC-GPUs via Shader. Konsolen haben eine dedizierte Dekompressionseinheit.

Performance verliert man bei Forspoken mit DirectStorage aber nicht. Man verliert, wenn man DirectStorage ausschaltet: https://www.computerbase.de/2023-01/forspoken-directstorage-benchmark-test/

Edit:
Bei Direct Storage ergibt sich theoretisch noch ein weiterer Benefit. Man könnte alle Daten (oder so viele wie möglich) komprimiert im VRAM lassen, bei Bedarf in die GPU laden, dekomprimieren und über die on-chip Caches auf diesen Daten arbeiten. Solange dies alles on-the-fly gehen würde (Writeback dekomprimierter Daten in den VRAM unterbinden, Dekompression der Daten mit x-hundert GByte/s aus dem VRAM, genug grosse Caches wie Infinity Cache oder der seit Ada grosse L2$) liegen also alle Daten komprimiert im VRAM. Könnte bei gleichbleibender Qualität in die GByte an VRAM-Einsparungen gehen. Zusätzlich würde das massiv an VRAM-Bandbreite einsparen, da nur noch komprimierte Daten vom VRAM geladen werden müssen.

Platos
2023-05-05, 23:23:48
DS ist hier kein Wundermittel gegen zu wenig VRAM. Denn dieses Mittel gibt es bereits: das Auslagern der Texturen ins System-RAM. Das geht schon seit dem AGP-Port und wird trotzdem kaum praktiziert da es die Performance ordentlich drücken kann. Und DS ist noch viel langsamer da viel weniger Durchsatz und die Latenzen sind auch höher. DS macht eher die Programmierung einfacher.

Das Wundermittel ist ja nicht die Verlagerung der Daten sondern die Verlagerung der Dekompression, würde ich sagen. Die CPU kann gar nicht so schnell dekomprimieren, wenn man ne ne PCI-E 3.0/4.0 entlasten will (Dann bräuchte jeder mindestens einen 7950x oder besser).

Da spielt es auch keine Rolle, ob das nun im RAM schon dekomprimiert vorliegt oder nicht. Die CPU muss es ja trotzdem zuerst mal dekomprimieren.

Konsolen (zumindest die PS5) haben spezielle Einheiten dafür, die es am PC nicht gibt. Deshalb macht das hier (in der theorie) die GPU.

HOT
2023-05-06, 09:42:15
Ist wahrscheinlich wieder proprietär und deshalb dead-on-arrival. Ich hab den Eindruck, dass NV hier einfach ein gewaltiges I/O-Problem hat und versucht Lösungen zu finden.

basix
2023-05-06, 09:58:11
Was soll proprietär sein?

dildo4u
2023-05-09, 09:21:05
Der selbe Blödsinn wie bei Ampere(3060/3070) 4060TI mit 16 GB kommt, schätze 4070Ti bleibt bei 12GB.


https://videocardz.com/newz/nvidia-to-launch-geforce-rtx-4060-ti-8gb-this-month-16gb-model-planned-for-july

Troyan
2023-05-09, 09:28:00
Welcher Blödsinn? 16GB sind doch okay. Wir hatten das damals schon: Nur weil etwas mehr Speicher hat, muss es nicht teurer sein. Ein iPhone Pro mit 128GB kostet auch mehr als ein iPhone mit 512GB.

Edgecrusher86
2023-05-09, 09:28:57
Zumindest kann sicher dann keiner beschweren, dass der VRAM nicht mehr langt. ^^

Wobei nun bei Ada durchaus auch mehr als 12GB genutzt werden könnten inklusive DLSS 3 (grob 1-1,5GB mehr in Gebrauch). Also in meinem Augen sinniger, als eine 3070/70 Ti mit 16GB.

Die fehlende Bandbreite am kleinen SI dürfte durch den 32MB großen L2 Cache ordentlich kompensiert werden.

Die MSRP dürfte hier bei 499-549 USD liegen, wobei letzteres natürlich kein guter Deal wäre, wenn man es mit einer Basis 4070 vergleicht, die grob 30% drauf legen müsste.

dildo4u
2023-05-09, 09:37:52
Welcher Blödsinn? 16GB sind doch okay. Wir hatten das damals schon: Nur weil etwas mehr Speicher hat, muss es nicht teurer sein. Ein iPhone Pro mit 128GB kostet auch mehr als ein iPhone mit 512GB.
Die 3060 altert besser als 3070 TI die das doppelte kostet.
800€ für 12 GB sind absurd für 4070 TI.

Exxtreme
2023-05-09, 09:41:35
Welcher Blödsinn? 16GB sind doch okay. Wir hatten das damals schon: Nur weil etwas mehr Speicher hat, muss es nicht teurer sein. Ein iPhone Pro mit 128GB kostet auch mehr als ein iPhone mit 512GB.

16 GB für die 4060Ti sind in der Tat sehr OK. Die 12 GB für die 4070-Serie aber nicht.

DrFreaK666
2023-05-09, 09:47:09
Die 4070 wird die nächste 3070. Wie überraschend

Edgecrusher86
2023-05-09, 09:55:59
Die 3060 altert besser als 3070 TI die das doppelte kostet.
800€ für 12 GB sind absurd für 4070 TI.

Noch eher 900€.

Troyan
2023-05-09, 10:02:27
16 GB für die 4060Ti sind in der Tat sehr OK. Die 12 GB für die 4070-Serie aber nicht.

Die 12GB sind vollkommen ausreichend. TLoU bleibt in 4K bei exakt 12GB nach der Patchrunde der letzten Wochen.

Edgecrusher86
2023-05-09, 10:08:12
Und man sollte auch bedenken, dass die 70er Karten zumeist in WQHD mit maximalen settings Verwendung finden. 8GB gab es halt schon in dritter Generation (2016-2021). Ich gehe davon aus, dass 12GB auch in zwei Jahren unterhalb 4K noch OK sein werden, mit hier und da kleineren Abstrichen (Hohe Details statt Ultra etwa). 16GB wird erst die 5070 / Ti sinnvoll nutzen können von der Rohrleistung her. Mal schauen, ob Jensen nicht doch noch mindestens eine weitere Generation mit 12GB plant. ^^