PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4070 Ti tritt am 5. Januar für (abgesenkte) 799 Dollar ...


Leonidas
2022-12-30, 08:24:44
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-ti-tritt-am-5-januar-fuer-abgesenkte-799-dollar-listenpreis

TheGood
2022-12-30, 09:12:21
DAs PRoblem wird sein dass die KArte für einen langfristigen Einsatz mit den 12 GB völlig zu klein sein wird. Das wird eher zuschlagen als der MEhrwert von Raytracing. Welcher, nach manchen Forumsbesucher, ja nach zwei Jahre nicht mehr gegeben ist, falls es wieder einen großen Sprung gibt. Denn dann sind alle anderen Karten ja direkter Schrott...

Gast
2022-12-30, 09:29:16
1000 Euro für eine 4070/ti. Na dann. Ohne mich, definitiv. Den Herstellern geht es noch zu gut. Anscheinend wollen die Crash erzwingen.

Gast
2022-12-30, 09:43:06
DAs PRoblem wird sein dass die KArte für einen langfristigen Einsatz mit den 12 GB völlig zu klein sein wird. Das wird eher zuschlagen als der MEhrwert von Raytracing. Welcher, nach manchen Forumsbesucher, ja nach zwei Jahre nicht mehr gegeben ist, falls es wieder einen großen Sprung gibt. Denn dann sind alle anderen Karten ja direkter Schrott...
Dafür ist die 7900xt zu lahm. Vram hilft da auch nicht und erhöht nur sinnlos die TBP. War bei der 6800 schon so. Die brauchte nie um nimmer 16gib.

bestMAN
2022-12-30, 10:40:56
Das Problem mit den 12 GB Speicher sehe ich nicht so, ist die 4070ti doch der Nachfolger der 3070/3070ti und hat 50% mehr Speicher als diese, ja sogar noch mehr oder gleich viel Speicher als eine 3080.

Rüsten denn alle ihre Monitore auf und verwenden nun 4k oder stellen ihre Texturen auf Ultra?

Oder geht es um mehr FPS, die Rohleistung wird definitiv hoch sein.

nvidia geht in meinen Augen sinnvoll mit Speicher um.
Der Vorsprung an Speicher von AMD-Karten geht nicht einher mit einer Steigerung an FPS im Vergleich zu grünen Karten.

Allerdings ist eine 4070ti erheblich teurer geworden, ich werde sie nicht kaufen.

Lowkey
2022-12-30, 10:53:27
Die gesamte Hardwarewelt dreht sich gerade um die Frage, ob die hohen Preise durch hohe Herstellungskosten entstehen oder durch einfaches Anheben der Preise.

Dorn
2022-12-30, 10:59:04
Ein kleiner Schritt in die richtige Richtung, auf jeden Fall wird somit Druck auf die 7900XT aufgebaut. Diese Karte sehe ich bald bei 750 Dollar (UVP).

Mark3Dfx
2022-12-30, 11:24:49
799$ sind bei nV bei einem Kurs von aktuell 1€ = 1,07$....1.000€?
Für ne xx70er Karte

Genau mein Humor :ulol:

DonnieDarko83
2022-12-30, 11:50:06
799$ sind bei nV bei einem Kurs von aktuell 1€ = 1,07$....1.000€?
Für ne xx70er Karte

Genau mein Humor :ulol:

Mit Kurs heute + MwSt sollten es eher 899€ werden ;)

Gast
2022-12-30, 11:52:36
Ach, inzwischen finde ich die Preise von Nvidia gar nicht mehr so schlimm.
Immer noch besser als das, was AMD bietet.

Ich denke dadurch ist Lowkeys Frage teilweise beantwortet, die Herstellerkosten werden so hoch sein.

Bin gespannt wie die 4070TI abschneidet und entscheide mich dann zwischen 4070TI und 4080. Wird die 4070TI aber wirklich einen hunderter günstiger als befürchtet wird es wohl die 4070TI werden. 800 Dollar wären 900 Euro - klingt doch gar nicht so schlecht, wenn man schaut was man sonst bekommt.
Für WQHD ist die 4080 übertrieben. Und 1350 Euro ist mir für eine Grafikkarte eigentlich auch zu teuer.

Gast
2022-12-30, 12:07:44
Eigentlich eher 888€

Gast
2022-12-30, 12:30:22
Aus meiner Sicht ist die 4070ti selbst zu dem Preis Innerhalb des Nvidia-Preisgefüges noch 100 $ zu teuer.

Wenn wenn man 4080 und 4090 als Nachfolger auf den jeweils ähnlichen Preispunkten betrachtet gibt es immerhin 20+ Prozentpunkte beim P/P- Verhältnis oben drauf.

Demnach müsste die 4070ti für maximal 699$ ins Rennen gehen um wenigstens halbwegs vergleichbar beim P/P-Verhältnis zuzulegen.

Leonidas
2022-12-30, 13:21:13
4070Ti Specs & Benchmarks auf nVidia-Webseite, gefunden von Momomo @ Twitter:
https://twitter.com/momomo_us/status/1608743452904390656
müsste eigentlich live zu sehen sein hier: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/
https://pbs.twimg.com/media/FlNnpFWacAEmr2I?format=jpg

GerryB
2022-12-30, 13:24:33
Dafür ist die 7900xt zu lahm. Vram hilft da auch nicht und erhöht nur sinnlos die TBP. War bei der 6800 schon so. Die brauchte nie um nimmer 16gib.
may be, but

derzeit gibts ja nur die alten Leaks zur 4070Ti (4080-12)
mit groooßem Abstand zur 4080, den die 7900XT in den geleakten Games net hat

also eher würde ich sagen, in Raster ist ne XT für 999€ ganz gut positioniert gegen wahrscheinlich überteuerte 4070Ti-OC Modelle
bei den Customs
Meine Glaskugel sagt, nur beim Launch gibts nonOC-Modelle <1000€ kurz danach nur noch OC-Modelle>1000€. oder!?
(bei der XT gabs die Merc Black im MS für 1049€, nach m.E. ne gute Investition in mehr Laufruhe wg. dem guten Kühler)

btw.
beim Vram der XT kommts vor Allem auf OCen an, was gut zu funzen scheint, wenn man mit UV/OCen ne Skalierung zum GPU-Takt braucht
29k im TS ist ganz gut vgl. mit Stock 25k (im Anhang ne Ref im TS)
weniger Bandbreite reicht für die Rohleistung der XT net aus,... alternativ wäre also nur 10GB Vram gegangen (als nonXT)
bei gleich viel RamChips halber Größe spart das keine 5W

GerryB
2022-12-30, 14:00:11
just für fun

die 6800nonXT verbraucht in CP2077 4k@FSR2-perf. bei chill57fps
mit UVten= ca 15W beim Vram (ohne SOC)

Bildausschnitt siehe Anhang (Werte im Benchmark per HWinfo)

TheGood
2022-12-30, 14:37:18
Dafür ist die 7900xt zu lahm. Vram hilft da auch nicht und erhöht nur sinnlos die TBP. War bei der 6800 schon so. Die brauchte nie um nimmer 16gib.

Wenn ich Nvidia hörig bin und mich alle zwei Jahre abzocken lassen will, dann stimmt deine Aussage.
Ausgeschlossen die Leute die tatsächlich alle zwei Jahre mit der Mehrperformance auch produktiv was anfangen können.
Ansonsten nicht.

Platos
2022-12-30, 14:42:38
Die Karte ist immer noch viel zu teuer. 2 Szenario:

Man betrachtet die Karte (wieso auch immer) als 3080 Nachfolger: Schlecht, kein richtiger Fortschritt. Die Karte müsste trotzdem maximal 699 kosten (in Euro), damit es wenigstens ein bisschen was an Fortschritt gäbe.

Aber eig. ist es natürlich eher ein 3070 Nachfolger: Dann ist es nicht viel besser :D Das selbe gilt. die Karte müsste einiges billiger sein.

Für den entsprechenden Preis wäre sie vlt. sogar noch ok, selbst mit 12GB. Aber den Preis hat sie nicht mal Ansatzweise.

Je nach Leistung der Karte, darf sie maximal 599-699 Euro kosten.

GerryB
2022-12-30, 15:03:21
Guter Punkt, ... es gibt ja sogar ne 3080-12, wo man dann in Darktide gar net mehr soviel schneller wäre mit der 4070Ti.
Da sinds dann vllt. net 75% mehr wie ggü. der 3080-10 sondern nur 50-60%!?

Knuddelbearli
2022-12-30, 15:16:49
Zwar mag der Preissprung aus Sicht von nVidia-Käufern immer noch zu klein sein, aber wenigstens wird damit AMD unter Druck gesetzt, sich bei der Radeon RX 7900 XT preislich zu bewegen.

hat nicht eher AMD dafür gesorgt, das sich NV jetzt bewegen musste?

Leonidas
2022-12-30, 15:17:27
Guter Punkt, ... es gibt ja sogar ne 3080-12, wo man dann in Darktide gar net mehr soviel schneller wäre mit der 4070Ti.

Vorausschauenderweise hat NV die 3080-12G schon so gut wie vom Markt genommen, die hat derzeit Mondpreise ab 1200 Euro.

GerryB
2022-12-30, 15:28:32
Ist ja auch nur techwise mal interessant, wie dann die Gens in der IPC so dastehen.
man stelle sich mal einen Shrink der 3080-12 auf 4N vor mit 30% mehr Takt

Platos
2022-12-30, 16:06:27
hat nicht eher AMD dafür gesorgt, das sich NV jetzt bewegen musste?

Ähh ne? Sie haben erreicht, dass die 4080 von einigen sogar noch als "auf einmal nicht mehr so teuer" angesehen werden.

Lehdro
2022-12-30, 17:57:48
Ähh ne? Sie haben erreicht, dass die 4080 von einigen sogar noch als "auf einmal nicht mehr so teuer" angesehen werden.
Und trotzdem unter den UVP gesunken ist, sollte man nicht vergessen.

Wäre schön wenn das mal durch die Bank passieren würde...

Gast
2022-12-30, 18:02:48
Bei 16k $ pro Wafer kostet der AD104-Chip etwa 100$. Die Preiserhöhung der 4070 Ti auf 799$ gegenüber der 3070 Ti (599$), deren Chip ein Drittel größer ist, beträgt das Doppelte davon.

AMDip
2022-12-30, 18:47:16
Wenn ich Nvidia hörig bin und mich alle zwei Jahre abzocken lassen will, dann stimmt deine Aussage.
Ausgeschlossen die Leute die tatsächlich alle zwei Jahre mit der Mehrperformance auch produktiv was anfangen können.
Ansonsten nicht.
Du beschreibst eigentlich AMD aber schreibst Nvidia.
Wer muss sich 2 Jahre später neue Karten kaufen, AMD oder Nvidia User?
Alle ab 3060 können bis zur nächsten Konsolengeneration prima Spielen, für alle die AMD Karten haben und vielleicht nicht die Top Modelle wird das bald ziemlich eng außer sie wollen nochmal ein paar Jahre RT Deaktivieren, oder das was du anderen vorwirfst, schon wieder neue Karte kaufen müssen.

Lehdro
2022-12-30, 18:57:01
Das Argument macht so oder so keinen Sinn. Denn auch AMDler müssen nicht upgraden, besteht doch die Konsolengeneration aus eben dieser Hardware - was also das "normale" Hardwarelevel bis zur nächsten Konsolengeneration festnagelt. Es sei denn du bist der Meinung das Gaming ohne RT (high) nichts wert ist - dann schließt du aber so oder so eine riesige Menge an Spielern aus. Also nonsens.

Abgezockt werden wie immer nur Käufer von Krüppelkarten, also solche mit fest eingebautem Verfallsdatum (teilweise bei Release schon erreicht):
RTX 2060 mit 6 GiB
RX 6500XT/6400
Für höhere Settings stehen dann bald 8 GiB und 10 GiB Karten der letzten Generationen auf der Kippe - aber die Grundleistung dieser Karten wird wohl noch länger reichen wenn man die Regler bedienen kann.

Gast
2022-12-30, 19:19:30
Bei 16k $ pro Wafer kostet der AD104-Chip etwa 100$. Die Preiserhöhung der 4070 Ti auf 799$ gegenüber der 3070 Ti (599$), deren Chip ein Drittel größer ist, beträgt das Doppelte davon.

Das hier!

Gast
2022-12-30, 19:35:50
Abgezockt werden wie immer nur Käufer von Krüppelkarten, also solche mit fest eingebautem Verfallsdatum (teilweise bei Release schon erreicht):
RTX 2060 mit 6 GiB
RX 6500XT/6400
Für höhere Settings stehen dann bald 8 GiB und 10 GiB Karten der letzten Generationen auf der Kippe - aber die Grundleistung dieser Karten wird wohl noch länger reichen wenn man die Regler bedienen kann.

Das ist quatsch mit Sauce was du hier erzählst. Ich habe selbst Anfang 2022 eine gebrauchte gebrauchte RTX 2060 mit 6 GB und 1,5 Jahren Restgarantie für 240€ geschossen. Das war Preis/Leistung das Beste was man auf dem Markt bekommen konnte, insbesondere für VR wo AMD unbrauchbar war mit der RX 6000 Serie.

Ich bin zufrieden mit der Graka, meine Games laufen einwandfrei. Mein Top Samsung TV mit 75 Zoll macht ein sehr gutes Upscaling von FHD auf 4K, wenn es sein müsste.

Man muss sich nicht immer von Marketing und Industrie blenden lassen. Viele gute Games laufen auch ohne 2K Grafikkarten anständig.

Prinzenrolle
2022-12-30, 22:26:20
DAs PRoblem wird sein dass die KArte für einen langfristigen Einsatz mit den 12 GB völlig zu klein sein wird. Das wird eher zuschlagen als der MEhrwert von Raytracing.

Perfekte Karte für WQHD oder UWQHD für die nächsten 3 bis 4 Jahre ohne VRam Probleme.

Deutlich besser als ne 7900XT und sehr wahrscheinlich auch schneller.

Gast
2022-12-30, 23:54:37
DAs PRoblem wird sein dass die KArte für einen langfristigen Einsatz mit den 12 GB völlig zu klein sein wird. Das wird eher zuschlagen als der MEhrwert von Raytracing. Welcher, nach manchen Forumsbesucher, ja nach zwei Jahre nicht mehr gegeben ist, falls es wieder einen großen Sprung gibt. Denn dann sind alle anderen Karten ja direkter Schrott...
Für 4K sind die 12GB zu klein.
Für WQHD wird das locker 4 Jahre reichen.

Aber klar, das + an Vram ist ja das einzige was AMD zu bieten hat.
Dass die Karten lauter sind, heißer sind, in RT deutlich langsamer sind, irre saufen (50-100W mehr pro Stunde - egal was du so treibst am Rechner) und dadurch preislich viel teurer sind - egal.
Immerhin gibt es mehr Vram.
Wenn einem der Verbrauch egal ist und man Bock hat massig Kohle auszugeben kann man auch ne 4080 oder 4090 kaufen. Der Mehrpreis der 4080 hat man nach 2,3 Jahren wieder drin.
Wenn man weniger ausgeben will - und nicht 50-100 Euro pro Jahr an Stromkosten draufzahlen will - bleibt die 4070TI.

Eine perfekte Karte? Nein, zu teuer.
Wie die 4080 eben auch.
Aber eben immer noch besser als alles was AMD so bietet.

Aber wer weiß, vielleicht kommt ja eine attraktive 7800 oder 7800XT.
Nur: Falls die Sauferei beim arbeiten und surfen auch da so ist, dann gute Nacht.

In den sehr hohen Preisregionen kann man noch sagen: Scheiß drauf, kostet es halt 50 Euro mehr im Jahr.
Aber je günstiger die Karten werden desto schlimmer wird es.
"Geschenkt ist noch zu teuer" wird dann irgendwann das Motto.

Andererseits hat man im LowEnd Bereich dann auch nur einen einzelnen 60Hz FullHD Monitor. Dann ist das Problem mit dem viel zu hohen Verbrauch natürlich acuh weg und man kann AMD wieder kaufen.
Also eine 6500, 6600 oder so.

Knuddelbearli
2022-12-31, 00:19:19
Ähh ne? Sie haben erreicht, dass die 4080 von einigen sogar noch als "auf einmal nicht mehr so teuer" angesehen werden.

Und haben eben dafür gesorgt, dass NV jetzt um 100$ herunter gehen musste.

Gast
2022-12-31, 00:38:27
Andererseits hat man im LowEnd Bereich dann auch nur einen einzelnen 60Hz FullHD Monitor. Dann ist das Problem mit dem viel zu hohen Verbrauch natürlich acuh weg und man kann AMD wieder kaufen.

17W @4K 120Hz ist doch nicht hoch.
https://youtu.be/21KxGcB8gQE?t=873

Hayab
2022-12-31, 00:55:00
450-480US$ waere okay

BlacKi
2022-12-31, 01:27:29
Und haben eben dafür gesorgt, dass NV jetzt um 100$ herunter gehen musste.die 12gb 4080 wurde schon vor der xt oder xtx gecancelled. am 14.10. amd hat damit nichts zu tun. nv sagt selbst, das die doppelte namensgebung nicht passend war. dem stimmt sicher jeder zu. und der preis der 4070ti und der 4080 16gb (uvp) waren/sind viel zu teuer, wenn die 4090 ein besseres performance/euro verhältnis hat.

GerryB
2022-12-31, 02:18:51
Also das ne 4080 für 1299€ im MS landet, zeigt doch das einige NV-AIB´s am nachdenken sind.

Das wünsche ich mir für Beide Colours im neuen Jahr, Guten (preis)Rutsch!

Dovregubben
2022-12-31, 02:24:49
Wäre mal interessant was man einsparen könnte, wenn man ne 4080 mit geringeren Powertarget und damit kleinerer Stromversorgung und Kühlung rausbringt. Vermutlich hat Nvidia aber Min-Specs definiert.

Neosix
2022-12-31, 05:55:55
Bin schon sehr extrem auf die Preise gespannt. Auf der einen Seite das fehlen einer FE wird die Preise am Anfang garantiert über 1000€ treiben. Auf der anderen Seite wenn die 4080 weiter im Preis fällt gibt's natürlich Druck von oben. Plus die AMD Karten die bei der Raster Performance schneller sind.

Gast
2022-12-31, 10:18:08
17W @4K 120Hz ist doch nicht hoch.
https://youtu.be/21KxGcB8gQE?t=873

Ist ja auch erst ab 144 so. Spielt du am Speicher umher geht's auf 100w idle hoch. Wäre nichts für mich, ich denke das liegt komplett am Treiber, vermurkst.

Gleiches trifft ja auf den Shadercompiler zu und einen Bug hat die erste Revision anscheinend auch, der über den Treiber kaschiert wird.

Alles in allem ist mir das keine 1000 Euro aufwärts wert. Sry AMD. Ich enstamme der Vega Generation und die vielen Versprechungen das sich zukünftig die Leistung noch steigert, wurde nirgends eingehalten.

RDNA3 besitzt Potential, ich glaube aber das man dies in dieser Gen nicht abrufen kann. Egal was man am Treiber schraubt.

Zudem habe ich als Käufer und Anwender nicht ständig Lust, Stunden oder Tage an der Hardware zu verbringen, das ist Aufgabe des Herstellers eine annehmbare, stabile Leistung zu liefern.

Das ist bei RDNA3 derzeit alles andere als der Fall. Wieder viel Potential verschenkt. Das ist AMDs größtes Problem.

NVidia kann nur so teuer sein, weil AMD einfach so schwach ist und die Leistung nicht auf die Strasse bringt. Daher kaufe ich nicht zum gleichen Preis AMD. Habe aus Vega gelernt. Halbfertige Produkte sind nicht so schnell wie ausgereifte. Das ist das Fazit.

Tut mir Leid. 12 Gib der 4070ti reichen auch die nächsten 2 bis 3 Jahre noch für alles. 4k ist doch kaum ein Thema unter der Masse der Gamer.

SkybeAT
2022-12-31, 10:48:06
Für 4K sind die 12GB zu klein.
Für WQHD wird das locker 4 Jahre reichen.

Aber klar, das + an Vram ist ja das einzige was AMD zu bieten hat.
Dass die Karten lauter sind, heißer sind, in RT deutlich langsamer sind, irre saufen (50-100W mehr pro Stunde - egal was du so treibst am Rechner) und dadurch preislich viel teurer sind - egal.
Immerhin gibt es mehr Vram.
Wenn einem der Verbrauch egal ist und man Bock hat massig Kohle auszugeben kann man auch ne 4080 oder 4090 kaufen. Der Mehrpreis der 4080 hat man nach 2,3 Jahren wieder drin.
Wenn man weniger ausgeben will - und nicht 50-100 Euro pro Jahr an Stromkosten draufzahlen will - bleibt die 4070TI.

Eine perfekte Karte? Nein, zu teuer.
Wie die 4080 eben auch.
Aber eben immer noch besser als alles was AMD so bietet.

Aber wer weiß, vielleicht kommt ja eine attraktive 7800 oder 7800XT.
Nur: Falls die Sauferei beim arbeiten und surfen auch da so ist, dann gute Nacht.

In den sehr hohen Preisregionen kann man noch sagen: Scheiß drauf, kostet es halt 50 Euro mehr im Jahr.
Aber je günstiger die Karten werden desto schlimmer wird es.
"Geschenkt ist noch zu teuer" wird dann irgendwann das Motto.

Andererseits hat man im LowEnd Bereich dann auch nur einen einzelnen 60Hz FullHD Monitor. Dann ist das Problem mit dem viel zu hohen Verbrauch natürlich acuh weg und man kann AMD wieder kaufen.
Also eine 6500, 6600 oder so.

Warum muss es immer so einseitig sein.
Ich spiele nicht im LowEnd (5800x3D + 6950xt) und habe auch nur einen einzigen Monitor.
Ich kenne selber im privaten Umfeld nur 4 Personen die mehr als einen Monitor nutzen. Aber im gegenzug locker 30 Personen die nur einen Monitor haben. Und nun?

Den Testberichten nach würde eine 7900xtx vs. 4080 bei meiner Nutzung ca. 15€ pro Jahr an Strom mehr kosten, bei aktuell 34cent/kwh. Da brauch ich zumindest nicht weiter drüber Nachdenken.

Und auch der Punkt an RT ist in meinem Fall zu vernachlässigen. Es gibt aktuell für mich kein Spiel, wo mir RT richtig gut gefällt und ich keine Leistung dafür habe. Meist ist RT kaum sichtbar (bsp. WoW), dann nutze ich es auch nicht oder in meinen Augen übertrieben (CP77) und lasse es deswegen auch aus.
Zumal ja mit der 5000 Generation die RT Leistung der 4000 Gen schlagartig unbrauchbar wird. Zumindest habe ich das so bei der 3000 Gen mitbekommen.

Immer alles schlecht reden, versteh ich nicht.

Schlecht sind in meinen Augen nur die Preise, von allen neuen Karten. Die Leistungen sind aber bei beiden Herstellern gut bis sehr gut.

NOFX
2022-12-31, 11:45:30
Bei 16k $ pro Wafer kostet der AD104-Chip etwa 100$. Die Preiserhöhung der 4070 Ti auf 799$ gegenüber der 3070 Ti (599$), deren Chip ein Drittel größer ist, beträgt das Doppelte davon.Dadurch dass Margen relativ und nicht absolut angesetzt werden, sorgt aber dafür, dass die Rechnung nicht passt.

Eine 2000€ Karte darf ja keine 1900€ kosten, nur weil eine 200€ Karte 100€ kosten, um das mal zu verdeutlichen.


Den Trend im Allgemeinen finde ich aber auch sehr negativ, insbesondere weil es im Bereich unter 1000€ gefühlt nur noch halbgare Lösungen gibt.

Gast
2022-12-31, 11:57:00
Ich kenne selber im privaten Umfeld nur 4 Personen die mehr als einen Monitor nutzen. Aber im gegenzug locker 30 Personen die nur einen Monitor haben. Und nun?

Den Testberichten nach würde eine 7900xtx vs. 4080 bei meiner Nutzung ca. 15€ pro Jahr an Strom mehr kosten, bei aktuell 34cent/kwh. Da brauch ich zumindest nicht weiter drüber Nachdenken.


Das stimmt dann natürlich.
Ich kenne im Freundeskreis keinen einzigen mehr, der nur einen Monitor hat und gehe davon aus, dass Enthusiasten (jeder der 1000 Euro+ für eine Grafikkarte ausgibt ist das für mich) kaum mit ner FullHD Möhre rumläuft. Vielleicht täusche ich mich da, aber wozu braucht man LowEnd Monitoren so eine "Monster"Grafikkarte?

Ich habe weiter unten ja geschrieben, dass es für 60Hz FullHD Leute tatsächlich egal ist und eine 7500/7600 dann wieder gut passt.

Mich nervt es aber, dass - selbst hier im Forum - die exorbitanten Stromverbräuche der RDNA3 Karten meist gar nicht erwähnt werden sondern im Vergleich 4080 vs 7900XT/X es meist heißt: Kostet weniger.
Wenn das für viele Usercases einfach nicht stimmt.

Wenn man das eigene Verhalten und Setup prüft und dann merkt: Kostet mich kaum mehr Strom - super!
Aber die meisten ignorieren die Stromverbräuche eben total oder wissen gar nicht, dass die Dinger nicht nur beim zocken viel verbrauchen. (Wo es ja noch halbwegs egal ist, ob man 50W oder auch 100W mehr oder weniger braucht.)

Unsere Gesellschaft ist einfach dämlich und Betriebskosten interessieren die Leute nicht.
Woher vermutlich dann auch die ganzen I-Phone Käufe kommen, bei denen man monatlich was zahlt.
Oh, sind ja nur 30 Euro im Monat (oder wieviel auch immer). Das das Ding dann am Ende 1500 Euro kostet? Interessiert nicht.
Und so interessiert eben auch keinen, ob man - bei entsprechendem Setup und Nutzung - dann für die 7900XTX nach 4 Jahren 200 Euro MEHR bezahlt hat als für die 4080. Nö, die 7900XTX ist preiswerter, weil ja der Anschaffungspreis niedriger ist.

Diese Dummheit nervt mich - und sorgt ganz nebenbei auch dafür, dass die Firmen sich einen Scheiß um Verbrauch und Betriebskosten interessieren.
Wenn es bei der Produktion 2 Euro spart und man etwas um 10 Euro günstiger verkaufen kann, dafür dann aber 30 Euro Betriebskosten dazu kommen? Geiler Deal, denn die Käufer interessieren sich nur für die 10 Euro die sie beim Kauf sparen können. Und scheißen auf die 30 Euro zusätzliche Betriebskosten.

Das verschwendet Ressourcen und kostet die dämlichen Konsumenten richtig Geld.
Und nicht nur die, denn die anderen Konsumenten leiden auch darunter. Entweder weil es alle Hersteller so machen oder auch nur weil mögliche Konkurrenzprodukte wegfallen und dadurch weniger Optionen beim Kauf übrig bleiben.
Und das ist ganz aktuell ein tolles Beispiel. Für 2-Monitore oder 4K 144Hz oder ähnliches Setup bleibt (falls der PC nicht gerade nur 1-2 Stunden am Tag an ist) nur die 4080 übrig. Auch wenn mich RT, DLSS und so weiter 0 interessiert disqualifiziert sich AMD selber.
Wow, geil, ich darf Nvidia 1400 Euro für eine Grafikkarte bezahlen.
Super, ein Traum.
Und warum? Weil sich fast kein Test mit dem Saufen beschäftigt.
Weil der saufende Dreck trotzdem gekauft wird.

Es geht gar nicht darum, ob eine Karte 20% schneller oder langsamer ist.
Aber wie zum Teufel kann es sein, dass RDNA3 plötzlich beim YT schauen säuft wie ein Loch, was bei RDNA2 noch gar kein Problem war?
Wie kann es sein, dass es AMD einen scheiß interessiert, dass ihre Karten beim normalen nutzen (nicht-gamen) Strom ziehen bis zum geht nicht mehr?
Das ist einfach nur Faulheit von AMD, RDNA2 beweist ja, dass es anders gegangen wäre. (Nvidia beweist es ebenfalls...)
Und keine Sau interessiert es???

AMDip
2022-12-31, 12:45:54
Das Argument macht so oder so keinen Sinn. Denn auch AMDler müssen nicht upgraden, besteht doch die Konsolengeneration aus eben dieser Hardware - was also das "normale" Hardwarelevel bis zur nächsten Konsolengeneration festnagelt. Es sei denn du bist der Meinung das Gaming ohne RT (high) nichts wert ist - dann schließt du aber so oder so eine riesige Menge an Spielern aus. Also nonsens.

Abgezockt werden wie immer nur Käufer von Krüppelkarten, also solche mit fest eingebautem Verfallsdatum (teilweise bei Release schon erreicht):
RTX 2060 mit 6 GiB
RX 6500XT/6400
Für höhere Settings stehen dann bald 8 GiB und 10 GiB Karten der letzten Generationen auf der Kippe - aber die Grundleistung dieser Karten wird wohl noch länger reichen wenn man die Regler bedienen kann.
Es wird dich vielleicht überraschen aber die Konsolen Spiele nutzen oft nicht die Selben Settings wie auf dem PC.
So lange nicht zu viel RT wie bei Spidermann zum Einsatz kommt geht das auch auf den Konsolen klar ja und auch auf 6xxx Karten.

Das mit dem Speicher lesen wir hier im Forum seit 10 Jahren.
Die Konsolen haben Max 16GB Ram für alles...
Ram ist nicht alles, außerdem hat unser System min. 16GB Arbeitsspeicher was mit 8GB GPU Ram denke ich noch ne ganze weile ausreichen sollte.

Ansonsten guck dir gerne die Benchmarkts an,
6700 XT kommt knapp an eine 3070 ran
hat 1% mehr Performance als eine 3060ti (4K)
ein paar wenige Prozent mehr in FullHD/1440p

Dafür ist sie in Raytracing 45-63% langsamer
Und von der besseren Qualität von DLSS wollen wir erst gar nicht sprechen.
In Metro erreicht die 6700 in FullHD keine 60FPS.

Wie du siehst, was bringt dir Ram wenn die Karte generell zu schwach ist.

Was viele inkl. mich abschreckt ist das man bei AMD Teilweise Studiert haben muss um da durchzusteigen, ich frage mich manchmal echt ob AMD vielleicht gar keine Marktanteile haben will anders kann ich mir das manchmal echt nicht erklären.

Aktuell bin ich am Modden und was hab ich die letzten Tage wieder gelesen,
AMD wird nicht unterstützt, AMD Kompatibilität aktuell nicht möglich.
Oder Kommentare wie, please AMD Compatible.

Wie frustrierend muss das sein wenn du auf Influencer hörst und sie dir sagen, Kauf die das ist 100x besser und dann willst du dir dein Spiel Modden und stellst fest: Och nöööööÖö

Gut dann nutzt du diesen Mod eben nicht alles gut aber so über die Jahre ist da einiges an Erfahrung zusammen gekommen ;)

AMD soll Innovationen bringen und nicht immer nur die Copycat Spielen.
Vulkan ist doch nett gewesen.
Ist ja nicht so als sei AMD ein kleiner Underdog mit dem ich irgendwie Mitleid haben müsste, AMD hat viele viele Jahre lang ein Monopol auf Konsolen GPU Chips gehabt, erst jetzt mit Nidia und Nintendo hat sich das geändert.

Rabiata
2022-12-31, 12:58:58
nvidia geht in meinen Augen sinnvoll mit Speicher um.
Der Vorsprung an Speicher von AMD-Karten geht nicht einher mit einer Steigerung an FPS im Vergleich zu grünen Karten.
Das Problem ist langfristig, irgendwann kommen die Karten ans Limit weil die Software immer anspruchsvoller wird. Bisher war es meist der VRAM, der zuerst knapp wurde. Siehe Nvidia GTX 1060 / 3GB oder AMD RX 6500. Geht man weiter zurück, habe ich auch noch Beispiele von meinen alten GraKas.

SkybeAT
2022-12-31, 14:02:13
Zitat gekürzt
Und keine Sau interessiert es???

Da wird erstmal ein Umdenken stattfinden müssen, beim Kunden und bei den Testern.
Bisher war es ja immer so, das die neue Generation ein besseres P/L hatte und effizenter war.
Bei AMD derzeit nicht. Evtl mit dem letzten Treiber bzw den noch kommenden. Aber aktuell nicht.

Ich nutze einen 34" mit UWQHD. Die 6950xt ist von der Leistung super, vom Verbrauch auch. Gibt aktuell keinen Grund wegen der Leistung umzusteigen.

Und falls doch (meine Karte ist derzeit in RMA wegen Rasseln und fiepen) würde ich wohl die 7900xt nehmen.
Der Grund ist der Kaufpreis, die Größe und auch weil ich nicht möchte das AMD weiter zurückfällt.
Mit der Leistung und dem Verbrauch der 7900xt kann ICH leben und würde mich deswegen so entscheiden.
Derzeit. Mal sehen was die 4070ti real kostet und wie sie meine Entscheidung verändern würde.

AMDip
2022-12-31, 14:20:36
Da wird erstmal ein Umdenken stattfinden müssen, beim Kunden und bei den Testern.
Bisher war es ja immer so, das die neue Generation ein besseres P/L hatte und effizenter war.
Bei AMD derzeit nicht. Evtl mit dem letzten Treiber bzw den noch kommenden. Aber aktuell nicht.

Hat Nvidia ja erklärt, es wird langsam Kritisch was Leistungssteigerung angeht, wir sind jetzt bei 4n und es wird schwieriger da mit alten Methoden noch mehr rauszuholen.
Die Zukunft ist aktuell in neuen Methoden wie RT, DLSS, DLSS3/Zwischenbildberechnung und vielleicht noch weiteren neuen Funktionen.

Sobald alle neuen dinge aktiviert werden sind die neuen karten auch mal mehrere 100% schneller :tongue:

GerryB
2022-12-31, 15:49:18
Real sollten beide Karten bei weitem weniger trennen, die letzte Performance-Schätzung zur GeForce RTX 4070 Ti ergibt ca. +12-15% gegenüber der GeForce RTX 3080 12GB.

Da hab ich doch nochmal aus Interesse gestöbert wie die 3080-12 mit etwas mehr W so performt, ... Suprim bei TomsHardware:
(skaliert tatsächlich noch gut mit mehr W, ... am Ende 35% schneller als ne 3070Ti)

Exxtreme
2022-12-31, 16:33:29
Sobald alle neuen dinge aktiviert werden sind die neuen karten auch mal mehrere 100% schneller :tongue:

Die Frage ist wann und ob das jemals in der Breite aktiviert wird. DLSS/FSR und RT sind derzeit absolute Nischentechnologien und werden wenn es hoch kommt von vielleicht 100 Spielen unterstützt. Bei DLSS/FSR sind es eher 40 Spiele denn 100. Die Frage ist halt wieder ob man mehrere hundert Euro extra für die Unterstützung dieser Nischentechnologien ausgibt oder nicht.

GerryB
2022-12-31, 16:49:06
Für 4k ist ein Upsampler echt gut zu gebrauchen, vor Allem im Sommer!
Die Verbreitung nimmt schneller zu als gedacht, ... sehe da keine Probleme.
(oder man nimmt einfach den Upsampler der UE5, die in Zukunft große Marktanteile haben wird)

bzgl. FSR3 bin ich gespannt wie die Latenzen sein werden, ... DLSS3 soll sich ja erst lohnen
falls man vorher 60fps@4k nativ schafft

Rabiata
2022-12-31, 18:28:49
... womit die teilweise doppelte Performance gegenüber einer GeForce RTX 3080 12GB einfach zu erklären ist. Real sollten beide Karten bei weitem weniger trennen, die letzte Performance-Schätzung zur GeForce RTX 4070 Ti ergibt ca. +12-15% gegenüber der GeForce RTX 3080 12GB.
Und nachdem die RTX 3080 12GB zum selben MSRP von $799 kommt, kann man die beiden Kärtchen auch direkt vergleichen. Die Straßenpreise waren dieses Jahr leider sehr verzerrt, sonst würde ich die als Maßstab bevorzugen.

Voraussichtlich 12-15% Performancegewinn und 65 W weniger TDP für die 4070 TI. Das ist nicht nichts, aber recht mager um Vorbesitzer einer guten RTX 3000er zu locken.

Ein Blick zu Team Rot zeigt eine leicht bessere Entwicklung, aber nicht viel besser. Von der 6900XT zur 7900 XT gibt es 24% Mehrperformance laut 4k - Index, denselben Verbrauch und $100 weniger MSRP. Grob 27% Verbesserung in P/L. Ich denke, den Treiber bekommt AMD noch gefixt. Solche Probleme sind auch der Grund, warum ich davon abrate, neue Technik sofort zu kaufen. Bei Intel ARC war das ja noch um einiges schlimmer.

ElectricLeaf
2022-12-31, 19:09:46
4070TI wohl für 1000€ und eine 970 gab es noch für 350€, finde den Fehler.

470 350€
570 350€
670 400€
770 390€
970 350€
1070 400€ (Ti 450€)
2070 650€ (Super 530€)
3070 500€ (TI 650€)
4070 ? (TI 1000€)


Wer Nvidia das bezahlt ist selbst schuld.

ChaosTM
2022-12-31, 19:50:31
OGMYe5AEMfg


Von ihm kommt zwar viel Unfug, aber das hier triffts auf den Punkt.

Die 4070ti ist nicht einmal eine 4070er wenn man es genau nimmt, geschweige denn eine 4080 12gb.

AMD mach aber genau den gleichen Scheiß, nur in Rot. :D

KriNemeth
2022-12-31, 20:03:16
4070TI wohl für 1000€ und eine 970 gab es noch für 350€, finde den Fehler.

470 350€
570 350€
670 400€
770 390€
970 350€
1070 400€ (Ti 450€)
2070 650€ (Super 530€)
3070 500€ (TI 650€)
4070 ? (TI 1000€)


Wer Nvidia das bezahlt ist selbst schuld.

Der Fehler ist nach den Namen zu gehen, wir müssen damit leben, dass sich der mooresche Zyklus extrem verlangsamt hat. Man bekommt nicht mehr so schnell mehr Leistung für eine günstigeren Preis, wie früher. Klar erklärt es das nicht allein, aber wir leben auch in einer anderen Zeit als vor 15 Jahren.

Linmoum
2022-12-31, 20:10:54
4070TI wohl für 1000€ und eine 970 gab es noch für 350€, finde den Fehler.

470 350€
570 350€
670 400€
770 390€
970 350€
1070 400€ (Ti 450€)
2070 650€ (Super 530€)
3070 500€ (TI 650€)
4070 ? (TI 1000€)


Wer Nvidia das bezahlt ist selbst schuld.
$799 wären aktuell inkl. 19% Umsatzsteuer ~887€. Keine Ahnung, warum hier in jedem zweiten Beitrag "1000€" genannt werden.

Aber unabhängig davon ist das preislich sowohl von Nvidia, als auch AMD nicht gutzuheißen. Traurigerweise ist es immer noch die 4090, die von beiden Line-Ups (unter Berücksichtigung des "Top-Dog"-Status und der Tatsache, dass das Ding ein >600mm² riesiger Chip ist) am sinnvollsten bepreist ist. Dass die schnellste und mit Abstand teuerste Grafikkarte in Sachen "Preis/Leistung" so weit oben mitspielt, sagt schon alles darüber aus, wie beide Hersteller den Rest ihrer Karten positioniert haben.

ChaosTM
2022-12-31, 20:24:21
Jop, traurig aber wahr. Die 90er ist relativ gesehen noch die "vernünftigste" der derzeit erhältlichen Karten, trotz des irren Preises.
Spricht nicht gerade für die Bepreisung der anderen Karten.

Dank Duopol ist man aber sehr eingeschränkt. Entweder man verzichtet auf einiges oder greift tief in die Tasche.
Das treibt garantiert viel rüber zu den Konsolen. Da kriegst zum Preis deutlich unter dem der Grakas alleine, "4k" und rudimentäres RT, das teilweise sogar recht brauchbar ist.

AMDip
2023-01-01, 12:38:41
Die Frage ist wann und ob das jemals in der Breite aktiviert wird. DLSS/FSR und RT sind derzeit absolute Nischentechnologien und werden wenn es hoch kommt von vielleicht 100 Spielen unterstützt. Bei DLSS/FSR sind es eher 40 Spiele denn 100. Die Frage ist halt wieder ob man mehrere hundert Euro extra für die Unterstützung dieser Nischentechnologien ausgibt oder nicht.
https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
Laut dem hier hatten wir schon im Sommer 260 DLSS Spiele&Apps. + 380 games & apps mit RTX.

Ich bin jetzt auch nicht der alles Spieler aber haben gefühlt nicht fast alle RT Spiele DLSS? Und auch die meisten neuen AAA oder Beliebten ältere wie Fortnite oder CoD?

Die Frage ist nicht ob man das will sondern wir müssen.
Ich weiß viele wehren sich dagegen aber dieser Weg ist unausweichlich, die Konsolen machen es, die Aktuellen Spiele gehen immer mehr darauf, und die Fertigung kommt bald zum Ende.

Was gibt es denn für Alternativen?
Willst du 2x 522nm Chips auf ein Board Packen und für 9090 5000€ oder eine 9080 für schlappe 4000€?

Auf der einen Seite wollen die Freaks (nicht der normalverbraucher) immer mehr Leistung, immer mehr Auflösung, mehr Ram, von allem immer mehr,
auf der anderen Seite darf es am besten kein Strom Kosten, neue Funktionen sind auch nur erlaubt wenn sie von AMD erfunden wurden oder AMD da schneller ist (Joke)
und natürlich soll das ganze am besten so günstig wie vor 10 Jahren sein.

BlacKi
2023-01-01, 12:48:02
Jop, traurig aber wahr. Die 90er ist relativ gesehen noch die "vernünftigste" der derzeit erhältlichen Karten, trotz des irren Preises.


wie kommt man darauf? uvp preise? aber das würde nur auf die 4080 zutreffen.


die 4090 hat von den 3 karten den schlechtesten wert in perf/euro beim straßenpreis und die 4070ti ist wohl die beste. trotz 4k auflösung. wohl auch auch mit straßenpreisen.

MAX|HASS
2023-01-01, 13:44:46
Kennt vielleicht der eine oder andere, aber hier hat man sich an einer Einordnung probiert, welche der Karten derzeit ganz gut dasteht

https://www.computerbase.de/2022-12/amd-nvidia-grafikkarten-preis-leistungs-ranking/

Platos
2023-01-01, 14:12:35
ja und Fazit daraus ist, sowohl in Raster als auch in RT 4k sind die Vorgänger besser im P/L.

Bestätigt nur das, was man auch in Leonidas Launch Analyse sieht.

Eine miserable Generation von AMD und nvidia

ChaosTM
2023-01-01, 14:32:03
wie kommt man darauf? uvp preise? aber das würde nur auf die 4080 zutreffen.


die 4090 hat von den 3 karten den schlechtesten wert in perf/euro beim straßenpreis und die 4070ti ist wohl die beste. trotz 4k auflösung. wohl auch auch mit straßenpreisen.


Das Halo Produkt ist immer unverhältnismäßig teuer.