Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4070 Ti Review-Thread
Emil_i_Lönneberga
2023-01-05, 21:47:25
Wobei der Block für die 4090 Reference mit +16mm in der Länge und +24mm in der Breite kaum größer ausfällt. Aufgrund der geringeren Breite dürfte es aber weniger Probleme beim horizontalen Einbau in Midi-Tower geben, in ITX Gehäusen werden die Karten auch häufig über Riser Kabel vertikal eingebaut. Dafür ist der Kühler bei der 4070 7mm dicker geworden, was aber vermutlich niemanden stören wird.
AtTheDriveIn
2023-01-05, 23:01:51
Wir Nerds haben schon immer alles bezahlt, hauptsache man konnte mit der neusten Technik rumspielen. Das war 1996 überhaupt nicht anderes und zumindest ich wurde nicht konditioniert. Im Gegenteil, im Laufe meines Lebens wurden HighEnd-PCs mehr und mehr bezahlbar (relativ zu einem durchschnittlichen Einkommen) mit einem leichten Spike in den letzten 2 Jahren. I am shocked - not...
Zum Rest : Die neuste Generation GPU ist unabhängig vom Segment ein Luxus. Egal ob 60/70/80 oder 90 und damit ist auch das Apfel und Birnen Thema abgehakt. Ist eben alles das gleiche, auch wenn es für viele vielleicht bisher nicht so erschien, da alles relativ gesehen sehr günstig war.
So ist es. Ist halt ganz einfach eigentlich ^^
Und jetzt geh ich mal wieder ein paar Stunden zum Porschehändler und sage den Leuten sie sollen keine kaufen, damit die bald günstiger sind.
Porsche mit Grafikkarten zu vergleich hinkt gewaltig. Viele von denen steigen im Preis mit der Zeit. Außerdem gibt es auf dem Automarkt Alternativen und echten Wettbewerb. ;-)
Andere Unterhaltungselektronik ist der Vergleich den man heranziehen sollte. Konsolen, HIFI Equipment,...
Nvidia versucht hier das, was Apple leider erfolgreich vollzogen hat. Ihre Produkte weit über oder an die 1000€ Schwelle shiften. Die Lemminge sollten folgen und eine breite Masse tut es und verteidigt es. Zum Glück haben andere Hersteller nicht alle mitgezogen, wie jetzt AMD. Es braucht einfach echten Wettbewerb. 1999 konnte man Top-Tier Grafikkarten für 400 Mark kaufen. Damals gab es noch Nvidia, 3dfx, Kryo, ATI, Matrox
Nvidia versucht hier den eh schon schwachen Markt durch proprietäre Features weiter zu schwächen. Kaum hat man der Masse durch viel Marketingeinsatz erzählt, das DLSS, RT das Allerwichtigste sind gehen die Preise durch die Decke. Es hilft uns Endkunden und dem Hobby nur, wenn der Nvidia BS kritisiert wird und wenn AMD und Intel herankommen und Marktanteile bekommen. Meine nächste Karte wird definitiv nicht grün.
Timbaloo
2023-01-05, 23:25:12
Geil. Jeder Thread geht nur noch um die Preise... :rolleyes::rolleyes::rolleyes:
Hakim
2023-01-05, 23:46:55
gute ist, für alle die eins wollen, man kann auch nach stunden zu UVP welche kaufen, überall grün bei GH.
ChaosTM
2023-01-05, 23:56:54
900 Euro für eine "4070er" Karte, die bestenfalls eine 4060ti ist - lets be honest.
Fuck U Nvidia.
Hab die Rücksendung meiner 4080er bereit eingeleitet. Sind immer noch 24 Tage Zeit die Sache zu überdenken. Vielleicht denkt NV ja um bis dahin. ;)
Timbaloo
2023-01-06, 00:19:08
Coole Story ChaosTM. Halt uns bitte auf dem laufenden. Und mach das auf Telegram. Danke.
ChaosTM
2023-01-06, 00:30:28
Coole Story ChaosTM. Halt uns bitte auf dem laufenden. Und mach das auf Telegram. Danke.
danke für deine Aufmerksamkeit, ich werde dich und alle anderen auf dem laufenden halten.
Die Website, die das genauer beleuchtet, geht bald online. Stay tuned !
horn 12
2023-01-06, 01:07:29
Also keine Feine Art würde ich mal denken.
Knapp 3 Wochen benutzt und nur weil sie dir zu teuer erscheint, geht die Karte Retour?
Dann müsste ich meine 7900XTX auch Retournieren, weil doch auch teuer aber zumindest kein Hotspot Problem :-)
Aber da die Karte läuft und ich zufrieden bin und das nächste Modell (AMD(NV)
womöglich Fiepen erzeugt, bleibe ich generelll bei meinen Käufen.
ChaosTM
2023-01-06, 01:20:03
Ja, ich hab die Karte bis zum und über den Anschlag getestet und es gab unzählige Abstürzte,
aber sie lebt immer noch.
Dont be a Fool
Wenn das eine Karte nicht aushält, bzw. keinen "Notauschalter" für solche events hat, dann ist sie per Definition unbrauchbar.
dildo4u
2023-01-06, 05:47:40
Wie kann denn die 4070TI dann so viele FPS haben mit 12 GB? Die 3080FE hat auch nur 10 GB.
Hier stand Blödsinn, sind ja nur 8 GB bei der 3070. ;) Wobei die 10 GB der 3080 auch noch reichen. Jedenfalls im Vergleich zur 6800XT.
Ich hätte besser die Mins zeigen sollen wie gesagt 12GB scheint das Minium zu sein was Sinn macht wenn die 3060 die neue Basis für PC Ports wird.
Die 3080 hat natürlich mit RT mehr potenzial als RDNA2 aber die 10GB sind am Limit.
https://abload.de/img/fc6minteeqv.png
https://abload.de/img/3080rte0d7u.png
dargo
2023-01-06, 06:04:29
Geil. Jeder Thread geht nur noch um die Preise... :rolleyes::rolleyes::rolleyes:
Wird doch eh so gut wie nichts an neuen, interessanten Spielen released dann kann man sich wenigstens über Grafikkarten-Preise aufregen. :tongue:
Legendenkiller
2023-01-06, 08:26:35
Geil. Jeder Thread geht nur noch um die Preise... :rolleyes::rolleyes::rolleyes:
Ich weiß auch warum !!!!111efl!
Es liegt an den Preisen! :biggrin:
PS: liegt auch daran das die letzen 15 Jahre Grafikarten einfach sehr preiswert waren und obere Mindrange langezeit nur 400€ gekostet hat.
Thunder99
2023-01-06, 08:37:07
Preise sind was sie sind. Aber Karte ist ausgewogener als 4070Ti als als 4080 12GB :wink: und auch etwas günstiger.
Ob es wieder langfristig günstiger wird wage ich zu bezweifeln. Hab daher trotz Kritik an den Preisen meine Kaufentscheidung gefällt. Hilft ja nicht zu jammern und dennoch eine haben zu wollen um weiterhin sein Hobby geniessen zu können.
Vorteil der Preise gibt es dennoch. Es wertet den 2nd Hand Markt auf ;D
IC3M@N FX
2023-01-06, 08:40:10
Macht es nicht Sinn lieber eine RTX 3090 zu holen für das Geld, der RAM Größe und Bandbreite wird der Flaschenhals sein bei der RTX 4070 TI bei den zukünftigen Spielen, genug Leistung in Form von Rohpower hat ja die Grafikkarte ja an sich.
Sobald es den entgültigen Cut gibt bei den Cross-Gen spielen, zwischen PS4/XBox One zu den PS5/Xbox Series Konsolen werden auch die Anforderungen zu der Hardware höher bei zukünftige Spielen.
Der gemeinsame Nenner bei der Entwicklung eines Spieles als Ausgangsbasis wie groß und komplex eine Welt sein soll bestimmt die schwächste Hardware, mit dem ausfall der old Gen werden auch die Spiele aufwendiger.
dildo4u
2023-01-06, 08:44:46
Das wurde hier gut mit Fortnite aufgezeigt sie wird vermutlich eine 1440p Karte mit RT On, daher würde ich eher damit rechnen in Zukunft immer Upscaling zu nutzen was das Speichersystem entlastet.
https://youtu.be/q3fLCxFb8a0?t=58
Troyan
2023-01-06, 08:52:21
Macht es nicht Sinn lieber eine RTX 3090 zu holen für das Geld, der RAM Größe und Bandbreite wird der Flaschenhals sein bei der RTX 4070 TI bei den zukünftigen Spielen, genug Leistung in Form von Rohpower hat ja die Grafikkarte ja an sich.
Sobald es den entgültigen Cut gibt bei den Cross-Gen spielen, zwischen PS4/XBox One zu den PS5/Xbox Series Konsolen werden auch die Anforderungen zu der Hardware höher bei zukünftige Spielen.
Der gemeinsame Nenner bei der Entwicklung eines Spieles als Ausgangsbasis wie groß und komplex eine Welt sein soll bestimmt die schwächste Hardware.
Der einzige Vorteil der 3090 sind die 24GB und vielleicht die doppelte Bandbreite. Dafür verbraucht die Karte auch bis zu 100W mehr. Auch müsstest du eine Karte finden, die günstiger ist als die 4070TI.
Neu macht kein Sinn, dann gleich 4080. Gebraucht nur, wenn noch mindesten ein Jahr Garantie und der Preis unter 900€ liegt.
Legendenkiller
2023-01-06, 08:55:14
Macht es nicht Sinn lieber eine RTX 3090 zu holen für das Geld, der RAM Größe und Bandbreite wird der Flaschenhals sein bei der RTX 4070 TI bei den zukünftigen Spielen, genug Leistung in Form von Rohpower hat ja die Grafikkarte ja an sich.
Sobald es den entgültigen Cut gibt bei den Cross-Gen spielen, zwischen PS4/XBox One zu den PS5/Xbox Series Konsolen werden auch die Anforderungen zu der Hardware höher bei zukünftige Spielen.
Der gemeinsame Nenner bei der Entwicklung eines Spieles als Ausgangsbasis wie groß und komplex eine Welt sein soll bestimmt die schwächste Hardware.
Naja die 3090 ist schon wieder teurer geworden , lietg aktuell bei 1200€...
Das Lohnt imo nur noch wenn man ein sehr spezielles sehr Speicherlastiges Profil hat. Zb. gerne Mods für Spiele oder Anwendungen nutzt, die sehr viel VRam benutzen.
Oder evtl noch wenn man ein "lieber nur 30FPS als auf maximale Grafiksettings Verzichten" Spieler ist.
Bei normalen Einstellungen und typischen Auflösungen hat die Speicherbandbreite nur wenig Auswirkung, da die Spiele ja darauf angepasst sind/werden.
readonly
2023-01-06, 09:02:14
Eben, wer kein Problem mit DLSS auch nur Version 2, hat bekommt ne echt schnelle Karte. 1440 auf 4k und ab geht die Laube. Mit DLSS3 noch mehr, aber das hat ja auch so seine Defizite.
Hatte auch Spass mit meiner 3060ti, direkt 2020 gekauft. DLSS hat da einiges gut gemacht. Muss nicht 4k native spielen
IC3M@N FX
2023-01-06, 09:03:03
Der einzige Vorteil der 3090 sind die 24GB und vielleicht die doppelte Bandbreite. Dafür verbraucht die Karte auch bis zu 100W mehr. Auch müsstest du eine Karte finden, die günstiger ist als die 4070TI.
Neu macht kein Sinn, dann gleich 4080. Gebraucht nur, wenn noch mindesten ein Jahr Garantie und der Preis unter 900€ liegt.
Naja quasi jede Nvidia RTX 3090 lässt gut bis sehr gut Undervolten, ich hatte damals meine RTX 3090 von Gainward durch undervolting sogar viel mehr Boost Takt rausholen können.
Die Karte hat sich fast auf 3090 TI Niveau bewegt mit erheblich weniger Verbrauch.
Mittlerweile hab ich eine RTX 4090 von Gainward.
Jetzt könnte man argumentieren mit der RTX 4070 TI ist es ja auch möglich aber die Bandbreite und Speicher kann man nicht soll schnell kaschieren finde ich.
Blase
2023-01-06, 09:03:21
Es gilt unverändert, dass DLSS 3 und damit Frame Generation ein Feature der 40er Karten ist, ja?
Denn inzwischen, nachdem ich Portal RTX durchgespielt und bald 15 Stunden im Witcher 3 Next Gen verbracht habe - beide mit aktiven FG - muss ich ehrlicherweise sagen, dass ich FG für DAS Killerfeature schlechthin halte. Die Zwischenbilder sehe ich nicht (bei immerhin 48 Zoll und einigermaßen nahem Sitzabstand), aber ich genieße einfach die drastisch erhöhte Framerate.
Für mich also für den Moment ein gaaaanz großer Grund, eine 40er Karte einer 30er vorzuziehen...
MfG Blase
Si|encer
2023-01-06, 09:13:30
Also eine neue 3090TI kaufen wäre imho genau an der Grenze wo ich jedem empfehlen würde nochmal 200 € drauf zu legen (4080).
Bei den Strompreise hat man das heutzutage doch ruckzuck wieder raus und spart dann umso mehr.
Alleine wegen DLSS3 lohnt sich das doch schon.
TheGood
2023-01-06, 09:15:52
Also alle die kaufen haben sich verarschen lassen?
Aber nein, natürlich ist das Spielchen nicht beliebig "erweiterbar" - hat man wunderbar an der 4080 12GB gesehen. Jetzt heißt die 4070Ti und kostet 100 Dollar weniger als ursprünglich angesetzt.
Ich wollte einfach eine andere Sichtweise ins Spiel bringen. Die Leute können auch weiterhin warten, weil die Preise - wie ich auch finde - echt durch die Decke gegangen sind. Aber worauf genau warten? Denkst du, eine x070Ti wird jemals wieder 600 Dollar oder weniger kosten? Also ich nicht.
Und um mit richtigen Zahlen zu arbeiten. Eine 4070Ti für angenommene 599€ würde sicherlich gut aufgenommen werden. Kaum jemand würde ernsthaft weniger für diese Karte voraussetzen. Und wie viel "mehr" ist das also zur aktuellen Situation? Keine 300€. Soll ich meine vorherige Rechnung noch einmal aufmachen - jetzt aber mit 300€ statt 600€? Lass mal sehen, wenn ich also jetzt 300€ mehr ausgebe, als ich eigentlich bereit wäre für die Karte zu zahlen und die Karte aber mindestens zwei Jahre behalten werde, dann habe ich also im Monat ganze 12,50€ mehr ausgegeben, als ich ursprünglich wollte... *wow*
Versteh mich richtig. Ne 4070Ti für um 900€ ist ne Frechheit! Und selbstverständlich ist hier jeder im Recht, der gedanklich oder real den Preisen und nVidia den Vogel zeigt - und NICHT kauft...
... aber letztlich ist es ein Hobby und ich wollte mit meinem zugegebenermaßen überspitzen Posting zumindest denen eine andere - ebenfalls imho nicht ganz unrichtige - Sichtweise auf die Dinge mitgeben.
So nämlich kann man auch über die Situation denken. Bin mir sicher, dass readonly eher weniger dem "Aufpreis" hinterherweint, als sich vielmehr über die neue Karte und das flotte Spielen freut. Und das Tag für Tag (statt sich hier Tag für Tag über die Preise auszulassen)...
MfG Blase
So kann man sich Dinge auch schön Rechnen, Hatte der Kofler schon bei Sky probeirt mit seinem Cappuccino im Monat mehr. Das ändert an der von dir zigmal getroffenen Aussage auch nciht, dass es zu teuer ist.
Was du da machst ist es dir und uns allen schön zu rechnen. WEnn ich das auf 100 Jahre Rechne dann kommt am Ende weniger als 1 cent raus und voila - Kostet ja gar nichts....
Der Afupreis ist auch niht durch Kostensteigerungen erklärlich, man muss sich nur die GEwinnmargen ansehen, dann weisst du wo der Aufpreis hingeht. Wie man sich das auch alles so schönreden kann weiss ich einfach nicht. Ihr solltet das Geld mal in den Staat, Infrastruktur, Sozialleistungen usw. stecken. Da wäre es sinnvoll angelegt, aber da schimpft jeder wenn es nur 1 Cent im Monat mehr wird. Vielleicht ist das ja mal ne andere Perspektive...
TheGood
2023-01-06, 09:18:13
Porsche mit Grafikkarten zu vergleich hinkt gewaltig. Viele von denen steigen im Preis mit der Zeit. Außerdem gibt es auf dem Automarkt Alternativen und echten Wettbewerb. ;-)
Andere Unterhaltungselektronik ist der Vergleich den man heranziehen sollte. Konsolen, HIFI Equipment,...
Nvidia versucht hier das, was Apple leider erfolgreich vollzogen hat. Ihre Produkte weit über oder an die 1000€ Schwelle shiften. Die Lemminge sollten folgen und eine breite Masse tut es und verteidigt es. Zum Glück haben andere Hersteller nicht alle mitgezogen, wie jetzt AMD. Es braucht einfach echten Wettbewerb. 1999 konnte man Top-Tier Grafikkarten für 400 Mark kaufen. Damals gab es noch Nvidia, 3dfx, Kryo, ATI, Matrox
Nvidia versucht hier den eh schon schwachen Markt durch proprietäre Features weiter zu schwächen. Kaum hat man der Masse durch viel Marketingeinsatz erzählt, das DLSS, RT das Allerwichtigste sind gehen die Preise durch die Decke. Es hilft uns Endkunden und dem Hobby nur, wenn der Nvidia BS kritisiert wird und wenn AMD und Intel herankommen und Marktanteile bekommen. Meine nächste Karte wird definitiv nicht grün.
Man muss hier auch so ehrlich sein dass AMD da auch mitzieht...
A_Woipadinger
2023-01-06, 09:20:47
https://www.youtube.com/watch?v=vXg6bQbSQlI Ich persönlich finde das Fazit zu der aktuellen Situation sehr passend und werde mit einer Neuanschaffung entsprechend warten :)
Asaraki
2023-01-06, 10:08:14
Es gilt unverändert, dass DLSS 3 und damit Frame Generation ein Feature der 40er Karten ist, ja?
Denn inzwischen, nachdem ich Portal RTX durchgespielt und bald 15 Stunden im Witcher 3 Next Gen verbracht habe - beide mit aktiven FG - muss ich ehrlicherweise sagen, dass ich FG für DAS Killerfeature schlechthin halte. Die Zwischenbilder sehe ich nicht (bei immerhin 48 Zoll und einigermaßen nahem Sitzabstand), aber ich genieße einfach die drastisch erhöhte Framerate.
Für mich also für den Moment ein gaaaanz großer Grund, eine 40er Karte einer 30er vorzuziehen...
MfG Blase
Ob es technisch möglich ist weiss wohl nur nVidia, aber gewollt dürfte das sowieso nicht sein, daher wird DLSS3 kaum jemals für Ampere oder gar frühere Generationen kommen.
Daher muss ich (leider?) auch zustimmen, dass FG ein Killerfeature ist für Singleplayergames. Maximale Grafikpracht und künstliche Frames, die man nicht sieht. Irgendwie auch witzig, denn das Feature ist im Prinzip relativ banal und dürfte ein Nebenprodukt sein von den ganzen Frameanalysis-Methoden die für DLSS sowieso entwickelt werden mussten. AMD wird da schon auch was liefern und dann verteufelt es auch niemand mehr ^^
P.S: Sitze ja lustigerweise auch am 48" hier... :D I like your setup!
Blase
2023-01-06, 10:11:04
So kann man sich Dinge auch schön Rechnen, Hatte der Kofler schon bei Sky probeirt mit seinem Cappuccino im Monat mehr. Das ändert an der von dir zigmal getroffenen Aussage auch nciht, dass es zu teuer ist.
Was du da machst ist es dir und uns allen schön zu rechnen. WEnn ich das auf 100 Jahre Rechne dann kommt am Ende weniger als 1 cent raus und voila - Kostet ja gar nichts....
Mal davon abgesehen, dass ich das auf eine recht konservativ angenommene Nutzungsdauer der Karte umgerechnet habe, widerspreche ich dir nicht. Ja, die aktuelle Generation beider Anbieter ist bisher preislich deutlich überzogen - und es scheint keine Besserung in den unteren Klassen in Sicht.
Der Afupreis ist auch niht durch Kostensteigerungen erklärlich, man muss sich nur die GEwinnmargen ansehen, dann weisst du wo der Aufpreis hingeht.
Und wenn es die einzige Erklärung wäre, dass sich nVidia hier die Taschen voll stopft (was es nicht ist), kannst du das erstens einem börsennotierten Unternehmen nicht vorwerfen, noch ändert es etwas an der Situation. Oder anders gefragt: Worauf hoffst (wartest) du? Glaubst du ernsthaft, dass du beispielsweise Ampere Preise wieder sehen wirst (X070 für 499$ und X080 für 699$)? Not gonna happen! Natürlich kann sich jetzt jeder hinstellen und die Leute, die trotz der Preise kaufen, als Teil des Problems deklarieren. nVidia sieht ja, dass sie es machen können. Und schon kostet die nächste Gen bestimmt nochmals 50 Prozent mehr (NICHT). Aber die Realität ist, dass mehr oder minder alles sehr deutlich teurer geworden ist - GPUs machen da keine Ausnahme. Ob sich nVidia und AMD hier zusätzlich noch mal 25+% extra bedienen... na komm.
Wie man sich das auch alles so schönreden kann weiss ich einfach nicht.
Es geht weniger ums Schönreden, als vielmehr um die Erkenntnis, dass man hier nicht allzu viele Optionen hat:
Ich kann den möglicherweise schon seit der (vor-)letzten Generation geplanten Kauf weiter nach hinten schieben. Dann habe ich - ausgehend von der (vor-)letzten Generation - sicherlich ein paar hundert Euro "Aufpreis" gespart - dafür schränke ich mich in einem meiner Lieblinshobbys aber auch seit dem immer mehr und mehr ein. Spiele eher ältere Titel oder stelle die Grafikqualität mehr und mehr runter. Die einen haben kein Problem damit, die anderen stören sich da durchaus dran.
Ich kann dem Bereich "PC-Gaming" komplett den Rücken kehren und zB auf Konsole umsteigen. Legitimer und nachvollziehbarer Punkt - wenn man denn kein Problem damit hat.
Oder ich kneife die Arschbacken zusammen und lege das Geld für mein Hobby auf den Tisch. Ich bin einigermaßen sicher, dass der Unmut über das "zu viel" gezahlte Geld relativ schnell dem breiten Grinsen weicht, welches ich ab dann Tag für Tag beim Daddeln habe.
Einige hier scheinen relativ viel Zeit und Aufwand dafür zu betreiben, die GPU Preise in Grund und Boden zu stampfen. Das ist zweifelsohne völlig berechtigt - nur machen das manche hier inzwischen schon seit Jahren. Und ich behaupte einfach mal, wiederkehrend immer und immer wieder hier und in anderen Themen Rants über die Preise abzulassen, bündelt ne ganze Menge negativer Energie und Emotionen. Dieser Aufwand und diese negative Grundstimmung - über Monate oder inzwischen gar Jahre - hat auch einen "Wert", nämlich einen negativen. Also ich würde den mit weitaus mehr beziffern, als ein paar Hundert Euro, die über die Nutzungsdauer der Karte runter gerechnet kaum mehr als zwei, drei von dir angesprochene Cappuccino im Monat sind.
Ihr solltet das Geld mal in den Staat, Infrastruktur, Sozialleistungen usw. stecken. Da wäre es sinnvoll angelegt, aber da schimpft jeder wenn es nur 1 Cent im Monat mehr wird. Vielleicht ist das ja mal ne andere Perspektive...
Der Staat nimmt von mir was er für richtig hält. Will er mehr, soll er sich halt mehr nehmen. Ich persönlich meckere darüber nicht. Aber - no offence - aus diesem Absatz hört man von dir schon recht viel Unmut heraus.
Du hast einen klaren und leicht verständlichen Punkt - rede ich gar nicht dagegen. Ich spreche aus der Sicht eines Gamers, dessen Hobby nun einmal eine GPU nötig macht. Und auch meine Sicht sollte zumindest verständlich sein - ob man diese Sichtweise nun annehmen mag oder nicht...
MfG Blase
Asaraki
2023-01-06, 10:15:53
Ach komm, spätestens wenn das Argument "Dann tut doch was für die sozialen Einrichtungen" ist doch klar, dass es hier nicht um nVidias Preise geht sondern um den eigenen Geldbeutel. Damit will ich nicht Geldsorgen kleinreden aber wir sind dann so weit weg vom Thema...
Vielleicht steh ich alleine da, aber wir reden über die allerneusten GPUs und nicht über den Preis von Mehl und Eiern. Wer eine GPU kauft obwohl er nicht wirklich genug Kohle dafür hat, der hat die Kontrolle über das Leben verloren und sollte mal da ansetzen.
Einfach keine Demut und Bescheidenheit mehr da... alle nur haben wollen und bloss nix dafür tun.
Crazy_Chris
2023-01-06, 10:18:20
Eben mal bei Mindfactory geschaut und alle 4070Ti sind noch ab Lager verfügbar. Die Anzahl der verkauften Einheiten (insofern man den Angaben trauen kann) sind für eine untere Oberklasse Karte auch echt niedrig. Also kaufen kaufen kaufen. :tongue:
BlacKi
2023-01-06, 10:27:34
ich versteh die leute nicht, die meinen, eine 3080 für 700$ (die laut einiger nie profitabel verkauft hätte werden können weil marge nicht ausreicht) wäre schon immer standard gewesen. solche leute haben doch den bezug zu realität verloren.
ich will hier nicht nv verteidigen, sicher will nv die massiven verkaufseinbrüche im letzten jahr
wieder rausholen.
aber bedenkt, dlss und der ganze software kram, kostet auch viel geld und gabs früher nicht. dann sind die wafer immernoch sack teuer nach den letzten 2 jahren, und die kühler der heutigen modelle waren nie so OP ausgelegt.
das sind zusätzliche kosten die es früher nicht gab + nv will halt gewinne machen(+20% marge ggü. last gen), bevor amd mit ernsthafteren produkten erscheint.
aber eine 4080 für unter 900$ wirds so schnell nicht geben. ich denke 600-800$ wird die karte schon aktuell in der produktion kosten.
[MK2]Mythos
2023-01-06, 10:32:14
900 Euro für eine "4070er" Karte, die bestenfalls eine 4060ti ist - lets be honest.
Fuck U Nvidia.
Hab die Rücksendung meiner 4080er bereit eingeleitet. Sind immer noch 24 Tage Zeit die Sache zu überdenken. Vielleicht denkt NV ja um bis dahin. ;)
Ganz ehrlich? Früher hätte ich das mehrwöchige "Benutzen/Testen" einer Grafikkarte mit anschließender Retour auch verurteilt bzw scheiße gefunden.
Aber seit die Händler und Hersteller uns dermaßen scham - und maßlos die Kohle aus den Taschen ziehen: Who cares? Die haben mittlerweile alle so fette Gewinnmargen, also was solls. Von mir aus gerne bis zum letzten Tag der gesetzlichen Möglichkeiten ausreizen. Sollen sie doch was von ihrem eigenen Gift probieren. :)
Palpatin
2023-01-06, 10:33:02
Eben, wer kein Problem mit DLSS auch nur Version 2, hat bekommt ne echt schnelle Karte. 1440 auf 4k und ab geht die Laube. Mit DLSS3 noch mehr, aber das hat ja auch so seine Defizite.
Hatte auch Spass mit meiner 3060ti, direkt 2020 gekauft. DLSS hat da einiges gut gemacht. Muss nicht 4k native spielen
Ja sehe ich auch so, langsam geht der 3070 in 4k auch mit dlss etwas die Luft aus daher jetzt die 4070ti, bin nur am überlegen ob ich die 3070 verkauf oder sie als Grundlage für einen Zwift 2te Rechner im Keller behalte, dafür ist sie aber fast ein wenig übertrieben.
Blase
2023-01-06, 10:38:34
Ach komm, spätestens wenn das Argument "Dann tut doch was für die sozialen Einrichtungen" ist doch klar, dass es hier nicht um nVidias Preise geht sondern um den eigenen Geldbeutel. Damit will ich nicht Geldsorgen kleinreden aber wir sind dann so weit weg vom Thema...
Du kannst davon ausgehen, dass es bei mehr oder minder jedem dieser Themen (auch) um den eigenen Geldbeutel geht. Alles wird teurer - wen frustet das denn nicht!? Kann ich nachvollziehen.
Vielleicht steh ich alleine da, aber wir reden über die allerneusten GPUs
Bin da schon bei dir. Es "muss" ganz sicher keine 40er Karte sein - dem Hobby "PC-Gaming" kann man auch mit einer oder auch zwei älteren Generationen von Karten problemlos nachgehen. Aber leider begleitet uns die Hochpreisspanne ja bereits "seit Corona" (zzgl. Hochphase "Mining") und damit seit Beginn der vorherigen Ampere Generation. Also "neu" und mit gutem Preis-/Leistungsverhältnis kaufen ist schon länger schwierig bis nahezu unmöglich. Aber gebraucht sollte man für sehr viel kleineres Geld trotzdem gute Karten im Bereich 3080 10G (um 500€) oder 6800 (um 450€) bekommen. Damit kann man doch problemlos alles auch bei nahezu höchsten Einstellungen spielen.
Daher muss ich (leider?) auch zustimmen, dass FG ein Killerfeature ist für Singleplayergames. Maximale Grafikpracht und künstliche Frames, die man nicht sieht. Irgendwie auch witzig, denn das Feature ist im Prinzip relativ banal und dürfte ein Nebenprodukt sein von den ganzen Frameanalysis-Methoden die für DLSS sowieso entwickelt werden mussten. AMD wird da schon auch was liefern und dann verteufelt es auch niemand mehr ^^
Vielleicht gibt es Titel oder Szenarien, wo FG nicht zu gebrauchen ist, aber bisher... :up::cool:
Sitze ja lustigerweise auch am 48" hier... I like your setup!
Dann musst du mal dein Profil hier aktualisieren :tongue:
MfG Blase
BlacKi
2023-01-06, 10:43:55
Mythos;13206307']Ganz ehrlich? Früher hätte ich das mehrwöchige "Benutzen/Testen" einer Grafikkarte mit anschließender Retour auch verurteilt bzw scheiße gefunden.
Aber seit die Händler und Hersteller uns dermaßen scham - und maßlos die Kohle aus den Taschen ziehen: Who cares? Die haben mittlerweile alle so fette Gewinnmargen, also was solls. Von mir aus gerne bis zum letzten Tag der gesetzlichen Möglichkeiten ausreizen. Sollen sie doch was von ihrem eigenen Gift probieren. :)das mag auf den ersten blick sinn ergeben, aber es verteuert die produkte nur weiter.
aber bei amazon könnt ihr das gerne machen:biggrin:
ich meine, genau deshalb sind die karten bei amazon so teuer.
dargo
2023-01-06, 10:51:33
ich will hier nicht nv verteidigen, sicher will nv die massiven verkaufseinbrüche im letzten jahr
wieder rausholen.
aber bedenkt, dlss und der ganze software kram, kostet auch viel geld und gabs früher nicht.
Netter Versuch... DLSS gibt es seit Turing RTX. ;) Die UVP der RTX 2060 lag laut Onkel Google bei 369€, die RTX 3050 kann das sogar noch mit 279€ UVP unterbieten.
Asaraki
2023-01-06, 10:55:57
Du kannst davon ausgehen, dass es bei mehr oder minder jedem dieser Themen (auch) um den eigenen Geldbeutel geht. Alles wird teurer - wen frustet das denn nicht!? Kann ich nachvollziehen.
Bin da schon bei dir. Es "muss" ganz sicher keine 40er Karte sein - dem Hobby "PC-Gaming" kann man auch mit einer oder auch zwei älteren Generationen von Karten problemlos nachgehen. Aber leider begleitet uns die Hochpreisspanne ja bereits "seit Corona" (zzgl. Hochphase "Mining") und damit seit Beginn der vorherigen Ampere Generation. Also "neu" und mit gutem Preis-/Leistungsverhältnis kaufen ist schon länger schwierig bis nahezu unmöglich. Aber gebraucht sollte man für sehr viel kleineres Geld trotzdem gute Karten im Bereich 3080 10G (um 500€) oder 6800 (um 450€) bekommen. Damit kann man doch problemlos alles auch bei nahezu höchsten Einstellungen spielen.
Vielleicht gibt es Titel oder Szenarien, wo FG nicht zu gebrauchen ist, aber bisher... :up::cool:
Dann musst du mal dein Profil hier aktualisieren :tongue:
MfG Blase
Ich kann das sehr gut nachvollziehen, hatte auch meine Durstjahre... nur hing ich da nicht in Hardwarethreads rum und erzählte Leuten, dass alles zu teuer sei sondern fragte wenn dann nach der besten Budgetlösung.
Vielleicht liegt es auch daran, dass ich mir in allen anderen Hobbies schon gar nicht überlege "high end" zu kaufen, da ich mir das nie und nimmer leisten könnte. Ich bezahle alleine für die Miete des Bandraums mehr als für die GPU pro Jahr und dann steht da noch nix drin... ^^
Ich will auch niemandem auf die Füsse treten. Wenn's nach mir ginge können gerne alle umsonst eine 4090 kriegen, wenn das irgendwer finanziert. Mein persönlicher Spass wäre davon nicht tangiert ^^ Aber so funktioniert die Welt nicht, egal wie sehr wir es uns wünschen.
(Profil update incoming :D)
das mag auf den ersten blick sinn ergeben, aber es verteuert die produkte nur weiter.
aber bei amazon könnt ihr das gerne machen:biggrin:
ich meine, genau deshalb sind die karten bei amazon so teuer.
True! Aber halt nicht sichtbar :D Und dann weiss man ja, dass die anderen das machen also kann man es selbst auch tun. ^^
BlacKi
2023-01-06, 11:00:59
Netter Versuch... DLSS gibt es seit Turing RTX. ;) Die UVP der RTX 2060 lag laut Onkel Google bei 369€.
ah, und vermutlich war dlss deshalb am anfang nur crap. :facepalm:
dlss macht keine karte 200 teurer. das wollte ich damit nicht sagen. und davon abgesehen warum führst du du nur eine 2060 an? marge macht nv über das gesammte portfolio, und am wenigsten bei den kleinen modellen.
True! Aber halt nicht sichtbar Und dann weiss man ja, dass die anderen das machen also kann man es selbst auch tun. ^^
ich sehe das an amazon sehr deutlich und jeder kann sich ja seinen teil denken, dass das bei den anderen weniger der fall ist, aber nicht null.
YeahBuoy!
2023-01-06, 11:02:24
ich versteh die leute nicht, die meinen, eine 3080 für 700$ (die laut einiger nie profitabel verkauft hätte werden können weil marge nicht ausreicht) wäre schon immer standard gewesen. solche leute haben doch den bezug zu realität verloren.
ich will hier nicht nv verteidigen, sicher will nv die massiven verkaufseinbrüche im letzten jahr
wieder rausholen.
aber bedenkt, dlss und der ganze software kram, kostet auch viel geld und gabs früher nicht. dann sind die wafer immernoch sack teuer nach den letzten 2 jahren, und die kühler der heutigen modelle waren nie so OP ausgelegt.
das sind zusätzliche kosten die es früher nicht gab + nv will halt gewinne machen(+20% marge ggü. last gen), bevor amd mit ernsthafteren produkten erscheint.
aber eine 4080 für unter 900$ wirds so schnell nicht geben. ich denke 600-800$ wird die karte schon aktuell in der produktion kosten.
Wie immer, nichts genaues weiß man nicht, hier mal ein Anhaltspunkt aus dem Web: https://www.hardwaretimes.com/nvidia-rtx-4080-allegedly-costs-just-300-to-manufacture-on-tsmcs-5nm-process-node/
In der Quelle wird nicht differenziert zwischen Herstellkosten oder reinen Materialkosten. Sofern sich die Herstellkosten in dem Bereich bewegen (was man mit großem Fragezeichen versehen muss), muss man noch Marketing, F&E, RMA Rückstellungen, entsprechende Marge etc. aufschlagen... Ich unterstelle mal das es hier durchaus große Gestaltungsspielräume gibt, diese aber mangels Zwang durch die Konkurrenz und um sich das Markenimage als Premiumprodukt (Apple anyone?) nicht zu versauen halt bleiben läßt.
Bin bezüglich der 4070ti erstaunt wieviele Partnerkarten in 3-4 Slots daherkommen. Von der Abwärme her sollte die Materialschlacht ja eigentlich nicht zwingend notwendig sein, sondern eher damit die Boardpartner ihr Aufschläge rechtfertigen können, oder?
dargo
2023-01-06, 11:04:55
https://www.youtube.com/watch?v=vXg6bQbSQlI Ich persönlich finde das Fazit zu der aktuellen Situation sehr passend und werde mit einer Neuanschaffung entsprechend warten :)
Passend dazu...
W4zlhdb4o68
dlss macht keine karte 200 teurer. das wollte ich damit nicht sagen. und davon abgesehen warum führst du du nur eine 2060 an?
Lass mich kurz nachdenken, weil vielleicht dort DLSS anfängt? :D
Asaraki
2023-01-06, 11:05:50
ah, und vermutlich war dlss deshalb am anfang nur crap. :facepalm:
dlss macht keine karte 200 teurer. das wollte ich damit nicht sagen. und davon abgesehen warum führst du du nur eine 2060 an? marge macht nv über das gesammte portfolio, und am wenigsten bei den kleinen modellen.
Ohne jetzt Zahlen nennen zu wollen, aber ich kann zumindest sagen, dass nV ordentlich in die Tasche greifen muss um die 'besten' Entwickler für die Featuers zu bekommen. Denn die wandern sonst in der Tat ab...
Spüren wir in der weniger coolen Entwicklung ja auch. Wenn da ein nV, Google oder Autokonzern kommt und mal eben ein lächerlich hohes Angebot machen, dann sind die eben weg.
Nur muss man das Salär danach auch bezahlen ;-) Und wir müssen dafür etwas in die Tasche greifen.
Wird langsam zu sehr OT, ich weiss... aber man muss als Entwickler auch einfach Respekt zollen was nV da mit reinem Code aus ihrer Hardware rausholt. Das ist nicht ansatzweise so einfach wie manche vielleicht denken - sonst würde es längst jeder tun.
Bin bezüglich der 4070ti erstaunt wieviele Partnerkarten in 3-4 Slots daherkommen. Von der Abwärme her sollte die Materialschlacht ja eigentlich nicht zwingend notwendig sein, sondern eher damit die Boardpartner ihr Aufschläge rechtfertigen können, oder?
Weiss nicht ob das nicht auch ein Trend ist, der gerade stattfindet. Ich war erst etwas skeptisch wie gross meine 4080 ist. Aber das Teil bleibt auch unter Last so leise, ich will ehrlich gesagt nie mehr eine "normal dimensionierte" Luftkühlung. o_O Meine 3080er sind im direkten Vergleich unglaublich laut.
Lass mich kurz nachdenken, weil vielleicht dort DLSS anfängt? :D
Ah, das ist aber spannend, dass du die internen Ausgaben für DLSS kennst :D Du würdest ja kaum einfach mal irgendwas behaupten oder? ;)
BlacKi
2023-01-06, 11:07:24
Bin bezüglich der 4070ti erstaunt wieviele Partnerkarten in 3-4 Slots daherkommen. Von der Abwärme her sollte die Materialschlacht ja eigentlich nicht zwingend notwendig sein, sondern eher damit die Boardpartner ihr Aufschläge rechtfertigen können, oder?
ja, die chips müssen sich mit den kühlern um den teuersten platz der bom streiten. das machts halt nicht billiger.
Lass mich kurz nachdenken, weil vielleicht dort DLSS anfängt?
ich hab dlss auch nur als beispiel gebracht, für software, die man beim kauf einer karten mitbezahlt. 50-100$ je nach karte würde ich als anteil nur für die software einberechnen.
dargo
2023-01-06, 11:15:53
Ah, das ist aber spannend, dass du die internen Ausgaben für DLSS kennst :D Du würdest ja kaum einfach mal irgendwas behaupten oder? ;)
Ich empfehle nochmal genauer diesen Threadverlauf zu lesen wer hier versucht hat DLSS als Kostentreiber zu verkaufen. ;)
Asaraki
2023-01-06, 11:17:49
Ich empfehle nochmal genauer diesen Threadverlauf zu lesen wer hier versucht hat DLSS als Kostentreiber zu verkaufen. ;)
Nö ich gehe mit ihm da absolut mit. Natürlich werden die SW-Entwicklugskosten auf die Produkte geschlagen - wohin denn sonst?
Den genauen Wert kann aber keiner hier wissen das macht es halt zur reinen Speku (die ich aber nicht unspannend finde. Hab selber mal bisschen gerechnet)
Dass DLSS die Karten zwischen 1-200 Dollar teurer macht, da sind wir uns ja einig oder? :)
Natürlich bezahlen wir auch das Omniverse (übrigens ziemlich cool...), PhysX und all das. Und auch die Features von denen wir nie was hören weil sie nicht funktionieren.
Ernst gemeint.. euch ist klar, dass ein Entwickler für nV vermutlich ne Viertelmillion pro Jahr kostet oder? ^^
Blase
2023-01-06, 11:23:09
Passend dazu...
https://youtu.be/W4zlhdb4o68
Also ist das Fazit dieses Videos, dass die Karte statt 799$ maximal 699$ hätte kosten dürfen. Tjoa, da hat nVidia ja mal richtig zugelangt ;)
MfG Blase
dargo
2023-01-06, 11:23:55
Hatten wir eigentlich schon Jayz hier?
cDRIzS3sGIU
Diese NV-Folie ist zu geil, gabs die wirklich? ;D ;D ;D
https://youtu.be/cDRIzS3sGIU?t=131
BlacKi
2023-01-06, 11:24:07
Ich empfehle nochmal genauer diesen Threadverlauf zu lesen wer hier versucht hat DLSS als Kostentreiber zu verkaufen. ;)alles wird zum kostentreiber wenns nicht billiger wird.
letzten endes macht die summe den preis. und es sind viele dinge wesentlich teurer geworden, ontop eben noch die höhere marge um das letzte jahr auszugleichen. aber das sind auch bei der 4080 kein 500$ oder mehr. ich sehe es nicht kommen, das eine 4080 jemals dauerhaft unter 900$ zu kaufen sein wird. kostenbedingt. vl im abverkauf vor der next gen.
Asaraki
2023-01-06, 11:28:59
Hatten wir eigentlich schon Jayz hier?
https://youtu.be/cDRIzS3sGIU
Diese NV-Folie ist zu geil, gabs die wirklich? ;D ;D ;D
https://youtu.be/cDRIzS3sGIU?t=131
Also lustigerweise sind die cherry picked games genau das was alle meine Kumpels spielen :D Well played nVidia :)
Und da ist die Perf/W nicht drin. AMD würde das sicher noch hervorheben :D
BlacKi
2023-01-06, 11:41:48
hab gerade die eagle für 899€ bei nbb geschossen
die oc version kostet 915€
https://www.notebooksbilliger.de/gigabyte+geforce+rtx+4070+ti+eagle+grafikkarte+791485?nbbct=4001_geizhals
Asaraki
2023-01-06, 11:42:53
Gz :) Ist wirklich eine schicke Karte finde ich.
(Sieht kompakt aus :D)
BlacKi
2023-01-06, 11:47:40
keine 4070ti ist kompakt^^
naja, wenigstens das pcb...
Asaraki
2023-01-06, 11:52:45
keine 4070ti ist kompakt^^
naja, wenigstens das pcb...
Wenn die dafür so leise läuft wie meine 4080 dann wird dich das nicht stören ;)
Ich bin diesbezüglich nur glücklich, auch wenn ich meine LAN-Karte ausbauen musste ^^
Grobblin
2023-01-06, 11:59:10
... ontop eben noch die höhere marge um das letzte jahr auszugleichen. aber das sind auch bei der 4080 kein 500$ oder mehr. ich sehe es nicht kommen, das eine 4080 jemals dauerhaft unter 900$ zu kaufen sein wird. kostenbedingt.
Du hast aber schon gesehen, dass nV mehr als 50% EBIT Marge ausweist, also nach Material-, Entwicklungs-, Verwaltungskosten, etc? Bei solchen Produkten würde mich außerdem ein Halo Aufschlag nicht wundern. Ich gehe davon aus, dass die Kosten hier der geringste Treiber der Preise sind.
BlacKi
2023-01-06, 12:00:27
Du hast aber schon gesehen, dass nV mehr als 50% EBIT Marge ausweist, also nach Material-, Entwicklungs-, Verwaltungskosten, etc? Bei solchen Produkten würde mich außerdem ein Halo Aufschlag nicht wundern. Ich gehe davon aus, dass die Kosten hier der geringste Treiber der Preise sind.es ist die summe.
Wenn die dafür so leise läuft wie meine 4080 dann wird dich das nicht stören
Ich bin diesbezüglich nur glücklich, auch wenn ich meine LAN-Karte ausbauen musste ^^
ich find das eagle modell nicht wirklich schön, aber die performance des kühlers bei hwub hat mich überzeugt.
Taigatrommel
2023-01-06, 12:07:39
Ich denke man wollte erstmal den Wegfall des Umsatzes durch Mining ausgleichen, dann hat man halt während Covid bzw. des Miningbooms gesehen, dass die Leute durchaus willig sind, für solche Grafikkarten entsprechende Preise zu bezahlen. Wieso dann also nicht selbst etwas vom Kuchen abgreifen? Die 4090 hätte nV IMHO auch locker nochmal 500€ teurer anbieten können und die Leute hätten sie ihnen trotzdem aus den Händen gerissen. Im Jahr zuvor lag eine 3090 irgendwo zwischen 2000€ und 3000€. So wirken auch die Preise bei AMD nicht mehr überhöht, 6900 XT kosteten ja auch zwischen 1400€ und 1600€.
Würden die 40er Karten allesamt wie Blei in den Regalen liegen, dann würden die Preise sicher auch irgendwann sinken.Ich frage mich nur, wie sich das mit den richtigen Mainstreamkarten entwickeln wird: Eine reguläre 4070 dann für 650€ mit der Leistung einer 3080 und eine 4060 dann für 500€ mit der Leistung einer 3070? Das wäre ja nun wirklich sehr attraktiv...
Blase
2023-01-06, 12:17:40
Es ist die letzten Jahre einfach so viel zusammen gekommen... um die Preise vernünftig zu erklären, würde wohl eine anständige Abhandlung nötig sein ;) Und klar, es würde da auch drin vorkommen, dass nVidia und AMD auch einfach weil sie es können die Preise weiter angehoben haben. Das ist aber eben nur ein Teil der Wahrheit.
Es ist imho aber schwierig zu sagen, ob es (überwiegend) die Gamer waren, die zu Mining Hochzeiten die Karten zu diesen Preisen dennoch gekauft haben, oder ob es nicht eher die Miner selbst waren, die unverändert auch zu diesen Preisen alles leer gekauft haben. Denn wenn es überwiegend die Miner waren, dann werden die beiden es deutlich schwerer haben, die Karten zu diesen Preisen an den Gamer zu bringen. Zumindest sieht es ja ein stückweit danach aus. Das Spielchen werden sie also nicht beliebig fortführen und übertreiben können. In einem gewissen Rahmen - wahrscheinlich - aber nicht mehr darüber hinaus...
MfG Blase
Thunder99
2023-01-06, 12:26:12
@BlacKi:
Gz, aber will ja dein Kauf nicht madig machen aber das kennst du?:
Die Gigabyte Eagle OC gibt ein „schönes“ Konzert von sich
Spulenrasseln gibt es bei jeder modernen Grafikkarte, mal ist es intensiver und mal halbwegs zurückhaltend. Letzteres gilt für die Asus GeForce RTX 4070 Ti TUF OC, die unabhängig von der Framerate etwas rasselt, was aber zu keiner Zeit problematisch ist.
Ganz anders dagegen die Gigabyte GeForce RTX 4070 Ti Eagle OC, die ein Konzert vom Stapel lässt, das der zuständige Redakteur so noch nie gehört hat. Dabei geht es gar nicht um das klassische Fiepen bei hoher Framerate, die Gigabyte-Karte zirpt unabhängig von der Framerate bei jeder Last mit einem sehr aufdringlichen Geräusch, das man so eigentlich gar nicht kennt. Denn auch bei gleicher Framerate gibt es ein andauernd schnell auf- und abklingendes Zirpen, was sich ähnlich wie unregelmäßig drehende Lüfter anhört. Es ist absolut nervig. Ob jede GeForce RTX 4070 Ti Eagle OC das Geräusch derart ausgeprägt aufweist, ist unklar (und unwahrscheinlich), das Testsample hat aber extrem darunter gelitten.
Quelle: CB (https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/3/#abschnitt_lautstaerke__kuehlung)
Neosix
2023-01-06, 12:29:03
Hab ebenfalls die Eagle bestellt, und werd die ausgiebig "probehören". Hoffe das war bei CB wirklich nur ein Montagsmodell, sonst geht die eben zurück.
BlacKi
2023-01-06, 12:29:52
@BlacKi:
Gz, aber will ja dein Kauf nicht madig machen aber das kennst du?:
ich werde berichten. und wenns zu krass wird, geht die karte zurück. schließlich muss ich ja dem hersteller mein feedback geben:biggrin:
VooDoo7mx
2023-01-06, 12:31:37
Um nochmal eines klar zu stellen: Auch die 4070Ti ist eine UHD Karte.
Sie hat quasi die Performance einer 3090, welche noch vor einigen Monaten das Nonplusultra war.
Ich selber habe eine 3080Ti und spiele nur in UHD.
Ultra Details sind für dumme Leute.
Ich finde die "günstige" Inno 3D ganz nett. Tatsächlich mal eine Karte in 2 Slot Design mit 3 88mm Lüftern. :O
https://gzhls.at/i/12/01/2871201-l2.jpg
70% PT eingestellt und auch dieser "kleine" Kühler wird flüsterleise sein.
Ätznatron
2023-01-06, 12:45:17
Ich selber habe eine 3080Ti und spiele nur in UHD.
Ultra Details sind für dumme Leute.
Dann wollen wir alle uns mal an dir orientieren.
Neosix
2023-01-06, 12:46:05
@VooDoo7mx, Jop sieht auch sehr hübsch aus, könnte leider zu der keinen Test finden. Vielleicht bestelle ich die auch, und behalte die leisere statt der Eagle Hmmm.
Hott3X
2023-01-06, 12:57:48
Das einzig gute ist, dass es einen Tag nach Release noch genug Karten gibt und einige sogar zum UVP. Das lässt die Hoffnung leben, dass es in 1-2 Monaten die Preise noch mal ein wenig nachgeben. So eine Eagle oder TUF für 799€ und ich bin dabei.
GerryB
2023-01-06, 13:22:03
Um nochmal eines klar zu stellen: Auch die 4070Ti ist eine UHD Karte.
Ich selber habe eine 3080Ti und spiele nur in UHD.
Ultra Details sind für dumme Leute.
Mit ner 16GB-Graka bevorzuge ich max.Sichtweite+Details+Texturen, damit weniger aufploppt.(falls es doch mal in Game XYZ kurz ruckelt, darauf geschi...)
Dann wollen wir alle uns mal an dir orientieren.
Ganz so abwegig isses ja net, ... warum sollte man ULTRA-Schatten bis zum Horizont brauchen?
(für meine kleine CPU+GPU ist da weniger mehr)
Warum belastet eigentlich RT die CPU so stark?
(ich selbst spiele net mit RT, höre aber immer das Gejammer vom CPU-Bottleneck in den Threads)
Blase
2023-01-06, 13:23:08
Alleine durch eine weitere günstige Kursentwicklung bezüglich Dollar / Euro (https://www.finanzen.net/devisen/dollar/chart) kann dein "Wunschpreis" schon Realität werden :up:
Dann wollen wir alle uns mal an dir orientieren.
So in etwa habe ich auch gedacht :freak:
MfG Blase
YeahBuoy!
2023-01-06, 13:32:17
Falls mal jemand die von VooDoo7mx erwähnte Karte im Rechner stecken hat wäre ich an Erfahrungsberichten sehr interessiert. Derzeit werkelt eine RX6800 im Node304 am OLED im Wohnzimmer und bei entsprechend sinkenden Preisen (wegen meiner dann irgendwann mal auch gebraucht) + Zeit + Bastellaune könnte ich mal wieder schwach werden beim grünen Lager reinzuschnuppern.
readonly
2023-01-06, 13:34:17
Ich hab die 899€ Inno bestellt. Hoffe kommt morgen
Dann wollen wir alle uns mal an dir orientieren.
Da hat er aber ausnahmsweise mal Recht. Ultra Settings sind wirklich für dumme Leute.
Das ist doch in mind. 19 von 20 Fällen eine reine Alibi-Einstellung, damit sich Leute mit Porno-Hardware einen drauf rubbeln können. Die Unterschiede bei der BQ sind in den meisten Fällen nur per Pixelpeeping auf Screenshots oder mit mikroskopischen Studien von SloMo-Videos sichtbar.
Ja, klar, dann heißt es "Ich bin Enthusiast, ich will maximale BQ! (ungesagt: ...auch wenn ich im bewegten Bild keinen Unterschied sehe.)".
Besonders lustig wird es dann, wenn das von Leuten kommt, die anderswo behaupten, Ray Tracing ist unnötig, weil man eh keinen Unterschied sieht.
Lehdro
2023-01-06, 14:19:31
Ich würde das schon differenzieren: Ultradetails bei allem was die Sichtweite beeinflusst ist bei mir wegen Immersion Pflicht. Ansonsten reicht auch High, gerade bei schnelleren Spielen.
Asaraki
2023-01-06, 14:19:46
Fairer Punkt, aber dann kann man auch sagen "Blind alles auf Max stellen ist dumm" und damit würde ich dann einhergehen.
Gibt auch Settings, die auf Max einfach deutlich besser aussehen. Sichtweite z.B. macht viele Games viel immersiver.
Anyway, dumme Diskussion :D
Timbaloo
2023-01-06, 14:38:01
Hauptsache Chromatic Abberation ist an :ulol:
Oder wie ich es nenne: Chroamtic Abomination
fulgore1101
2023-01-06, 15:20:51
Ich hab gestern eine Asus Tuf zur UVP bestellt, habe aber Bedenken ob mein ca. 8 Jahre altes Be Quiet Straight Power E9 580W die ausreichend und vor allem sicher befeuern kann. Rein von der Leistung her sollte es passen, aber was ist mit Lastspitzen? Schafft es das Netzteil im Extremfall schnell genug abzuschalten ohne das Defekte auftreten?
Das Powerlimit der Karte werde ich wahrscheinlich dauerhaft auf ~250W stellen. Ansonsten sind noch ein Ryzen 5800x @ 65W, ein B550 Board, 32Gb Ram, 3 SSD, eine HDD und 3 Gehäuselüfter verbaut.
https://abload.de/thumb/bequietojczw.png (https://abload.de/image.php?img=bequietojczw.png)
Meint ihr, das reicht?
Ex3cut3r
2023-01-06, 15:29:03
Da hat er aber ausnahmsweise mal Recht. Ultra Settings sind wirklich für dumme Leute.
Das ist doch in mind. 19 von 20 Fällen eine reine Alibi-Einstellung, damit sich Leute mit Porno-Hardware einen drauf rubbeln können. Die Unterschiede bei der BQ sind in den meisten Fällen nur per Pixelpeeping auf Screenshots oder mit mikroskopischen Studien von SloMo-Videos sichtbar.
Ja, klar, dann heißt es "Ich bin Enthusiast, ich will maximale BQ! (ungesagt: ...auch wenn ich im bewegten Bild keinen Unterschied sehe.)".
Besonders lustig wird es dann, wenn das von Leuten kommt, die anderswo behaupten, Ray Tracing ist unnötig, weil man eh keinen Unterschied sieht.
Digital Foundry zeigt sehr gute Bespiele, wie man Details am PC einstellt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143
+117% bei optischen minimalen Unterschied.
Timbaloo
2023-01-06, 15:48:23
Ich hab gestern eine Asus Tuf zur UVP bestellt, habe aber Bedenken ob mein ca. 8 Jahre altes Be Quiet Straight Power E9 580W die ausreichend und vor allem sicher befeuern kann. Rein von der Leistung her sollte es passen, aber was ist mit Lastspitzen?
Die Lastspitzen waren zumindest in der 3000er Serie schon nicht mehr so extrem meine ich. Ich denke NV hat daraus gelernt. Und wenn schon, dann ersetzt du dein 8 Jahre altes Netzteil (sollte man nach der Zeit sowieso irgendwann mal).
Schafft es das Netzteil im Extremfall schnell genug abzuschalten ohne das Defekte auftreten?
Lastspitze zu groß? NT schaltet aus. Nix defekt.
Sardaukar.nsn
2023-01-06, 15:55:03
@fulgore1101: Ich denke das passt auf jeden Fall. Mit Powerlimit im Sweetspot bei 70-80% bist du eher um 200 Watt. Würde ich erstmal testen. Neu kaufen kannst du ja immer noch.
Schnitzl
2023-01-06, 18:40:01
Um nochmal eines klar zu stellen: Auch die 4070Ti ist eine UHD Karte.
Sie hat quasi die Performance einer 3090, welche noch vor einigen Monaten das Nonplusultra war.
Ich selber habe eine 3080Ti und spiele nur in UHD.
Ultra Details sind für dumme Leute.
Ich finde die "günstige" Inno 3D ganz nett. Tatsächlich mal eine Karte in 2 Slot Design mit 3 88mm Lüftern. :O
https://gzhls.at/i/12/01/2871201-l2.jpg
70% PT eingestellt und auch dieser "kleine" Kühler wird flüsterleise sein.
nett. ich hab gesehn, dass bei der iChill eine Stütze dabei ist. Aber bei der "normalen" wohl nicht?
Jedenfalls hab ich nix gesehn.
Digital Foundry zeigt sehr gute Bespiele, wie man Details am PC einstellt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143
+117% bei optischen minimalen Unterschied.
Die gesamte Vegetation säuft ja nur im Matsch ab weil DLSS Performance. "Minimaler" Unterschied am Arsch, Einbildung ist halt auch eine Bildung ;D
Thunder99
2023-01-06, 19:21:01
Aber es stimmt schon. Wie oft achtet man darauf wirklich? Ist unterschiedlich und subjektiv aber der Vorschlag ist durchaus angebracht (aber auch nicht meins :D )
Neosix
2023-01-06, 19:31:06
Bei einem Spiel wo man gefühlt 50% der Zeit im Gras sich versteck? Weiß nicht über DLSS Q/Balanced kann man immer Diskutieren, aber P ist halt schon für Leute die eigentlich zum optiker müssen.
dargo
2023-01-06, 19:40:23
Bei einem Spiel wo man gefühlt 50% der Zeit im Gras sich versteck? Weiß nicht über DLSS Q/Balanced kann man immer Diskutieren, aber P ist halt schon für Leute die eigentlich zum optiker müssen.
Sag das nicht zu laut. Gleich kommt Tesseract um die Ecke und erzählt dir wie toll DLSS-P doch ist. :D
Ich hab A Plague Tale Requiem mit max. Details und DLSS Q gezockt, deaktiviert waren nur CA und Motion Blur weil Augenkrebsgefahr. Mit den Settings war das Spiel für mich optisch der erste richtige Next-Gen Titel.
Bei DLSS geh ich allgemein nicht niedriger als Q weil die Bildquali sonst spürbar leidet.
aufkrawall
2023-01-06, 20:03:22
Sag das nicht zu laut. Gleich kommt Tesseract um die Ecke und erzählt dir wie toll DLSS-P doch ist. :D
Jedenfalls besser als FSR 2 Q, je nach Spiel um Welten.
Ex3cut3r
2023-01-06, 20:44:56
Die gesamte Vegetation säuft ja nur im Matsch ab weil DLSS Performance. "Minimaler" Unterschied am Arsch, Einbildung ist halt auch eine Bildung ;D
Übertreibst du da nicht etwas? :rolleyes:
Ohne Direktvergleich hättest du das nie im Leben erahnt, da lehne ich mal aus dem Fenster.
Man schaue sich nur mal den FPS Gewinn an...for free
Bei DLSS geh ich allgemein nicht niedriger als Q weil die Bildquali sonst spürbar leidet.
Wundert mich nicht, du hast auch kein 4K Display mit hoher PPI. Bei 1440p @ 27" und 108 PPi habe ich eigentlich auch nur Q benutzt, wobei B IMHO auch noch ok war. Bei 140 PPi (31,5" 4K) kann man locker Performance DLSS nutzen. Sieht bei den meisten Spielen immer noch hervorragend aus.
Tesseract
2023-01-06, 21:22:05
Sag das nicht zu laut. Gleich kommt Tesseract um die Ecke und erzählt dir wie toll DLSS-P doch ist. :D
DLSS-P hat ein viertel der ausgangsauflösung. für 4k native bekommt man in etwa DLSS-Q + 2,25DLDSR oder DLSS-P + 4xDSR von 8k runter. welche der beiden varianten besser aussieht müsste man genauer analysieren aber ich garantiere dir beide schlagen native 4k.
BlacKi
2023-01-06, 21:55:58
Meint ihr, das reicht?
easy
hab gerade die eagle für 899€ bei nbb geschossen
schade, heute keine versandbestätigung bekommen. wird wohl dienstag :(
prinz_valium_2
2023-01-06, 22:23:14
Da hat er aber ausnahmsweise mal Recht. Ultra Settings sind wirklich für dumme Leute.
Das ist doch in mind. 19 von 20 Fällen eine reine Alibi-Einstellung, damit sich Leute mit Porno-Hardware einen drauf rubbeln können. Die Unterschiede bei der BQ sind in den meisten Fällen nur per Pixelpeeping auf Screenshots oder mit mikroskopischen Studien von SloMo-Videos sichtbar.
Ja, klar, dann heißt es "Ich bin Enthusiast, ich will maximale BQ! (ungesagt: ...auch wenn ich im bewegten Bild keinen Unterschied sehe.)".
Besonders lustig wird es dann, wenn das von Leuten kommt, die anderswo behaupten, Ray Tracing ist unnötig, weil man eh keinen Unterschied sieht.
Bei manchen Einstellungen ist Ultra quasi Pflicht und bei anderen völlige Ressourcenverschwendung. Kommt drauf an.
The_Invisible
2023-01-07, 09:18:19
Bei einem Spiel wo man gefühlt 50% der Zeit im Gras sich versteck? Weiß nicht über DLSS Q/Balanced kann man immer Diskutieren, aber P ist halt schon für Leute die eigentlich zum optiker müssen.
In UHD ist Upscaling halt nochmal anders zu bewerten, da ist DLSS-Q ja gleich der "Winz-Auflösung" 1440p :D Bedeutet auch es können viel mehr Detailpixel zum Upscaling verwendet werden.
Wenn man es selber nicht gesehen hat würde ich da nicht vorschnell Schlüsse ziehen
aufkrawall
2023-01-07, 09:25:42
Das muss mit DLSS P auf 1440p nicht unbedingt anders sein, auf Screenshots kommt verpixeltes TAA auch gerne mal scheinbar detailreicher rüber. Hängt natürlich auch stark davon ab, wie viele Federn die Spieleffekte durch die niedrigere Auflösung lassen. Wer nicht sieht, dass DLSS Performance in Bewegung oft immer noch weniger fehlerhaft aussieht als TAA nativ, ist einfach blind gegenüber TAA-Artefakten.
horn 12
2023-01-07, 09:37:51
Mit einem UWQHD kann man mit DLSS auch 5160 x 2160 einstellen, also 50% überhalb der Nativen Auflösung?
Und das Game wird dann mit dieser Auflösung gezockt.
aufkrawall
2023-01-07, 09:43:07
Kannst DSR und DLDSR mit DLSS-Stufen kombinieren, wie du lustig bist. Wenn dir 935p mit DLSS Q zu wenig sind, geht auch DLSS UP mit 4xDSR. Sind dann 950p, wenn das nicht endgeil ist.. :freak:
readonly
2023-01-07, 09:52:12
Inno 4070ti ist da. Mal gucken ob alles funzt.
Update: Austausch 3060ti zu 4070ti bisher problemlos. Hatte Sorge wegen Vr, da haben die neueren Treiber ab 517 bei mir mit der Ampere gezuppelt (WMR schon im Home). Das Verhalten zeigt die 4070ti nicht. Könnte aber auch an den neuen Treibern liegen.
Erster Bench 3dMark Timespy (10700k) vorher 11. 935 (mit OC) nun 19.319 (ohne OC)
Troyan
2023-01-07, 10:22:11
PNY hat den 12 PIN Anschluss nach innen versetzt:
https://www.reddit.com/r/nvidia/comments/104gzmj/pny_geforce_rtx_4070_ti_has_a_deeper_recessed/
Asaraki
2023-01-07, 10:26:55
PNY hat den 12 PIN Anschluss nach innen versetzt:
https://www.reddit.com/r/nvidia/comments/104gzmj/pny_geforce_rtx_4070_ti_has_a_deeper_recessed/
Naja da wurde es auch sehr ruhig um die Geschichte. Fühlte mich bei meinem auch kein Stück unwohl :D Aber trotzdem nice, vielleicht lässt es ja jemanden ruhiger schlafen ^^
Blase
2023-01-07, 10:44:57
Inno 4070ti ist da. [...]
Erster Bench 3dMark Timespy (10700k) vorher 11. 935 (mit OC) nun 19.319 (ohne OC)
Mach den Witcher 3 an, hau Auflösung und alle Regler nach rechts (inkl. DLSS 3 und FG) und genieße :up:
MfG Blase
Neosix
2023-01-07, 11:20:01
Inno 4070ti ist da. Mal gucken ob alles funzt.(ohne OC)
erzähl auch was zur lautstarke pls, immerhin das einzige modell im 2slot design.
Sardaukar.nsn
2023-01-07, 11:42:02
Bei Palit gibts was zu basteln. Finde ich ja sypathisch https://eu.palit.com/maker/index_de.php
fPohy2mjJQ8
readonly
2023-01-07, 12:12:21
erzähl auch was zur lautstarke pls, immerhin das einzige modell im 2slot design.
Hab jetzt mal einfach den Furmark im Fenster laufen lassen. Afterburner auf Auto (GPU bei 72 Grad) - Lautstärke mit Handyapp gemessen 45db. Wenn ich den Lüfter auf 100% stelle ohne Automatik erreichen die Lüfter 52db.
Nebenbei noch mal die CPU durch die Cyberpunk Installation belastet, (80-100%), da ist mein Alpenföhn Cooler genauso laut. Also um die 45db.
Gehäuse liegend und offen (HTPC - Deckel passt nicht mehr :D)
BTW Core Overclock 250Mhz führte im Furmark zum Absturz, bisher bei +155 stabil. Speicher muss ich noch testen, da sollte mehr gehen. Gerade bei +918 stabil. Irgendwo einen Test gelesen da wurde +2000 angelegt, stabil. GPU Takt, auch nur so ein paar Mhz
EDIT War auf Guru3 https://www.guru3d.com/articles-pages/geforce-rtx-4070-ti-review,30.html
Neosix
2023-01-07, 12:13:26
Die Karte hatte kein Dual/Silent Bios Schalter oder? 45DB ist schon "nicht leise".
dildo4u
2023-01-07, 12:21:34
Diese Karten müssten leiser sein ansonsten stimmt was nicht diese Gigabyte ist bei 37 was sinn macht TDP selten über 250.
https://www.guru3d.com/articles_pages/geforce_rtx_4070_ti_review,9.html
Gumril
2023-01-07, 12:28:55
dB Angaben sind nicht wirklich gut zu vergleichen weil jeder ein anders Testsetup fährt.
@readonly: wenn du noch Bock hast könntest du die Lüfterdrehzahlen angeben?
readonly
2023-01-07, 12:39:28
dB Angaben sind nicht wirklich gut zu vergleichen weil jeder ein anders Testsetup fährt.
@readonly: wenn du noch Bock hast könntest du die Lüfterdrehzahlen angeben?
Mal eben gemacht, wie gesagt, alles Furmark mit einem 1368xnochwas Fenster.
GPU Lüfter bei 100% = 2790rpm
bei 70 Grad = 2040rpm
bei 75 Grad = 2150rpm
Alles bei einem GPU Takt von 2730Mhz
Ach und im Idle sind die Lüfter aus. (EDIT99: Ne, doch nicht, keine Ahnung, manchmal sind die aus. Im Idle Lüfter bei 1250rpm)
Bei CP77 komm ich auf max 65 Grad mit 1800rpm - Lautstärke dann bei 37db
Die Karte hatte kein Dual/Silent Bios Schalter oder? 45DB ist schon "nicht leise".
Nicht das ich wüsste. Ist ja auch eher eine günstige Variante, die Lüfter dazu mit 88mm noch klein. Die Lüfter kann man im Afterburner zweigeteilt regeln, macht imho aber keinen Sinn.
Also mich stört es nicht wirklich, da ich aber im Wohnzimmer zocke und der Rechner 4 Meter von mir entfernt steht, ist das natürlich relativ. +2000Mhz für den Speicher lässt die Karte abstürzen, bin aktuell bei +163 GPU +1000 Speicher und taste mich mal ran.
Ich mag das schlichte Design. Nebenbei, das INNO3D Logo obendrauf leuchtet weiss. Läuft bei mir mit nem Enermax 700 Watt Netzteil stabil. Inno empfiehlt auch 700 Watt
Übertreibst du da nicht etwas? :rolleyes:
Ohne Direktvergleich hättest du das nie im Leben erahnt, da lehne ich mal aus dem Fenster.
Lehn dich besser nicht zu weit raus. Ich lege viel Wert auf eine anständige Bildqualität und gehöre wohl zu den wenigen die im globalen Treiberprofil 16x HQ-AF geforced haben. Verschlimmbesserer wie CA, Kamera Motionblur und überschärftes DLSS haben bei mir ebenfalls keine Chance. DLSS 2.5.1 ist ein echter Segen was das angeht.
Also deshalb: doch, Vegetation die in Matsch und Artefakten versinkt würde mir ziemlich sicher schnell auffallen.
Wundert mich nicht, du hast auch kein 4K Display mit hoher PPI. Bei 1440p @ 27" und 108 PPi habe ich eigentlich auch nur Q benutzt, wobei B IMHO auch noch ok war. Bei 140 PPi (31,5" 4K) kann man locker Performance DLSS nutzen. Sieht bei den meisten Spielen immer noch hervorragend aus.
Bei 140 PPI von "hoch" zu reden ist schon sehr gewagt. Mein Primärmonitor läuft übrigens mit 5120x1440 auf 49". Das ändert nichts an den 108 PPI, ist vom Pixelcount her aber nur minimal unter 3840x2160 und somit nahezu identisch anspruchsvoll für die Grafikkarte.
Ex3cut3r
2023-01-07, 14:17:18
Lehn dich besser nicht zu weit raus. Ich lege viel Wert auf eine anständige Bildqualität und gehöre wohl zu den wenigen die im globalen Treiberprofil 16x HQ-AF geforced haben. Verschlimmbesserer wie CA, Kamera Motionblur und überschärftes DLSS haben bei mir ebenfalls keine Chance. DLSS 2.5.1 ist ein echter Segen was das angeht.
Also deshalb: doch, Vegetation die in Matsch und Artefakten versinkt würde mir ziemlich sicher schnell auffallen.
Bei 140 PPI von "hoch" zu reden ist schon sehr gewagt. Mein Primärmonitor läuft übrigens mit 5120x1440 auf 49". Das ändert nichts an den 108 PPI, ist vom Pixelcount her aber nur minimal unter 3840x2160 und somit nahezu identisch anspruchsvoll für die Grafikkarte.
Zu naher treten wollte ich dir nicht, sry, wenn es so rüberkam.
Mit 2.5.1 dll und Max Settings sieht es nun so aus.
P:
https://abload.de/thumb/aplaguetalerequiem_x6xmicj.png (https://abload.de/image.php?img=aplaguetalerequiem_x6xmicj.png)
Q:
https://abload.de/thumb/aplaguetalerequiem_x6q6ey1.png (https://abload.de/image.php?img=aplaguetalerequiem_x6q6ey1.png)
Ich werde trotzdem mit optimierten Settings von DF und DLSS P. Ohne Direktvergleich fällt mir nichts Böses auf, und die Framerate ist gigantisch höher. Ich bin keiner, der sich auf Max Settings einen runterholt und/oder durchdreht, wenn nicht alles auf Max steht. Der Sprung auf 4K 32" von 27" 1440p war der größte optische Gewinn, gleich neben RTAO/GI. Die letzten Jahre. Da kommt kein "Ultra Setting" oder sonstiges ran.
dildo4u
2023-01-07, 14:19:52
MSI Twitter "Not as Bad as 4080" :D
https://videocardz.com/newz/msi-says-geforce-rtx-4070-ti-cost-is-not-as-bad-as-rtx-4080
Troyan
2023-01-07, 14:23:32
Sind $400 weniger. Wie schlecht müsste die Karte sein, dass die 4080 besser wäre? :freak:
BlacKi
2023-01-07, 14:43:10
falls es jemand nicht checkt, aber das ist offene kritik seitens msi an die preispolitik nvidias. like a slap in the face of nvidia. nicht nur wegen des preises der 4080.
Troyan
2023-01-07, 15:32:21
falls es jemand nicht checkt, aber das ist offene kritik seitens msi an die preispolitik nvidias. like a slap in the face of nvidia. nicht nur wegen des preises der 4080.
Die müssen doch keine Karten verkaufen. Also so wie bei AMD. :cool:
BlacKi
2023-01-07, 16:10:59
Die müssen doch keine Karten verkaufen. Also so wie bei AMD. :cool:damit wollen sie sich hinter die gamer stellen, bzw. aus der schusslinie treten.
Palpatin
2023-01-07, 17:12:01
Meine Palit ist heute auch gekommen, eingebaut schön leise (viel besser als die dual FAN Asus 3070) und auch ein ordentlicher Performance Boost, 10900 im Timespy Extreme mit Quiet Bios. Bis auf den Preis super Karte, etwa gut 200€ zu teuer meiner Meinung nach.
Timbaloo
2023-01-07, 17:21:04
Dass mittlerweile viele Hersteller ein Quiet-Bios anbieten ist eine feine Sache. Frag ich mich warum nicht schon lange so...
Schnitzl
2023-01-07, 18:53:24
Meine Palit ist heute auch gekommen, eingebaut schön leise (viel besser als die dual FAN Asus 3070) und auch ein ordentlicher Performance Boost, 10900 im Timespy Extreme mit Quiet Bios. Bis auf den Preis super Karte, etwa gut 200€ zu teuer meiner Meinung nach.
interessant, ich hab auch noch die Asus Dual 3070 - danke für deine Einschätzung :up:
Hast du Zeit etwas mehr zu schreiben? (wenn du z.B. Control, Cyberpunk oder Witcher3 hast)
Mich würde interessieren in wiefern sich das schmale Speicherinterface bemerkbar macht ... oder nicht bemerkbar macht :D
MfG
Ex3cut3r
2023-01-07, 19:00:38
Macht sich wegen dem zusätzlich aufgebohrten Cache in Ada nicht bemerkbar. Ich habe eine 3080 Ti mit 384-Bit Bus 1TB Bandbreite (Mem OC) und bin trotzdem in vielen Spielen 5-10% langsamer. Klar, ist es ungewohnt eine 70-Ti Karte mit 192-Bit zu sehen, das sollte man aber IMHO ausklammern.
Crazy_Chris
2023-01-07, 19:10:16
Ist doch im Grunde auch Wurscht solange die Performance stimmt. :redface: Wer ein 512bit Interface will der soll sich eine GTX 285 kaufen und sich dann daran erfreuen.
dargo
2023-01-07, 19:15:54
Auf dem US-Markt kommt die 4070TI angeblich nicht gut weg.
0thXn11i2Qk
Interessante Randnotiz - die kriegen dort eine 7900XTX Powercolor Red Devil Limited Edition für 1049$. Wir hier werden noch gerupft. :D
https://geizhals.de/powercolor-radeon-rx-7900-xtx-red-devil-limited-edition-rx-7900-xtx-24g-e-oc-limited-a2864143.html?hloc=de
Schnitzl
2023-01-07, 19:16:54
Macht sich wegen dem zusätzlich aufgebohrten Cache in Ada nicht bemerkbar. Ich habe eine 3080 Ti mit 384-Bit Bus 1TB Bandbreite (Mem OC) und bin trotzdem in vielen Spielen 5-10% langsamer. Klar, ist es ungewohnt eine 70-Ti Karte mit 192-Bit zu sehen, das sollte man aber IMHO ausklammern.
Ist doch im Grunde auch Wurscht solange die Performance stimmt. :redface: Wer ein 512bit Interface will der soll sich eine GTX 285 kaufen und sich dann daran erfreuen.
siehe 5800X3D
bei manchen Spielen bringts nix, bei anderen bis zu 20%.
Man darf mich gerne vom Gegenteil überzeugen und meine Bedenken zerstreuen :)
Ex3cut3r
2023-01-07, 19:36:26
siehe 5800X3D
bei manchen Spielen bringts nix, bei anderen bis zu 20%.
Man darf mich gerne vom Gegenteil überzeugen und meine Bedenken zerstreuen :)
Das sollte reichen:
https://abload.de/img/screenshot2023-01-071gnimu.png
https://abload.de/img/screenshot2023-01-071s1cce.png
Neosix
2023-01-07, 19:51:48
Bin mir nicht sicher ob das Verlinkt wurde
Bauer hat Ram OC getestet
lWgABosEO2o
Fazit bringt quasi 0. Kann man auch lassen.
Timbaloo
2023-01-07, 20:41:17
"WE WON!"
Ja, der durchschnittliche Content-Creator verdient sicher gut an der aktuellen Preissituation.
Palpatin
2023-01-07, 21:59:22
Hast du Zeit etwas mehr zu schreiben? (wenn du z.B. Control, Cyberpunk oder Witcher3 hast)
Mich würde interessieren in wiefern sich das schmale Speicherinterface bemerkbar macht ... oder nicht bemerkbar macht :D
Bisher macht es sich nicht negativ bemerkbar und Cyberpunkt lässt sich jetzt mit DLSS auf Quality und RT auf Ultra ganz gut in 4k spielen, Frames könnten noch etwas besser sein aber mit GSYNC bin ich zufrieden, evtl lohnt hier das warten auf DLSS 3.0.
Was jetzt richtig gut läuft in 4k ist Uncharted das war mit der 3070 sehr grenzwertig.
Ex3cut3r
2023-01-07, 22:12:47
Bisher macht es sich nicht negativ bemerkbar und Cyberpunkt lässt sich jetzt mit DLSS auf Quality und RT auf Ultra ganz gut in 4k spielen, Frames könnten noch etwas besser sein aber mit GSYNC bin ich zufrieden, evtl lohnt hier das warten auf DLSS 3.0.
Ja, mit diesen Settings @ 4K, selbst mit DLSS Q, bist du im Moment ohne FG nur bei 35-40 FPS im Schnitt. IMHO ziemlich unbefriedigend bei einer nagelneuen teuren GPU. :freak:
Allerdings könntest du es mit DF Settings und DLSS P + CAS Nachschärfen via Reshade. Auf 70-80 FPS kommen. Ohne RT sind es mit einer 3080 Ti OC @ 4K + DF Settings + DLSS P über 100 FPS.
https://abload.de/img/digitalfoundry-cyberpwlclz.png
https://abload.de/img/digitalfoundry-cyberpppeba.png
aufkrawall
2023-01-07, 22:24:34
Semi glossy Reflexionen lassen allerdings arg Federn mit DLSS P vs. Q, da dürfte Q mit FG der deutlich bessere Deal sein.
Troyan
2023-01-07, 22:30:58
FG ist generell besser, wenn man genug Frames ab. Ab 60FPS ist es DLSS vorzuziehen. Wenn man jedoch hohe Frames will, dann macht die Kombination aus Upscaling und FG Sinn, dadurch fast 3x mehr Frames möglich sind, wenn man per Upscaling ins CPU-Limit kommt.
Ex3cut3r
2023-01-07, 22:31:41
FG gibt es ja noch nicht in CP77 oder doch?
Troyan
2023-01-07, 22:40:03
Nein, irgendwann mal.
ChaosTM
2023-01-07, 22:43:58
Wurde nur an ein paar Streamer und Tester ausgegeben. Ich nehme an es kommt für alle beim nächsten Patch.
Beim Witcher und vor allem dem FS2020 ist FG für mich ein "Gamechanger", auch wenn höhere Basis-FPS besser sind, wie der Troyaner schon anmerkte.
CP77 ist nicht so CPU Limitiert. Das skaliert recht nett bis hinauf zu 16/32 und Ultra/PsychoRT.
MSABK
2023-01-07, 22:50:26
Auf dem US-Markt kommt die 4070TI angeblich nicht gut weg.
https://youtu.be/0thXn11i2Qk
Interessante Randnotiz - die kriegen dort eine 7900XTX Powercolor Red Devil Limited Edition für 1049$. Wir hier werden noch gerupft. :D
https://geizhals.de/powercolor-radeon-rx-7900-xtx-red-devil-limited-edition-rx-7900-xtx-24g-e-oc-limited-a2864143.html?hloc=de
Der Absatz bricht halt ein, viele haben halt kein Geld mehr übrig für Spielereien.
[MK2]Mythos
2023-01-07, 23:18:05
Über die Marketingfails der neuen AMD Karten wurde ja zurecht Kritik laut, aber ist das hier schon jemandem aufgefallen?
Die ursprünglich 4080 12GB Geforce sollte laut nv Marketing bis zu 2-4 mal schneller sein als die 3080Ti.
Jetzt ist laut nv Marketing die 4070 Ti bis zu 3 mal schneller als die 3090Ti. ;D:ulol4:
nULd0ru-slc
Rancor
2023-01-07, 23:23:10
Der Absatz bricht halt ein, viele haben halt kein Geld mehr übrig für Spielereien.
Die Karten sind einfach viel zu teuer. Außerhalb der Nerdblase wie dem 3DC geben halt die wenigstens nen Tausender für ne Grafikkarte aus.
[MK2]Mythos
2023-01-07, 23:39:22
Die Karten sind einfach viel zu teuer. Außerhalb der Nerdblase wie dem 3DC geben halt die wenigstens nen Tausender für ne Grafikkarte aus.
Dafür verkaufen sich die Karten bis hinauf zur 4090 aber erstaunlich gut...;)
Rancor
2023-01-07, 23:40:24
Mythos;13207677']Dafür verkaufen sich die Karten bis hinauf zur 4090 aber erstaunlich gut...;)
Die 4080 verkauft sich grottig und die 4090 wird safe bald einbrechen, denn alle die bereit sind soviel Geld für ne VGA auszugeben,haben das schon getan.
CompuJoe
2023-01-07, 23:43:10
Ja, ist halt echt Heftig mit den Preisen seit ein paar Jahren, alle die nicht mal eben das Geld locker machen können wenden sich auch vom PC-Gaming ab und kaufen sich Konsolen oder geben das Gaming komplett auf.
Sehe das bei mir im Freundeskreis recht deutlich!
Die 4080 verkauft sich grottig und die 4090 wird safe bald einbrechen, denn alle die bereite sind soviel Geld für ne VGA auszugeben haben das schon getan.
Wenn die Nerds mit Kohle versorgt sind geht es abwärts, Mining ist ja nicht mehr aktuell.
BlacKi
2023-01-07, 23:45:03
Die 4080 verkauft sich grottig und die 4090 wird safe bald einbrechen, denn alle die bereite sind soviel Geld für ne VGA auszugeben haben das schon getan.was auf das ganze portfolio zutreffen wird und die preise am markt sich langsam anpassen werden, weil die, die bereit sind, schon gekauft haben, aber nv zuviel karten hat.
wird aber etwas zeit brauchen.
ChaosTM
2023-01-08, 00:00:33
Im oberen Bereich wird man den Preis kaum senken, aber es müssen dringend bezahlbare und halbwegs schnelle Varianten im 200-400 Euro Bereich her, sonst geht die Abwanderung zu den Konsolen munter weiter.
BlacKi
2023-01-08, 00:05:23
Im oberen Bereich wird man den Preis kaum senken, aber es müssen dringend bezahlbare und halbwegs schnelle Varianten im 200-400 Euro Bereich her, sonst geht die Abwanderung zu den Konsolen munter weiter.die konsole war und wird immer billiger sein als ein midrange pc. und trotzdem haben die leute einen pc. ich find, die aussage hat schon früher nicht gezogen und zieht heute immernoch nicht. spätestens seit dem kryptomining hat doch schon jeder gewechselt, für den konsolen in frage kommen.
ich glaube eher, seitdem die preise sich entspannt haben, das spieler wieder auf den pc wechseln. habt ihr total vergessen wo wir gerade preislich herkommen?
ChaosTM
2023-01-08, 00:12:18
Die Leute haben heutzutage zunehmend APU based Laptops, die auch als Desktop replacements verwendet werden.
PC Gaming wird natürlich nicht sterben, aber die hohen GPU Preise helfen eher den Konsolen.
Und die Preise werden zwar etwas runter gehen, aber nicht mehr annähernd auf den Level von vor der Pandemie.
Ich hoffe ich täusche mich.
DrFreaK666
2023-01-08, 03:03:44
Mythos;13207677']Dafür verkaufen sich die Karten bis hinauf zur 4090 aber erstaunlich gut...;)
Erstaunlich gut? Wie viele Karten sind es denn?
Das halte ich für ein Mythos :D
Palpatin
2023-01-08, 03:05:41
Im oberen Bereich wird man den Preis kaum senken, aber es müssen dringend bezahlbare und halbwegs schnelle Varianten im 200-400 Euro Bereich her, sonst geht die Abwanderung zu den Konsolen munter weiter.
Gibt es den die PS5 nach 2 Jahren jetzt mal normal irgendwo zu kaufen?
DrFreaK666
2023-01-08, 03:29:33
Gibt es den die PS5 nach 2 Jahren jetzt mal normal irgendwo zu kaufen?
Nein.
Gibt es sonst keine anderen Konsolen?
anorakker
2023-01-08, 10:42:19
Man darf halt nicht vergessen, dass sich wohl kaum eine andere Gruppe demografisch so über die letzten Jahrzehnte verändert hat, wie die PC-Spieler.
Wir sind alle mit PCs älter geworden und ältere Menschen haben einfach mehr Kaufkraft und Geld zur Verfügung. Es ist nur logisch, dass die Industrie dies in vollen Zügen auskostet.
Den typischen RTX40X0 Kaüfer würde ich jetzt eher nicht bei den 15-25 Jährigen suchen, sondern eher bei 35-45.
Monsta
2023-01-08, 10:46:39
Gibt es den die PS5 nach 2 Jahren jetzt mal normal irgendwo zu kaufen?
Bei den Gpu Preisen wird das auch so bleiben. Bei Ps4 Release war die Gtx770 für ca. 350€ zu haben, das war schon ordenlich Konkurenz, ein Jahr später gab es die 970 für ca. 350€. Die ordentlich mehr Dampf hatte.
Da haben sicher einige eher zum Gpu gegriffen anstatt zur Konsole.
Da war die Ps4 überall verfügbar.
DrFreaK666
2023-01-08, 11:40:49
Man darf halt nicht vergessen, dass sich wohl kaum eine andere Gruppe demografisch so über die letzten Jahrzehnte verändert hat, wie die PC-Spieler.
Wir sind alle mit PCs älter geworden und ältere Menschen haben einfach mehr Kaufkraft und Geld zur Verfügung. Es ist nur logisch, dass die Industrie dies in vollen Zügen auskostet.
Den typischen RTX40X0 Kaüfer würde ich jetzt eher nicht bei den 15-25 Jährigen suchen, sondern eher bei 35-45.
Konsolen-Spieler sind auch gealtert und wären sicher nicht bereit 1500€ für eine Konsole zu zahlen, geschweige denn dem/den Kind/ern eine für den Preis zu kaufen.
Bei Konsolen gehts immer noch ums zocken
Asaraki
2023-01-08, 12:07:29
Konsolen-Spieler sind auch gealtert und wären sicher nicht bereit 1500€ für eine Konsole zu zahlen, geschweige denn dem/den Kind/ern eine für den Preis zu kaufen.
Bei Konsolen gehts immer noch ums zocken
Da bin ich gar nicht so sicher... angenommen es gäbe eine "Superfast" Konsole für 1500. Ich glaube die würde sich gar nicht so schlecht verkaufen.
DrFreaK666
2023-01-08, 12:46:23
Was heißt "gar nicht mal so schlecht"?
MS und Sony machen keine teure Konsole, weil sie sich vielleicht gar nicht mal so schlecht verkauft. Da lohnen sich F&E-Kosten nicht. Und dann vielleicht ne halbe Million produzieren.
Das ist viel zu teuer
The_Invisible
2023-01-08, 13:02:21
Da bin ich gar nicht so sicher... angenommen es gäbe eine "Superfast" Konsole für 1500. Ich glaube die würde sich gar nicht so schlecht verkaufen.
Die Konsolenhersteller machen die Kohle eh über Software, das geht halt am PC nicht, Intel/Nvidia/AMD bekommen da nix
Blase
2023-01-08, 13:39:43
Auch wenn es hier hart OT ist - ich bin ziemlich sicher, dass die Konsolen auch vom Preis her spürbar steigen könnten und sie dennoch kaum Einbruch bei den Verkaufszahlen diesbezüglich hätten. Ich meine, was ist denn die Alternative ;) Zumal jeder Arsch mit nur Luft im Portemonnaie dennoch mit nem neuen iPhone oder Samsung hastenichtgesehen rum läuft. Für technische Spielereien ist immer Geld da...
Zumal sich ne Konsole idR ja noch einmal deutlich länger hält, als ne durchschnittliche GPU in einem Spiele PC (oder das neueste iPhone)...
Und dass PC Gaming irgendwann tot sei und alle zur Konsole greifen... die Leier hören wir imho seit der allerersten Konsolen Generation, oder? Aber diese Mal bestimmt... :tongue:
MfG Blase
Troyan
2023-01-08, 13:47:07
Konsolen sind auch soviel günstiger. Nur 79€ für neue Spiele und eine Grafikleistung einer 360€ Karte. Ja, voll geil so 550€ für eine PS5 zu bezahlen.
Offensichtlich haben einige kein Plan, wie lahm die neuen Konsolen sind...
BlacKi
2023-01-08, 13:49:27
dafür kann man die games nach dem durchzocken auch wieder verkaufen. was games angeht, wäre für mich die konsole billiger.
aber es geht bei mir nicht um die kosten, sondern um die eingabegeräte und herzzahl.
MiamiNice
2023-01-08, 14:03:45
Im oberen Bereich wird man den Preis kaum senken, aber es müssen dringend bezahlbare und halbwegs schnelle Varianten im 200-400 Euro Bereich her, sonst geht die Abwanderung zu den Konsolen munter weiter.
Die Abwanderung an die Konsolen ist, wenn man den Statistiken traut, schon lange beendet. Es findet seit Jahren imo eher eine Abwanderung bei den Konsolen statt. Sony verzeichnet immer weniger Logins und Abos. Die Leute wandern zu mibile Gaming ( hier steigen die Umsätze massiv ) und zurück zum PC. Während der Pandemie, Zeiten von 3000€ Pixelschleudern, hat Steam im gefühlt alle drei Monate neue Rekordzahlen bei neuen Accounts und gleichzeitig eingeloggten Usern verzeichnet. Sony nur rückgängige Userzahlen.
Ich sehe PC Gaming allgemein eher im kommen, ungeachtet der HW Preise.
DrFreaK666
2023-01-08, 14:09:58
...Offensichtlich haben einige kein Plan, wie lahm die neuen Konsolen sind...
Wen interessiert das? Das sind Spielekonsolen und keine Benchmarkkonsolen
Während der Pandemie, Zeiten von 3000€ Pixelschleudern, hat Steam im gefühlt alle drei Monate neue Rekordzahlen bei neuen Accounts und gleichzeitig eingeloggten Usern verzeichnet. Sony nur rückgängige Userzahlen.
Anhand der Steam Zahlen ist aber eindeutig zu erkennen, dass hochpreisige Hardware dabei keine Rolle spielt. Der Löwenanteil der Nutzer bewegt sich im Bereich GTX 1060 - RTX 3060. Die einzige relevante Karte mit höherem Wert ist die 3080, alles darüber ist bedeutungslos was die Verbreitung angeht.
Überaschend ist auch die Bedeutungslosigkeit von AMD GPUs. RDNA1 ist nur sehr schwach vertreten und RDNA2 komplett irrelevant. Das steht im krassen Gegensatz zu den Hardware-Forum Bubbles in denen AMD so in den Himmel gelobt wird ;)
MiamiNice
2023-01-08, 14:31:23
Ja, das stimmt.
Der Anteil an GPUs überrascht mich allerdings weniger, dass ist seit Jahren so. Haben die Bubbles allerdings erst wahrgenommen, als die Zahlen von dieser Statistik Firma (Peddie Research?) veröffentlicht wurden. Davor hat man sich in Zahlen von MF gesuhlt.
aufkrawall
2023-01-08, 14:38:58
Desktop-Retail Europa ist halt winzig im Vergleich zu Notebooks, OEMs und Internetcafes in Asien. Weshalb AMD in diesen Bereichen komplett versagt, ist ja bekannt.
Dazu kommt auch die Loser-Mentalität, die sie ausstrahlen. Mit RDNA3 auf die Spitze getrieben: Vorher richtig großer Klappe, dann das schlechteste Produkt seit Langem, inkls. dicker Pannen. Aber trotzdem Wucher-Preise aufrufen. Mal gucken, ob Nvidia bei JP >90% geht...
Pumpi74
2023-01-08, 15:13:53
Das GameStreaming wird immer besser. Wenn Konsolen zu teuer werden dann werden die Leute sich wieder mal überlegen was sie machen. 1000€ nur für die Grafikkarte ? 1000€ für ne Konsole + drei Spiele ? Vermutlich nicht. nVidia kann es egal sein, die besten und effizientesten Gameserver werden definitiv sie bereit stellen.
fizzo
2023-01-08, 16:41:53
Konsolen sind auch soviel günstiger. Nur 79€ für neue Spiele und eine Grafikleistung einer 360€ Karte. Ja, voll geil so 550€ für eine PS5 zu bezahlen.
Offensichtlich haben einige kein Plan, wie lahm die neuen Konsolen sind...
Xbox Series X + Game Pass - zocken war die letzten 2 Jahre noch nie so "günstig" für mich. Audiovisuell kann ich auch nicht meckern, was sich da so am 65" OLED abspielt kann sich sehen lassen.
Stelle mir jetzt aber auch wieder einen neuen PC zusammen. Mir stäubt es jedoch eine Grafikkarte zu kaufen, welche mehr kostet wie das restliche System. Da spiele ich nicht mit.
Sardaukar.nsn
2023-01-08, 17:13:27
Das GameStreaming wird immer besser. Wenn Konsolen zu teuer werden dann werden die Leute sich wieder mal überlegen was sie machen. 1000€ nur für die Grafikkarte ? 1000€ für ne Konsole + drei Spiele ? Vermutlich nicht. nVidia kann es egal sein, die besten und effizientesten Gameserver werden definitiv sie bereit stellen.
Ich denke auch dahin kann die Reise gehen, zumindest für Gelegenheitsspieler. Nvidia und LG kooperieren ja in dem Bereich und GeForce Now gibt es als 4k App direkt auf dem TV. Da brauchts keine Konsole, Shield usw. mehr.
https://hifi.de/news/ces-2023-lg-erweitert-cloud-gaming-angebot-an-smart-tvs-geforce-now-in-4k-128422
readonly
2023-01-08, 17:46:04
Ich denke auch dahin kann die Reise gehen, zumindest für Gelegenheitsspieler. Nvidia und LG kooperieren ja in dem Bereich und GeForce Now gibt es als 4k App direkt auf dem TV. Da brauchts keine Konsole, Shield usw. mehr.
https://hifi.de/news/ces-2023-lg-erweitert-cloud-gaming-angebot-an-smart-tvs-geforce-now-in-4k-128422
GeForce Now ist doch mit eigenen Steam Games, wenn ich nicht irre? Macht für die absoluten Gelegenheitsspieler die nur mal ne Runde auf dem TV zocken wollen, eigentlich wenig Sinn. Die packen das jetzt nur als Marketing Aktion auf die TVs. Denke, das werden die User kaum bis gar nicht nutzen.
Streaming ist nicht die Lösung. So eingeschränkt wie Geforce Now schon überhaupt nicht. Ne Xbox Streaming App, die würde Sinn machen. Da kann man die App installieren, Controller koppeln und über den Gamepass zocken.
Exxtreme
2023-01-08, 22:38:20
MLID meint, das Ding verkauft sich nicht bzw. tendenziell schlechter als die RTX 4080.
https://www.youtube.com/watch?v=bdlBzv45iQI&t=180s
Schnitzl
2023-01-09, 00:46:37
Das sollte reichen:
https://abload.de/img/screenshot2023-01-071gnimu.png
https://abload.de/img/screenshot2023-01-071s1cce.png
ok reicht :D
Bisher macht es sich nicht negativ bemerkbar und Cyberpunkt lässt sich jetzt mit DLSS auf Quality und RT auf Ultra ganz gut in 4k spielen, Frames könnten noch etwas besser sein aber mit GSYNC bin ich zufrieden, evtl lohnt hier das warten auf DLSS 3.0.
Was jetzt richtig gut läuft in 4k ist Uncharted das war mit der 3070 sehr grenzwertig.
Danke für den Ersteindruck :up:
dargo
2023-01-09, 07:07:41
MLID meint, das Ding verkauft sich nicht bzw. tendenziell schlechter als die RTX 4080.
https://www.youtube.com/watch?v=bdlBzv45iQI&t=180s
Ob die Spieler endlich begriffen haben, dass sie die Macht mit ihrer Brieftasche haben und nicht die IHVs? :tongue: Würde mich überraschen. ;)
DrFreaK666
2023-01-09, 08:43:09
Wieso nicht? Enthusiasten schauen nicht aufs Geld, "normale" Gamer schon eher
Crazy_Chris
2023-01-09, 09:38:31
MLID meint, das Ding verkauft sich nicht bzw. tendenziell schlechter als die RTX 4080.
https://www.youtube.com/watch?v=bdlBzv45iQI&t=180s
"no one wants this shit" :wink:
dildo4u
2023-01-09, 10:00:29
Die Chips gehen einfach ins Notebook Nvidia muss dort mher liefern als 2022.
Es gibt weder ARC noch RDNA3 Modelle im Bereich von AD104.
Troyan
2023-01-09, 10:03:05
MLID meint, das Ding verkauft sich nicht bzw. tendenziell schlechter als die RTX 4080.
https://www.youtube.com/watch?v=bdlBzv45iQI&t=180s
Genau, ein bekannter Youtuber-Lügner lügt über Dinge. Schocking.
Du glaubst auch an Yetis und Weihnachtsmänner, oder?
DrFreaK666
2023-01-09, 10:10:53
Genau, ein bekannter Youtuber-Lügner lügt über Dinge. Schocking.
Du glaubst auch an Yetis und Weihnachtsmänner, oder?
Und du hast Beweise, die das Gegenteil zeigen
Timbaloo
2023-01-09, 10:31:14
Die Marktanteil-Statistiken werden dann halt wieder zu langen Gesichtern bei einigen Teilnehmern führen...
Asaraki
2023-01-09, 10:39:24
Die Marktanteil-Statistiken werden dann halt wieder zu langen Gesichtern bei einigen Teilnehmern führen...
Spätestens bei der 4060 geht dann das grosse Kaufen los... und wenn DLSS3&FG Einzug in die nächsten populären Games findet und AMD nicht ziemlich ASAP etwas ähnliches liefert, dann sehen die nächsten Balken überhaupt nicht gut aus, weil dann eine 4060 unter Umständen alle AMDs hinter sich lässt :-/
nV tastet sich halt von oben langsam runter was die möglichen Preise angeht. So funktioniert Marktwirtschaft. Take it or leave it ^^
Sag ich ganz neutral... hätte nicht erwartet, dass mich die Features so überzeugen. Siehe z.B. den 3080Ti Thread von Platos, hätte nicht gedacht, dass ich ernsthaft die neue Gen empfehlen würde, aber wenn man ehrlich ist führt kaum ein Weg an Lovelace vorbei.
Linmoum
2023-01-09, 10:55:01
Und du hast Beweise, die das Gegenteil zeigenJetzt muss man schon beweisen, dass Dinge, die jemand wie MLID von sich gibt, falsch sind?
Von dem Typen, der sogar Videos im nachhinein kommentarlos löscht, weil er - mal wieder - Gerüchte verbreitet hatte, die sich dann als falsch herausgestellt haben?
Blase
2023-01-09, 10:56:37
Ich tue mich auch schwer damit zu glauben, dass die 4070Ti noch hinter der 4080 bezüglich der Verkäufe liegen soll. Auch wenn natürlich der Preis ebenfalls total Banane ist. Aber das ist nur ein Bauchgefühl. Wir werden sicherlich zukünftig belastbareres Material hierzu bekommen ;)
Spätestens bei der 4060 geht dann das grosse Kaufen los... und wenn DLSS3&FG Einzug in die nächsten populären Games findet und AMD nicht ziemlich ASAP etwas ähnliches liefert, dann sehen die nächsten Balken überhaupt nicht gut aus, weil dann eine 4060 unter Umständen alle AMDs hinter sich lässt :-/
... hätte nicht erwartet, dass mich die Features so überzeugen. Siehe z.B. den 3080Ti Thread von Platos, hätte nicht gedacht, dass ich ernsthaft die neue Gen empfehlen würde, aber wenn man ehrlich ist führt kaum ein Weg an Lovelace vorbei.
Wir haben wahrscheinlich alle das Video von Hardware Unboxed bezüglich Frame Generation gesehen.
GkUAGMYg5Lw
Und wie fast alle, habe auch ich darüber anfangs durchaus die Nase gerümpft.
Klar, wenn ich das Ganze Frame für Frame analysiere, fallen mir natürlich die unschönen Artefakte der Zwischenbilder auf. Zur Wahrheit gehört aber auch, dass du diese Zwischenbild Artefakte bei einer halbwegs vernünftigen Frame Rate überhaupt nicht siehst. Ich habe jetzt Portal RTX durchgespielt und bin im Witcher 3 bei über 20 Stunden - jeweils mit aktiven FG. Ich seh da nix. Im Gegenteil erfreue ich mich an einer Framerate, die einfach nur fluffig läuft und sich ebenso anfühlt :up: Das soll kein Freifahrtsschein für jedes Spiel und jeden Anwendungsfall sein, aber ich kann auch nur für mich sagen, dass ich - bisher - absolut begeistert von diesem Feature bin...
MfG Blase
DrFreaK666
2023-01-09, 10:58:03
Jetzt muss man schon beweisen, dass Dinge, die jemand wie MLID von sich gibt, falsch sind?
Von dem Typen, der sogar Videos im nachhinein kommentarlos löscht, weil er - mal wieder - Gerüchte verbreitet hatte, die sich dann als falsch herausgestellt haben?
Wenn man weiß, dass jemand lügt, dann weil man Zahlen hat, die das Gegenteil beweisen.
Asaraki
2023-01-09, 11:16:14
Ich tue mich auch schwer damit zu glauben, dass die 4070Ti noch hinter der 4080 bezüglich der Verkäufe liegen soll. Auch wenn natürlich der Preis ebenfalls total Banane ist. Aber das ist nur ein Bauchgefühl. Wir werden sicherlich zukünftig belastbareres Material hierzu bekommen ;)
Wir haben wahrscheinlich alle das Video von Hardware Unboxed bezüglich Frame Generation gesehen.
https://youtu.be/GkUAGMYg5Lw
Und wie fast alle, habe auch ich darüber anfangs durchaus die Nase gerümpft.
Klar, wenn ich das Ganze Frame für Frame analysiere, fallen mir natürlich die unschönen Artefakte der Zwischenbilder auf. Zur Wahrheit gehört aber auch, dass du diese Zwischenbild Artefakte bei einer halbwegs vernünftigen Frame Rate überhaupt nicht siehst. Ich habe jetzt Portal RTX durchgespielt und bin im Witcher 3 bei über 20 Stunden - jeweils mit aktiven FG. Ich seh da nix. Im Gegenteil erfreue ich mich an einer Framerate, die einfach nur fluffig läuft und sich ebenso anfühlt :up: Das soll kein Freifahrtsschein für jedes Spiel und jeden Anwendungsfall sein, aber ich kann auch nur für mich sagen, dass ich - bisher - absolut begeistert von diesem Feature bin...
MfG Blase
Nö, ich hab keine Zeit Videos zu schauen :D Meine YT Konsumation ist zu 95% "educational". Hat auch den Vorteil, dass ich gar nicht weiss was ich eigentlich sehen soll und habe entsprechend auch gar nie irgendwas gemerkt - ausser dass alles sehr flüssig ist :D
Denke sobald die Leute alle FG selbst erlebt haben gibt es da nichts mehr zu diskutieren. Sicher wird man noch Fälle finden in denen es weniger optimal ist, aber das ist immerhin auch noch Version 1 ;)
Youtuber sind eh zu 99,99% für die Katz, k.a. warum man damit Zeit verbringen sollte die man stattdessen zockend verbringen kann ^^
Blase
2023-01-09, 12:03:49
Nö, ich hab keine Zeit Videos zu schauen :D Meine YT Konsumation ist zu 95% "educational". Hat auch den Vorteil, dass ich gar nicht weiss was ich eigentlich sehen soll und habe entsprechend auch gar nie irgendwas gemerkt - ausser dass alles sehr flüssig ist :D
Aber woher weißt du dann, was du zu denken hast..?! :freak:
Nein, ich finde es schon wichtig zu wissen, wie die Technik genau funktioniert - und wo die möglichen Stolpersteine liegen. Dazu gibt das Video wunderbar Auskunft. Aber wenn man eben nur solche Videos kennt, dann packt man das Feature möglicherweise in eine Schublade, in welches es aber - so pauschal - eher nicht rein gehört.
Denke sobald die Leute alle FG selbst erlebt haben gibt es da nichts mehr zu diskutieren. Sicher wird man noch Fälle finden in denen es weniger optimal ist, aber das ist immerhin auch noch Version 1 ;)
Jub, wenn man von eher ruckeligen 40 FPS auf einmal mit 80 FPS unterwegs ist, kommt man um den "Aha-Effekt" gar nicht rum :up:
Youtuber sind eh zu 99,99% für die Katz, k.a. warum man damit Zeit verbringen sollte die man stattdessen zockend verbringen kann ^^
Für mich müsste das Zitat etwas umgeschrieben werden. Ich persönlich verstehe nicht, wie man sich endlos über technische Unzulänglichkeiten von Spielen streiten kann - statt sie einfach zu genießen oder halt zum nächsten Titel über zu gehen. Da daddel ich lieber weiter :)
MfG Blase
Rancor
2023-01-09, 12:58:25
Ich überlege auch meine RX 6800XT durch ne 4070TI zu ersetzen, aber mein Verstand sagt mir einfach NO, mein Herz sagt GO :D
Blase
2023-01-09, 13:20:45
Der Verstand kann dich vor Schaden bewahren - aber wahrhaftig glücklich machen kann dich nur das Herz ;)
Der Sprung 6800XT => 4700Ti ist aber in der Tat recht klein. Zumindest ist nicht davon auszugehen, dass du das einigermaßen kostenneutral vollziehen könntest (dann wäre es natürlich egal, bzw. gut). Du würdest also wirklich nur der Feature wegen wechseln wollen(DLSS 2/3 mit FG), oder?
MfG Blase
Rancor
2023-01-09, 13:24:09
Der Verstand kann dich vor Schaden bewahren - aber wahrhaftig glücklich machen kann dich nur das Herz ;)
Der Sprung 6800XT => 4700Ti ist aber in der Tat recht klein. Zumindest ist nicht davon auszugehen, dass du das einigermaßen kostenneutral vollziehen könntest (dann wäre es natürlich egal, bzw. gut). Du würdest also wirklich nur der Feature wegen wechseln wollen(DLSS 2/3 mit FG), oder?
MfG Blase
Geht auch nicht um die Performance. Es wäre nur ein Sidegrade, wenn überhaupt.
Rational gesehen ist das vollkommen behemmert, aber ich würde halt DLSS 3.0 und co. mal live in Aktion sehen.
Thunder99
2023-01-09, 13:24:40
Oder der Markt ist ausreichend gesättigt, sodass der Bedarf an neuen Karten zu diesem Preis sich sehr in Grenzen hält ;)
Lurtz
2023-01-09, 13:25:18
Komisch ist es schon, dass man die 4070 Ti überall kaufen kann. Gamestar Tech hat doch gesagt die ist sofort ausverkauft weil das Preis/Leistungsverhältnis so unverschämt gut ist! ;D
https://abload.de/img/screenshot2023-01-09aahij0.png
:uup:
Timbaloo
2023-01-09, 13:27:37
Naja, in dem Fall ist das ja einfach nur noch Deppensteuer.
Exxtreme
2023-01-09, 13:52:35
Komisch ist es schon, dass man die 4070 Ti überall kaufen kann. Gamestar Tech hat doch gesagt die ist sofort ausverkauft weil das Preis/Leistungsverhältnis so unverschämt gut ist! ;D
https://abload.de/img/screenshot2023-01-09aahij0.png
:uup:
Und vor allem eine 1-Stern-Bewertung des Produktes weil man eine dumme Entscheidung getroffen hat. :freak: Und sowas darf bestimmt wählen. :freak:
YeahBuoy!
2023-01-09, 13:56:17
Komisch ist es schon, dass man die 4070 Ti überall kaufen kann. Gamestar Tech hat doch gesagt die ist sofort ausverkauft weil das Preis/Leistungsverhältnis so unverschämt gut ist! ;D
https://abload.de/img/screenshot2023-01-09aahij0.png
:uup:
Frei nach dem alten Computerbase Meme "...aber ich bin Hochleistungsgamer und brauche qualitativ hochwertige Hochleistungshardware. Nvidias massive Hochfrequenzkerne sind genau das was Gamer wie ich brauchen!"
Wer 1000 Schleifen auf den Tresen legt ohne sich irgendwie zu informieren und dann mit so einer Bewertung zu dokumentieren das man die Kontrolle über den eigenen Geldbeutel verloren hat gehört aber schon einer speziellen Gattung an :biggrin:
Asaraki
2023-01-09, 14:01:51
Was für ein Idiot :D
Noebbie
2023-01-09, 14:02:49
Nur warum "zerkratzt"?
Asaraki
2023-01-09, 14:04:19
Nur warum "zerkratzt"?
Wir können davon ausgehen, dass ein Mensch der sich eine Karte kauft die er sich nicht leisten kann beim Einbau derart zittrig war, dass nicht nur die GPU sondern vermutlich das halbe Gehäuse jetzt Kratzer hat :D
Noebbie
2023-01-09, 14:05:48
Ahso, dann hätte er aber auch noch Bilder machen können. So viel Service muss sein!
readonly
2023-01-09, 14:09:09
Also die Karte ist 200-300€ zu teuer. Wem das egal ist der bekommt einen schönen Boost.
Das ganze Rumgewhine hier, finde ich massiv albern. Millionen in den Aktienthreads, jeder verdient mindestens sechstellig, aber hier bei 899€ rumheulen. ;D ja ist zu teuer, aber ist halt jetzt so. Die Situation besteht seit über zwei Jahren.
Ich denke vielen kaufen nicht, weil man eben vor einem Jahr viel zu viel für die Amperekarte bezahlt hat, die sollte erstmal reichen. Da ist der Ärger grösser jetzt doch ne Karte zum gleichen Preis vor der Nase zu haben die doppelt so schnell ist.
Also, einfach mal 10 Gramm Koks dieses Jahr weniger konsumieren, und die Karte ist gar nicht mehr so teuer :D
Linmoum
2023-01-09, 14:22:12
Hab ich ja letztens schon gesagt (glaub @Exxtreme sogar): Leute, die viel Geld für ihre Hardware ausgeben, sind nicht unbedingt die... informiertesten. Viele davon fallen halt schlicht eher in den Bereich eines klassischen MM-Kevins, der kaum Ahnung von Technik hat, aber das Beste und Schönste will. ;D
Karte beim Einbau zerkratzt untermauert das auch noch eindrucksvoll. Kann man sich echt nur an den Kopf fassen. Ehrlich.
dargo
2023-01-09, 15:06:07
Und vor allem eine 1-Stern-Bewertung des Produktes weil man eine dumme Entscheidung getroffen hat. :freak: Und sowas darf bestimmt wählen. :freak:
;D Recht hast du leider.
Nur warum "zerkratzt"?
Die war bestimmt minimal zu groß für sein Gehäuse, hat die deshalb reingetreten. :D
Hakim
2023-01-09, 15:27:03
Wohl ein Kandidat der bei der 4080 12gb zugeschlagen hätte. Da hat jetzt nv etwas weniger an ihm verdient :)
Timbaloo
2023-01-09, 15:34:11
Der hätte sich wahrscheinlich bei der 4080 12GB nicht beschwert, weil eine 4080 zu dem Preis ja schon geil ist :ulol:
Pumpi74
2023-01-09, 15:58:21
Wenn ich schon um die 1000€ für eine Grafikkarte ausgebe sollte sie auch ein wenig zukunftsfähig sein. Die 12GB der 4070Ti sind da eigentlich ein Ausschlusskriterium. Bei 1200€ würde ich wohl schwach werden und mir eine 4080 16GB gönnen. Die 3070 wandert dann in den HTPC und scaled die Youtube HDR Videos Up ... :uidea:
Rancor
2023-01-09, 19:00:34
Wenn ich schon um die 1000€ für eine Grafikkarte ausgebe sollte sie auch ein wenig zukunftsfähig sein. Die 12GB der 4070Ti sind da eigentlich ein Ausschlusskriterium. Bei 1200€ würde ich wohl schwach werden und mir eine 4080 16GB gönnen. Die 3070 wandert dann in den HTPC und scaled die Youtube HDR Videos Up ... :uidea:
12 GB werden on U-WQHD noch lange ausreichen.
Ätznatron
2023-01-09, 19:16:41
12 GB werden on U-WQHD noch lange ausreichen.
Mutige Prognose.
Denn selbst für FHD können 12 GB nicht ausreichend sein.
Es gibt seit Jahren einige interessante Beobachtungen, vor allem von HisN, die keinen bzw. nur einen vergleichsweise geringen Zusammenhang von Bildschirmauflösung und Speicherbedarf belegen können.
Schnitzl
2023-01-09, 19:18:25
12 GB werden on U-WQHD noch lange ausreichen.
ist mir zu pauschal.
Hängt meines Erachtens schon ein klein wenig davon ab welche Spiele man wie spielt... ;)
@ Ätznatron
:D
Linmoum
2023-01-09, 19:19:24
@Raff hat doch während der Ampere-Ära genug Vergleiche zwischen 3080 10GiB/3080 12GiB/3080Ti gemacht. 10GiB sind zu wenig, 12GiB nicht.
Ätznatron
2023-01-09, 19:21:56
@Raff hat doch während der Ampere-Ära genug Vergleiche zwischen 3080 10GiB/3080 12GiB/3080Ti gemacht. 10GiB sind zu wenig, 12GiB nicht.
Damals hieß ja auch, 10 GB seien für alles genug.
Was damals die 10 GB waren, sind heute die 12.
aufkrawall
2023-01-09, 19:22:04
Unreal Engine-Spiele können bislang mit mehr jedenfalls so gut wie nie etwas anfangen, selbst mit RT reichen da 10GB oft locker. Spiderman MM seh ich hier auch bei 9,5GB festkleben, wie diverse andere Spiele im ähnlichen Rahmen ebenfalls. Wahrscheinlich sind jetzt 12GB für 1440p immer noch üppiger als 2020 10GB.
Ätznatron
2023-01-09, 19:25:38
Unreal Engine-Spiele können bislang mit mehr jedenfalls so gut wie nie etwas anfangen, selbst mit RT reichen da 10GB oft locker. Spiderman MM seh ich hier auch bei 9,5GB festkleben, wie diverse andere Spiele im ähnlichen Rahmen ebenfalls. Wahrscheinlich sind jetzt 12GB für 1440p immer noch üppiger als 2020 10GB.
Wenn man sich in der Wahl der Spiele und dann mit den entsprechenden Settings einschränken möchte, können bestimmt noch 8 GB als komfortabel betrachtet werden.
Dafür kauft man sich aber dann doch wohl nicht ein nagelneues Modell.
Dr.Doom
2023-01-09, 19:36:49
Wenn man sich in der Wahl der Spiele und dann mit den entsprechenden Settings einschränken möchte, können bestimmt noch 8 GB als komfortabel betrachtet werden.
Dafür kauft man sich aber dann doch wohl nicht ein nagelneues Modell.Janu, dann ergeben "größere" Modelle ja kaum Sinn -- irgendwo müssen "kleine" Karten, auch neue, einen Nachteil ggü. den teureren haben.
Das ist doch das Problem, 1000€ für 'ne neue GraKa und man überlegt schon, welchen Regler man unterdurchschnittlich ausrichten sollte?! *g*
Ätznatron
2023-01-09, 19:44:04
Ja, teure Karte, und durch nvidiatypischen Speichergeiz praktisch sofort obsolet.
Bei noch - aber gar nicht mal soviel - teureren Karten dauert das dann doch ein wenig länger.
Ex3cut3r
2023-01-09, 19:55:56
Sehe ich mittlerweile komplett anders. Die Speicherproblematik wird eigentlich seit 2018 mit dem Turing rls. Hoch und runter gejault. Fakt ist aber, gibt kaum Spiele, die selbst mit 8GB bis 1440p unrund laufen. Sehe, stand jetzt auch nicht, warum sich das ändern sollte. Und wenn kann man immer noch DLSS und/oder eine Textur Stufe verringern. Dazu kommt noch, dass Ultra Settings eigentlich ziemlicher Blödsinn sind.
Rancor
2023-01-09, 20:11:40
Ich sehe mit meiner 6800XT bei 3440x1440 auch bei keinem Spiel die 12GB. Diese Speicherhysterie ist einfach albern.
Ätznatron
2023-01-09, 20:24:21
Tja, das sehen HisN und ich und viele weitere halt mal komplett anders (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/).
Megamember
2023-01-09, 20:59:38
Hmm, ist Hisn nicht der Kerl der in jedem Forum in jeden Thread wo es um Speicherverbrauch geht immer als erstes nach dem Fragesteller postet und seine immer gleichen Screenshots mit wahnwitzigen settings postet?
Lurtz
2023-01-09, 21:11:52
Sehe ich mittlerweile komplett anders. Die Speicherproblematik wird eigentlich seit 2018 mit dem Turing rls. Hoch und runter gejault. Fakt ist aber, gibt kaum Spiele, die selbst mit 8GB bis 1440p unrund laufen. Sehe, stand jetzt auch nicht, warum sich das ändern sollte. Und wenn kann man immer noch DLSS und/oder eine Textur Stufe verringern. Dazu kommt noch, dass Ultra Settings eigentlich ziemlicher Blödsinn sind.
DLSS spart kaum VRAM ein. 3070 + RT + DLSS ist ein einziger Kampf um VRAM-Budget. Macht keinen Spaß wenn man nicht völlig schmerzbefreit ist.
Ex3cut3r
2023-01-09, 21:23:26
DLSS spart kaum VRAM ein. 3070 + RT + DLSS ist ein einziger Kampf um VRAM-Budget. Macht keinen Spaß wenn man nicht völlig schmerzbefreit ist.
Ohne RT sollte man trotzdem keine großen Probleme bekommen. Mit Optimised-Settings erst recht nicht. Da die wenigsten aber über ihr Ego springen können und Regler bedienen (dich meine ich nicht) ist das natürlich ein Problem.
EDIT:
Bringt z.B. in God Of War tatsächlich wenig VRAM, Q vs P
https://abload.de/thumb/gow_2023_01_09_21_27_5sdva.png (https://abload.de/image.php?img=gow_2023_01_09_21_27_5sdva.png) https://abload.de/thumb/gow_2023_01_09_21_27_22i5q.png (https://abload.de/image.php?img=gow_2023_01_09_21_27_22i5q.png)
Thunder99
2023-01-09, 21:29:55
Sehe ich mittlerweile komplett anders. Die Speicherproblematik wird eigentlich seit 2018 mit dem Turing rls. Hoch und runter gejault. Fakt ist aber, gibt kaum Spiele, die selbst mit 8GB bis 1440p unrund laufen. Sehe, stand jetzt auch nicht, warum sich das ändern sollte. Und wenn kann man immer noch DLSS und/oder eine Textur Stufe verringern. Dazu kommt noch, dass Ultra Settings eigentlich ziemlicher Blödsinn sind.
Bei dem Marktanteil von Nvidia haben sich halt die Spiele Hersteller daran gehalten den Bedarf in Grenzen zu halten. Danke dem Geiz hat die Qualität gelitten, ist meine Meinung dazu.
AD macht da jetzt endlich damit Schluss und hat zeitgemäße und Zukunftsorientierte VRAM Menge passend zu den Chips.
IC3M@N FX
2023-01-09, 22:33:25
Eigentlich sollte die Goldene Mitte mittlerweile 16 GB sein bei den oberen Performance Klasse Karten.
Die verbauten 12 GB finde schon Hard am Limit bei UWQHD/UHD das passt eher zur RTX 4070 non TI als obere Mittelklasse.
Ich finde die RX 7900 XT/RTX 3090 vom Preis = Leistungsverhältnis die besseren Grafikkarten die sind einfach Zukunft tauglicher und werden besser altern als die RTX 4070 TI.
Eine RTX 3090 24GB RAM bekommt man schon bei Ebay Neu ab 900€ und durch Undervolting OC kommt man sehr sehr nah an 4070 TI Niveau ran von der Rohpower.
@Raff hat doch während der Ampere-Ära genug Vergleiche zwischen 3080 10GiB/3080 12GiB/3080Ti gemacht. 10GiB sind zu wenig, 12GiB nicht.
Jo – siehe Fazit zum Test: https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Tests/Vergleich-gegen-Radeon-RX-7900-XT-1409936/6/
https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a26
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Tests/RTX-3000-Speichertest-Benchmarks-Reichen-10-GB-1373623/
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/
Gilt alles noch, denn Ada ist "untenrum" wie Ampere (kein PEG 5.0). Und aktuelle Farcry-6-Werte mit RT und scharf gibt's natürlich auch (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Tests/Vergleich-gegen-Radeon-RX-7900-XT-1409936/4/). Da sieht man sehr gut, wo der VRAM platzt. Nvidia presst mehr aus dem vorhandenen Speicher als AMD - das hat aber nichts mit Kompression zu tun, sondern cleverem Management. Unter dem Strich ist die RTX 4070 Ti Anfang 2023 eine bessere, weil ausgewogenere Grafikkarte als die RTX 3070 Ende 2020.
MfG
Raff
Neosix
2023-01-10, 01:17:36
Meine Gigabyte 4070TI ist da, ausgepackt und wollte direkt einbauen, bis ich "zusätzliche Teile" in der Packung entdeckt habe. Dachte, wir sind hier doch nicht bei Lego... Mal ins Beipackzettel gekuckt und dann 5 Minuten gebraucht um zu kapieren was ich da überhaupt sehe.
https://abload.de/img/16733047785516be8n.jpg
Ich meine so n Zusatzständer bei den 4090er hatte ich gesehen. Aber so eine "Latzugstangen"-Konstruktion war mir neu.
Hakim
2023-01-10, 01:29:01
Ja so langsam wird es grenzwertig. Stützhilfe, 3-3,5 Slot Belegung, 2-2,5 KG, das schon einige Mobo Hersteller den PCIe Einrasthaken inzwischen so lösen das man es durch eine andere Stelle vom Mobo frei machen kann da man ja durch die Monsterapparate kaum noch rankommt :)
Platos
2023-01-10, 01:33:11
Jo – siehe Fazit zum Test: https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Tests/Vergleich-gegen-Radeon-RX-7900-XT-1409936/6/
https://www.pcgameshardware.de/Geforce-RTX-3080-12GB-Grafikkarte-278116/Tests/Price-Benchmark-Review-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a26
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Tests/RTX-3000-Speichertest-Benchmarks-Reichen-10-GB-1373623/
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/
Gilt alles noch, denn Ada ist "untenrum" wie Ampere (kein PEG 5.0). Und aktuelle Farcry-6-Werte mit RT und scharf gibt's natürlich auch (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Tests/Vergleich-gegen-Radeon-RX-7900-XT-1409936/4/). Da sieht man sehr gut, wo der VRAM platzt. Nvidia presst mehr aus dem vorhandenen Speicher als AMD - das hat aber nichts mit Kompression zu tun, sondern cleverem Management. Unter dem Strich ist die RTX 4070 Ti Anfang 2023 eine bessere, weil ausgewogenere Grafikkarte als die RTX 3070 Ende 2020.
MfG
Raff
Danke nochmal für das Erwähnen der Tests. Kann man nie genug kriegen von Speichertests :D
Hast du noch Tests (am liebsten mit 4070Ti), in denen 12GB zu wenig sind und 16GB, 20GB oder 24GB signifikant besser abschneiden?
Ich meinte, du hattest mal tests, in denen sogar die 20GB von RDNA2 zu wenig waren und es die 24GB der 3090 gebracht haben. War vermutlich 8k, aber trotzdem. Hast du noch was :D ? Wäre geil.
basix
2023-01-10, 04:54:47
Jub, wenn man von eher ruckeligen 40 FPS auf einmal mit 80 FPS unterwegs ist, kommt man um den "Aha-Effekt" gar nicht rum :up:
Ich habe FG erlebt und bei Portal RTX und TW3 fand ich es visuell ganz OK. Und ja, visuell ist es wirklich deutlich flüssiger. Bei Plagues Tale gefiel es mir visuell nicht, z.B. bei Kameraschwenks. Und das Spielgefühl wird definitiv generell laggier verglichen ohne FG. Bei TW3 mit nur 30-40fps base sogar so schlimm, dass man den Lag nicht nur fühlt sondern auch deutlich sieht (z.B. Eingabe links/rechts laufen und Animation startet deutlich später).
Lurtz
2023-01-10, 10:55:07
Ohne RT sollte man trotzdem keine großen Probleme bekommen. Mit Optimised-Settings erst recht nicht. Da die wenigsten aber über ihr Ego springen können und Regler bedienen (dich meine ich nicht) ist das natürlich ein Problem.
EDIT:
Bringt z.B. in God Of War tatsächlich wenig VRAM, Q vs P
https://abload.de/thumb/gow_2023_01_09_21_27_5sdva.png (https://abload.de/image.php?img=gow_2023_01_09_21_27_5sdva.png) https://abload.de/thumb/gow_2023_01_09_21_27_22i5q.png (https://abload.de/image.php?img=gow_2023_01_09_21_27_22i5q.png)
Ja, aber RT ist eben ein großer Grund zu nVidia zu greifen. Oder wird zumindest immer so verkauft.
Asaraki
2023-01-10, 10:57:38
Ich habe FG erlebt und bei Portal RTX und TW3 fand ich es visuell ganz OK. Und ja, visuell ist es wirklich deutlich flüssiger. Bei Plagues Tale gefiel es mir visuell nicht, z.B. bei Kameraschwenks. Und das Spielgefühl wird definitiv generell laggier verglichen ohne FG. Bei TW3 mit nur 30-40fps base sogar so schlimm, dass man den Lag nicht nur fühlt sondern auch deutlich sieht (z.B. Eingabe links/rechts laufen und Animation startet deutlich später).
Das war im Witcher schon immer so, schwer zu sagen ob da FG überhaupt einen Einfluss haben oder das Game bei den BaseFPS sowieso am Gummiband hängt
aufkrawall
2023-01-10, 11:00:01
Bei TW3 mit nur 30-40fps base sogar so schlimm, dass man den Lag nicht nur fühlt sondern auch deutlich sieht (z.B. Eingabe links/rechts laufen und Animation startet deutlich später).
Das Spiel bzw. das Remaster hat hardcore verbuggte Reaktion auf Bewegungs-Eingabe, die Methodik erscheint mir deshalb fraglich. Find ich auch bei 90fps ohne FG mega ätzend...
Blase
2023-01-10, 11:36:28
Ich habe FG erlebt und bei Portal RTX und TW3 fand ich es visuell ganz OK.
Was heißt das denn? Dass du die Artefakte (zumindest stellenweise) wirklich wahrgenommen hast? Oder woher kommt das "ganz ok"? Also ich habe da ehrlicherweise beim normalen Spielen nichts von mitbekommen. Würde ich danach suchen und nen halben Meter näher an den Fernseher ran gehen - vielleicht. Aber so spiele ich halt nicht - und das ist es, wofür die Karte und Technik da ist.
Und ja, visuell ist es wirklich deutlich flüssiger.
Naja, verdoppelte FPS, also klar wird das deutlich flüssiger :cool:
Bei Plagues Tale gefiel es mir visuell nicht, z.B. bei Kameraschwenks.
Bin grade selber bei mir am Zweifeln, ob ich das Spiel mit FG gespielt habe. Muss ich mir noch einmal anschauen.
Und das Spielgefühl wird definitiv generell laggier verglichen ohne FG.
Also in dem Hardware Unboxed Video sieht das nicht so aus:
GkUAGMYg5Lw
(ab Minute 17.22)
DLSS Q mit FG (wo ja Reflex immer aktiv ist) ist hier zumindest in CP und F1 22 immer besser als nativ 4K unterwegs. Klar, ohne FG aber mit DLSS Q oder gar P wird der Input Lag dann noch besser. Aber wie geschrieben, besser als nativ in 4K ist er in beiden Fällen. So schlecht ist das doch jetzt nicht, oder?
Aber natürlich muss man sich das wohl von Spiel zu Spiel anschauen - das mag nicht allgemeingültig sein.
Beim Witcher im Speziellen finde ich aber auch ohne FG die Eingabeverzögerung manchmal echt drollig. Bin also nicht sicher, wie viel davon der FG zuzuschreiben ist :tongue:
MfG Blase
Praxis: Welches Netzteil für die RTX 4070 Ti wählen? Mit UV, OC, Fps & mehr (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Specials/Netzteil-Wie-viel-Watt-Verbrauch-1410782/)
Mit 175 Watt gehen zwar 10-15 Prozent der Fps flöten, aber nett isses scho. :D
MfG
Raff
Platos
2023-01-10, 14:21:48
Wie schon bei der 4090 und 4080, ist auch bei der 4070Ti das Powertarget einfach nur ein Witz im Defaultzustand.
Die Karten wären eig. sehr effizient. Technisch eig ganz gut.
Der Preis bleibt weiterhin ein Witz. Oder wie Steve sagt:
https://youtu.be/N-FMPbm5CNM?t=387
BlacKi
2023-01-10, 15:00:43
Praxis: Welches Netzteil für die RTX 4070 Ti wählen? Mit UV, OC, Fps & mehr (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Specials/Netzteil-Wie-viel-Watt-Verbrauch-1410782/)
Mit 175 Watt gehen zwar 10-15 Prozent der Fps flöten, aber nett isses scho. :D
MfG
Raffdanke, für den artikel.
Dural
2023-01-10, 15:04:25
Das nennt man Gewinn Maximierung.
Umso höher das PT umso mehr Chips kann man (teurer) verkaufen. Die paar Spannungswandler und so Zeugs fallen bei den teuren 4nm Chips kaum ins Gewicht.
Die richtig guten Chips steckt man danach in die Notebooks, pro mm2 Die Fläche gibt es dort maximal viel. Und der Tesla und Quattro Markt gibt es auch noch, Gaming ist immer nur der auf Füller.
Hamster
2023-01-10, 15:51:54
Hm, irgendwie reizt mich die 4070 Ti schon....
Aktuell habe ich eine RX6800 mit 16 GB Rat. Spielen tu ich auf 3840x1600.... ist das eine 4070 Ti mit lediglich 12 GB sinnvoll?
Ich mein klar, schneller ist sie erstmal. Aber würde ich sie kaufen, soll sie auch gute 2 Jahre halten.
Hm... bin ratlos...
Lustiges Timing – ich habe erst heute Nacht die frisch nachgetestete RX 6800 ins Excel gepackt. Reichen dir rund +40 beim Rasterizing und +90 Prozent beim Raytracing? Dann mach's. Braucht auch nicht mehr Strom, die Ti. Inwiefern 12 GiB für die nächste Spiele-Generation ausreichen, wird sich aber noch zeigen müssen. Ich erwarte keine großen Probleme. Allerdings halte ich dieses Upgrade nicht unbedingt für sinnvoll, außer du möchtest vor allem Rays tracen.
MfG
Raff
mironicus
2023-01-10, 16:07:15
Lieber gleich eine 4090, das lohnt sich eher. Am besten noch mit 0% Finanzierung. :D
Lehdro
2023-01-10, 16:11:58
Braucht auch nicht mehr Strom, die Ti.
Ist das so? Dachte die 6800 kommt bei weit unter 250W raus, eher so 230W (https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/4/)? Die 4070 Ti habt ihr mit ~280W vermessen. (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Tests/Vergleich-gegen-Radeon-RX-7900-XT-1409936/5/)
Hamster
2023-01-10, 16:15:01
Ok ok, ich sehs schon. Die Verlockung ist groß aber nicht notwendig :)
Dann bleibe ich (vorerst) bei der 6800 :smile:
Danke, insbesondere an Raff!
Crazy_Chris
2023-01-10, 16:16:07
Lieber gleich eine 4090, das lohnt sich eher. Am besten noch mit 0% Finanzierung. :D
Zumal es die inzwischen sogar für knapp unter 2000€ gibt. Und das auf Lager. :biggrin:
Exxtreme
2023-01-10, 16:20:37
Lieber gleich eine 4090, das lohnt sich eher. Am besten noch mit 0% Finanzierung. :D
Ja, so geht es mir auch. Ich bin noch mit einer Radeon 5700 XT unterwegs und entscheidend schnellere Teile kosten 1k € aufwärts. :( Und nein, 20% - 30% mehr sind grad mal die Wahrnehmungsschwelle eines Menschen. ;) Und da lohnt sich der Kauf eher nicht.
Crazy_Chris
2023-01-10, 16:43:19
Eine 4070Ti sollte nur so grob doppelt so schnell wie eine 5700XT sein. Für gut 900€ ist das natürlich schon echt übel (Raytracing außen vorgelassen, dass kann die 5700XT nicht). Klar gibts auch Ausreißer nach oben was die Performance angeht.
BlacKi
2023-01-10, 20:46:01
die 4070ti eagle gibts gerade im mindstar für 889€ + kostenlosem versand.
IchoTolot
2023-01-10, 20:53:16
Hm, irgendwie reizt mich die 4070 Ti schon....
Aktuell habe ich eine RX6800 mit 16 GB Rat. Spielen tu ich auf 3840x1600.... ist das eine 4070 Ti mit lediglich 12 GB sinnvoll?
Machs nich. 12 GB is einfach zu wenig.
Sardaukar.nsn
2023-01-10, 21:00:43
Für 1440p reichen 12 GB ziemlich sicher. Mit der 3080 10GB an einem 34" Ultrawide hatte ich zwei Jahre lang auch nie Vram Probleme.
[MK2]Mythos
2023-01-10, 21:05:55
Lustiges Timing – ich habe erst heute Nacht die frisch nachgetestete RX 6800 ins Excel gepackt. Reichen dir rund +40 beim Rasterizing und +90 Prozent beim Raytracing? Dann mach's. Braucht auch nicht mehr Strom, die Ti. Inwiefern 12 GiB für die nächste Spiele-Generation ausreichen, wird sich aber noch zeigen müssen. Ich erwarte keine großen Probleme. Allerdings halte ich dieses Upgrade nicht unbedingt für sinnvoll, außer du möchtest vor allem Rays tracen.
MfG
Raff
Moment, die 4070ti ist 40% schneller in Raster?
Das hätte ich nicht erwartet.
readonly
2023-01-10, 21:16:45
Machs nich. 12 GB is einfach zu wenig.
Hatten wir doch schon mehrfach. Platte Aussage ohne Inhalt. Was soll denn da in Zukunft kommen das mehr als 12GB fordert?
fizzo
2023-01-10, 21:28:22
Hatten wir doch schon mehrfach. Platte Aussage ohne Inhalt. Was soll denn da in Zukunft kommen das mehr als 12GB fordert?
„Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC“ :ugly:
readonly
2023-01-10, 21:35:38
„Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC“ :ugly:
Genauso platt. Wofür programmieren die Entwickler? Für die Masse, was hat die Masse 8-12Gb. In 4 Jahren hab ich ne andere Karte. Gurkt ja nicht jeder so lange mit der gleichen Karte rum.
Ex3cut3r
2023-01-10, 21:44:46
Machs nich. 12 GB is einfach zu wenig.
Warum nicht? Mit der 6800 Non XT reißt man wiederum keine Bäume mehr aus, in 3840x1600 sicherlich erst recht nicht. 12GB (3080Ti) seit fast 2 im Jahre Rechner, mittlerweile sogar für UHD (siehe Sig) und keine Probleme.
Die GeForce haben sowieso das bessere Speichermanagement.
fizzo
2023-01-10, 21:44:57
Genauso platt. Wofür programmieren die Entwickler? Für die Masse, was hat die Masse 8-12Gb. In 4 Jahren hab ich ne andere Karte. Gurkt ja nicht jeder so lange mit der gleichen Karte rum.
Die Masse kauft keine 900 Euro Grafikkarte. In dieser Preisklasse sind für mich 12GB ein nogo.
Zergra
2023-01-10, 21:46:21
Hatten wir doch schon mehrfach. Platte Aussage ohne Inhalt. Was soll denn da in Zukunft kommen das mehr als 12GB fordert?
Nichts, bei Nvidias Marktanteil von wohl bald über 90% werden die Entwickler das einfach berücksichtigen.
ChaosTM
2023-01-10, 21:52:44
Das ist eines der Probleme der NV Dominanz in Verbindung mit der schwachen Speicherbestückung. 77 macht immer noch bei 10GB zu, wohl um 3080er Besitzer nicht vor die Birne zu stoßen.
Wäre dem nicht so, hätten wir besseres LOD und möglicherweise höher auflösende Texturen.
Ätznatron
2023-01-10, 22:05:06
Es wird genau das passieren, was mit der GTX 680 2 GB, der GTX 780 (ti) 3 GB, der RTX 3080 10 GB auch passiert ist: Nur noch bedingt brauchbar sein wegen Speichermangels. Und das sogar ziemlich zügig nach relativ kurzer Zeit.
Die Spieleentwickler nehmen nämlich keine Rücksicht auf den Speicherausbau von Modellen der Firma nVidia, bestimmte nVidia gesponsorte Showcases mal ausgenommen.
BlacKi
2023-01-10, 22:12:03
die karten waren alle für 2 jahre gut. daher ist das kein problem für die meisten hier.
Ätznatron
2023-01-10, 22:18:51
Wenn man die Einstellungen auf "niedrig" gestellt hat, dann vielleicht 2 Jahre.
Das möchte man natürlich als Käufer einer € 1000,- Karte, in absehbarer Zeit die Regler weit nach links ziehen zu müssen. ;)
aufkrawall
2023-01-10, 22:25:09
Es wird genau das passieren, was mit der GTX 680 2 GB, der GTX 780 (ti) 3 GB, der RTX 3080 10 GB auch passiert ist: Nur noch bedingt brauchbar sein wegen Speichermangels. Und das sogar ziemlich zügig nach relativ kurzer Zeit.
Nope, es gab die letzten 2 Jahre quasi keine Zunahme der benötigten VRAM-Menge. Schrott wie FC6 hat deutlich abgenommen, und UE-Spiele kommen selbst mit 8GB + RT in 1440p locker zurecht. Selbst unoptimierter Schrott wie Gotham Knights braucht fast nichts.
1000€ wären natürlich hart. Da erscheinen mir 4080 oder 4070 non-Ti sinnvoller.
BlacKi
2023-01-10, 22:30:59
Wenn man die Einstellungen auf "niedrig" gestellt hat, dann vielleicht 2 Jahre.
Das möchte man natürlich als Käufer einer € 1000,- Karte, in absehbarer Zeit die Regler weit nach links ziehen zu müssen. ;)
erstens wer alle regler nach rechts schiebt ist dumm. zweitens reichen mir 2 jahre. so wie praktisch 80% aller hier aktiven user.
drittens sind es aktuell 889€. sehr weit weg von den spekulierten nichts unter 1000€ und 1200€ für die top kühler.
Ätznatron
2023-01-10, 22:36:07
Die Diskussion hatten wir die ganzen Jahre zuvor auch.
Mit Grauen erinnere ich mich noch an meine teure GTX 780 Ti, die von der Rohleistung her super dagestanden hat, aber leider an ihrem zu knappen Speicher schnell zugrunde ging.
Damals waren die Argumente exakt so, wie man sie heute auch liest (3 GB genug, niemand braucht mehr, usw...).
Letztlich haben sich immer die Modelle mit größerem Speicherausbau als langlebiger erwiesen.
edit: Ich würde niemanden als dumm bezeichnen, nur weil er dank üppigen VRAMS alle Regler nach rechts ziehen kann. Der Entwickler baut ja nicht grundlos diese Optionen ein.
r3ptil3
2023-01-10, 23:11:26
Ich denke man muss die Speichergrössen in Relation setzen.
Früher war der Sprung von 2 auf 4Gb ein ganz anderer, als von 8 auf 16Gb.
Der Speicherbedarf wächst was den RAM angeht, viel langsamer als früher.
16Gb RAM waren ab 2015 der gute Standard, heute fast 8 Jahre später, sieht das nicht gewaltig anders aus. Praktisch jedes Spiel läuft sehr gut mit 16Gb RAM. Und auch wenn viele 32Gb nutzen, das meiste bleibt doch eh ungenutzt.
Ex3cut3r
2023-01-10, 23:11:31
Die Diskussion hatten wir die ganzen Jahre zuvor auch.
Mit Grauen erinnere ich mich noch an meine teure GTX 780 Ti, die von der Rohleistung her super dagestanden hat, aber leider an ihrem zu knappen Speicher schnell zugrunde ging.
Damals waren die Argumente exakt so, wie man sie heute auch liest (3 GB genug, niemand braucht mehr, usw...).
Letztlich haben sich immer die Modelle mit größerem Speicherausbau als langlebiger erwiesen.
edit: Ich würde niemanden als dumm bezeichnen, nur weil er dank üppigen VRAMS alle Regler nach rechts ziehen kann. Der Entwickler baut ja nicht grundlos diese Optionen ein.
Ultra bringt aber meistens keine sichtbaren ertrag. Nur die FPS schmelzen. Dann steck die Power lieber ins Downsampling mit High anstatt Ultra z.B.
Davon sieht man auch was. ;)
readonly
2023-01-10, 23:14:38
Es wird genau das passieren, was mit der GTX 680 2 GB, der GTX 780 (ti) 3 GB, der RTX 3080 10 GB auch passiert ist: Nur noch bedingt brauchbar sein wegen Speichermangels. Und das sogar ziemlich zügig nach relativ kurzer Zeit.
Die Spieleentwickler nehmen nämlich keine Rücksicht auf den Speicherausbau von Modellen der Firma nVidia, bestimmte nVidia gesponsorte Showcases mal ausgenommen.
;D;D;D KK
Die Masse kauft keine 900 Euro Grafikkarte. In dieser Preisklasse sind für mich 12GB ein nogo.
Dachte da auch eher an alte Karten bis neuere 3060. Ja die 12 haetten 16 sein sollen. Wird der Karte aber lange nicht das Genick brechen da es eben kaum bezahlbare 16GB Karten im Massensegment gibt.
aufkrawall
2023-01-10, 23:26:42
Die Diskussion hatten wir die ganzen Jahre zuvor auch.
Mit Grauen erinnere ich mich noch an meine teure GTX 780 Ti, die von der Rohleistung her super dagestanden hat, aber leider an ihrem zu knappen Speicher schnell zugrunde ging.
Und wo steht die 3080 10GB in 1440p heute? Immer noch relativ unproblematisch.
Mehr als 10GB belegt sind hier mit der 3060 auch bei 10fps eher die große Ausnahme. Fortnite mit Nanite und HW-Lumen ist deutlich unter 8GB...
GerryB
2023-01-11, 05:47:10
Wurde net die 3070-8GB als 4k-Graka beworben?
(warum dann nur 1440p für die 3080-10GB anschauen)
alternativ:
man könnte im Outlet ne XT-20GB für 899€ erwerben
Grundsätzlich isses aber net nur die Vram-Menge allein, sondern manchmal auch die Bandbreite.
Wenn dann komischerweise bei der 4070Ti das Vram-OCen net allzuviel bringt, dann ...
(von daher sehe ich die 4070Ti und die XT eher bei max. UWQHD-nativ, ... für 4k dann nur mit Upsampler)
DrFreaK666
2023-01-11, 06:44:55
... da es eben kaum bezahlbare 16GB Karten im Massensegment gibt.
Wenn man AMD und Intel ausklammert, dann hast du sogar Recht
readonly
2023-01-11, 07:26:35
Wenn man AMD und Intel ausklammert, dann hast du sogar Recht
Ja die Karten kenne ich natürlich, das meinte ich mit kaum. AMD hat wenig und Intel keine Relevanz. Kein Entwickler wird sich selbst mit Settings für 16GB AMD Karten ins Bein schießen. Zumal die 16GB auch erstmal besser performen müssen als 12GB Nvidia Karten.
Auf jeden Fall werden die 12GB kein Problem werden in den nächsten vier Jahren. Zur Not halt den Regler nur auf High und nicht auf Ultra.
Sonyfreak
2023-01-11, 07:31:52
Praxis: Welches Netzteil für die RTX 4070 Ti wählen? Mit UV, OC, Fps & mehr (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Grafikkarte-279172/Specials/Netzteil-Wie-viel-Watt-Verbrauch-1410782/)
Mit 175 Watt gehen zwar 10-15 Prozent der Fps flöten, aber nett isses scho. :DVielen Dank für den Artikel! Sehr interessant! Kann man deine Kurven irgendwo herunterladen? :)
Ich habe gestern wieder ein bisschen Redout 2 weiter gespielt. Da ist die 4070 Ti mit 35% Powertarget immer noch mehr als doppelt so schnell wie meine bisherige auf Sparsamkeit getunte GTX 1080 und verbraucht dabei unter 100 Watt. Den Curve Editor habe ich mir zwar auch schon angeschaut, da bin ich aber noch auf keinen grünen Zweig gekommen. :D
mfg.
Sonyfreak
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.