PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41

Snoopy69
2022-11-27, 15:29:48
Warum gibt es Hochspannungs-Leitungen?
Denk mal drüber nach :wink:

basix
2022-11-27, 15:44:00
Die 48V verdoppeln doch nur die maximale Stromübertragung. Warum also nicht gleich die 230V einfach als Gleichstrom an die GPU weitereichen, dann hätte man noch mehr Luft nach oben :freak:

Wieso nicht einfach GPUs bauen, welche max. 300W verbrauchen ;)

bbott
2022-11-27, 17:09:52
Wieso nicht einfach GPUs bauen, welche max. 300W verbrauchen ;)
Das wäre zu einfach und die Fraktion ich sch*** auf alles wäre unglücklich. Wenn es mir nach ginge wäre bei 100-150W Schluss.
Wenn man eine Switch mit ~15W vergleicht, mit den >450W (30x) nur für Grafikkarte, gewinnt mMn die Switch den Bildqualitätsvergleich, also im Verhälltins zu Leistungsaufnahme.

HOT
2022-11-27, 17:20:13
Man muss die Dinger ja nicht bei Max-Power betreiben, sondern kann einfach runtertakten, jedenfalls bei AMD. Wird bei NV sicherlich aber auch gehen.

Snoopy69
2022-11-27, 17:51:18
Das wäre zu einfach und die Fraktion ich sch*** auf alles wäre unglücklich. Wenn es mir nach ginge wäre bei 100-150W Schluss.
Wenn man eine Switch mit ~15W vergleicht, mit den >450W (30x) nur für Grafikkarte, gewinnt mMn die Switch den Bildqualitätsvergleich, also im Verhälltins zu Leistungsaufnahme.
Daher gibt es Grakas für jeden Bedarf

Troyan
2022-11-27, 17:53:47
Wieso nicht einfach GPUs bauen, welche max. 300W verbrauchen ;)

Gibt es doch - die 4080. :cool:

Snoopy69
2022-11-27, 19:30:35
Es gibt keine einzige 4080, die ab Werk min. 300W liefert. Die „schwächste“ 4080 liefert Minimum 320W. Müsste daher eine 4070 sein, die es mom. noch nicht gibt

ChaosTM
2022-11-27, 21:06:14
Die 80er sind alle "kastriert". Meine lässt genau 102 % Power Limit zu.
Mir aber wurscht..

Thunder99
2022-11-28, 09:21:50
Man muss die Dinger ja nicht bei Max-Power betreiben, sondern kann einfach runtertakten, jedenfalls bei AMD. Wird bei NV sicherlich aber auch gehen.

Leider nicht so einfach wie bei AMD. Mann braucht immer den AB oder vergleiche Tools.

Nur max. 102% ist interessant. Da macht der Stecker für 450W-600W noch weniger Sinn :freak:

BlacKi
2022-11-28, 18:47:08
Leider nicht so einfach wie bei AMD. Mann braucht immer den AB oder vergleiche Tools.

Nur max. 102% ist interessant. Da macht der Stecker für 450W-600W noch weniger Sinn :freak:naja, geht auch mit experience. nur UV geht damit nicht.

aufkrawall
2022-11-28, 19:08:57
Leider nicht so einfach wie bei AMD. Mann braucht immer den AB oder vergleiche Tools.

Der Curve Editor von AB ist dabei nur ein Front End für NVAPI, man kann den AB-Treiber optional komplett abschalten.
Natürlich wär ein einfacher Schieberegler für UV im Treiber besser, keine Frage. Aber nicht das Ende der Welt.

Thunder99
2022-11-28, 19:42:29
Der Curve Editor von AB ist dabei nur ein Front End für NVAPI, man kann den AB-Treiber optional komplett abschalten.
Natürlich wär ein einfacher Schieberegler für UV im Treiber besser, keine Frage. Aber nicht das Ende der Welt.
Das war mir soweit nicht bewusst, danke :)

Snoopy69
2022-11-28, 19:55:26
@BacKi

Ich stelle das PL meiner TUF auf 70%, so muss ich nicht mit Curve arbeiten. Sie wird dann automatisch UV und zieht ca. 350W bei minimal weniger Leistung in Division 2

Sardaukar.nsn
2022-11-28, 23:25:10
@Snoopy69: So gehe ich auch mit meiner TUF vor. Maximales OC für GPU und VRAM ausloten und dann Powerlimit auf 75% setzen um die Spitzen zu rasieren. Gefällt mir deutlich besser als das klassische Undervolting mit stets fixem Takt und Spannung.

BlacKi
2022-11-29, 04:43:29
@BacKi

Ich stelle das PL meiner TUF auf 70%, so muss ich nicht mit Curve arbeiten. Sie wird dann automatisch UV und zieht ca. 350W bei minimal weniger Leistung in Division 2das mag auf ada zutreffen, auf die restlichen nv karten aber nicht. wobei, streng genommen ist es per definition auch bei ada nicht der fall. denn nur weil die voltage nicht mehr niedriger geht, ist das noch lange keine UV. UV nennt man ja nicht UV weils nichtmehr tiefer mit der voltage geht, sondern wenn die voltage niedriger ist als stock. und das trifft bei ada ja nicht zu.

basix
2022-11-29, 07:47:57
@Snoopy69: So gehe ich auch mit meiner TUF vor. Maximales OC für GPU und VRAM ausloten und dann Powerlimit auf 75% setzen um die Spitzen zu rasieren. Gefällt mir deutlich besser als das klassische Undervolting mit stets fixem Takt und Spannung.

Mache ich seit Kepler so ;)

Bei der 4090 ist es leicht anders. Ich mache es zwar immer noch so, aber bei meinem minimalen Setting (2.55 GHz) limitiert das PL eigentlich nie. Dadurch hängt der Takt durchgehend im Limit. Bei Lovelace ist neu das Schöne, dass die GPU den Rest von sich aus ausregelt und man so immer minimale Leistungsaufnahme hat. Hängt hier damit zusammen, dass 2.55 GHz der höchste mögliche Takt bei der minimal möglichen Spannung von 0.87V ist und darunter die Karte eher ineffizienter wird.

Snoopy69
2022-11-29, 19:10:37
1EAlkrYa79U

aufkrawall
2022-11-29, 19:25:42
Ist schon sehr kompliziert, Verbrauch und fps abzulesen. Die Menschen werden echt immer dümmer.

Lehdro
2022-11-30, 14:12:18
Ist schon sehr kompliziert, Verbrauch und fps abzulesen. Die Menschen werden echt immer dümmer.
Ist das dasselbe Thema was damals mit Pascal (2016!) erstmals ins breitere Bewusstsein rückte? Also das bestimmte MHz ≠ bestimmte Leistung? Das "zuviel UV" die Leistung drückt, weil es Leertakte provoziert? Man sollte meinen das wäre spätestens seit Zen 2 weit bekannt gewesen...

Snoopy69
2022-11-30, 14:47:04
Ist schon sehr kompliziert, Verbrauch und fps abzulesen. Die Menschen werden echt immer dümmer.
Musst du ihm schon selbst sagen...
Hab Curve nie gerne benutzt. Genau wegen dieser Sache
Sind zudem unnötig mehr Handgriffe und stabil ist es oft auch nicht
Mich interessiert auch nur eff. Clock

arcanum
2022-11-30, 16:53:33
https://youtu.be/1EAlkrYa79U

danke für das video. voltage anpassen reicht also vollkommen und dann die karte den takt regeln lassen. mit undervolting kann man dann noch etwas den ram aufdrehen was ziemlich gut durchschlägt im vergleich zum mehrverbrauch.

würde es gerne testen als alternative zum powerlimit cap aber ich kann mir vorstellen, dass die games wahrscheinlich unterschiedlich reagieren / unterschiedliche lastspitzen und peak fps haben je nach methode und szene. wenn man dann noch beides gleichzeitig macht kann gleich eine woche lang messreihen aufstellen um dann marginal bessere fps oder watt/fps zu erzielen.

wenn sich jemand die mühe macht und es vorkaut, übernehme ich das ergebnis gerne in meinen einstellungen :)

Sardaukar.nsn
2022-11-30, 17:34:23
Untervolting und Reduzierung des Power Limit im Vergleich.

https://quasarzone.com/bbs/qc_plan/views/30686 Lässt sich ganz gut mit Google übersetzen.

https://img2.quasarzone.com/editor/2022/11/28/490a3aa6db38b9cec99f2ebdc1ed9272.png

Schön gemacht, leider lässt man das OC Potential beim Powerlimit liegen. Meine macht bei 75%PL immer noch +230 GPU und +1300 RAM.

Snoopy69
2022-11-30, 17:43:00
Der Graph zeigt aber nicht, dass die Karten mit UV im Grenzbereich instabiler laufen
Zudem hätte man neben dem PL auch die fps kappen können. Bringt auch was und ist immer noch stabiler, als der umständliche Curve-Kram

arcanum
2022-11-30, 17:47:49
Untervolting und Reduzierung des Power Limit im Vergleich.

https://quasarzone.com/bbs/qc_plan/views/30686 Lässt sich ganz gut mit Google übersetzen.

https://img2.quasarzone.com/editor/2022/11/28/490a3aa6db38b9cec99f2ebdc1ed9272.png

Schön gemacht, leider lässt man das OC Potential beim Powerlimit liegen. Meine macht bei 75%PL immer noch +230 GPU und +1300 RAM.

danke für den link. gibt schon mal genug anhaltspunkte. werde 0.95v zusammen mit 80% powerlimit testen und den ram 500-1000mhz hochziehen. danach beides einzeln. +coreclock scheint deutlich mehr bei der mhz- als bei der fps-anzeige zu bringen, lasse es daher auf default wegen stabilität.

Sardaukar.nsn
2022-11-30, 17:49:06
Sehe ich ähnlich. Bei Ampere hatte ich noch UV, bei Ada gefällt mir Max OC mit 75% PL besser. Dazu noch 117FPS cap bei meinem 120hz Bildschirm. Fertig ist die Laube. Sogar Boost über 3 GHz ist bei weniger Last drin ;)

Darf aber jeder gerne selber ausprobieren. Beide Methoden funktionieren ja.

Wuge
2022-12-01, 11:52:55
Curve war bei Ampere schon Mist. Erster Startpunkt ist immer max. OC per OffSet und dann zusätzlich das PL begrenzen oder eben die Curve an einem niedrigen Spannungspunkt kappen. In der Curve direkt Spannungspunkte verschieben führt zu fuckup. Ich mach max OC, max PL und max. Voltage und limitiere die FPS. Dann nimmt sich der Chip den Saft wenn er ihn braucht und chillt wenn er kann ;)

Snoopy69
2022-12-02, 15:53:52
Hab gestern den PC umgebaut...
Vielleicht bin ich einer der wenigen Glücklichen. Der 12VHPWR-Stecker hat jedenfalls deutlich zu hören eingerastet

aufkrawall
2022-12-02, 16:32:29
Curve war bei Ampere schon Mist.
Aha, -25% Verbrauch bei 2,8% Leistungsverlust durch minimal niedrigeren effektiven Takt ist Mist?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12734111&postcount=236
Ich lollte.

Snoopy69
2022-12-02, 17:21:41
Viel spart man mit Curve nicht ein. Aber Zeit und Nerven, wenn das Spiel nicht abkackt. Daher mochte ich Curve nie gerne
PL reduzieren und FPS-Limit rein - passt. Die Spannung ist dann nicht unnötig hoch, hat aber noch Luft für kritische Situationen, wo es mit Curve abkacken könnte

btw:
Mit welchen Games testet ihr denn Curve?

BlacKi
2022-12-02, 17:48:06
Viel spart man mit Curve nicht ein.


schwierige aussage, denn mit UV ist eigentlich UV/OC gemeint, da höhere taktraten anliegen und der verbrauch(PT) gleich bleibt.


reine UV war mit den letzten Gens eigentlich nie möglich, da immer in der realität andere taktraten anlagen als stock.


aber was die effizienzsteigerung angeht, bringt das adaptieren der VF curve natürlich einiges. mehr leistung + je nach spiel und gestaltung der VFcurve auch stromeinsparung.


stock zieht meine 3060 170w. mit meiner VFcurve sind es jetzt 125w bei durchschnittlich 50mhz niedrigerem takt als stock, was doch prozentual einiges ist, aber der leistungsverlust nicht spürbar ist.


bei meiner 3080 dachte ich, meine VF curve ist save, dann kam bf2042 und ich musste nochmals 0,05v draufgeben. in meinem spiele repertoire fucked bf2042 wohl am stärksten. andere nehmen metro exodus RT.

Snoopy69
2022-12-02, 17:54:06
Nee, UV ist nur weniger Spannung
Aber da kann man es auch ohne OC übertreiben, dass die Karte abkackt

Nimm mal Divison 2 und/oder Deadloop. Das zeigt dir, was UV mit Curve taugt :freak:

BlacKi
2022-12-02, 17:59:20
ja, uv ist per definition nur weniger spannung. aber das kann man mit nv nicht. zumindest nicht exakt.

division 2 ist so easy, ich kann in dem spiel die spannung sogar noch reduzieren.

Wuge
2022-12-02, 20:11:44
UV und OC ist ja quasi das gleiche, da man die Spannung für eine bestimmte Frequenz senkt oder eben die Frequenz für eine bestimmte Spannung erhöht ;D

Ich würde einfach per OffSet Übertakten und das PL senken. Fertsch. Im Gegensatz zu Ampere stürzt ja auch nichts mehr ab, jedenfalls bei meiner. Bevor eine Anwendung abkackt hab ich schon lange Grafikfehler. Von pixelehlerfrei bis Absturz locker 3-4 Taktstufen bei mir.

Sardaukar.nsn
2022-12-02, 20:24:19
@Wuge: Sehe ich ganz ähnlich. UV mit stets fixem Takt und Spannung ist halt sehr unflexibel. Da meint man eine gute "Kurve" gefunden zu haben, dann testet man einen Exot wie z.B. Quake II mit Vulkan Path tracing und alles bricht wieder zusammen. Max OC und Begrenzung des PL ist daher auch mein Weg, die Karte regelt den Rest.

BlacKi
2022-12-02, 20:40:10
uv bei nv ist ja praktisch nur das offset. aber gleichzeitig liegt halt mehr takt an, weil das PL das zulässt.

deshalb bekommt man ja mehr power bei uv bei nv, aber kaum verbrauchsreduzierung.

Lurtz
2022-12-02, 20:40:14
Curve ist bei einer 3070 massiv effizienter als nur Powertarget runter. Und läuft seit zwei Jahren stabil.

Deathloop habe ich damit auch gespielt, das ist nur vor dem entsprechenden Patch zu Beginn mal wegen VRAM-Mangel abgestürzt.

robbitop
2022-12-03, 08:14:24
Ja mit dem PL fährt er ja nur die voreingestellte Spannungs/frequenzkurve ab - und fährt so weit oben bis er ins tdp Limit läuft. Wenn man aber zusätzlich die U/f Kurve verändert, kann man für gleiche Leistung die TDP noch weiter senken oder bekommt für die gleiche TDP mehr Performance.

Platos
2022-12-03, 13:41:09
Ja mit dem PL fährt er ja nur die voreingestellte Spannungs/frequenzkurve ab - und fährt so weit oben bis er ins tdp Limit läuft. Wenn man aber zusätzlich die U/f Kurve verändert, kann man für gleiche Leistung die TDP noch weiter senken oder bekommt für die gleiche TDP mehr Performance.

Jetzt muss man noch verändern definieren.

Ein Powerlimit ist eig. das selbe, wie wenn man in der Kurve eine maximale Spannung vorgibt (die Kurve selbst aber nicht bewegt oder in ihrem Verlauf ändert). Nur eben mit dem Unterschied, dass diese maximale Spannung nicht fix ist, sondern eben variabel abhängig von einem Watt-Limit. Schlussendlich.

Im Namen Untervolting steckt aber nur drinn, dass man die Spannung senkt. Es ist also eine nicht variable Spannungsgrenze.

Wenn man die Kurve als ganzes verändert ( nach oben zieht), ist das im Grunde nicht mehr nur untervolten, sondern eben zusätzlich noch übertakten. Ist dann Untervolting und übertakten gleichzeitig.

Ich würde Übertakten so definieren, dass man an bestimmten Spannungspunkten die Taktrate höher einstellt, als es per default der Fall ist (also einzelne Punkte in der Kurve nach oben ziehen bzw. alle Punkte). Dabei muss die Taktrate in der Praxis nicht mal höher sein, wie im Defaultzustand. Man kann die Spannung auf 0.7V fixen und die Kurve nach oben ziehen. Dann hat man übertaktet, aber wegen der Spannung ist die absolute Taktrate trotzdem niedriger, wie im Auslieferungszustand der Graka.

Es spielt in Benchmarks aber keine extrem grosse Rolle, ob man nun ein Powerlimit setzt, oder ob man nun die Spannung fixt. Das, was mehr Perfomance bringt, ist die ganze Kurve anzuheben. Man kann dann (danach) noch eine fixe Spannung geben (untervolting) oder ein Powerlimit setzen (natürlich, wenn man die ganze Kurve nach oben zieht, wird die Spannung auch höher, evtl. ganz oben die Spannung auf default fixieren wegen Stabilität).

Aber es ist sogar so, dass in Benchmarks Kurve nach oben ziehen + PL mehr Perfomance pro Watt ergibt, wie Kurve nach oben ziehen + UV (Spannung "kappen"). Nach meiner Erfahrung ist es aber in der Praxis bei Spielen genau umgekehrt. Die stark schwankende Taktrate, die ein Powerlimit verursacht, verursachte bei mir schon oft Probleme in Spielen in Form von miesen Percentilen, was eine fixe Takrate (mittels fixem Spannungslimit) aber nicht hat.

Also Schlussendlich bin ich der Meinung, dass in realen Spielen ein Powerlimit zu miesen Percentilen führen kann und somit eine fixe Spannung vorzuziehen ist. Ist zumindest bei Pascal so.

Aber mehr Perfomance pro Watt alleine durch eine fixe (niedrigere) Spannung oder Powerlimit ergibt sich nur dadurch, dass eben der Betriebspunkt dort effizienter ist und gegebnfalls noch dadurch, dass wegen dem niedrigeren Stromverbrauch auch die Temperatur sinkt und dann die Karte heutzutage ja auch ein paar MHz höher taktet.

Ansonsten bringt das nix. Ist nur ein Verachieben in einen effizienteren Betriebspunkt (wobei das heute ja schon zirmlich viel bringen kann, weil per default die Karte so beschissene Spannungslimits haben).

Wuge
2022-12-03, 14:18:27
Ja mit dem PL fährt er ja nur die voreingestellte Spannungs/frequenzkurve ab - und fährt so weit oben bis er ins tdp Limit läuft. Wenn man aber zusätzlich die U/f Kurve verändert, kann man für gleiche Leistung die TDP noch weiter senken oder bekommt für die gleiche TDP mehr Performance.

Deshalb ja zusätzlich das Takt-OffSet ;) Ist nichts anderes als die VF/Curve anzuheben. Man könnte auch noch bei x-Volt kappen um ineffizienten Betrieb zu unterbinden. Nur das rumziehen einzelner Spannungspunkte in der V/F Curve führt zu Problemen, deshalb würde ich das lassen.

aufkrawall
2022-12-03, 15:41:01
Nur das rumziehen einzelner Spannungspunkte in der V/F Curve führt zu Problemen, deshalb würde ich das lassen.
Es führt nicht zu Problemen, wenn man es nicht falsch macht.

BlacKi
2022-12-03, 15:54:21
Jetzt muss man noch verändern definieren.

Ein Powerlimit ist eig. das selbe, wie wenn man in der Kurve eine maximale Spannung vorgibt (die Kurve selbst aber nicht bewegt oder in ihrem Verlauf ändert). Nur eben mit dem Unterschied, dass diese maximale Spannung nicht fix ist, sondern eben variabel abhängig von einem Watt-Limit. Schlussendlich. also das stimmt so nicht. die peaks sind und bleiben vorhanden, genauer gesagt, kurzzeitig peakt er mit deutlichem voltage und takt. ada macht das besser als ampere, aber bei ampere konnte ich mit meinem 600w netzteil 400w verblasen mit niedrigem uv/oc setting, aber nicht mit stock vf curve mit 250w tdp limit. da schaltete das netzteil unregelmäßig wegen den peaks aus.

Platos
2022-12-03, 19:44:19
also das stimmt so nicht. die peaks sind und bleiben vorhanden, genauer gesagt, kurzzeitig peakt er mit deutlichem voltage und takt. ada macht das besser als ampere, aber bei ampere konnte ich mit meinem 600w netzteil 400w verblasen mit niedrigem uv/oc setting, aber nicht mit stock vf curve mit 250w tdp limit. da schaltete das netzteil unregelmäßig wegen den peaks aus.


Ok, wusste ich nicht. Das muss dann wohl an der Umsetzung des Powerlimits liegen. D.h entweder greift das Powerlimit nicht so schnell (= Softwareproblem?) oder aber es ist über Zeit geregelt (z.B pro Sekunde im Durchschnitt den Wert des Powerlimits, was dann Spikes zulässt).

Wuge
2022-12-04, 13:29:39
Es führt nicht zu Problemen, wenn man es nicht falsch macht.

Jaaa, schon. Das meinte ich auch ;)

BlacKi
2022-12-04, 13:37:17
Ok, wusste ich nicht. Das muss dann wohl an der Umsetzung des Powerlimits liegen. D.h entweder greift das Powerlimit nicht so schnell (= Softwareproblem?) oder aber es ist über Zeit geregelt (z.B pro Sekunde im Durchschnitt den Wert des Powerlimits, was dann Spikes zulässt).nicht schnell genug

ShinyMcShine
2022-12-05, 13:06:48
NVIDIA is lowering GeForce RTX 4090/4080 pricing in Europe by 5% (https://videocardz.com/newz/nvidia-is-lowering-geforce-rtx-4090-4080-pricing-in-europe-by-5)

Hott3X
2022-12-05, 13:10:36
NVIDIA is lowering GeForce RTX 4090/4080 pricing in Europe by 5% (https://videocardz.com/newz/nvidia-is-lowering-geforce-rtx-4090-4080-pricing-in-europe-by-5)

Wow ganze 5%? Die 4080 müsste mind. 25% billiger werden.

Linmoum
2022-12-05, 13:23:47
Das ist halt keine klassische Preissenkung. Der Euro ist wieder stärker geworden, dementsprechend passt man den Euro-Preis auch an.

Meridian12
2022-12-05, 13:26:05
Die Frage ist,ob alle anderen Karten auch 5% billiger werden. Wahrscheinlich nicht.

Troyan
2022-12-05, 13:28:33
4090 ist auch billiger geworden.

w0mbat
2022-12-05, 13:40:54
Das ist halt keine klassische Preissenkung. Der Euro ist wieder stärker geworden, dementsprechend passt man den Euro-Preis auch an.
Der Euro ist aber über 10% stärker geworden, gegenüber dem Dollar.

Linmoum
2022-12-05, 13:47:21
Nvidia geht ja auch nicht nach Dollar-UVP = nur Euro+USt. Da kommt trotzdem gerne mal noch extra was drauf.

prinz_valium_2
2022-12-05, 15:44:20
Wow ganze 5%? Die 4080 müsste mind. 50% billiger werden.

FTFY

Gott1337
2022-12-05, 15:48:23
Der Euro ist aber über 10% stärker geworden, gegenüber dem Dollar.
ach die sollen Tagesaktuelle Schwankungen mit einbeziehen, na klar... :rolleyes:
und 10% stimmt auch nicht, lass es doch einfach.

dildo4u
2022-12-08, 15:31:34
Angeblich kommt 4070 TI weiterhin für 899$.


https://wccftech.com/nvidia-mulling-pricing-geforce-rtx-4070-ti-around-899-msrp/

unl34shed
2022-12-08, 15:51:15
Was anderes können sie ja eigentlich nicht machen, weil die Karten ja wegen 5nm so teuer sein müssen laut Nvidia.

Wenn sie jetzt bei gleicher Spec 100$ weniger verlangen hätten sie ja gelogen.

DrFreaK666
2022-12-08, 15:54:05
Der nächste Shitstorm ist sicher

Troyan
2022-12-08, 15:55:10
Angeblich kommt 4070 TI weiterhin für 899$.


https://wccftech.com/nvidia-mulling-pricing-geforce-rtx-4070-ti-around-899-msrp/

Ist doch okay. Die Leute haben sich ja wegen dem Namen aufgeregt. :cool:

Man sollte nicht alles glauben.

Fragman
2022-12-08, 15:55:35
hätten sie ja gelogen.

Da lügt niemand. Wäre die Aussage jetzt eine andere, hätten sie nur ihre Marketingstrategie geändert.

Dural
2022-12-08, 16:34:38
War ja klar, was habt ihr den gedacht?!?

NV ist in einer exzellenten Position, sie können aktuell verlangen was sie wollen, da keine Konkurrenz erhältlich ist. Es ist mittlerweile ja mehr als offensichtlich dass die Preise ganz bewusst so gewählt wurden, und die 4090 das beste Preisleistungsverhältnis bekommen hat.

Sehr viel werden statt einer 4080 eine 4090 kaufen, sprich eine Karte für rund 2000.- NV gleicht damit den Einbruch des Desktop und Mining Marktes aus. Und können mit User die nicht so viel ausgeben möchten Zeitgleich noch richtig viel mit den Ampere Karten verdienen die in der Produktion deutlich günstiger als Ada sind.

NV hat ja schon längst zugegeben das sie die Stückzahlen künstlich gedrosselt haben um höhere Gewinne zu erhalten.

Die Preise werden sich vielleicht nächste Jahr einpendeln, hoffen würde ich aber nicht.

NV kann nicht nur Hardware, sie haben seit jeher auch einen hervorragenden Vertrieb.

DrFreaK666
2022-12-08, 18:14:47
War ja klar, was habt ihr den gedacht?!?

NV ist in einer exzellenten Position, sie können aktuell verlangen was sie wollen, da keine Konkurrenz erhältlich ist. Es ist mittlerweile ja mehr als offensichtlich dass die Preise ganz bewusst so gewählt wurden, und die 4090 das beste Preisleistungsverhältnis bekommen hat.

Sehr viel werden statt einer 4080 eine 4090 kaufen, sprich eine Karte für rund 2000.- NV gleicht damit den Einbruch des Desktop und Mining Marktes aus. Und können mit User die nicht so viel ausgeben möchten Zeitgleich noch richtig viel mit den Ampere Karten verdienen die in der Produktion deutlich günstiger als Ada sind.

NV hat ja schon längst zugegeben das sie die Stückzahlen künstlich gedrosselt haben um höhere Gewinne zu erhalten.

Die Preise werden sich vielleicht nächste Jahr einpendeln, hoffen würde ich aber nicht.

NV kann nicht nur Hardware, sie haben seit jeher auch einen hervorragenden Vertrieb.

Komplett am Thema vorbei (4070 Ti)

prinz_valium_2
2022-12-09, 09:44:05
Ob ich wohl in den nächsten 10 Jahren noch mal eine neue GPU kaufen werde, oder war es das ganz mit PC gaming?

Eine 70er Karte über 1000€

dildo4u
2022-12-09, 09:51:49
NV muss eine Gewisse Menge absetzen wenn ihr Umsatz nicht weiter einbrechen soll.
Intel hat das schon gelernt und nimmt gerade geringere Margen als AMD in Kauf.
Aber es gibt immer noch 3080 für 800€, da macht es noch kein Sinn eine besser Karte für den selben Preis zu bringen.
Das ganze wird erst interessant wenn Ampere endlich Abverkauft ist.

Alles 800€+

https://geizhals.de/?cat=gra16_512&xf=9816_03+05+16+-+RTX+3080&sort=p&hloc=de&v=e&t=v


4070 soll bei der 3080 rauskommen 30TFlops bei 250 Watt.

https://www.computerbase.de/2022-12/nvidia-geforce-rtx-4070-spezifikationen/

GrimReaper85
2022-12-11, 18:55:18
Weiß jemand, ob Palit GameRock schlechter sein sollte als GameRock OC?
Ich habe es am 8. morgens bestellt, als der Preis noch 1399 € für non-OC betrug.
Wie auch immer, ich bekomme es Ende der Woche und werde meine OC Ergebnisse melden. OC Version geht bis etwa 3000 MHz.

Von allen Karten denke ich, dass ASUS Strix OC einsortiert werden muss. 3080 MHz kann kein Glück sein:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/41.html

Sardaukar.nsn
2022-12-11, 19:06:52
@GrimReaper85: Die Karten sind alle gleich schnell oder langsam. Kommt nur auf das Bios an und das lässt sich flashen. Ich habe z.B. die günstigste 4090 Asus TUF non-oc aus deren Webshop für 1950 und jetzt läuft es mit den Taktraten einer Galax HOF. Also diese ganzen oc-, non-oc Versionen der gleichen Karten kannst du getrost ignorieren. Schaut das du einen guten Preis bekommst und dann viel Spass mit der Karte.

bbott
2022-12-11, 22:05:01
Der 12 PIN Stecker hat ja lange gereicht https://www.computerbase.de/2022-12/galax-geforce-rtx-4090-hof-oc-lab-1275-watt/ :eek:

Sunrise
2022-12-11, 22:21:32
Der 12 PIN Stecker hat ja lange gereicht https://www.computerbase.de/2022-12/galax-geforce-rtx-4090-hof-oc-lab-1275-watt/ :eek:
Die Dinger sind einfach nur krank… geil!

Exxtreme
2022-12-11, 22:55:05
Der 12 PIN Stecker hat ja lange gereicht https://www.computerbase.de/2022-12/galax-geforce-rtx-4090-hof-oc-lab-1275-watt/ :eek:
Zur Sicherheit ein 2k Watt NT besorgen. X-D Ja, das ist krank. Da brauchst du keine Heizung.

Skysnake
2022-12-11, 23:14:47
Das sind langsam echt Ekszesse die ich nicht mehr ok finde.

Also selbst als jemand der mit Clustern im MW Bereich zu tun hat, schüttele ich da einfach nur noch den Kopf. Das ist einfach nur noch sinnloses übers Knie brechen. Wieviel Mehrleistung bekommt man denn für 300W+? lass mal raten, 10-15%?

Das ist einfach lächerlich. Als xPUs noch 60W verbraucht haben, war es schon nicht schön, aber dafür waren die absoluten Werte nicht so gigantisch. Macht halt nen Unterschied ob ich da 20-50W drauf lege oder 300W...

Tarkin
2022-12-12, 08:06:17
Die Dinger sind einfach nur krank… geil!

das ist nicht geil, das ist komplett pervers und idiotisch - speziell in Zeiten wie diesen.

Ich bin kein Ökonazi, aber das ist einfach nur völlig hirnrissig.

dildo4u
2022-12-12, 08:19:16
Davon werden kaum welche gebaut ist wie bei Hypercars, problematisch wäre es wenn Apple Geräte plötzlich 600Watt wollen.

lilgefo~
2022-12-12, 08:19:48
schnarch, klebt euch doch an nem NT fest
99% der Zeit sind die Dinger meilenweit effizienter als das was ihr in euern Mühlen habt, und in den 1% der Zeit wo das PT ansatzweise ausgenutzt wird ruckelts halt nicht im gegensatz zu euren grakas..wow

Chris Lux
2022-12-12, 09:01:51
schnarch, klebt euch doch an nem NT fest
99% der Zeit sind die Dinger meilenweit effizienter als das was ihr in euern Mühlen habt, und in den 1% der Zeit wo das PT ansatzweise ausgenutzt wird ruckelts halt nicht im gegensatz zu euren grakas..wow
QFT ;D

Edgecrusher86
2022-12-12, 09:22:32
https://www.computerbase.de/forum/threads/galax-geforce-rtx-4090-hof-2x-16-pin-sorgen-fuer-1-275-watt-und-666-watt-tgp.2118682/page-5#post-27628180

https://abload.de/img/screenshot2022-12-120gaijk.png

Hm, das könnte so aber bald leicht verschmort riechen mit 1x 16 Pin [ASUS TUF @ HOF BIOS]. :uexplode:

Mutig der Kollege. ;D

Sardaukar.nsn
2022-12-12, 12:16:25
Der Screenshot ist von mir. Ich will mal hoffen das CableMod das 3x8 auf 16pin Kabel vernünftig zusammengebaut hat. War auch nur ein sehr kurzer Test ob das LP wirksam ist. Die Temperaturen sind ja auch schlagartig angestiegen. 640 Watt nur auf den GPU Chip sind halt auch nicht ohne.

Cubitus
2022-12-12, 13:28:56
Der Screenshot ist von mir. Ich will mal hoffen das CableMod das 3x8 auf 16pin Kabel vernünftig zusammengebaut hat. War auch nur ein sehr kurzer Test ob das LP wirksam ist. Die Temperaturen sind ja auch schlagartig angestiegen. 640 Watt nur auf den GPU Chip sind halt auch nicht ohne.

Überlege mir das HOF Bios auf meine Suprim zu flashen, dann hätten die "mächtigen" Phasen wenigstens einen Sinn :freak:

Platos
2022-12-12, 14:00:02
Nicht wirklich. Der Stromverbauch ist mit Sicherheit nicht Sinnvoll :D

Snoopy69
2022-12-12, 23:51:16
Die Dinger sind einfach nur krank… geil!
Aber für den Alltag auch mehr Boost-Clock, als eine MSI oder Colorful. Da hätte ich ab Werk mehr erwartet


https://www.computerbase.de/forum/threads/galax-geforce-rtx-4090-hof-2x-16-pin-sorgen-fuer-1-275-watt-und-666-watt-tgp.2118682/page-5#post-27628180

https://abload.de/img/screenshot2022-12-120gaijk.png

Hm, das könnte so aber bald leicht verschmort riechen mit 1x 16 Pin [ASUS TUF @ HOF BIOS]. :uexplode:

Mutig der Kollege. ;D
Ach was…
Stecker gut gekühlt, passiert da nichts :wink:



BTW:
Wegen PL von 600W und mehr…
Natürlich ist das gestört, aber das sind nur winzige Zeitfenster aufs Jahr gesehen, die für Benchmarking genutzt werden. Die übrigen >99% werden beim Gaming mit wesentlich weniger betrieben. Also umsonst aufgeregt…

Von den millionenfach umherfahrenden Karren >50 PS und >1.500kg redet schon keine Sau mehr. Verkehrte Welt… :rolleyes:


BTW2:
Nicht das, was ich erwartet hab bei 34°C avg-GPU, aber mehr war letztens nicht möglich. Dafür 5.250MHz peak bei 5950X unter Luft :ulol:
(4090 TUF Non-OC-Version + Byksky-Block + Thermal Grizzly Conductonaut (Liquid Metal) @ 10 Grad Ansaugluft am MoRa3 - 360LT)

https://www.3dmark.com/spy/33339693

https://abload.de/img/hdfghlfd6g.jpg

Ailuros
2022-12-14, 06:13:26
Bitte verallgemeinere nicht "Ada GPUs", denn eine 4090 ist tatsächlich eine TOP GPU und ich kann sogar den Preis in Relation verstehen. Bei den 4080ern wird es dagegen deutlich schwieriger vom Preis und auch beim Rest sollten wir erstmal Reviews abwarten.

Ist zwar alt und OT, aber wie sieht es heute nach den ersten RDNA3 reviews aus?

=Floi=
2022-12-14, 06:20:12
Für das kleine mem interface liefert die 4080er ab. Die karte ist extrem energieeffizient und durch den kühler leise. Idle verbrauch passt. Der videocontroller ist weiterhin bombe.
Eigentlich perfekt.

Nachteil sind der vram und der zu hohe preis. Plus noch die NV salamitaktik bei der technik und dem ram.


BMW ist die NV und Toyota die AMD.

Ailuros
2022-12-14, 06:24:36
Und Mercedes wer? ;D

Gott1337
2022-12-14, 06:32:32
Für das kleine mem interface liefert die 4080er ab. Die karte ist extrem energieeffizient und durch den kühler leise. Idle verbrauch passt. Der videocontroller ist weiterhin bombe.
Eigentlich perfekt.

Nachteil sind der vram und der zu hohe preis. Plus noch die NV salamitaktik bei der technik und dem ram.


BMW ist die NV und Toyota die AMD.
Gut das Toyota DEN Motor bei BMW kauft ;D (Supra)

=Floi=
2022-12-14, 07:00:52
Ram chips/Bauteile ;)


Es ging mir darum, dass BMW in den höheren segmenten teilweise einfach richtig unverschämt hinlangt.
Das selbe kann man aktuell bei NV sagen. Gerade das mehr performance = höherer preis finde ich mittlerweile echt bitter bei NV.
Dann kacken sie bei der 4080er noch beim vram rum.

Sardaukar.nsn
2022-12-14, 08:36:19
@Snoopy69: Temperaturen sind Top, der Score könnte für deinen Takt noch etwas höher ausfallen. Ich habe hier ja auch die TUF non-oc welche mit Luftkühlung knapp über 3 Ghz halten kann. Komme aktuell auf diesen Wert: https://www.3dmark.com/3dm/84810360?

Wenn der Alphacool Wasserblock da ist, geht vielleicht noch ein bisschen. Aber es gibt ja mehrere Gründe für eine Wasserkühlung ;)

aceCrasher
2022-12-14, 12:14:09
Angebliche RTX 4060ti specs: (https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-rumored-to-feature-4352-cudas-8gb-memory-and-220w-tdp)
AD106-350
34 SM
4352 Shader
8GB GDDR6 (Kein X!)
128-bit
220W

prinz_valium_2
2022-12-14, 23:13:21
Meine übertaktete 1070 hat mehr Bandbreite.
So lächerlich

BlacKi
2022-12-14, 23:14:40
Meine übertaktete 1070 hat mehr Bandbreite.
So lächerlichauch mehr cache?

8gb sind zu wenig. 2016 ruft an.

Raff
2022-12-14, 23:16:14
Der fette L2-Cache Cache hilft nur der Leistung (massiv), aber nicht bei Speicherüberlauf.

Dämlich, dass der Chip keine 192 Bit hat. Damit ist die RTX 3060 eine "visionäre" Ausnahme. Ich finde, die mindestens RTX 4060 Ti sollte noch auf einem AD104-Salvage basieren, zur Not mit 11 oder 10 GiB.

MfG
Raff

Snoopy69
2022-12-15, 06:03:47
@Snoopy69: Temperaturen sind Top, der Score könnte für deinen Takt noch etwas höher ausfallen. Ich habe hier ja auch die TUF non-oc welche mit Luftkühlung knapp über 3 Ghz halten kann. Komme aktuell auf diesen Wert: https://www.3dmark.com/3dm/84810360?

Wenn der Alphacool Wasserblock da ist, geht vielleicht noch ein bisschen. Aber es gibt ja mehrere Gründe für eine Wasserkühlung ;)
Tja…
Könnte, hätte, sollte - scheiss Serienstreuung eben :freak:
Deine TUF schafft +1.700 RAM, während meine gerade so +1.400 schafft ;( Oder gibts eine Einstellung, die ich nicht kenne? ECC ist ja standardmäßig AUS

Oder liegt’s am GALAX-BIOS? Wie läuft das im Vergleich zum Strix-BIOS? Bessere Lüfterkurve?


Ist allerdings die erste, erhaltene 4090, die ich behalten hab. Während Einige nach 5-10x 4090 erst eine Perle gefunden haben. Ich kann mir zumindest sicher sein, dass es kein Rückläufer ist (eine von den 5-10x 4090)

Hatte noch eine Suprim X, von der Viele so schwärmten. Aber die fand ich im Vergleich zur TUF nicht so wertig (fühlte sich billig in den Händen an) und war zudem noch 300€ teurer (meine TUF nur 1.949€)


Wegen Block…
Hattest vielleicht gelesen, dass der Byksky-Block für die Strix/TUF 4090 nur 22,5cm klein ist, während der Block für die Strix/TUF3090 26,5cm lang ist

Block für die 5090 nur noch 18cm? :freak:

Sardaukar.nsn
2022-12-15, 09:00:10
Das Galax Bios ist im Benchmark auf jeden Fall top. Aber bei Witcher 3 mehrfach abgeschmiert, kann aber auch im Spiel liegen. Aktuell zocke ich wieder mit dem Bios Switch auf dem ASUS Bios. Wenn der Wasserkühler da ist werd ich da eh noch mal testen müssen. Leider habe ich schon mehrere Berichte gehört das der Vram nicht mehr so hoch taktet wenn er zu kühl wird. Eigentlich total schräg, aber mir haben es jetzt wirklich schon mehrere Leute berichtet.

Meine TUF hatte auch den Preis und kam am Launch Day direkt aus dem Asus Webshop. Ich hatte noch die Option auf ne TUF OC von MediaMarkt, aber +200€ nur für das andere Bios?

Dural
2022-12-15, 10:00:53
NV war und ist nicht teuer, wenn man neben der Leistung das ganze Ökosystem-Software und was alles dazu gehört und die komplette Hardware rein rechnet, hatte NV sogar eigentlich immer das bessere Preis/Leistungs Verhältnis als AMD, seit RT sogar ganz klar.

FPS pro Dollar kann jeder innert Sekunden ausrechnen, die anderen Werte halt nicht. Kein Mensch vergleicht Autos mit PS pro Dollar oder Km/h pro Dollar, oder kauft ihr eure Waschmaschine nach Füllmenge pro Dollar??? :freak: ;D

Technisch erachte ich FPS pro Watt als deutlich interessanter und Sinnvoller.

Snoopy69
2022-12-15, 13:22:10
@Sardaukar.nsn

Habs im Luxx gelesen, danke...
Bringt beim Benchen tatsächlich ca. 400 Grafikpunkte mehr :up:

Vorher - 21.222
Jetzt - 21.604

https://www.3dmark.com/spy/33549023

Thunder99
2022-12-15, 20:06:06
Bei allem was man so ließt, ist wohl die 4080 16GB und 4090 derzeit die einzigen guten Karten. Die 4070Ti ist auch zu teuer für die gebotene Leistung und VRAM Menge, und darunter fehlt der VRAM...

MSABK
2022-12-15, 20:17:21
Angebliche RTX 4060ti specs: (https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-rumored-to-feature-4352-cudas-8gb-memory-and-220w-tdp)
AD106-350
34 SM
4352 Shader
8GB GDDR6 (Kein X!)
128-bit
220W

Vlt erbarmt sich Nvidia und wir dürfen nur 799€ dafür zahlen.

Timbaloo
2022-12-19, 08:51:35
Scheinbar gibt es auch bei den 4000er Karten Noctua-Asus-Varianten. Zumindest arbeitet man dran.

https://www.reddit.com/r/Noctua/comments/xmz87t/rtx_4000_series_will_there_be_a_noctua_edition/

Thunder99
2022-12-19, 09:35:40
Die Ampere Karten waren ja schon riesig, werden dann die Lovelace Karten noch größer? :freak:

MSABK
2022-12-19, 10:04:46
Die Ampere Karten waren ja schon riesig, werden dann die Lovelace Karten noch größer? :freak:

Die kommen dann mit einem CPU-Sockel integriert.

ChaosTM
2022-12-19, 10:34:08
Die Speicher Politik von NV ist wirklich zum kotzen. Planned Obsolescence zum Quadrat.

Add - die 80er ist eigentlich auch ein Witz in der Beziehung. Beim FS2020 lieg ich jetzt schon bei 90% Auslastung. Was natürlich nicht heißt, das es den auch braucht. Bevor mir ein obergscheiter* Fanboy das um die Ohren haut.


* ein inhaltlicher Widerspruch, ich weiß. :D

Timbaloo
2022-12-19, 11:32:02
Die Ampere Karten waren ja schon riesig, werden dann die Lovelace Karten noch größer? :freak:
Sofern sie nicht auf 2x140mm Lüfter gehen würde ich nicht erwarten, dass die Karten größer werden. Die Verlustleistung der 4080 ist ja sogar kleiner als die der 3080.

Sardaukar.nsn
2022-12-19, 11:51:28
Ich denke mal die kommt mit 2x120mm. Dazu ein vernünftiger Kühler und ein UV/PL-Reduziertes Eco-Bios per Switch und fertig wäre die Laube.

Snoopy69
2022-12-19, 13:31:06
Die Ampere Karten waren ja schon riesig, werden dann die Lovelace Karten noch größer? :freak:
Meine 4090 TUF ist nur noch süße 22,5cm klein :)

Timbaloo
2022-12-19, 14:51:14
Ich denke mal die kommt mit 2x120mm. Dazu ein vernünftiger Kühler und ein UV/PL-Reduziertes Eco-Bios per Switch und fertig wäre die Laube.
Ein Preis-Leistungs-reduziertes Bios wirst du sicher bekommen :ulol:

dildo4u
2022-12-21, 09:58:29
Titan RTX Leak.


https://wccftech.com/alleged-nvidia-titan-ada-graphics-card-pictured-quad-slot-behemoth-with-dual-16-pin/

Gigabyte 4070 Ti 2*8 pin zu 1*16.


https://videocardz.com/newz/gigabyte-geforce-rtx-4070-ti-aero-has-been-pictured-comes-with-new-2x8pin-to-16-pin-power-adapter

Snoopy69
2022-12-21, 11:13:59
:love2:

https://abload.de/img/af409c69-29eb-4a4c-9fheur.jpeg

wwZr4kp2gnc

BlacKi
2022-12-21, 11:16:55
angeblich gibts ja am 3. jan schon offizielle news zur 4070ti. am 4. jan dann erste reviews.

kanns kaum abwarten 3090ti performance mit nur 200w zu erreichen :)

dildo4u
2022-12-21, 11:19:34
Bin auch gespannt ich wechsel mein 400 Watt Be Quit nicht, wird also 4070 oder 4070 Ti.

BlacKi
2022-12-21, 11:37:14
wenn die 4070ti jetzt mit 899$ pricetag kommt, dann hat die community nichts erreicht, ausser das dieselbe karte später erschienen ist...

dann

https://i.kym-cdn.com/photos/images/newsfeed/000/614/728/fee.gif

dildo4u
2022-12-21, 11:49:31
3080 12GB sind 1200€ für 1000€ wäre sie ein Angebot.

https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&sort=p&bl1_id=30&xf=132_12288%7E9810_06+16+-+RTX+3080

BlacKi
2022-12-21, 11:54:22
3080 12GB sind 1200€ für 1000€ wäre sie ein Angebot.

aber auch erst seit kurzem, die rdna karten sind dabei noch günstig, lediglich manche ampere karten machen sich rar.

dildo4u
2022-12-21, 11:56:02
Deshalb hätte es nie Sinn gemacht die Karte vor Januar zu bringen es war zu viel Ampere im Angebot.

robbitop
2022-12-21, 12:04:26
3080 12GB sind 1200€ für 1000€ wäre sie ein Angebot.

https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&sort=p&bl1_id=30&xf=132_12288%7E9810_06+16+-+RTX+3080
überteuert. Dann würde ich eher eine 7900xtx oder 4080 kaufen. Oder ne gebrauchte Ampere.

Neurosphere
2022-12-21, 12:54:40
Titan RTX Leak.


https://wccftech.com/alleged-nvidia-titan-ada-graphics-card-pictured-quad-slot-behemoth-with-dual-16-pin/

Gigabyte 4070 Ti 2*8 pin zu 1*16.


https://videocardz.com/newz/gigabyte-geforce-rtx-4070-ti-aero-has-been-pictured-comes-with-new-2x8pin-to-16-pin-power-adapter
:love2:

https://abload.de/img/af409c69-29eb-4a4c-9fheur.jpeg

https://youtu.be/wwZr4kp2gnc


https://twitter.com/coreteks/status/1605492561228943360
https://pbs.twimg.com/media/FkfaALtaUAAyJXE?format=jpg&name=large

Sieht nach BS aus.

dildo4u
2022-12-21, 13:06:07
überteuert. Dann würde ich eher eine 7900xtx oder 4080 kaufen. Oder ne gebrauchte Ampere.
Es wird passen die XTX wird wegen der Nachfrage nicht so schnell 300€ billiger werden.
Ich tippe drauf das die 4070 Ti rund 30% langsamer ist als die 4080.

BlacKi
2022-12-21, 13:08:59
Es wird passen die XTX wird wegen der Nachfrage nicht so schnell 300€ billiger werden.
Ich tippe drauf das die 4070 Ti rund 30% langsamer ist als die 4080.naja, es gibt schon benches. TSE ist sie nur 24% langsamer. nv hat ja auch schon benches zur 4080 12gb gebracht.
vs 4080
-30% specherbandbreite

-18% rechenleistung

je nach spiel wird das schwanken. je nach spiel wird auch die 3090ti schneller oder langsamer sein.

dildo4u
2022-12-21, 13:21:15
Ja wenn das alte TDP bestehen bleibt sie könnten die Lücke größer machen und damit billiger zu produzierende Karten erlauben.
Dafür müsste man nur das Bios der schon produzierten ändern.

BlacKi
2022-12-21, 13:23:08
Ja wenn das alte TDP bestehen bleibt sie könnten die Lücke größer machen und damit billiger zu produzierende Karten erlauben.
Dafür müsste man nur das Bios der schon produzierten ändern.oder die karte läuft wie die 4080 16gb nicht in das tdp limit. 285w waren imho viel zu viel, die karte hätte das limit nie ausreizen können, höchstens mit OC.

reaperrr
2022-12-21, 13:56:54
wenn die 4070ti jetzt mit 899$ pricetag kommt, dann hat die community nichts erreicht, ausser das dieselbe karte später erschienen ist...

dann

https://i.kym-cdn.com/photos/images/newsfeed/000/614/728/fee.gif
Da ist dann aber eher Nvidia's Gier schuld, nicht die völlig gerechtfertigte Kritik der Community.
Zumal sich die ja auch in erster Linie gegen den Namen richtete, der schlicht Verarschung war.

Das P/L-Verhältnis ist zwar auch enttäuschend wenn's so bleibt, passt aber ungefähr im Verhältnis zur 4080.

BlacKi
2022-12-21, 14:01:15
es ändert nichts daran, das wir die 4080 12gb schon 2 wochen auf dem markt gehabt hätten. jetzt kommt vl die 4080 12gb nur später. das hat die community geschafft, nicht mehr, nicht weniger.

imho geht das canceling rein auf das gemecker zurück.

naja, die reduzierung auf 250w lässt mich wenigstens hoffen, das die karte 100$ billiger wird.

Thunder99
2022-12-21, 14:20:29
es ändert nichts daran, das wir die 4080 12gb schon 2 wochen auf dem markt gehabt hätten. jetzt kommt vl die 4080 12gb nur später. das hat die community geschafft, nicht mehr, nicht weniger.

imho geht das canceling rein auf das gemecker zurück.

naja, die reduzierung auf 250w lässt mich wenigstens hoffen, das die karte 100$ billiger wird.
Es wird sogar noch schlimmer, kleiner Name aber gleicher (möglicherweise) Preis :freak:

BlacKi
2022-12-21, 14:23:19
das wäre worst case. bezweifle ich aber.

basix
2022-12-21, 14:33:44
https://twitter.com/coreteks/status/1605492561228943360
https://pbs.twimg.com/media/FkfaALtaUAAyJXE?format=jpg&name=large

Sieht nach BS aus.

Ist ein Rendering eines seiner Patreon Leute....

Naja, eine Titan oder 4090 Ti macht Sinn, weil 4090 aus den Händen gerissen werden. Können ein paar Kunden von der 4090 zur Titan gezogen werden: Mehr Geld für Nvidia. Nötig hat es Nvidia aber nicht.

Aber 2x PCIe 16p und 600W macht einfach keinen Sinn. 142..144 SMs, 500W, selektierte Die, selber Kühler. Fertig.

Rampage 2
2022-12-21, 15:43:10
Naja, eine Titan oder 4090 Ti macht Sinn, weil 4090 aus den Händen gerissen werden. Können ein paar Kunden von der 4090 zur Titan gezogen werden: Mehr Geld für Nvidia. Nötig hat es Nvidia aber nicht.

Aber 2x PCIe 16p und 600W macht einfach keinen Sinn. 142..144 SMs, 500W, selektierte Die, selber Kühler. Fertig.

Mit weniger als die vollen 144 SMs braucht weder die Ti, noch eine Titan zu kommen...:P

An dieser Stelle muss ich eine Frage zur technischen Machbarkeit stellen: der AD103-Chip, der in der kürzlich releasten 4080 steckt, soll ja defekt - also die restlichen 4 SMs der insgesamt 84 SMs nicht ansteuerbar sein, so dass selbst ein vermeintlicher Vollausbau nur höchstens 80 (aktive) SMs haben kann; also kein echter Full-Chip wäre. Kann Nvidia es schaffen, den AD103-Chip im Laufe des nächsten Jahres irgendwie zu "reparieren", so dass wirklich alle 84 SM bei einem potentiellen LL-Refresh aktiv sein können?

Bei den Haswell-CPUs von 2013/2014 gab es ja auch einen Defekt, der den TSX-Befehlssatz unbenutzbar machte und jenes wurde dann von Intel bei der nachfolgenden Broadwell-Architektur (2015) repariert - und dieser war ja auch nur ein Refresh von Haswell;)

Dieselbe Frage stellt man sich in letzter Zeit ja auch zu den HW-Bugs bei AMD's N31-Chip:wink:

R2

Relic
2022-12-21, 15:54:46
der AD103-Chip, der in der kürzlich releasten 4080 steckt, soll ja defekt - also die restlichen 4 SMs der insgesamt 84 SMs nicht ansteuerbar sein, so dass selbst ein vermeintlicher Vollausbau nur höchstens 80 (aktive) SMs haben kann

Nicht alles glauben, was irgendwo im Internet steht....

Dural
2022-12-21, 16:53:38
Wäre ein ziemlich aufwändiger Fake.

Es gab es ja schon Bilder des Titan Kühler, und dieser war "verkehrt"
Und die Stromanschlüsse müssen noch lange nicht direkt auf dem PCB sein, dazu gab es schon einige Beispiele wo dies nicht der fall war.

Neurosphere
2022-12-21, 17:33:15
Wäre ein ziemlich aufwändiger Fake.

Es gab es ja schon Bilder des Titan Kühler, und dieser war "verkehrt"
Und die Stromanschlüsse müssen noch lange nicht direkt auf dem PCB sein, dazu gab es schon einige Beispiele wo dies nicht der fall war.

Was ist denn an einem gerendertem Bild aufwändig?

Snoopy69
2022-12-21, 17:54:20
Regt euch doch nicht wegen einem scheiß Render-Pic auf
Falls die Titan wirklich kommt, wird der Preis weit über 3.000€ liegen. Wäre dann uninteressant

Rampage 2
2022-12-22, 00:15:15
Nicht alles glauben, was irgendwo im Internet steht....

Das stand nicht "irgendwo" im Internet, sondern auf nichts Geringerem als 3DCenter und wurde auch auf anderen HW-Seiten erwähnt:

https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4080

Siehe Punkt 3 bei der Spec-Auflistung und den Absatz darunter...

R2

DrFreaK666
2022-12-27, 15:31:03
"NVIDIA GeForce RTX 4070 Ti now up for preorder in China for same price as canceled RTX 4080 12GB"
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-now-up-for-preorder-in-china-for-same-price-as-canceled-rtx-4080-12gb

Zum Glück hat Nvidia erkannt, dass der Name falsch war

Snoopy69
2022-12-27, 16:03:35
Ich schätze mal, dass die 4070Ti in DE bei min. 1.200€ los geht

DrFreaK666
2022-12-27, 16:22:14
Puh, eine 4050 dann für 600€?

Rampage 2
2022-12-27, 16:33:21
Ich schätze mal, dass die 4070Ti in DE bei min. 1.200€ los geht

So ein Quatsch! Vom Dollarpreis mit MwSt. umgerechnet, sollte die FE ziemlich exakt 1000 Euro kosten. Custom-Modelle werden dann wohl bei 1050-1100 Euro losgehen.

Ist ja auch eh egal - 1000 Euro für eine Karte, die gleichschnell oder ein paar Prozent langsamer ist als eine 3090 Ti, aber nur halb so viel Grafikspeicher mitbringt:crazy2::facepalm:

Aber Nvidia kann es sich nunmal leisten, solche Preise zu verlangen - "dank" dem Umstand, dass AMD's N31 derzeit ein Rohrkrepierer ist... hoffentlich werden die HW-Bugs am N31-Chip naechstes Jahr gefixt für einen Refresh:smile:

R2

Snoopy69
2022-12-27, 16:38:48
So ein Quatsch! Vom Dollarpreis mit MwSt. umgerechnet, sollte die FE ziemlich exakt 1000 Euro kosten. Custom-Modelle werden dann wohl bei 1050-1100 Euro losgehen.

Ist ja auch eh egal - 1000 Euro für eine Karte, die gleichschnell oder ein paar Prozent langsamer ist als eine 3090 Ti, aber nur halb so viel Grafikspeicher mitbringt:crazy2::facepalm:

Aber Nvidia kann es sich nunmal leisten, solche Preise zu verlangen - "dank" dem Umstand, dass AMD's N31 derzeit ein Rohrkrepierer ist... hoffentlich werden die HW-Bugs am N31-Chip naechstes Jahr gefixt für einen Refresh:smile:

R2
Werden wir ja dann sehen, was "Quatsch" ist:wink:
Du hast die Scalper-Shops vergessen :freak:

Siehe 4080...
Die liegt, wie Blei in den Regalen und die 4090 ist begehrt, wie nie, weil das P/L der 4080 beschissen ist

Emil_i_Lönneberga
2022-12-27, 16:40:12
Raff: „1050€, das kauft kein Schwein.“

Ich glaube, abseits der Schweine rollt der Rubel, da die „1050€ für 3090Ti Leistung“ Headline einfach ein gutes Zugpferd ist. Das gilt dann nur inklusive 1440p, aber bei 4K gilt dann die große Einigkeit: „Die 4070Ti is ja kene 4K Karte.“




j_InmQR-VkA

BlacKi
2022-12-27, 16:55:14
das raff die ti nur 20% langsamer einordnet finde ich sogar optimistischer als ich es einschätzen würde. naja, in 4k sind wir dann wieder beisammen XD

natürlich kann man die karte in 4k nutzen. erst recht mit dlss. da mache ich mir keine sorgen.

ich finde, die karte darf 1050€ kosten, wenn eine 4080 1350€ kostet. natürlich hoffe ich auf unter 1000€.

Rampage 2
2022-12-27, 17:15:23
natürlich kann man die karte in 4k nutzen. erst recht mit dlss. da mache ich mir keine sorgen.

Du musst auch bedenken, dass die 4070 Ti noch weniger Cache als die 4080 besitzt - und selbst die hungert bereits leicht nach Bandbreite. So wie es aussieht, ist die 4070 Ti eine perfekte 1440p-GPU. In 4K dagegen, sollte der "nur" 48MB grosse L2-Cache noch viel haeufiger überlaufen - und sobald das geschieht, hat sie NOCH weniger Bandbreite zur Verfügung als eine 4080, die selber bereits mit einem leichten BB-Mangel zu kaempfen hat;)


ich finde, die karte darf 1050€ kosten, wenn eine 4080 1350€ kostet. natürlich hoffe ich auf unter 1000€.

Nein, das darf sie nicht, ebensowenig die 4080 - aber das alles interessiert Lederjacke einen feuchten Kehricht, solange AMD keine ernsthafte Konkurrenz ist:redface:

R2

Ex3cut3r
2022-12-27, 17:18:34
RTX 4050 für 750€ dann. :freak: ;D

Die haben doch ein Rad ab bei Nvidia. Als ob jeder irgendwie ein Super Bonze wäre.

Hatstick
2022-12-27, 17:27:26
Da ist AMD aber auch nicht großartig besser.
Wir erleben nun mal finanziell genau den Switch, teils bis zu 100% mehr UVP von dem 80er nVidia Modell.
Da kann man die Karten drehen und wenden wie man will, ein gutes P/L Verhältnis kann einfach nicht rausspringen, dann müsste eine 4080 schon wirklich 100% mehr pure Leistung haben als eine 3080.

Ex3cut3r
2022-12-27, 17:29:24
Also, 1019€

https://www.mindfactory.de/product_info.php/20GB-XFX-Radeon-RX-7900-XT-AMD-Edition-Aktiv-PCIe-4-0-x16--Retail-_1474342.html

für eine 7900 XT die immerhin 5% schneller ist, im Raster gegenüber einer 3090 Ti, finde ich weitaus besser als, 1050€ für eine 4070 Ti mit 12GB vs 20GB. :freak:

Hatstick
2022-12-27, 17:32:02
Eine 7900RT, die ca. 20% schneller ist in 1440p als meine 6800XT (650€) @ 2,5GHz ohne jetzt noch mal genau auf die Benchmarks zu schauen, ist genauso schlecht wie eine 4080 selbst für 1300€.
Meine Glaskugel sagt mir, das wir auch in Zukunft vierstellig für die Spitzenklasse und eventl. auch darunter zahlen müssen (4070Ti) ABER... hoffentlich wie die 3000er/6000er Gen die Option in knapp zwei Jahren haben, im Abverkauf zuzuschlagen und eine 4080 dann für 750€ einpacken können.

dildo4u
2022-12-27, 17:49:21
Die 4070ti wird für mich besser weil es Custom Modelle geben wird die nicht sinnlos 3.5 Slot nutzen.
Der AMD Kühler überzeugt mich nicht was Lautstärke angeht kann aber an den 300Watt der 7900XT liegen.

Emil_i_Lönneberga
2022-12-27, 17:51:06
Mir geht es auch wie vermutlich einigen anderen, die 600-700€ für eine 1080Ti und dann für denselben Betrag ein paar Jahre später zur 6800XT gewechselt sind.
Wenn man seinem Preisbereich treu bleiben möchte, was ich defintiv machen werde, wird man eben nach unten in den oberen Einsteiger- und unteren Mittelklassebereich durchgereicht. Dadurch muss man für ein Performanceplus von 100% ein bis zwei Generationen mit einem Neukauf der Grafikkarte länger warten als in der Vergangenheit. Das wird schon, am Ende des Tages laufen neue Spiele trotzdem auf der alten Geige.

BlacKi
2022-12-27, 17:55:42
Du musst auch bedenken, dass die 4070 Ti noch weniger Cache als die 4080 besitzt - und selbst die hungert bereits leicht nach Bandbreite. So wie es aussieht, ist die 4070 Ti eine perfekte 1440p-GPU. In 4K dagegen, sollte der "nur" 48MB grosse L2-Cache noch viel haeufiger überlaufen - und sobald das geschieht, hat sie NOCH weniger Bandbreite zur Verfügung als eine 4080, die selber bereits mit einem leichten BB-Mangel zu kaempfen hat;)


es gibt da keine grenze. mehr cache hilft, das ist klar, aber du kannst nicht sagen 64mb geht 4k und 48mb geht mit 4k nichtmehr.

r3ptil3
2022-12-27, 17:59:56
NVIDIA GeForce RTX 4080 Laptop GPU Specs & Benchmarks Leak: 20% Faster Than RTX 3080 Ti


https://wccftech.com/nvidia-geforce-rtx-4080-laptop-gpu-specs-benchmarks-leak-20-faster-than-rtx-3080-ti/

Wieso kam eigentlich niemand auf die Idee einen lautlosen Mini-ITX-Gaming-PC mit High-End-Notebook-Hardware herzustellen?

Dann könnte man die Komponenten am absoluten Maximum (200W+ Total) laufen lassen und es wäre immer noch hocheffizient und so einfach zu kühlen.

Emil_i_Lönneberga
2022-12-27, 18:16:57
Klein und einfach zu kühlen geht doch mit der 4080 FE:

82033

82034

82035

Z2fZOykkyjQ

r3ptil3
2022-12-27, 18:23:25
Klein und einfach zu kühlen geht doch mit der 4080 FE:

82033

82034

82035

https://youtu.be/Z2fZOykkyjQ

Der Kühler der FE wurde ja so konstruiert, dass die Luft unten rein und oben raus befördert wird. Mit der Aufbau wird genau das blockiert.

Rate mal was mit (oder in) dem Case nach einer Stunde passiert.

Und fast vergessen: Man sollte absolut auf keinen Fall einen Lüfter so nahe an der Seitenwand einbauen (auch wenn dieser Lüftungsschlitze hat oder änhliches). Da entstehen Geräusche, welche nerviger sind, als sonst was, zudem wird der Airflow massiv reduziert.

Emil_i_Lönneberga
2022-12-27, 18:29:26
Ausblasende Lüfter im Deckel, genügend Mesh an den Seiten und am Boden für's Ansaugen der Frischluft. Rundum gut gelungen.

Optimum Tech macht laufend ITX Builds, die Dinger sind durchdacht.

r3ptil3
2022-12-27, 18:34:04
Ausblasende Lüfter im Deckel, genügend Mesh an den Seiten und am Boden für's Ansaugen der Frischluft. Rundum gut gelungen.

Optimum Tech macht laufend ITX Builds, die Dinger sind durchdacht.

Ich verfolge den Kanal und stelle immer wieder Fehler fest im Aufbau.
Wenn man sich mit ITX-Builds auskennt, dann ist das nur ganz oberflächlich interessant.

Emil_i_Lönneberga
2022-12-27, 18:38:46
Rate mal was mit (oder in) dem Case nach einer Stunde passiert.


Die Temps erreicht er nach 40min Furemark, alles top Werte.

https://youtu.be/Z2fZOykkyjQ?t=400

Sardaukar.nsn
2022-12-27, 18:41:47
Die Optimum Tech Videos sind von der Produktion natürlich immer 1A. Diese SFF Community ist mir zwar ein Rätsel aber viele Leute habe Interesse möglichst viel Power auf kleinem Raum zu verbauen.

Eben im Luxx gesehen, der 1-Slot Alphacool Enterprise Kühler für die 4090 wird für solch kompakte Builds auch hoch gehandelt.

https://i.imgur.com/IN8yKEa.jpg

r3ptil3
2022-12-27, 19:36:05
Die Temps erreicht er nach 40min Furemark, alles top Werte.

https://youtu.be/Z2fZOykkyjQ?t=400

GPU ist wirklich gut, ja.

Der Black Ridge ist aber für den 5800X3D viel zu schwach.
Wenn da ordentliche Last drauf ist, jagt der innerhalb von einer Sekunde auf 90° und drosselt massiv.

Und glaub mir, ich kenne den Black Ridge in und auswendig (5600, 5600X, 5900X, 5800X3D...).

Neosix
2022-12-28, 02:49:01
Wird es eigentlich von der 4070 ti eine FE Version geben?
Google spuckt genan Gegenteiliges raus.

reaperrr
2022-12-28, 04:57:11
Wird es eigentlich von der 4070 ti eine FE Version geben?
Google spuckt genan Gegenteiliges raus.
Da es nur eine umgelabelte 4080 12GB ist, die auch ein FE-Design hatte, und NV an FEs in Sachen Marge natürlich mehr verdient als an Partnerkarten, würde es mich überraschen wenn es keine gäbe.

Außer NV hatte das 4080 bereits in die Referenzkühler graviert und verkauft jetzt deshalb nur noch die GPUs, keine ganzen Karten, weil man kein zweites Mal Geld für neue Kühler ausgeben will ^^'

dildo4u
2022-12-28, 09:15:17
GPU ist wirklich gut, ja.

Der Black Ridge ist aber für den 5800X3D viel zu schwach.
Wenn da ordentliche Last drauf ist, jagt der innerhalb von einer Sekunde auf 90° und drosselt massiv.

Und glaub mir, ich kenne den Black Ridge in und auswendig (5600, 5600X, 5900X, 5800X3D...).

Was ist massiv vieleicht 3% oder so ich sehe bei fast jemand test unter 15k unoptemiert.
90° und 4.1GHz.

https://youtu.be/-ZJ0Bj34yW4?t=1388

Troyan
2022-12-28, 11:23:05
Da es nur eine umgelabelte 4080 12GB ist, die auch ein FE-Design hatte, und NV an FEs in Sachen Marge natürlich mehr verdient als an Partnerkarten, würde es mich überraschen wenn es keine gäbe.

Außer NV hatte das 4080 bereits in die Referenzkühler graviert und verkauft jetzt deshalb nur noch die GPUs, keine ganzen Karten, weil man kein zweites Mal Geld für neue Kühler ausgeben will ^^'

Es gab keine FE für die 12GB Version.

AtTheDriveIn
2022-12-28, 23:18:41
RTX 4050 für 750€ dann. :freak: ;D

Die haben doch ein Rad ab bei Nvidia. Als ob jeder irgendwie ein Super Bonze wäre. Selbst mit genug Geld, sind viele nicht bereit solche Preise zu bezahlen. Ich glaube, dass die große Masse die >1000€ Karten kauft, es sich besser nicht leisten sollte. Für mich ist das verdächtig wie bei IPhones und teuren Autos. Die Leute mit finanziellen Verstand nehmen die günstigsten Modelle.

Neosix
2022-12-28, 23:47:15
Außer Nvidia bietet dann Grafikkarten im Abomodell auf Ratenzahlungen an... Eben wie iPhone wo der Endgreis ja am Ende der Mehrheit ja egal ist, weil sie in auf 2 Jahre abstottern :freak:

ps. nochmal zum Thema 4070TI Founder, ja es gab damals bei der 90/80 ankündigungen keine Bilder der kleineren Version zu sehen. Es gab auch Gerüchte die 4080 12GB soll ein reines custom Modell werden. Dagegen Spricht dieses Gerücht von Mores Law is Dead
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-4070-Design-Renderbilder-1405661/

Manche Seiten schreiben dass Founder Editions MSRP bei 899$ anfangen soll, AiO bei 849, was erstmal die existenz der 70FE bekräftigt aber dann müsste man in Quellen von Quellen durchlesen wo die von einander Abschreiben das hab ich mir dann nicht angetan. Am 3ten wissen wir mehr. Ich bin bloß ein großer Fan der Nvidia Founder Editions seit der 30er Reihe. Dieses All Metal drum rum Gehäuse ohne Schnickschnack spricht mich total an. Viele andere Modelle sehen für mich nach Plastikbombern aus, auch wenn Sie natürlich nicht aus Plastik sind ist mir klar.

Troyan
2022-12-29, 11:06:42
4070TI angeblich bei $799: https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-could-cost-799-at-least-10-cheaper-than-cancelled-rtx-4080-12gb

dildo4u
2022-12-29, 12:01:03
Zumindest könnte der Preis nach dem Launch gehalten werden nicht wie bei der 3080.
Damit sehe ich aber keine 4070 unter 600€.

Thunder99
2022-12-29, 12:08:25
Sieht dennoch freundlicher aus.

Die 4080 müsste aber um 100-200$ noch sinken damit das Preisgefüge besser wird und attraktiver

Hott3X
2022-12-29, 12:49:51
Es wird auf 1000€ für die 4070Ti raus laufen und damit genau im Preisbereich der 7900XT.
Ohne FE wird es auch schwer eine Karte unter 30cm zu bekommen, welche in mein Case passt.

Einfach nur noch krank die Preise. Gut, dass ich 2023 nur Destiny 2 und Diablo 4 zocken werden.
Bleibt meine 2070s ein weiteres Jahr im Rechner.

Neosix
2022-12-29, 13:00:23
4070TI angeblich bei $799: https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-could-cost-799-at-least-10-cheaper-than-cancelled-rtx-4080-12gb

"The only problem with RTX 4070 Ti MSRP is that there is no Founders Edition will depend on custom model availability..."

Schnüff :/

Thunder99
2022-12-29, 13:04:16
Es wird auf 1000€ für die 4070Ti raus laufen und damit genau im Preisbereich der 7900XT.
Ohne FE wird es auch schwer eine Karte unter 30cm zu bekommen, welche in mein Case passt.

Einfach nur noch krank die Preise. Gut, dass ich 2023 nur Destiny 2 und Diablo 4 zocken werden.
Bleibt meine 2070s ein weiteres Jahr im Rechner.
Und ich habe noch genug Spiele die kein RT haben und entsprechend älter sind sodass die 1080Ti weiter ihren Dienst tun kann :)

Hab dennoch letztens das LEGO Spiel bei EPIC geohlt und auf dem Laptop mit der 6700S angespielt. Alles aufgedreht sind es 15 FPS :freak:, mit FSR "Qualität" immerin 25 FPS ;D
Denke TR Shadow wird auch darauf laufen wenn ich die RT Schaten haben möchte :smile:

ChaosTM
2022-12-29, 13:19:37
Hab bis vor kurzem auch noch mit der 1080ti gespielt und mir ging wenig ab.
Bei RT gefällt mir bisher eigentlich nur der 3. Hexer richtig gut, weil der sehr viel gewinnt dadurch. Der Rest ist ehrlich gesagt meistens meh..

basix
2022-12-29, 16:27:43
Wenn man sich dabei ertappt, dass man 799$ als initalen Reflex schon fast als günstig wahrnimmt...und das für eine xx70 Ti und einen <300mm2 Chip. Dabei sind es auch nur 100$ weniger als völlig überteuerte 899$...

Die 4070 Ti sollte eher so 649$ kosten. Die 4070 für 549$. Beide 12GByte. Das wären Preise, die hinsichtlich P/L in Ordnung wären. Dann gäbe es nämlich auch Chancen auf eine erschwingbare 4060er Reihe. So sieht es eher nach 450+$ für die 4060 aus. Wieder Stagnation hinsichtlich P/L, wenn man die 3070 anschaut.

Snoopy69
2022-12-29, 16:33:32
ASUS TUF momentan „günstig“ bei eBay

https://www.ebay.de/itm/364093751695?mkcid=16&mkevt=1&mkrid=707-127634-2357-0&ssspo=CllMMQo7SE-&sssrc=2349624&ssuid=r1yfyIM5QvK&var=&widget_ver=artemis&media=COPY

BlacKi
2022-12-29, 18:10:50
Es wird auf 1000€ für die 4070Ti raus laufen und damit genau im Preisbereich der 7900XT.
Ohne FE wird es auch schwer eine Karte unter 30cm zu bekommen, welche in mein Case passt.

Einfach nur noch krank die Preise. Gut, dass ich 2023 nur Destiny 2 und Diablo 4 zocken werden.
Bleibt meine 2070s ein weiteres Jahr im Rechner.


uvp wird wohl 899€ wenn die msrp bei 799$ steht, beim aktuellen umrechnungsfaktor. genaugenommen 891€, aufgerundet dann 899€

Hott3X
2022-12-29, 18:33:59
uvp wird wohl 899€ wenn die msrp bei 799$ steht, beim aktuellen umrechnungsfaktor. genaugenommen 891€, aufgerundet dann 899€

Kann sein, aber es wird keine FE geben. Daher denke ich wird es keine Karten im 3 stelligen Bereich geben.
Aber ob 899 oder 999 spielt auch keine Rolle. Die Preise sind nur noch lächerlich. Bevor ich sowas zahle stelle ich die Grafik von hoch auf Mittel.

BlacKi
2022-12-29, 18:46:39
die 4080 zum aktuellen preis bietet bessere perf/€ als die 4090. was für die uvp nicht zutrifft.

die 4070ti wird wohl ebenfalls (spätestens nach ein paar wochen eine bessere perf/€ haben als die 4080. entweder zur uvp oder darunter.

warum? nv will karten verkaufen. siehe verkaufszahlen auf der mainpage. guter hinweis ist ja auch schon die derzeitige lage weit unter der uvp der 4080.

in einem monat wirds die günstigsten modelle für 850€ geben.

Daredevil
2022-12-29, 19:43:24
Da der Mining Hype ja um ist und Alternativ wieder Prozente im Outlet gibt, wird man somit wieder günstig an Karten kommen, egal ob 4080 oder 4090. Bin entspannt, wie sich das ganze so in Zukunft verhält. :)
Ne 4090 für 1300-1500€ könnten da schon in nem halben Jahr machbar sein.

horn 12
2022-12-29, 20:09:01
Halbes Jahr ist das Sommerloch, dies sicherlich!
Wichtig ist was im Winter - Fruehling verkauft wird...

Snoopy69
2022-12-29, 20:36:27
Da der Mining Hype ja um ist und Alternativ wieder Prozente im Outlet gibt, wird man somit wieder günstig an Karten kommen, egal ob 4080 oder 4090. Bin entspannt, wie sich das ganze so in Zukunft verhält. :)
Ne 4090 für 1300-1500€ könnten da schon in nem halben Jahr machbar sein.
Wenn die Inflation, Lieferengpässe etc nachlassen - ja
In China gehts gerade richtig rund mit "Corona"

ChaosTM
2022-12-29, 20:42:42
Da der Mining Hype ja um ist und Alternativ wieder Prozente im Outlet gibt, wird man somit wieder günstig an Karten kommen, egal ob 4080 oder 4090. Bin entspannt, wie sich das ganze so in Zukunft verhält. :)
Ne 4090 für 1300-1500€ könnten da schon in nem halben Jahr machbar sein.


Die verkaufen sich auch um 2k immer noch zu gut. Wäre nett, wird aber nicht passieren befürchte ich.

AffenJack
2022-12-29, 20:50:42
Bei 799$ kann ich mir die 4070Ti sogar überlegen, im aktuellen Markt kein tolles, aber wenigstens ein halbwegs akzeptables Preisleistungsverhältnis. Die Frage ist, ob es auch wirklich Partnerdesigns zu dem Preis gibt oder nur totale Gammelkarten.

lilgefo~
2022-12-29, 21:10:23
AD102 ist für die nächsten 2 Jahre Top Shelf. Warum sollten da die Preise großartig fallen? Das untere Gefüge richtet sich halt nach ATI bzw. andersrum.

Gott1337
2022-12-29, 21:55:29
AD102 ist für die nächsten 2 Jahre Top Shelf. Warum sollten da die Preise großartig fallen? Das untere Gefüge richtet sich halt nach ATI bzw. andersrum.
an den Preisen sieht man eher das AMD gar nix ändert xD
hoffentlich kommen sie wieder auf 20% Marktanteil damit sich da vielleicht mal etwas untenrum tut.

BlacKi
2022-12-29, 22:14:40
AD102 ist für die nächsten 2 Jahre Top Shelf. Warum sollten da die Preise großartig fallen? Das untere Gefüge richtet sich halt nach ATI bzw. andersrum.weil die 4090 stark beschnitten ist. die ti im fast vollausbau wird früher kommen. und die amd karten werden auch fallen. wenn die lager von den guten ad102 voll sind, dann kommt die ti und regt nochmal alle 4090 käufer zum kaufen an.

lilgefo~
2022-12-29, 22:19:42
Ja, der AD102 Referesh wird kommen genauso wie die 7950xtx. Das ist glaube ich jedem klar. An den Preisen wird das kaum was ändern.

ChaosTM
2022-12-29, 22:25:01
weil die 4090 stark beschnitten ist. die ti im fast vollausbau wird früher kommen. und die amd karten werden auch fallen. wenn die lager von den guten ad102 voll sind, dann kommt die ti und regt nochmal alle 4090 käufer zum kaufen an.


Die 4090Ti kommt sicher nicht so bald. Warum auch, man liegt Meilen vor der Konkurrenz.

Eine 4080ti ist viel wahrscheinlicher, aber auch die kommt nicht vor Ende dem 3. Quartal `23.

Atma
2022-12-29, 22:50:39
Sehe so schnell auch keine 4090 Ti kommen, es gibt null Konkurrenz in der Leistungsklasse.

Snoopy69
2022-12-29, 23:49:04
weil die 4090 stark beschnitten ist. die ti im fast vollausbau wird früher kommen. und die amd karten werden auch fallen. wenn die lager von den guten ad102 voll sind, dann kommt die ti und regt nochmal alle 4090 käufer zum kaufen an.
Die 4090 stark beschnitten? Was ist dann die 4080?
Ich sehe auch keine Ti so schnell kommen. Warum auch? Das wäre taktisch sinnfrei

Könnte es mir, wie bei der 3090Ti vorstellen. 18 Monate nach 3090-Release und 6 Monate vor 4090-Release

Monsta
2022-12-30, 00:25:23
Die 4090 stark beschnitten? Was ist dann die 4080?
Ich sehe auch keine Ti so schnell kommen. Warum auch? Das wäre taktisch sinnfrei

Könnte es mir, wie bei der 3090Ti vorstellen. 18 Monate nach 3090-Release und 6 Monate vor 4090-Release

Die 4080 hat den AD103-300 das ist fast er Vollausbau. Volles Speicher Subsystem und 76 von 80 Shader-Multiprozessoren aktiv.

Bei der 4090 ist ne ganze Ecke mehr abgeschaltet die hat 128 von 142 Shader-Multiprozessoren aktiv.

Snoopy69
2022-12-30, 01:23:56
Ich meinte nicht den Unterschied von 4080 zu 4080TI, sondern von 4080 zu 4090

DrFreaK666
2022-12-30, 01:54:36
Halbes Jahr ist das Sommerloch, dies sicherlich!
Wichtig ist was im Winter - Fruehling verkauft wird...

Wieso ist das wichtig? Man muss ja nicht kaufen wenn die Karten am teuersten sind

basix
2022-12-30, 09:44:11
Ich meinte nicht den Unterschied von 4080 zu 4080TI, sondern von 4080 zu 4090

Die 4080 ist doch egal, wenn man sich den "Beschnitt" der 4090 anschaut. Ist ja nicht der gleiche Chip. Fakt ist, dass bei der 4090 nur 128 von 144 SMs aktiv sind. Dazu nur 72MB anstatt 96MB L2$. Eine 4090 Ti kann also nochmals 10-15% schneller sein. Und das bei vermutlich den selben 450W TDP.

Eine 4090 Ti sehe ich aber auch nicht so bald kommen. Wenn RDNA3 schneller gewesen wäre, hätte man die evtl. im Frühjahr 2023 gesehen. Anhand der aktuellen Marktlage hat Nvidia allerdungs Null Bedarf dafür. Die 4090 ist ungeschlagen an der Spitze und verkauft sich ziemlich gut.


Die 4080 ist natürlich weit weg von der 4090. Für einen relativ kleinen 380mm2 Chip finde ich das Gebotene allerdings ziemlich gut. Bis auf den Preis.

Troyan
2022-12-30, 10:56:52
Mobile 4090 mit Geekbench über 3090: https://videocardz.com/newz/nvidia-geforce-rtx-4090-laptop-gpu-to-feature-9728-cuda-cores-faster-than-desktop-rtx-3090

Wird wohl nVidia's größter Sprung im Notebookmarkt seit Jahren werden. Mit Frame Generation bekommt man die Frames und im CPU-Limit sollte die megaeffiziente Architektur noch mehr Spielraum für die CPU geben.

DrFreaK666
2022-12-30, 11:34:53
FG ist noch Zukunftsmusik, aber durch die Effizienz dürfte es trotzdem sehr schnell werden

dildo4u
2022-12-30, 11:46:15
In dem Bench scheint NV Ampere zu vernachlässigen er soll Compute abbilden aber die 3090 ist nur auf 6950XT Level.

Troyan
2022-12-30, 11:51:34
Das ist OpenCL. Mit Cuda ist die 3090 deutlich schneller.

Snoopy69
2022-12-30, 15:52:53
Bei Mindstar gibts gerade die 4080 Zotac Trinity für 1.299€

https://www.mindfactory.de/Highlights/MindStar

BlacKi
2022-12-30, 20:53:42
Die 4090 stark beschnitten? Was ist dann die 4080?
Ich sehe auch keine Ti so schnell kommen. Warum auch? Das wäre taktisch sinnfrei

Könnte es mir, wie bei der 3090Ti vorstellen. 18 Monate nach 3090-Release und 6 Monate vor 4090-Releasemeine these ist:
die 3090 ist fast ein full chip. deshalb war die 3090ti eigentlich unnötig, die fullchips gingen in die profikarte. erst als man viel zu viel full chips hatte, hat man die 3090 ti gebracht. nochmal dick eingecashed, auch wenn die karten deutlich weniger marge hatten als die profikarten.


bei der 4090 sieht das sache ganz anders aus. erstens wird die 4090ti kein fullchip(gerüchtenzufolge), was die sache nahelegt, das die 4090ti deutlich früher erscheinen wird. wann? keine ahnung, ich schätze im mai, für 1999$. die 4090 droppt dann im preis (nicht offiziell) auf dem marktum 200-300$ und möglicherweise kommt im ähnlichen zeitraum noch eine 4080ti auf ad102 für 1299$ und vl 10-15% langsamer als die 4090.

warum man das macht? warum bringt man refresh karten? aus dem grund. marktlücken schließen und käufer zum kaufen anregen. schließlich halten sich viele zurück, weil ihnen die preise zu teuer sind.

viele denken, das nv amd als konkurenten sieht. tatsächlich denke ich nicht so. sie sind sich selbst der eigene konkurent. deshalb muss man für mehr verkäufe die preise senken.

Wuge
2022-12-30, 21:27:41
Oder sie verkloppen die premium Dies an Exklusivpartner, die "leicht" teildeaktivierten reichen gerade so für die offiziellen Profikarten und die 4090 wurde eben so dimensioniert, dass man nahezu jeden Abfall noch verwerten kann. Dann besteht kein Handlungsdruck irgendwas zu ändern. Ausser vielleicht einer 4080ti mit 20 GB um auch noch die letzten 10% Chips mit defekten im SI zu verwerten. Nobody knows... ;)

dildo4u
2022-12-31, 18:57:49
Alle 3D Mark Werte der 4070 TI.


https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-3dmark-performance-leaks-out

Schnitzl
2022-12-31, 19:11:30
cool, danke für den Link!

endlich mal wieder ne schöne, übersichtliche Tabelle ;)

dildo4u
2023-01-03, 16:36:01
CES Pressekonferenz ab 17 Uhr.


EWnD2zfa-F0

Radeonfreak
2023-01-03, 16:39:06
Wäre dann ganz nett wenn sie heute endlich mal die RTX Racer Demo veröffentlichen.

Timbaloo
2023-01-03, 17:19:44
Offizielle Aussage zur 4070 ti ausm Stream:

- 40 Shader TFLOPs | 93 RT TFLOPs | 641 Tensor TFLOPs
- $799
- Available January 5th

Troyan
2023-01-03, 17:25:03
899€ laut Computerbase. Sollte also in ein paar Wochen auf 850€ fallen.

Timbaloo
2023-01-03, 17:30:52
Mal schauen ob es eine Asus/Noctua 4070 ti geben wird. Dann beiß ich halt in den sauren Apfel und schick die 970 in Rente, bin dann ja sogenannte "Speicherkrüppel" gewohnt :ulol:

dildo4u
2023-01-03, 17:32:44
NV hatte wieder die 3080 erwähnt kann gut sein das die weiter geliefert werden damit sie was unter 900€ haben.

just4FunTA
2023-01-03, 17:34:32
boah die sollen die Gen endlich ausklinken lassen oder machen die jetzt echt auf apple und lassen zwei generationen gleichzeitig laufen.

Wake
2023-01-03, 17:42:56
Backseat gaming wird real :freak:

Video upscaling im Browser hört sich interessant an aber Edge- und Chrome-only :weg:

Troyan
2023-01-03, 17:57:54
Laut nVidia liegt die 4070 TI bei ca. 225W im Verbrauch in Spielen.

robbitop
2023-01-03, 18:05:05
Video upscaling im Browser hört sich interessant an aber Edge- und Chrome-only :weg:
Das ist das was ich mit Software Initiativen meine. Nvidia haut alle Nase lang solche Dinge raus, die zum Teil richtig richtig geil sind. Und AMD rennt leider oft hinterher und bringt dann viele Monate später eine "me too" software heraus anstatt selbst die Initiative zu ergreifen.
Wenn wir langfristig Wettbewerb im GPU Markt haben wollen, müssen beide ähnlich stark werden und das geht nur wenn AMD bei solchen Sachen nicht immer hinterher rennt.

Sunrise
2023-01-03, 18:07:13
Das ist das was ich mit Software Initiativen meine. Nvidia haut alle Nase lang solche Dinge raus, die zum Teil richtig richtig geil sind. Und AMD rennt leider oft hinterher und bringt dann viele Monate später eine "me too" software heraus anstatt selbst die Initiative zu ergreifen.
Wenn wir langfristig Wettbewerb im GPU Markt haben wollen, müssen beide ähnlich stark werden und das geht nur wenn AMD bei solchen Sachen nicht immer hinterher rennt.
Leider wahr… und garnicht geil.

r3ptil3
2023-01-03, 18:24:39
Ich finde es eher bemerkenswert, dass AMD Graphics mit ihren Produkten auf diesem Niveau mithalten kann.

Nvidia hat AMD Graphics schon lange "abgehängt". Softwaretechnisch ist Nvidia sowieso auf einem anderen Level. Das ist praktisch uneinholbar, ausser man heisst vielleicht Intel.
Trotzdem, früher ein Übel, heute ein Glück, dass AMD nicht nur aus der Grafiksparte besteht. Unter einem anderen Management hätte man als Endkunde vielleicht keine RX 6900, RX 7900... gesehen.

mironicus
2023-01-03, 18:36:38
Ist das mit dem Video Upscaling nicht etwas, was wir mit MPC-HC und madVR schon längst zur Verfügung haben?

prinz_valium_2
2023-01-03, 18:39:27
jetzt wissen wir auch, warum es nVidia egal ist, dass die 4080 so schlecht positioniert ist.
Die meisten Chips werden in Datencentern und Laptops landen.

robbitop
2023-01-03, 19:11:49
Ich finde es eher bemerkenswert, dass AMD Graphics mit ihren Produkten auf diesem Niveau mithalten kann.

Nvidia hat AMD Graphics schon lange "abgehängt". Softwaretechnisch ist Nvidia sowieso auf einem anderen Level. Das ist praktisch uneinholbar, ausser man heisst vielleicht Intel.
Trotzdem, früher ein Übel, heute ein Glück, dass AMD nicht nur aus der Grafiksparte besteht. Unter einem anderen Management hätte man als Endkunde vielleicht keine RX 6900, RX 7900... gesehen.
Die Hardware ist eigentlich so schlecht nicht. Es ist leider meist die Softwaresparte die hinterherhinkt.
Gerade Dinge wie NN werden ja auch durch die Softwareleute getrieben. Die HW Leute bauen eine FPU die Matritzen rechnen ein - kein Problem.
Ich denke auch, dass es schwer einholbar sein wird. Aber irgendwo muss man anfangen. Als CEO würde ich pro Jahr wenigstens 5 solcher Initiativen sehen wollen. Und wenn die Departments nach Resources schreien muss man da sukuressive da nachlegen. Man muss nur erstmal anfangen und dem ganzen Priorität geben.

robbitop
2023-01-03, 19:14:28
Ist das mit dem Video Upscaling nicht etwas, was wir mit MPC-HC und madVR schon längst zur Verfügung haben?

Wenn ich mir die Ergebnisse anschaue glaube ich das kaum. MadVR nutzt doch (bitte korrigieren wenn ich falsch liegen sollte) eher möglichst gute Upscalingfilter. Die arbeiten alle spatial.
Das Verfahren sieht so aus als würde es ähnlich wie dlss arbeiten - also mit temporaler Komponente. Da gab es von Intel vor vielen vielen Jahren auch für Video mal ein Whitepaper - das las sich auch so ähnlich. Sicherlich mit NN.

Linmoum
2023-01-03, 19:17:33
Ich hab keine Zweifel, dass die 4070Ti trotz ihres Preises beliebt sein wird. Der Preis ist hoch, aber immer noch deutlich unterhalb einer 4080. Auf der anderen Seite hat man die auch teureren 7900XT(X), die es ab übermorgen aber noch schwerer haben werden.

Wahrscheinlich könnte Nvidia das Ding auch noch für $500 mit hoher Marge verkaufen. Aber Lederjacke ist logischerweise nicht doof. Kein Unternehmen verlangt freiwillig wenig(er) Geld, obwohl der Markt offenkundig viel mehr hergibt. Siehe 3080 damals und so viel teurer ist die 4070Ti auch nicht.

dildo4u
2023-01-03, 19:32:06
In dem Bereich überschneiden sich aber langsam die alte und neue Gen hängt also davon ab wie viele Leute sich in dem Bereich schon eingedeckt haben.
Ich bin der Meinung das Viele vor Weihnachten gesagt hab egal ich lange jetzt zu da ich nur zu dem Zeitpunkt Freizeit habe.

Schnitzl
2023-01-03, 19:34:46
Das ist das was ich mit Software Initiativen meine. Nvidia haut alle Nase lang solche Dinge raus, die zum Teil richtig richtig geil sind. Und AMD rennt leider oft hinterher und bringt dann viele Monate später eine "me too" software heraus anstatt selbst die Initiative zu ergreifen.
Wenn wir langfristig Wettbewerb im GPU Markt haben wollen, müssen beide ähnlich stark werden und das geht nur wenn AMD bei solchen Sachen nicht immer hinterher rennt.
Dazu nötig sind aber viel Geld und Zeit. Vor allem ersteres hatte AMD bis vor kurzem nicht wirklich.
Initiativen wie Mantle und TrueForm wurden dann ja auch eher lächerlich geredet und in den Dreck gezogen...
Laut nVidia liegt die 4070 TI bei ca. 225W im Verbrauch in Spielen.
sehr schön, darauf hatte ich gehofft. Nun bin ich gespannt wie groß der Abstand zur 3070 wird ^^

robbitop
2023-01-03, 19:38:48
Naja dank Ryzen und Epyc verdient man ja auch wieder gutes Geld. Und es wird auch immer mal Fehlschläge geben bei Initiativen- wer nicht wagt der nicht gewinnt. Resignieren weil mal was gescheitert ist bringt nichts.

r3ptil3
2023-01-03, 19:39:04
Das mit der Marge ist vielleicht gar nicht so einfach.

Wenn man sich mal vor Augen führt, dass das Know-How von Nvidia von nationalem Interesse ist und dass man deren Produkte der Zweitgrössten (oder grössten, je nachdem wie man es misst) Wirtschaftsnation durch politisch motivierten Druck vorenthalten will, erkennt man erst wo Nvidia nur grob geschätzt steht. AI/Machine Learning und co. werden bald den Unterschied in der Konkurrenzfähigkeit der Weltwirtschaft ausmachen und das kann man sich nicht mal schnell über 4-5 Jahre aneignen.

Das was wir in Form von DLSS 3.0 erhalten, ist nur ein kleines Nebenprodukt, was sich aus einem weitaus grösserem Vorhaben ergeben hat.

Vielleicht ist also eine RTX 4090, wenn man es aufwandbezogen berechnet, noch viel zu günstig. (nicht vergessen, Speku-Thread)

HOT
2023-01-03, 19:39:50
Grafikchips ist für AMD sowieso nur ein Nebengeschäft. Die bleiben hier eh nur wegen der Konsolen am Ball. Viel wichtiger ist CDNA.

prinz_valium_2
2023-01-03, 19:42:26
Grafikchips ist für AMD sowieso nur ein Nebengeschäft. Die bleiben hier eh nur wegen der Konsolen am Ball. Viel wichtiger ist CDNA.
Das ist wahr, aber falls sie es ändern könnten, würden sie es.
Damit ist eine Menge Geld zu verdienen. $5mrd mehr Umsatz im Jahr.

robbitop
2023-01-03, 19:44:26
Wenn man mehr verdienen will in der 3D Sparte muss man halt investieren. Der Cashflow ist ja dank Zen grundsätzlich da.

@HOT
Bei den Konsolen verkauft man zwar viele Einheiten aber die Marge ist relativ klein. Ich denke man braucht beides. Konsolen und Radeon. Die IP wird grundsätzlich nur einmal entwickelt und man kann sie in mehreren Produkten abschreiben. Auch hat man dank Konsolen einen relativ großen Einfluss auf die Spieleentwicklung da die Studios wollen, dass es gut auf der HW läuft. Ohne Konsolen wäre der Einfluss viel viel kleiner.

Schnitzl
2023-01-03, 20:01:33
Naja dank Ryzen und Epyc verdient man ja auch wieder gutes Geld. Und es wird auch immer mal Fehlschläge geben bei Initiativen- wer nicht wagt der nicht gewinnt. Resignieren weil mal was gescheitert ist bringt nichts.
ja, inzwischen wieder.
Von Resignieren hab ich nichts gesagt.
Mein Punkt war, das man nicht Verlangen kann dass AMD SW Initiativen bringt, und dann wenns passiert ists auch wieder scheisse ;)

Morgen 15:00 Tests der 4070Ti? Kanns kaum erwarten :freak:

Rampage 2
2023-01-03, 20:16:18
Ich hab keine Zweifel, dass die 4070Ti trotz ihres Preises beliebt sein wird. Der Preis ist hoch, aber immer noch deutlich unterhalb einer 4080. Auf der anderen Seite hat man die auch teureren 7900XT(X), die es ab übermorgen aber noch schwerer haben werden.

Wahrscheinlich könnte Nvidia das Ding auch noch für $500 mit hoher Marge verkaufen. Aber Lederjacke ist logischerweise nicht doof. Kein Unternehmen verlangt freiwillig wenig(er) Geld, obwohl der Markt offenkundig viel mehr hergibt. Siehe 3080 damals und so viel teurer ist die 4070Ti auch nicht.

Denke ich auch, dass sich die 4070 Ti wie geschnitten Brot verkaufen wird trotz ihres überzogenen Preises - immerhin ist sie die erste und vorerst einzige Sub-1000€-Karte der Ada Lovelace-Generation und mehr oder weniger so schnell wie eine 3090 Ti bei allerdings halbem Speicher. Sie ist aber auch nur bis 1440p-Gaming gedacht und da sollten 12GB VRAM noch eine Weile (aber WIE lange noch?) ausreichen. So oder so ist sie eine tolle Karte und mit 100$ weniger MSRP (699$) hätte sie tatsächlich ein gutes P/L-Verhältnis gehabt - Nvidia profitiert wieder mal von AMD's gegenwärtiger Schwäche... zumindest bis die HW-Bugs an den N3x-Chips ausgebügelt sind, was wohl nicht vor H2/2023 passieren wird:redface:

R2

Lurtz
2023-01-03, 20:24:18
Also wie schon vermutet keine FE. Damit beende ich das kurze Aufrüst-Gedankenspiel von der 3070 dann auch gleich wieder, weil sie damit eh nicht für unter 1.000€ zu bekommen sein wird :ass2:

Linmoum
2023-01-03, 20:30:06
Caseking hat Karten für unter 1000€ gelistet. Und das will bei deren Apothekerpreisen schon was heißen. :freak:

robbitop
2023-01-03, 20:31:09
ja, inzwischen wieder.
Von Resignieren hab ich nichts gesagt.
Mein Punkt war, das man nicht Verlangen kann dass AMD SW Initiativen bringt, und dann wenns passiert ists auch wieder scheisse ;)

Morgen 15:00 Tests der 4070Ti? Kanns kaum erwarten :freak:
Dann müssen sie halt gute Initiativen bringen die auch eine Chance haben. Eine API die nur für AMD HW war das hatte doch kaum eine Chance bei dem Marktanteil. Truform ist schon sehr lange her - war das nicht r200? :)

Sardaukar.nsn
2023-01-03, 20:35:17
Sollte die unlaunchte 4080 12GB 4070 Ti doch noch zur gefragten GPU werden?

Timbaloo
2023-01-03, 20:38:26
Dann müssen sie halt gute Initiativen bringen die auch eine Chance haben. Eine API die nur für AMD HW war das hatte doch kaum eine Chance bei dem Marktanteil. Truform ist schon sehr lange her - war das nicht r200? :)
Es ist nicht so, dass man nur via SW oder besonders R&D-intensive Entwicklungen erster sein kann. Stichwort G-Sync.

Aber verstehe nicht so ganz was das alles mit Ada zu tun hat.

DrFreaK666
2023-01-03, 20:48:26
Naja dank Ryzen und Epyc verdient man ja auch wieder gutes Geld. Und es wird auch immer mal Fehlschläge geben bei Initiativen- wer nicht wagt der nicht gewinnt. Resignieren weil mal was gescheitert ist bringt nichts.

Was NN angeht wird sicherlich was kommen. Xilinx ist erst seit Februar 2022 Teil von AMD und Radeon hat wahrscheinlich nicht die oberste Priorität für sowas

robbitop
2023-01-03, 20:49:41
G-Sync ging IMO nur aufgrund des großen Marktanteils von NV in der Art wie sie es gemacht haben (dass es nur mit NV HW geht).
Das ist ein absoluter Nachteil für AMD. Deren Initiativen bringen - sollte es nur auf AMD HW laufen - nur etwas wenn man dafür keine Marktmacht braucht (also auf Integration durch amdere angewiesen ist). Alles andere müssen sie offen machen, weil es ansonsten nur geringe Chancen gibt, dass es umgesetzt wird. Als Nachteil differenziert man sich dafurch aber kaum weil es dann ja auf jeder anderen HW auch läuft. Wenn man sich differenzieren will, müssen die Features/Initiativen also primär auf AMD HW laufen und nicht die Hilfe dritter benötigen (bzw nicht viel).

robbitop
2023-01-03, 20:50:47
Was NN angeht wird sicherlich was kommen. Xilinx ist erst seit Februar 2022 Teil von AMD und Radeon hat wahrscheinlich nicht die oberste Priorität für sowas

Das kann man nur hoffen. Oft ist die Integration großer aufgekaufter Firmen sehr langwierig. Da kann es schonmal sehr lange dauern eh man eng verzahnt kooperiert.

Timbaloo
2023-01-03, 20:58:20
G-Sync ging IMO nur aufgrund des großen Marktanteils von NV in der Art wie sie es gemacht haben (dass es nur mit NV HW geht).
Das ist ein absoluter Nachteil für AMD. Deren Initiativen bringen - sollte es nur auf AMD HW laufen - nur etwas wenn man dafür keine Marktmacht braucht (also auf Integration durch amdere angewiesen ist). Alles andere müssen sie offen machen, weil es ansonsten nur geringe Chancen gibt, dass es umgesetzt wird. Als Nachteil differenziert man sich dafurch aber kaum weil es dann ja auf jeder anderen HW auch läuft. Wenn man sich differenzieren will, müssen die Features/Initiativen also primär auf AMD HW laufen und nicht die Hilfe dritter benötigen (bzw nicht viel).
Ziemlich irrelevant wenn man kurz darauf sowas wie Freesync bringt. Sprich sie konnten es ja, aber sie haben es halt nicht proaktiv gemacht.

Ich will jetzt hier nicht über AMD abziehen und es würde ein wenig zu weit off-topic gehen, aber AMD war nie wirklich eine innovative Firma. Eigentlich im Gegenteil. Und das rächt sich halt in einem Umfeld mit innovativen Konkurrenten. Natürlich kann man argumentieren, dass AMD ja immer ein Underdog war, aber ist das nun Henne oder Ei?

bbott
2023-01-03, 21:56:01
Ziemlich irrelevant wenn man kurz darauf sowas wie Freesync bringt. Sprich sie konnten es ja, aber sie haben es halt nicht proaktiv gemacht.

Ich will jetzt hier nicht über AMD abziehen und es würde ein wenig zu weit off-topic gehen, aber AMD war nie wirklich eine innovative Firma. Eigentlich im Gegenteil. Und das rächt sich halt in einem Umfeld mit innovativen Konkurrenten. Natürlich kann man argumentieren, dass AMD ja immer ein Underdog war, aber ist das nun Henne oder Ei?

Im Rahmen der Finanziellen Möglichkeiten war AMD schon immer innovativer als Intel (x86-64, 3Dnow, SSE5 was zu AVX wurde, IF, onboard Memory Controller, Chipletts, uvm. AMD war immer wieder Taktgeber zuletzt Zen 1-3(4)). ATI könnte es eine Zeitlang mit NV aufnehmen, aber seit dem AMDs Cashcow CPUs sind leider die GPU Sparte.
Im GPU Bereich müsste AMD unbedingt mal wieder den Takt angeben.

Timbaloo
2023-01-03, 22:01:47
@bbott Kannst mich gerne via PM anschreiben wenn wir das diskutieren wollen, aber nicht hier.

Sorry für OT

dargo
2023-01-04, 15:07:54
Laut nVidia liegt die 4070 TI bei ca. 225W im Verbrauch in Spielen.
"Knapp" daneben.
https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/3/

horn 12
2023-01-04, 15:20:45
Oh, knapp 4080 Verbrauch!
Dies ist wirklich Heftig.

Linmoum
2023-01-04, 15:56:31
"Knapp" daneben.
https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/3/Ich denke nicht, dass Nvidia von Customs sprach.

Allerdings auch keine Ahnung, woher die Aussage stammt und in welchem Kontext sie überhaupt gefallen ist. Wahrscheinlich mit DLSS3.

Neosix
2023-01-04, 16:00:16
Eben, CB hatte 2 OC Karten zum testen da. Ich hätte gern ein NON OC Test mit Nvidia Taktraten gesehen.

Lehdro
2023-01-04, 16:03:27
Ich denke nicht, dass Nvidia von Customs sprach.
Gibt es denn eine Referenz?
Muss dann diese ominöse Karte ganz ohne Stromstecker sein:
https://abload.de/thumb/nvidia-geforce-geforcxsdbo.jpg (https://abload.de/image.php?img=nvidia-geforce-geforcxsdbo.jpg)

Späßchen muss sein! ;)

Allerdings auch keine Ahnung, woher die Aussage stammt und in welchem Kontext sie überhaupt gefallen ist. Wahrscheinlich mit DLSS3.
https://abload.de/thumb/nvidia-geforce-geforcbkcmx.jpg (https://abload.de/image.php?img=nvidia-geforce-geforcbkcmx.jpg)
Da hier die 80% Leistungssteigerung mit eingebaut sind, vermute ich das auch.

prinz_valium_2
2023-01-04, 16:22:40
Die 3080 kam für $699 in September 2020 raus
Die "4080 12GB" sollte mal für $899 Anfang 2023 raus kommen.

2 1/4 Jahr später, quasi kein Gewinn an non RT/DLSS Leistung in 4K und $200 Aufpreis.



Klar das hier ist jetzt der extra schlechte Vergleich für die 4070TI rausgepickt, zeigt aber die allgemeine Entwicklung in die völlig falsche Richtung sehr gut.
Ich sagte ja. Für $499 eine ordentliche, wenn auch immer noch teure, Karte, dann aber definitiv Wert den Preis.

igg
2023-01-04, 16:23:10
Hoffe mal, die Preise sinken, wenn Ampere abverkauft ist. Das Gesamtpaket stimmt bei der 4070 Ti, nur ist der Preis vieeeel zu hoch. Und weniger Leistung als die 4070 Ti sollte es unter Raytracing in WQHD nicht sein.

dargo
2023-01-04, 16:36:58
Ich denke nicht, dass Nvidia von Customs sprach.

:rolleyes:

Leistungsaufnahme in Games
Mit 289 Watt bei der Gigabyte GeForce RTX 4070 Ti und 285 Watt bei der Asus GeForce RTX 4070 Ti TUF OC arbeiten beide Grafikkarten an der Grenze des Power-Limits und können damit gegenüber der GeForce RTX 4080 keine Energie einsparen, die im selben Szenario auf 289 Watt kommt. Grund dafür ist, dass die GeForce RTX 4070 Ti für die gewünschten Frequenzen das maximale Power-Limit ausnutzen muss, während die GeForce RTX 4080 (und RTX 4090) im verwendeten Spiel Doom Eternal darunter bleiben kann. Das Problem sind auch nicht die minimal höheren Frequenzen der Custom-Designs, denn wenn die Grafikkarte völlig nach Nvidias Taktvorgaben arbeitet, ändert sich an der Leistungsaufnahme absolut nichts.

Eben, CB hatte 2 OC Karten zum testen da. Ich hätte gern ein NON OC Test mit Nvidia Taktraten gesehen.
Dann vielleicht mal den CB-Test auch lesen?

w0mbat
2023-01-04, 16:43:40
Die 3080 kam für $699 in September 2020 raus
Die "4080 12GB" sollte mal für $899 Anfang 2023 raus kommen.

2 1/4 Jahr später, quasi keine Gewinn an non RT/DLSS Leistung in 4K und $200 Aufpreis.
Also laut ComputerBase ist die 4070 Ti in 4K raster ca. 20% (15% frametimes) und in 4K RT ca. 30% (50% frametimes!) schneller. Dabei ist sie 50% (1440p) bzw. 37% (4K) effizienter.

Also sehr ähnliches P/L-Verhältnis, was nach über 2 Jahren wirklich sehr schlecht ist.

Troyan
2023-01-04, 16:48:22
Nennt sich Inflation. Meine Nudeln kosten heute auch das doppelte von vor zwei Jahren trotzdem es die selbe Menge ist.

w0mbat
2023-01-04, 16:56:08
Aber Nudeln werden über die Zeit nicht besser.

igg
2023-01-04, 17:00:59
Aber Nudeln werden über die Zeit nicht besser.
Das spräche aber für Nvidia... Mehr Leistung plus Inflation wirkt angemessener als eine rein inflationsbedingte Preissteigerung wie bei den Nudeln.

Langlay
2023-01-04, 17:03:53
Aber Nudeln werden über die Zeit nicht besser.

Es gibt halt Leute die nicht verstehen, das bei dieser Preisentwicklung alle verlieren. Auch sie irgendwann wenn dann die RTX 9090 Suba TI dann zum Schnäppchenpreis von 9999$ im Laden steht.

Wenn die Entwicklung von Anfang an so wäre würde man sich jetzt überlegen ne neue Highendgraka kaufen oder die Staatsverschuldung von Italien zu tilgen.

igg
2023-01-04, 17:13:23
Es gibt halt Leute die nicht verstehen, das bei dieser Preisentwicklung alle verlieren.Das ist leider so, ich habe jetzt bereits die Schere im Kopf: Neue Spiele kaufe ich nicht, auch nicht im Steam Sale. Wieso? Meine 1070 packt die in WQHD eh nicht. Also spiele ich aktuell alte Blockbuster, die es mal bei Epic, EA, Amazon usw. gratis gab: Control, Dishonored, Mass Effect Legendary, ...

Dementsprechend kaufe ich auch keine neue CPU, RAM, Mainboard, PSU, ... Ob ich repräsentativ bin? Weiß ich nicht, aber die Preisspirale gehe ich nicht mit.

Troyan
2023-01-04, 17:19:50
Es gibt halt Leute die nicht verstehen, das bei dieser Preisentwicklung alle verlieren. Auch sie irgendwann wenn dann die RTX 9090 Suba TI dann zum Schnäppchenpreis von 9999$ im Laden steht.

Wenn die Entwicklung von Anfang an so wäre würde man sich jetzt überlegen ne neue Highendgraka kaufen oder die Staatsverschuldung von Italien zu tilgen.

Ohne Moores Law wird es so exakt sein. Öfters ja schon angesprochen: Wenn ein Transistor in 5nm das selbe kostet wie in 7nm, dann kannst du den halben Chip eben nicht für den halben Preis verkaufen.

w0mbat
2023-01-04, 17:56:19
Das spräche aber für Nvidia...
Nein, ganz im Gegenteil. Du hast das nicht zuende gedacht :freak:

prinz_valium_2
2023-01-04, 19:10:26
Also laut ComputerBase ist die 4070 Ti in 4K raster ca. 20% (15% frametimes) und in 4K RT ca. 30% (50% frametimes!) schneller. Dabei ist sie 50% (1440p) bzw. 37% (4K) effizienter.

Also sehr ähnliches P/L-Verhältnis, was nach über 2 Jahren wirklich sehr schlecht ist.

Joa. CB hat einen sehr positiven Test Parkour für die Karten. GN einen sehr schlechten. Wir müssen das mal abwarten, wenn es aggregierte Zusammenfassungen gibt.

In lows schneidet die Karte im Vergleich auf jeden Fall besser ab als AVG bezogen auf die alte Generation.
Ich sagte. Extra den worst case genommen.
Das ist AVG Raster only in 4k.

dildo4u
2023-01-07, 17:23:54
Angeblich soll auch 4060 TI AD104 nutzen.


https://wccftech.com/nvidia-preps-mass-production-two-ad104-ada-gpus-possibly-geforce-rtx-4070-rtx-4060-ti/

prinz_valium_2
2023-01-07, 18:17:54
Angeblich soll auch 4060 TI AD104 nutzen.


https://wccftech.com/nvidia-preps-mass-production-two-ad104-ada-gpus-possibly-geforce-rtx-4070-rtx-4060-ti/

4070 mit dem selben Speicherausbau wie 4070Ti könnte ganz interessant werden. Muss nur ordentlich takten. Am besten dauerhaft knapp über 3GHz. Oder auch mal bei 3.1-3.2

4060TI ist dann bestimmt wieder zu sehr cut down.
10GB an 160bit Interface und noch 34CU. Knapp über die hälfte der 4070Ti.



Hängt mal wieder alles vom Preis ab.
Die 4060TI wird bestimmt $499 und die 4070 teurer. Also weiterhin Müll.
Eine 4070, wie sie dort steht für $499 könnte man aber verschmerzen als Konsument.

reaperrr
2023-01-07, 20:39:18
4060TI ist dann bestimmt wieder zu sehr cut down.
10GB an 160bit Interface und noch 34CU. Knapp über die hälfte der 4070Ti.

WTFTech schmeißt da mMn zu viele Gerüchte in einen Topf.

AD104-250 und AD104-251 klingt im Leben nicht nach 12(!) SM Unterschied.
Klingt eher nach identischer SM-Konfig mit irgendeinem marginalen Unterschied, maximal vielleicht andere Speicherkonfig (-251 mit 12GB G6X@21Gbps, -250 mit nur 10GB G6X oder 12GB G6@18Gbps?).

Die 34 SM sind garantiert von einer anderen, AD106-basierten Karte, der hat nämlich im Vollausbau 36 SM.

Würden sie AD104 so stark beschneiden, würden sie den Suffix stärker anpassen (AD104-150 oder sowas). Und dass die Defektrate von AD104 hoch genug für irgendwas unter 46SM + 160bit ist bezweifle ich auch.

Thunder99
2023-01-07, 20:46:15
Caseking hat Karten für unter 1000€ gelistet. Und das will bei deren Apothekerpreisen schon was heißen. :freak:
Hey, die haben hin und wieder auch gute Preise.
Musste feststellen, dass meine 1080Ti auch von dort war für 739€ :freak:

Jetzt dort die MSI Gaming X 4080 bestellt. Ich jammere jetzt nicht mehr sondern beisse in den sauren Apfel und kaufe mit Abstand die teuerste Karte in meinem Leben :eek:
Wollte nicht länger warten und auf DLDSR/DLSS und RT verzichten und für viele Jahre wieder Ruhe haben :wink: