PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41

Troyan
2022-10-14, 12:12:29
Schau ich mir die Charts an, dann ist auch 1080p die wichtigste Auflösung. Also kein Problem, dass nVidia nur DP1.4a mit DSC unterstützt...

ChaosTM
2022-10-14, 12:16:21
Gibts eigentlich schon halbwegs gesicherte **80er BM`s ?

why_me
2022-10-14, 12:18:53
Nur werte direkt von Nvidia, aber die sehen ohne DLSS3 FG nicht so dolle aus:
https://videocardz.com/newz/geforce-rtx-4080-16gb-is-up-to-30-faster-than-12gb-version-according-to-nvidias-new-benchmarks

Dovregubben
2022-10-14, 12:19:05
Also wenn ich mir die meist gespielten Spiele auf Steam anschaue ...
https://store.steampowered.com/charts/mostplayed

RZ ist immer noch beträchtlich wichtiger denn RT. Und ja, man braucht keine 4090 wenn man keine RT-Spiele spielt.
Das Genre Masterrace hatten wir doch erst vor nem Monat.
Multiplayerspiele sind grafisch immer mehh, weil es billiger für die Massenproduktion ist und auch der letzte Spieler mit Schrotthardware noch mitspielen kann. Wer kein Genre spielt, das grafisch anspruchsvoll ist, muss ich sich um so Hardware auch einfach keine Gedanken machen.

Spring
2022-10-14, 12:30:31
Und das ändert jetzt.... was?

Der Job eines Tech-Journalisten ist es, einen potentiellen Kunden aufzuklären, wie viel er kriegt für sein Geld und wie lohnenswert das ist (wie gross ist die Steigerung zu dem, was ich schon habe).

Wodurch das entstanden ist (oder nicht), interessiert den Leser nicht. Er will wissen, wie viel mehr Rechenleistung kriege ich für's gleiche Geld. Die Enthusiasten sind die Minderheit. Die Techseiten haben wesentlich mehr Leser, wie Nutzer, die ständig schreiben. Das sind meist auch gerade die Enthusiasten.

Spielt also keine Rolle, was du sagst.

Den Kunden interessiert, wie viel Kriege ich für mein Geld. Nicht an was liegt es, dass ich für's selbe Geld nur wenig mehr kriege nach 6 Jahren. Die lesen nicht die PCGH, um in "Hardwareindustrie-Geschichte" unterrichtet zu werden.

Interessiert alles einen feuchten Furz.

PS: Und hört endlich auf mit dem Spruch von "Wer viel Geld ausgibt, dem ist Geld egal". Ne, ist einfach nicht so. Enthusiastenblase und so.

Tech-Journalistenseiten sind eig. zum Aufklären der Masse (die, die sich nicht auskennen) da und nicht um unter Nerds "den neuen Scheiss" zu präsentieren und sich daran aufgeilen.

:up:

Die Masse spielt mit RZ und 1080p. Das sind die Realitäten.
Die 4090 ist eine gute Karte, aber (so wie der neue AMD top dog) ist meist völliger Overkill.

Für über 90% der Gamer ist sowas wie die 6900XT und die 3090 jetzt schon sehr stark. Wer viel RT solo spielt = 4090.
Aber das ist ein Bruchteil der Spieler.

Im Multiplayer interessiert sich niemand für RT, egal ob nv oder AMD.

Das trotz Inflation die Karten zu teuer sind, kann man kaum bestreiten auch wenn bessere Effizienz. Wird sich AMD auch anhören müssen, wenn die mit ähnlichen Preisen auffahren.

Badesalz
2022-10-14, 12:33:03
Besonders mit dem neuen Treiber, gibt Ampere doch noch ordentlich boost :)Waren das REAL nicht knappe 2%? (nachdem man die speedups die sich durch Bugs der vorherigen Versionen ergeben, weglässt)

Tech-Journalistenseiten sind eig. zum Aufklären der Masse (die, die sich nicht auskennen) da und nicht um unter Nerds "den neuen Scheiss" zu präsentieren und sich daran aufgeilen.Ah? Du schnallst langsam warum ich dazu übergehe die PR-Journalie als Einheizer zu bezeichnen? Was du postulierst wird nicht so schnell wiederkommen - falls es überhaupt mal da war - da das deren Existenzgrundlage stark gefährdet. Die aktuellen (Finanz)Modelle der s.g. Verlage erlauben nur noch derartiges oder einen völligen Schwund.

basix
2022-10-14, 12:44:50
Herrliches Banner :D
https://cdn.videocardz.com/1/2022/10/RTX4080-BANNER-1200x362.jpg
https://videocardz.com/newz/geforce-rtx-4080-16gb-is-up-to-30-faster-than-12gb-version-according-to-nvidias-new-benchmarks

Dovregubben
2022-10-14, 12:49:40
Im Multiplayer interessiert sich niemand für RT, egal ob nv oder AMD.
Multiplayerspieler sind auch nur ein Bruchteil der Spieler. Zum Glück ist die Landschaft inzwischen fragmentiert genug, dass für jeden ein Kuchenstück dabei ist, der groß genug ist. Mit MP Spielen treibt man aber halt nicht die Technologie vorwärts. Da hängen die Leute auf 20 Jahre alten Spielen oder Spielen, die aussehen als wären sie so alt.

Badesalz
2022-10-14, 12:52:32
Multiplayerspieler sind auch nur ein Bruchteil der Spieler.Ehrlich gesagt bezweifle ich das kleinwenig :wink:

Linmoum
2022-10-14, 12:54:37
Und das ändert jetzt.... was?

Der Job eines Tech-Journalisten ist es, einen potentiellen Kunden aufzuklären, wie viel er kriegt für sein Geld und wie lohnenswert das ist (wie gross ist die Steigerung zu dem, was ich schon habe).

Wodurch das entstanden ist (oder nicht), interessiert den Leser nicht. Er will wissen, wie viel mehr Rechenleistung kriege ich für's gleiche Geld. Die Enthusiasten sind die Minderheit. Die Techseiten haben wesentlich mehr Leser, wie Nutzer, die ständig schreiben. Das sind meist auch gerade die Enthusiasten.

Spielt also keine Rolle, was du sagst.

Den Kunden interessiert, wie viel Kriege ich für mein Geld. Nicht an was liegt es, dass ich für's selbe Geld nur wenig mehr kriege nach 6 Jahren. Die lesen nicht die PCGH, um in "Hardwareindustrie-Geschichte" unterrichtet zu werden.

Interessiert alles einen feuchten Furz.

PS: Und hört endlich auf mit dem Spruch von "Wer viel Geld ausgibt, dem ist Geld egal". Ne, ist einfach nicht so. Enthusiastenblase und so.

Tech-Journalistenseiten sind eig. zum Aufklären der Masse (die, die sich nicht auskennen) da und nicht um unter Nerds "den neuen Scheiss" zu präsentieren und sich daran aufgeilen.Es hat den Leser aber zu interessieren. Er muss es nicht wohlwollend zur Kenntnis nehmen, aber trotzdem verstehen.

Denn Kritik am Preis und an schlechtem/schlechterem P/L bedeutet zwangsläufig Kritik am Unternehmen. Egal ob Nvidia, AMD, Intel, Samsung oder wer auch immer. Und das ist nicht per se richtig.

Nvidia ist nicht für hohe Inflation verantwortlich. Oder den miesen Eurokurs. Oder gestiegene Fracht-/Transportkosten. Oder TSMCs Preise. Das sind Faktoren, die unabhängig von einem Unternehmen den aktuellen Preis von Produkten in die Höhe treiben. Und zwar massiv.

Die 4090 hat dennoch ein deutlich besseres P/L als die 3090 zum Launch, die UVP stieg nur um rund 7% bei gleichzeitig massiv höherer Leistung und massiv höherer Effizienz.

Nach deiner Logik sollte die Presse eher aufklären, warum die Preise generell hoch sind. Und das liegt wiederum nicht unbedingt an den GPUs selbst bzw. in dem konkreten Fall der 4090. Gibt ja noch zwei Witzbolde darunter.

Exxtreme
2022-10-14, 12:57:06
Multiplayerspieler sind auch nur ein Bruchteil der Spieler.

Ähhh ...
https://store.steampowered.com/charts/mostplayed

Nein, das ist andersrum. :)

DrFreaK666
2022-10-14, 13:08:31
...Rasterizing-Spiele sind doch latte. Da benötigt man auch keine 4090, um in 1080p 360Hz zu erreichen.

Mit RTGI via Reshade kann man sicherlich auch mit RZ-only Games eine 4090 fordern. Also ich würds machen :)

Spring
2022-10-14, 13:16:04
Es hat den Leser aber zu interessieren. Er muss es nicht wohlwollend zur Kenntnis nehmen, aber trotzdem verstehen.

Denn Kritik am Preis und an schlechtem/schlechterem P/L bedeutet zwangsläufig Kritik am Unternehmen. Egal ob Nvidia, AMD, Intel, Samsung oder wer auch immer. Und das ist nicht per se richtig.

Nvidia ist nicht für hohe Inflation verantwortlich. Oder den miesen Eurokurs. Oder gestiegene Fracht-/Transportkosten. Oder TSMCs Preise. Das sind Faktoren, die unabhängig von einem Unternehmen den aktuellen Preis von Produkten in die Höhe treiben. Und zwar massiv.

Die 4090 hat dennoch ein deutlich besseres P/L als die 3090 zum Launch, die UVP stieg nur um rund 7% bei gleichzeitig massiv höherer Leistung und massiv höherer Effizienz.

Nach deiner Logik sollte die Presse eher aufklären, warum die Preise generell hoch sind. Und das liegt wiederum nicht unbedingt an den GPUs selbst bzw. in dem konkreten Fall der 4090. Gibt ja noch zwei Witzbolde darunter.

Du bist auch so eine Fahne im Wind.
Erst dick über nv ranten und dann ne 4090 kaufen. Der Kauf ist legit, bevor wieder jmd heult.

Ja armes nvidia der Euro ist böse.
Wenn nvidia ihren monolithischen Chip mit RT aufbläht, weil nichtmal 20% der User das ausnutzen und man ein Verkaufsargument braucht plus die DLSS 3 only RTX 4xxx ohne Not, dann muss das nicht der Käufer ausbaden.

Nochmal: diese Karte ist nicht schlecht aber zu teuer. Auch wenn sie Hologramme generieren könnte oder mir einen Kaffee kocht. Und ja Enthusiasten ist das egal, weil basteltrieb, tech freak oder haben ist besser als brauchen.

Aber tut doch bitte nicht so, als wäre die Karte für die Masse relevant und ohne die geht's nicht, ist der AMD top dog genausowenig.
Dieses die Inflation ist an allem Schuld, ist die billigste Ausrede für jedes Unternehmen. Letztes Jahr Lieferketten, nächstes Jahr [insert random reason]

why_me
2022-10-14, 13:16:42
Nvidia ist nicht für hohe Inflation verantwortlich. Oder den miesen Eurokurs. Oder gestiegene Fracht-/Transportkosten. Oder TSMCs Preise. Das sind Faktoren, die unabhängig von einem Unternehmen den aktuellen Preis von Produkten in die Höhe treiben. Und zwar massiv.

Die 4090 hat dennoch ein deutlich besseres P/L als die 3090 zum Launch, die UVP stieg nur um rund 7% bei gleichzeitig massiv höherer Leistung und massiv höherer Effizienz.

Nach deiner Logik sollte die Presse eher aufklären, warum die Preise generell hoch sind. Und das liegt wiederum nicht unbedingt an den GPUs selbst bzw. in dem konkreten Fall der 4090. Gibt ja noch zwei Witzbolde darunter.

Naja, die 3090 war jetzt auch nicht gerade als P/L Wunder bekannt. Und alles kann man der Inflation auch nicht in die Schuhe schieben, sicherlich hat die einen Anteil, aber bei weitem nicht den größten.

Es hat niemand Nvidia gezwungen auf 450W zu gehen und 2,5kG Metall auf die Karte zu schnallen. 300-350W und einem entsprechenden Kühler wären ohne viel Leistung zu verlieren genauso gegangen, wie die Tests gezeigt haben und hätten die Preise gesenkt.

Intel schafft es ja auch sein 400mm² TSMC 6nm chip mit 16GB RAM für 400€ anzubieten. Klar Intel wird an dem ding wenig bis nichts verdienen, weil sie in den Markt wollen und etwas spät dran sind, aber die Preise scheinen trotz Inflation möglich zu sein.

Dovregubben
2022-10-14, 13:18:11
Ähhh ...
https://store.steampowered.com/charts/mostplayed

Nein, das ist andersrum. :)
Genau das ist der Masterrace Gedanke. MEIN GENRE IST DAS EINZIG WICHTIGE!

Sorry, aber alles sind heute nur noch Bruchteile. Es dominiert zum Glück nix mehr die Spielelandschaft.

Exxtreme
2022-10-14, 13:20:02
Genau das ist der Masterrace Gedanke. MEIN GENRE IST DAS EINZIG WICHTIGE!

Sorry, aber alles sind heute nur noch Bruchteile. Es dominiert zum Glück nix mehr die Spielelandschaft.

Auf dem PC aber schon. Und diese Grafikkarte ist für den PC gemacht. Ergo hat sie ausserhalb des PCs in der Form keine Relevanz.

Platos
2022-10-14, 13:26:15
Klar, aber nicht im Vergleich zu einem nicht mehr vorhandenen Angebot, sondern im Vergleich zu anderen am Markt verfügbaren Angebote.



Falsch, als Kunde interessiert einen nur, was habe ich und wie viel besser ist das verfügbare.

Es hat den Leser aber zu interessieren. Er muss es nicht wohlwollend zur Kenntnis nehmen, aber trotzdem verstehen.

Denn Kritik am Preis und an schlechtem/schlechterem P/L bedeutet zwangsläufig Kritik am Unternehmen. Egal ob Nvidia, AMD, Intel, Samsung oder wer auch immer. Und das ist nicht per se richtig.

Nvidia ist nicht für hohe Inflation verantwortlich. Oder den miesen Eurokurs. Oder gestiegene Fracht-/Transportkosten. Oder TSMCs Preise. Das sind Faktoren, die unabhängig von einem Unternehmen den aktuellen Preis von Produkten in die Höhe treiben. Und zwar massiv.

Die 4090 hat dennoch ein deutlich besseres P/L als die 3090 zum Launch, die UVP stieg nur um rund 7% bei gleichzeitig massiv höherer Leistung und massiv höherer Effizienz.

Nach deiner Logik sollte die Presse eher aufklären, warum die Preise generell hoch sind. Und das liegt wiederum nicht unbedingt an den GPUs selbst bzw. in dem konkreten Fall der 4090. Gibt ja noch zwei Witzbolde darunter.

Ne, ich habe ja explizit geschrieben, dass es den Kunden nicht interessiert, warum die Preise hoch sind.

Kritik, Empfehlung/Nicht-Empfehlung... Man kann es auf verschiedene Weise machen. Schlussendlich sollte ein Test einem unerfahrenen Leser klar und mit höchster Präsenz vermitteln, ob ich mehr Rechenleistung für's selbe Geld kriege (nicht verglichen mit absurden Vergleichen wie RTX 3090TI). Das sollte der Grundfokus eines Tests sein. D.h natürlich auch, dass man bei einer 4090 klar anmerkt, dass es hier nur um Leistung geht und das P/L eigentlich schlecht(er) ist.

NC
2022-10-14, 13:26:34
Mit MP Spielen treibt man aber halt nicht die Technologie vorwärts. Da hängen die Leute auf 20 Jahre alten Spielen oder Spielen, die aussehen als wären sie so alt.
Das kommt sehr auf das Genre an. Bei z.B. Rennspielen wird die Qualität schon getrieben, aber nicht nur GFX, sondern auch SFX und Input.
Wenn du nur für Pedale ein paar Tausender hinlegst, ganz zu schweigen vom Lenkrad, Rig, oder 3-Fach Monitor wo nur das "ASUS ROG Bezel-Free Kit" 200 kostete, ist der Preis einer 3090Ti nichts was dich vom Genuss auf Max-Settings zu fahren abhält.
(Es ist fast wie damals, als wir für jeden neuen Shooter eine neue CPU gebraucht haben).

Bei MP-Shootern gebe ich dir Recht, am Ende hangeld man sich die GFX-Settings langsam runter, weil (gefühlt) jede Mikrosekunde über den Sieg entscheiden kann. Aber auch da bekommt man Mehrwert mit der neusten GPU und CPU. Gerade NVidia Reflex bietet, aus Spielersicht, einen Weg es sachlich zu messen. (Wenn du die Maus an den USB-Anschluss vom Monitor steckst und dann genau sehen kannst, wie die Latenz war). Das treibt dann eine andere Qualität (Frame-Pacing, Lantez, usw.) wovon auch Singleplayyerspiele profitieren.

Dovregubben
2022-10-14, 13:29:57
Auf dem PC aber schon. Und diese Grafikkarte ist für den PC gemacht. Ergo hat sie ausserhalb des PCs in der Form keine Relevanz.
Wenn man da was dominierendes von der Spielerzahl zusammenfassen will, sind es vermutlich einfach die tausenden kleinen Indiegames. Nur weil in der Topten jetzt ein paar Multiplayer Titel sind, sagt das garnix über die Gesamtsituation aus.

Außerdem wirst du auch keinen Hersteller davon überzeugen können nun Technologiebremse zu spielen und Hardware für anspruchslose Spiele zu bauen.

Gimmick
2022-10-14, 13:33:01
Die 4090 hat dennoch ein deutlich besseres P/L als die 3090 zum Launch, die UVP stieg nur um rund 7% bei gleichzeitig massiv höherer Leistung und massiv höherer Effizienz.


Wie willst Du denn generationsübergreifend die P/L beurteilen? Alte Karten hatten dann zwangsläufig ein unfassbar schlechtes P/L oder wie?
Hardware und Software entwickeln sich zwangsläufig weiter und das P/L ergibt sich immer aus dem Umfeld.

Platos
2022-10-14, 13:36:08
Wie willst Du denn generationsübergreifend die P/L beurteilen? Alte Karten hatten dann zwangsläufig ein unfassbar schlechtes P/L oder wie?
Hardware und Software entwickeln sich zwangsläufig weiter und das P/L ergibt sich immer aus dem Umfeld.

Nein, nicht hatten, sondern haben. Damals hatten sie (generell gesprochen) vlt. ein gutes P/L. Jetzt aber nicht mehr 2 Jahre später.

Nazar
2022-10-14, 13:36:41
Also wenn ich mir die meist gespielten Spiele auf Steam anschaue ...
https://store.steampowered.com/charts/mostplayed

RZ ist immer noch beträchtlich wichtiger denn RT. Und ja, man braucht könnte keine 4090 brauchen, wenn man keine RTVR-Spiele spielt.
FIFY ;)

Badesalz
2022-10-14, 13:45:44
Vielleicht lag es auch nur an der unglücklichen Wortwahl. 3/4 ist ja auch ein Bruchteil ;)

@Linmoum
Wie kommst du denn auf die Idee, daß man damit auf den Herstellern rumtrommlen muss? Daß man kaum noch vernünftige Artikel zu lesen bekommt wird doch nicht einfach nur daran gemessen, daß keiner (mehr) Rants über NV schreibt.
Deine Vorstellung von Journalismus entspricht aber in etwa seiner aktuellen Qualität...

unl34shed
2022-10-14, 13:47:43
Wie willst Du denn generationsübergreifend die P/L beurteilen? Alte Karten hatten dann zwangsläufig ein unfassbar schlechtes P/L oder wie?
Hardware und Software entwickeln sich zwangsläufig weiter und das P/L ergibt sich immer aus dem Umfeld.

Mit den beiden 4080ern wird es diesmal anders, P/L wird schlechter gegenüber der 3080 ;)

NC
2022-10-14, 14:05:33
3/4 ist ja auch ein Bruchteil ;)

*3 Bruchteile :tongue:

Linmoum
2022-10-14, 14:07:49
Deine Vorstellung von Journalismus entspricht aber in etwa seiner aktuellen Qualität...Das ist keine bloße Vorstellung.

Wer (zu hohe) Preise oder ein (zu) schlechtes Preis-/Leistungsverhältnis kritisiert, kritisiert damit unmittelbar den Hersteller und seine Preisgestaltung. Was so pauschal schlicht wenig vernünftig denkend ist, sondern sinnloses und an der Realität der Preisbeeinflussung vorbeiführendes, stumpfes geflame.

Einfach alles in seiner Gesamtheit berücksichtigen und sich erschließen. "Was Hersteller für Kosten haben interessiert Kunden nicht und ist egal" ist schlicht albern. Kritik an der Presse vor diesem Hintergrund ebenfalls.

Dovregubben
2022-10-14, 14:13:50
Vielleicht lag es auch nur an der unglücklichen Wortwahl. 3/4 ist ja auch ein Bruchteil ;)
Das ist halt ne große Illusion, dass irgendwas bei 3/4 liegt.

Spring
2022-10-14, 14:23:05
https://www.golem.de/news/nvidia-lieferengpass-die-mondpreise-fuer-rtx-4090-sind-unsinnig-2210-168953.html


In Gesprächen mit Händlern hat Golem.de erfahren, dass die Liefermengen der Nvidia Geforce RTX 4090 (Test) deutlich höher sind, als es beim Start der Ampere-Generation der Fall war. Es waren zum Start bis zu viermal so viele Karten verfügbar wie vor zwei Jahren. Die hohen Preise der Wiederverkäufer sind damit vermutlich nicht lange zu halten.

Badesalz
2022-10-14, 14:50:49
Das ist halt ne große Illusion, dass irgendwas bei 3/4 liegt.Ähmm... Das war nur ein Beispiel was Bruch_teile angeht.

Einfach alles in seiner Gesamtheit berücksichtigen und sich erschließen. "Was Hersteller für Kosten haben interessiert Kunden nicht und ist egal" ist schlicht albern. Kritik an der Presse vor diesem Hintergrund ebenfalls.Aha. Gibt es einen Grund warum du dabei nur auf das Preisthema so fixiert bist? Weil es halt schon genug Artikel gibt, die das aufarbeiten, daß DLSS3.0 bestenfalls eine späte preBeta ist?

Guckt dir mal die von Spring verlinkte (Auftrags?)Arbeit auf golem an. Sowas ist doch ekelhaft.

PS:
Das mit dem Fähnchen im Winde war aber auch nicht völlig aus der Luft gegriffen...

Troyan
2022-10-14, 18:22:14
nVidia bricht einigen das Herz: https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Lmao.

Leonidas
2022-10-14, 18:22:25
nVidia zieht die "4080 12GB" zurück:

Unlaunching The 12GB 4080
https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

just4FunTA
2022-10-14, 18:24:10
lol dachte schon das sei fake. :D

Aber gut wenigstens haben sie es eingesehen, mal sehen wie sich das ganze entwickelt.

MadManniMan
2022-10-14, 18:24:26
Sehr gut :up:

Es zeigt, dass die Öffentlichkeit immerhin eine gewisse Macht hat.

horn 12
2022-10-14, 18:25:47
GEILOMAT :-)

Dafür kommt dann eine RTX 4090TI um 1999 Dollar
welche es mit der 7950XT um 1200 Dollar aufnimmt.

Nvidia versagt erneut auf Ganzer Linie
und melkt die Erstkunden gewaltig ab.
Habe wohl zu viel 3090 / 3090TI noch auf Halde Liegen und die Spekulation über AMD ist diesesmal im Sand verlaufen.

Troyan
2022-10-14, 18:26:18
Ob die den ganzen AIBs nun Aufkleber schicken? Nächste Schritt sollte eine Preisanpassung um $100 sein.

unl34shed
2022-10-14, 18:26:18
Und die 4070 ähm 4080 16GB hat den richtigen Namen?

mr coffee
2022-10-14, 18:26:54
welcome rtx 4070 Ti 10 GB

Ghost1nTh3GPU
2022-10-14, 18:27:25
Auf ein paar zusätzliche Mio. zum Abschreiben kommt es wohl aktuell auch nicht mehr an... :|

ChaosTM
2022-10-14, 18:30:35
nVidia zieht die "4080 12GB" zurück:

Unlaunching The 12GB 4080
https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/


vernünftiger Zug...

+ jetzt bitte noch eine 4080ti näher am Top Dog zum preis der 80er ;)

ChaosTM
2022-10-14, 18:35:17
Und die 4070 ähm 4080 16GB hat den richtigen Namen?


Das wäre der nächste konsequente Schritt + eine 4080ti näher an der 90er inklusive Preisanpassung.

Troyan
2022-10-14, 18:35:22
4080 kommt am 16 November.

mr coffee
2022-10-14, 18:37:17
Kommt mir trotzdem etwas komisch vor. Kann mir nicht vorstellen, dass die Reaktion von nVidia damit zu tun hat, dass die Thematik nicht gut an kam.

ChaosTM
2022-10-14, 18:39:03
Mann will möglicherweise auch den alten 30*0ern mehr Luft lassen zum Abverkauf. Win - Win..

Troyan
2022-10-14, 18:39:32
Naja, zwei Karten mit dem selben Namen ist immer dumm. Bei der 3080 hat es niemanden wegen Mining interessiert. Aber bei einen neuen Launch ist es einfach nur Kundenverarsche. Die sehen eine 4080 für 400€ weniger und bekommen ja nicht nur 4GB weniger Speicher.

why_me
2022-10-14, 18:42:23
Warte.... klang das nicht vor ein paar Wochen noch anders herum bei dir?
Oder verwechsel ich das gerade mit Dural?

unl34shed
2022-10-14, 18:42:30
Vielleicht ist auch eine Klage/Warnung vor Verbraucherschützern eingetrudelt, weil 12GB und 16GB nicht den Leistungsunterschied ersichtlich machen und man hat deswegen den Stecker gezogen.


Naja, zwei Karten mit dem selben Namen ist immer dumm. Bei der 3080 hat es niemanden wegen Mining interessiert. Aber bei einen neuen Launch ist es einfach nur Kundenverarsche. Die sehen eine 4080 für 400€ weniger und bekommen ja nicht nur 4GB weniger Speicher.

:hammer::crazy:;D:crazy2::uroll:
Vor ein paar Seiten war das noch voll in Ordnung und Nvidia darf das machen und ist alles cool, Namen sind Schall und Rauch... Echt jetzt?

ChaosTM
2022-10-14, 18:44:32
Weil es NV selbst gemacht hat und nicht vom Pöbel gefordert wurde. ;)

Exxtreme
2022-10-14, 18:50:16
nVidia zieht die "4080 12GB" zurück:

Unlaunching The 12GB 4080
https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

LMAO. Also das ist ein sehr feiner und mutiger Zug. Hut ab!

ChaosTM
2022-10-14, 18:52:23
Oder ein klarer Hinweis der Rechtsabteilung. ;)
Wir werden es nie erfahren.

unl34shed
2022-10-14, 18:53:56
LMAO. Also das ist ein sehr feiner und mutiger Zug. Hut ab!

Der mutige Zug war es eine 4060Ti als eine 4080 12GB verkaufen zu wollen.
Ein feiner Zug wäre es, wenn man auch noch die 4070 aka 4080 16GB zurückziehen würde oder entsprechend umbenennt. :wink:

AffenJack
2022-10-14, 19:04:40
Oder ein klarer Hinweis der Rechtsabteilung. ;)
Wir werden es nie erfahren.

Glaube ich weniger. Eventuell auch ne Reaktion auf AMD, da man die Leistungsfähigkeit von RDNA3 erfahren hat und gemerkt hat, dass man mit der 4080 12 GB bei dem Preis auf verlorenen Posten stehen würde. So kann man mit neuen Namen auch den Preis senken, was sonst ganz schön dämlich gekommen wäre direkt zu Start.

Monsta
2022-10-14, 19:07:33
Naja, zwei Karten mit dem selben Namen ist immer dumm. Bei der 3080 hat es niemanden wegen Mining interessiert. Aber bei einen neuen Launch ist es einfach nur Kundenverarsche. Die sehen eine 4080 für 400€ weniger und bekommen ja nicht nur 4GB weniger Speicher.

Haha Wendehals, vor ein paar Seiten war die Karte noch total klasse.

Niall
2022-10-14, 19:09:24
Öhm, hatten wir das schon? NVIDIA cancelt die 4080 12G :freak:

NVIDIA cacelt 4080 12G (https://videocardz.com/newz/nvidia-cancels-geforce-rtx-4080-12gb)

Frei nach dem Motto: Man kann's ja mal versuchen. Hinterlässt einen sehr bitteren Beigeschmack, wie auch die Bepreisung - da wird einfach probiert wie oder was der Markt so mitmacht und das Maximum rausgequetscht.

why_me
2022-10-14, 19:11:20
vor einer Seite, ganz oben und vor 2 Seiten ganz unten. Einfach mal etwas zurück blättern...

mr coffee
2022-10-14, 19:11:24
Ja, ist gerade aktuelles Thema.

horn 12
2022-10-14, 19:11:26
Glaube ich weniger. Eventuell auch ne Reaktion auf AMD, da man die Leistungsfähigkeit von RDNA3 erfahren hat und gemerkt hat, dass man mit der 4080 12 GB bei dem Preis auf verlorenen Posten stehen würde. So kann man mit neuen Namen auch den Preis senken, was sonst ganz schön dämlich gekommen wäre direkt zu Start.


Wohl VOLL ins Schwarze getroffen, denn man munkelt von 699 bis 749 Dollar bei Ähnlicher Leistung.

unl34shed
2022-10-14, 19:11:32
Glaube ich weniger. Eventuell auch ne Reaktion auf AMD, da man die Leistungsfähigkeit von RDNA3 erfahren hat und gemerkt hat, dass man mit der 4080 12 GB bei dem Preis auf verlorenen Posten stehen würde. So kann man mit neuen Namen auch den Preis senken, was sonst ganz schön dämlich gekommen wäre direkt zu Start.

Auch wenn sie jetzt 4070 oder was auch immer drauf schreiben werden sie die Karte vermutlich immer noch mit gleichen oder ähnlichen Specs launchen, wenn sie das dann für 100-200$ billiger können, wird es sicher ein paar Idioten geben, die das nicht schnallen, aber ich hoffe doch der Rest der Menschheit ist nicht so dämlich... ok ich vergas Corona, ich nehm's zurück.

ChaosTM
2022-10-14, 19:12:15
Its 3DC, natürlich ;)
(fast) immer wenn man glaubt was neues gefunden zu haben hat es schon vorher wer entdeckt.

basix
2022-10-14, 19:13:42
Haha, Unlaunching. Hat es das irgendwann schonmal gegeben? :D

Gründe können vielfältig sein. Jetzt ist nur für uns Kunden zu hoffen, dass die Karte für 599-699$ oder so rauskommt und es bei diesem Preis die Karte auch zu kaufen gibt ;)

Linmoum
2022-10-14, 19:16:36
Ich hab sowieso das Gefühl, dass das irgendeine Last-Minute-Entscheidung von Lederjacke war, das Teil überhaupt zu bringen. Absurdes Marketing, alleine diese Idee ist völlig hirnrissig gewesen.

Niall
2022-10-14, 19:17:00
vor einer Seite, ganz oben und vor 2 Seiten ganz unten. Einfach mal etwas zurück blättern...
Ja, ist gerade aktuelles Thema.
Its 3DC, natürlich ;)
(fast) immer wenn man glaubt was neues gefunden zu haben hat es schon vorher wer entdeckt.

Sorry Leute. :facepalm:

why_me
2022-10-14, 19:18:15
Kann ja verstehen, bei so einer bomben sensation, aber etwas zurückblättern, oder die aktuellen posts lesen, denn da war das ja auch thema, schadet bei so etwas dann doch nie :wave:

Niall
2022-10-14, 19:21:56
Ja, neben meinem "richtigen Leben" fällt es mir manchmal etwas schwer, alle aktuellen Subforen im Überblick zu halten. Sorry dafür.
Ich werde meine Prioritätenliste nochmal einer sorgfältigen Prüfung unterziehen. Versprochen. :ubeer:

Linmoum
2022-10-14, 19:22:25
Vielleicht haben sie auch festgestellt, dass immer noch viel zu viel Inventory vorhanden ist, um eine Karte für unter $1000 zu Launchen und haben jetzt so einfach zwei Fliegen mit einer Klappe erschlagen. ;D

Korvaun
2022-10-14, 19:25:58
nV hatte bisher 40%+ Marge, da ist SEHR VIEL Luft bei den Preisen... klar wird das Jensen (und der Börse) nicht schmecken, aber die Preise sind einfach lächerlich für die beiden 4080er bisher. Mal sehen was da kommt und ob AMD auch so gierig ist (könnte man meinen bei den ZEN4 Preisen...)

mr coffee
2022-10-14, 19:26:19
Die merken einfach die sauteuren 4090 verkaufen sich wie geschnitten Brot, warum noch was neues darunter anbieten.

Freestaler
2022-10-14, 19:29:00
Ja, und wieso so günstig? ;-)

Korvaun
2022-10-14, 19:31:16
Die 4090 ist auch was ganz anderes als aktueller TopDog. Das ist ne tolle Karte, der Preis geht in Ordnung, teuer aber ok (mal abgesehen vom Umrechnungskurs natürlich, aber daran können wir nix ändern). Die "Standard"-Gamer Karten 4080/70 aber auch in 1k+ Regionen geht einfach mal gar nicht. Wenn das Inventar drückt dann muss halt der Preis der alten Ware runter oder nV muss noch warten mit den neuen Karten...

Niall
2022-10-14, 19:37:32
Das ist ne tolle Karte, der Preis geht in Ordnung, teuer aber ok (mal abgesehen vom Umrechnungskurs natürlich, aber daran können wir nix ändern).


Nein, der Preis ist absurd hoch und in keiner Weise "O.k." - ich verstehe nicht wie man sich das immer wieder schön reden kann. Die Karte ist großartig, zucke selbst immer wieder mit den Fingern. Nichtsdestotrotz ist der Preis alles Andere als "O.k.".

Jupiter
2022-10-14, 19:40:32
Die Namenbezeichnung der RTX 4080 12 GB war in der Tat ein Fehler. Wurden schon welche produziert und wenn ja, was passiert damit? RTX 4070 Ti?

Zu den preisen. Es gibt noch immer genügend RTX 30er Karten.

Der mutige Zug war es eine 4060Ti als eine 4080 12GB verkaufen zu wollen.
Ein feiner Zug wäre es, wenn man auch noch die 4070 aka 4080 16GB zurückziehen würde oder entsprechend umbenennt. :wink:

Warum soll die RTX 4080 16 GB eine RTX 4070 sein? So weit ich mich erinnere war die GTX 1080 schon ein GP104.

Ex3cut3r
2022-10-14, 19:50:44
Ok, das kam jetzt doch etwas überraschend. Und was heißt das jetzt? 4080 12GB, wird dann doch in 4070 umbenannt?

vinacis_vivids
2022-10-14, 19:51:56
Eher in 12GB 4060.

AffenJack
2022-10-14, 19:52:39
Warum soll die RTX 4080 16 GB eine RTX 4070 sein? So weit ich mich erinnere war die GTX 1080 schon ein GP104.

Jupp, aber er kommt nicht damit klar, dass Nvidia mit AD102 einen richtig großen Chip für oberhalb der 4080 bringt. Dass die Alternative schlicht wäre, dass es AD102 in der Form nicht gäbe ist da irrelevant.

Ok, das kam jetzt doch etwas überraschend. Und was heißt das jetzt? 4080 12GB, wird dann doch in 4070 umbenannt?

Dürfte ne 4070 Ti werden. Die 4070 dürfte so launchen wie geplant.

Ex3cut3r
2022-10-14, 19:56:38
Dürfte ne 4070 Ti werden. Die 4070 dürfte so launchen wie geplant.

Bist du da sicher. Werden jetzt nicht alle Modelle unter 4080 16GB um eine Stufe degradiert?

4080 12GB wird zur 4070.

Eigentliche 4070 wird zur 4060. ;)

Ob das mal alles nicht mit RDNA 3 um ihrem vermutlichen fairen Line-up zu hat? Ich würde darauf wetten. ;)

Platos
2022-10-14, 19:58:03
Die wohl wichtige Frage ist doch, was passiert mit dem Preis?

Ich vermute: Nichts!

Sonst müssten sie die 4080 ja auch billiger machen, sonst ist der Abstand doch viel zu hoch. Und ne 4070Ti zwischen zu schieben wäre dann auch lächerlich, da kaum Perfomance zwischen den 2 Karten ist.

Die Karte wird zwar besser bennent, der Preis wird aber vermurlich gleich bleiben.

Edit: Oder sie nennen sie 4070Ti und für die 4070 wird ein weiter abgespeckter Chip genutzt xD

Das wäre ja noch "lustiger" xD

mr coffee
2022-10-14, 20:06:00
Wenn sich der Preis auch ändert war das eine Reaktion auf AMD.

FastAndy
2022-10-14, 20:08:24
Nein, der Preis ist absurd hoch und in keiner Weise "O.k." - ich verstehe nicht wie man sich das immer wieder schön reden kann. Die Karte ist großartig, zucke selbst immer wieder mit den Fingern. Nichtsdestotrotz ist der Preis alles Andere als "O.k.".
So vergriffen wie die karten sind, ist der preis zu tief. Da gibt es auch nichts zu diskutieren.

Platos
2022-10-14, 20:09:31
Wenn sich der Preis auch ändert war das eine Reaktion auf AMD.

Das würde dann aber bedeuten dass AMD bei 4080 16GB-Leistung nichts anbieten könnte, was (deutlich) günstiger ist. Ansonsten hätten sie die 4080 16GB ja zumindest günstiger anbieten müssen. Die soll ja aber unverändert launchen.

mr coffee
2022-10-14, 20:12:17
Ja, stimmt, das ist ein Argument.

Niall
2022-10-14, 20:22:23
So vergriffen wie die karten sind, ist der preis zu tief. Da gibt es auch nichts zu diskutieren.

Aus Unternehmersicht ja, aus Käufersicht ist es ein Desaster, da man NVIDIA und AMD spiegelt: Wenn die Leistung gut ist, ist der Preis quasi "egal", was sich dann auch auf die kommenden "kleineren" Ableger niederschlägt und damit dann nicht mehr nur die Enthusiasten trifft, die es sich leisten können, oder wollen.

Ich erinnere daran, dass vor fünf Jahren eine 1080Ti, also das Top-Modell unter der Titan - (welche aufgrund der Bepreisung und Verfügbarkeit wirklich nur die "Super-Enthusiasten" und Pro-User geordert haben - 850€ gekostet hat.

Ex3cut3r
2022-10-14, 20:24:58
Aus Unternehmersicht ja, aus Käufersicht ist es ein Desaster, da man NVIDIA und AMD spiegelt: Wenn die Leistung gut ist, ist der Preis quasi "egal", was sich dann auch auf die kommenden "kleineren" Ableger niederschlägt.

Ich erinnere daran, dass vor fünf Jahren eine 1080Ti, also das Top-Modell unter der Titan - die aufgrund der Bepreisung wirklich nur die "Super-Enthusiasten" und Pro-User geordert haben - 850€ gekostet hat.

Die Preise jetzt daran sind wir von früher schuld. Weil wir für 850€ damals (1080 Ti) auch zugeschlagen haben, siehe deine Rechnung von KäseKönig. Hättest du und die anderen schon damals für 850€ nicht gekauft. Hätten wir jetzt auch keine 2200€ für das Top Modell. Ganz einfach.

Also, macht alles keinen Sinn, sich jetzt über Preise zu "beschweren" Wenn man selber aktiv zur Preiserhöhung mit seinem Konsum beigetragen hat. ;)

Denn die GTX 980 Ti gabs nämlich für 740€ zum Launch. Die Pascal Serie war fast in jeder Performance Klasse 100-200€ teuer.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-980-Ti-Test-Benchmarks-1159952/

Dural
2022-10-14, 20:31:10
Ändert jetzt genau was? Das gleiche Produkt kommt jetzt halt mit dem Namen 4070 zum gleichen Preis auf den Markt.

Und wie schon gesagt, die 4080 16 hat das schlechteste Preis/Leistung überhaupt, 33% teurer für 25% mehr Leistung gegenüber 4080 12.

Herzlichen glückwunsch, NV hat für das Jahr 2022 die einzig bezahlbare ada Karte gestrichen, und es wird noch gejubelt...

Niall
2022-10-14, 20:35:02
Die Preise jetzt daran sind wir von früher schuld. Weil wir für 850€ damals (1080 Ti) auch zugeschlagen haben, siehe deine Rechnung von KäseKönig. Hättest du und die anderen schon damals für 850€ nicht gekauft. Hätten wir jetzt auch keine 2200€ für das Top Modell. Ganz einfach.

Also, macht alles keinen Sinn, sich jetzt über Preise zu "beschweren" Wenn man selber aktiv zur Preiserhöhung mit seinem Konsum beigetragen hat. ;)

Ich beschwere mich ja gar nicht, nur zwischen 850€ und 2XXX€ liegt dann doch eine recht üppige Differenz für fünf Jahre. :D

Ex3cut3r
2022-10-14, 20:37:10
Ich beschwere mich ja gar nicht, nur zwischen 850€ und 2XXX€ liegt dann doch eine recht üppige Differenz für fünf Jahre. :D

Ja. Aber bei jeder Generation seit Kepler 2012 (Maxwell mal ausgeklammert) gab es eine Preiserhöhung. Und sie wurde jedes mal mitgemacht. So schaut aus.

Turing war nochmal teuer als Pascal. Pascal war teuer als Maxwell. Ampere war nochmal teuer als Turing usw. ;)

NC
2022-10-14, 20:39:57
So vergriffen wie die karten sind, ist der preis zu tief. Da gibt es auch nichts zu diskutieren.
100%

Das kann im Umkehrschluss auch bedeuten, dass AMDs Preise jetzt nach oben gehen, wenn NVidia zu Ihren ausverkauft hat, gerade wenn die Hochrechnungen im RDNA3 Thread stimmen sollten, dass 4090 geschlagen werden kann. Nach unten gehen kann AMD dann immer noch (und NVidia natürlich auch).

The_Invisible
2022-10-14, 20:44:17
Die Preise jetzt daran sind wir von früher schuld. Weil wir für 850€ damals (1080 Ti) auch zugeschlagen haben, siehe deine Rechnung von KäseKönig. Hättest du und die anderen schon damals für 850€ nicht gekauft. Hätten wir jetzt auch keine 2200€ für das Top Modell. Ganz einfach.

Also, macht alles keinen Sinn, sich jetzt über Preise zu "beschweren" Wenn man selber aktiv zur Preiserhöhung mit seinem Konsum beigetragen hat. ;)

Denn die GTX 980 Ti gabs nämlich für 740€ zum Launch. Die Pascal Serie war fast in jeder Performance Klasse 100-200€ teuer.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-980-Ti-Test-Benchmarks-1159952/

Naja stimmt so auch net, die 8800 Ultra hab ich damals um so 580 EUR gekauft was heute so knapp unter 750 EUR wären. Die Geforce 2 Ultra hat damals umgerechnet auch schon so >600 EUR gekostet...

Ex3cut3r
2022-10-14, 20:49:34
Naja stimmt so auch net, die 8800 Ultra hab ich damals um so 580 EUR gekauft was heute so knapp unter 750 EUR wären. Die Geforce 2 Ultra hat damals umgerechnet auch schon so >600 EUR gekostet...

Das waren ja noch Zeiten (Geforce 2) wo die HW jedes Jahr riesige Schritte gemacht hat. Und Silizium unverhältnismäßig teuer war. Später wurde es besser.

ChaosTM
2022-10-14, 20:52:54
Die G-Force 2 Ultra hat meinen leichten anti NV Bias damals eingeläutet. 10% mehr Leistung für 35% mehr Geld ;)

unl34shed
2022-10-14, 20:56:28
Warum soll die RTX 4080 16 GB eine RTX 4070 sein? So weit ich mich erinnere war die GTX 1080 schon ein GP104.

Eigentlich ganz einfach:
Alles aus den Launch Reviews von Computerbase der großen Karten, 4k Benchmarks Avg. FPS und Werte der Referenz Designs.
Wie viel Leistung hat die 780 gegenüber der 780Ti? 85%
Wie viel Leistung hat die 980 gegenüber der 980Ti? 78%
Wie viel Leistung hat die 1080 gegenüber der 1080Ti? 74%
Wie viel Leistung hat die 2080 gegenüber der 2080Ti? 79%
Wie viel Leistung hat die 3080 gegenüber der 3080Ti? 90/93% (10/12GB), bei RT 83/92% (10GB verhungert am Speicher)
Wie viel Leistung hat die 3080 gegenüber der 3090Ti? 81/84% (10/12GB), bei RT 74/82% (10GB verhungert am Speicher)
Also mehr oder weniger 80% von Top-tier, richtig?

Und jetzt, wie viel Leistung hat die 4080 16GB gegenüber der 4090?
In Plague Tail: 52%
Resident Evil: ca. 70%
Assasins Creed: ca. 78%
Division2: ca. 71%
In F1 22: 72%
macht Im Durchschnitt 68,6%

Die anderen Karten werden aber mit der größten Karten verglichen, die fehlt diesmal noch, was die Performance im Stack noch weiter runter drücken wird.
TLDR: Die Karte ist viel zu stark beschnitten für eine 4080 und hinzu kommt noch der unverschämte Preisanstieg.

Und ja, es gibt noch das FlighSim Benchmark, wo man 88% der FPS einer 4090 erzielt, das ist aber im CPU Limit, daher kann man das ignorieren.

Jupp, aber er kommt nicht damit klar, dass Nvidia mit AD102 einen richtig großen Chip für oberhalb der 4080 bringt. Dass die Alternative schlicht wäre, dass es AD102 in der Form nicht gäbe ist da irrelevant.

Am besten als Kunde noch dankbar sein, dass man abgezockt wird... :rolleyes:

Jupiter
2022-10-14, 21:06:50
Die GTX Titan war auch etwa 50 % schneller als die GTX 680.

Sardaukar.nsn
2022-10-14, 21:09:17
nVidia bricht einigen das Herz: https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Lmao.

Immerhin mit Beifahrer Foto :freak:

Cubitus
2022-10-14, 21:17:31
Alter Schwede...

Teardown mit der neuen Suprim..
Hatte 50-60 FPS mit meiner TUF OC bei 1900Mhz

und jetzt an die 300 FPS dafduq: :eek:

Sardaukar.nsn
2022-10-14, 21:20:47
So vergriffen wie die karten sind, ist der preis zu tief. Da gibt es auch nichts zu diskutieren.

Ja, im krassen Gegensatz zu Zen4 und den AM5 Mainboards die wie Blei in den Regalen liegen.

ChaosTM
2022-10-14, 21:23:28
als ob das irgendwas mit Linda/Ada zu tun hätte ?

Der Umstieg auf DDR5 will wohl überlegt sein und die halbwegs bezahlbaren Bretter kommen erst.

Jupiter
2022-10-14, 21:24:29
Demnach wäre Zen 4 zu teuer. Die Preise müssten um 1/3 gesenkt werden. Kundenbetrug und unverschämt von AMD. Was für ein böses Unternehmen.

ChaosTM
2022-10-14, 21:26:07
Die Boards sind zu teuer. Die CPUs selbst vielleicht auch. Zumindest die kleineren.. ;)

Und Kundenbetrug ist, wenn man 2 gleichnamige Karten verkauft, die nichts miteinander zu tun haben. Das hat NV schon korrigiert.

DrFreaK666
2022-10-14, 21:26:10
Die G-Force 2 Ultra hat meinen leichten anti NV Bias damals eingeläutet. 10% mehr Leistung für 35% mehr Geld ;)

Das war bei mir die Übernahme von 3dfx ;)

ChaosTM
2022-10-14, 21:28:40
Das war bei mir die Übernahme von 3dfx ;)


Das war auch unschön, aber da war 3dfx nicht unbeteiligt, weil man sich nicht wirklich adäquat gewehrt hat.

Badesalz
2022-10-14, 21:33:34
nVidia zieht die "4080 12GB" zurück:

Unlaunching The 12GB 4080
https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/Ou... aua aua aua :redface: Hat Prinzenrolle die noch auf dem Benchtable? Das sollte doch ihm nach die populärste und meistverkaufte RT40 werden.

Der Arme der. Experte...

Thunder99
2022-10-14, 21:36:42
Bin froh, dass da einige zur Vernunft kamen und die 4080 12GB gestrichen hat zum wohle einer gerechteren Bezeichnung.
Bei Ampere war es ja egal mit den 2SM mehr der 3080 12GB, gegenüber der 10GB

Nun kann das Portfolio entsprechend sauberer aufgeführt werden:

4090Ti/Titan 24GB
4090 24GB
4080Ti 20GB
4080 16GB
4070Ti 12GB
4070 10GB
4060Ti 10/8GB
4060 8GB

Preis der full AD104 wird dennoch gesalzen sein denke ich :freak:

ChaosTM
2022-10-14, 21:39:24
Gebt mir bald eine 4080ti zum Preis der 4080er. Das wäre "fair". ;)
Die derzeitige 4080er ist eher eine 4070(Ti)

Thunder99
2022-10-14, 21:41:33
Gebt mir bald eine 4080ti zum Preis der 4080er. Das wäre "fair". ;)
Die derzeitige 4080er ist eher eine 4070(Ti)
Abgesehen vom Preis :redface:
Und ansonsten ja, stimme dir ja auch zu aber es ist Nvidia, sagt schon alles :freak:

Badesalz
2022-10-14, 21:50:36
So vergriffen wie die karten sind, ist der preis zu tief. Da gibt es auch nichts zu diskutieren.Sind wir nicht noch in der Launchwoche? Was sagt das denn bitte heute schon aus?

Cubitus
2022-10-14, 21:53:17
Die Karte ist brutal Effizient CP mit DLSS Qualität, Maxxed OUT, RT Psycho
gelockt auf 60 FPS mit 40 Prozent PT, reicht vollkommen aus :freak:

177 Watt

https://abload.de/thumb/cyberpunk2077screenshsxigp.png (https://abload.de/image.php?img=cyberpunk2077screenshsxigp.png)

basix
2022-10-14, 21:54:59
Alter Schwede...

Teardown mit der neuen Suprim..
Hatte 50-60 FPS mit meiner TUF OC bei 1900Mhz

und jetzt an die 300 FPS dafduq: :eek:

Sicher, dass du nicht im CPU-Limit bist ;D

Ich bin es nämlich mit dem 5800X3D @ 1440p ;) Deswegen spiele ich es in 2880p und DSR ;) @ 70-100fps

Ach ja, schau dir die PCGH Benches an: AMD rennt wie sau, Nvidia Karten nicht:
https://www.pcgameshardware.de/Teardown-Spiel-73677/Specials/PC-Game-Test-Benchmark-Voxel-Dynamic-Destruction-1394545/4/

Ada scheint diese Bremse nun gelöst zu haben ;)

Cubitus
2022-10-14, 22:04:51
Sicher, dass du nicht im CPU-Limit bist ;D

Ich bin es nämlich mit dem 5800X3D @ 1440p ;) Deswegen spiele ich es in 2880p und DSR ;) @ 70-100fps

Ach ja, schau dir die PCGH Benches an: AMD rennt wie sau, Nvidia Karten nicht:
https://www.pcgameshardware.de/Teardown-Spiel-73677/Specials/PC-Game-Test-Benchmark-Voxel-Dynamic-Destruction-1394545/4/

Ada scheint diese Bremse nun gelöst zu haben ;)

Bei 100 FPS bin ich immer noch im CPU Limit in CP Karte langweilt sich..
AMD Karten liefen wie sau, Nvidia noch mehr :)

FastAndy
2022-10-14, 23:01:28
Sind wir nicht noch in der Launchwoche? Was sagt das denn bitte heute schon aus?
Das genau das geschriebene gerade für die launchwoche zutrifft
Runter kann man danach immer

Neurosphere
2022-10-14, 23:54:55
https://www.computerbase.de/2022-10/nvidia-geforce-522-25-mining-bremse-geforce/

Man macht das Zweitgeschäft wieder auf, vielleicht geht ja noch was.

BlacKi
2022-10-15, 02:08:03
ada is escalating quickly

https://cdn.videocardz.com/1/2022/10/RTX-4050-box-hero.jpg

gross2
2022-10-15, 04:59:00
nVidia zieht die "4080 12GB" zurück:

Unlaunching The 12GB 4080
https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Hahahaha... Tolle Nebelkerze.
Das Hauptziel hat nVidia erreicht. AD103 ist auf dem Preispunkt der 80 Ti etabliert.

Jetzt AD104 relaunchen als 4070Ti mit MSRP $100 günstiger (also $800) um die Gemüter zu beruhigen und sie haben immer noch eine schöne Preissteigerung für den 104er Chip durchgesetzt, sogar gegenüber Turing.
Bei Ampere GA102 bis zur normalen 80er runter einsetzen zu müssen hat ihnen sicher weh getan...

TU104 = $700
GA104 = $600
AD104 = $800??

ChaosTM
2022-10-15, 06:11:07
Hahahaha... Tolle Nebelkerze.
Das Hauptziel hat nVidia erreicht. AD103 ist auf dem Preispunkt der 80 Ti etabliert.

Jetzt AD104 relaunchen als 4070Ti mit MSRP $100 günstiger (also $800) um die Gemüter zu beruhigen und sie haben immer noch eine schöne Preissteigerung für den 104er Chip durchgesetzt, sogar gegenüber Turing.
Bei Ampere GA102 bis zur normalen 80er runter einsetzen zu müssen hat ihnen sicher weh getan...

TU104 = $700
GA104 = $600
AD104 = $800??


So sollte es sein, aber Jensen hat anders entschieden - er glaubt wir sind alle Fanboy Idioten ;)

dildo4u
2022-10-15, 07:05:51
Imo weniger Karten im Markt ist nie gut gibt AMD eine Entschuldigung 2022 nur 1000€+ Karten zu bringen und der Name sagt nix zum Wert im Markt aus.
Man bekommt Heute 3090 Ti für 1.2k€ was anderes gibt die Performance nicht mehr her.
Nun bekommt NV genau das was sie wollten alle neuen Karten stehen nicht direkt in Konkurrenz zur 30 Serie.

basix
2022-10-15, 09:45:37
Nun bekommt NV genau das was sie wollten alle neuen Karten stehen nicht direkt in Konkurrenz zur 30 Serie.

Punkto P/L steht man immer in Konkurrenz mit der alten Garde.

AD104 für 599$ wäre das, was man von einer neuen Generation erwarten würde. Das wäre völlig OK. Der Chip ist deutlich kleiner als GA104 und die +4GByte Speicher kosten definitiv nicht +100$ verglichen zur 3070.

Falls es 699$ werden: Die 3080 hätte 699$ gekostet. Vor zwei Jahren. Und ist anscheinend oftmals nichtmals viel langsamer. Wäre also immer noch ein magerer P/L Sprung. DLSS3 Frame Generation lasse ich nicht als gleichwertigen Performance-Sprung gelten.

Die "unlaunched" (what a word :freak:) 4080 12GB kann folgende Gründe haben:
- RTX 30 Inventory doch schneller abverkauft, als zuerst erwartet
- Mal versucht, ob das beim Konsumenten und der Presse durchgeht. Am Schluss kommt sie dann für 749$ und alle sagen, das ist ja voll OK. Ziel erreicht ;)
- RDNA3 ist doch stärker als von Nvidia erwartet, vor allem auch P/L mässig. Man stelle sich z.B. vor, N33 wäre so schnell wie die 3080 und kostet 399$ ;)

Prinzipiell muss man sagen, dass die 4080 12GB Reviews vermutlich durchgehend schlechte Noten bekommen hätten. Nicht wegen der Karte an sich, die wird vermutlich schon ziemlich gut sein. Aber nach 2 Jahren an überhöhten Mining-Preisen "erlaubt" es sich dieses Nvidia, solch überrissenen Preise zu verlangen. Die Kunden haben das satt. Aufgrund des Minings ging das bis jetzt finanziel sehr gut, die meisten Gamer sind aber nicht bereit, solche Preise zu zahlen. Wenn man ehrlich ist: PC-Gaming stirbt aus, wenn Mittelklasse/Performance Karten >500$ wandern. Damit meine ich 60er und 70er Klasse. Die letzten paar GPU-Generationen lagen diese Karten im Bereich 300-500$. Und 500$ ist so eine Art psychologische Grenze für vermutlich die meisten.

dildo4u
2022-10-15, 09:53:50
Ich tippe drauf das NV immer noch aus dem Arsch für GDDR6X zahlt da es nur ein Hersteller dafür gibt.
Die 3070 TI sind immer noch Absurd teuer(700€) obwohl sie nur 8GB haben.
12GB GDDR6X könnte verhindern das wir die Karte sobald für 4070 Preise sehen.

robbitop
2022-10-15, 09:56:40
Ich glaube das smarteste ist jetzt sich günstig aus dem Gebrauchtmarkt zu bedienen. 3080er sieht man für um die 500€. Da ust eine doppelt so teure neue 4080 12 GB kaum schneller. So kann man als Endkunde seine Stimme nutzen um sich nicht alles gefallen zu lassen. :)

Solange die Lemminge aber mitmachen wird es weiter so gehen.

anorakker
2022-10-15, 10:02:46
Traut sich jemand abzuschätzen wieviel weniger Miner bei diesem Launch Karten kaufen? (weltweit natürlich!). Oder werden die überhaupt noch irgendwo zum Mining gekauft? Bricht damit tatsächlich 60-80% Umsatz weg?

robbitop
2022-10-15, 10:04:12
GPU Mining ist aktuell ziemlich mau. ETH ist auf PoS gewechselt, Energiepreise steigen und Cryptowerte sind massiv eingebrochen.

HOT
2022-10-15, 10:12:52
GPU-Mining ist tot. Einfach tot, da würd ich keinen Gedanken mehr dran verschwenden.

Die Rücknahme der 12GB-Variante war eigentlich zwingend, ich weiss auch nicht, warum man das überhaupt so probiert hat. Das PR-Desaster hätte man sich echt schenken können. Man braucht ja auch ne kleinere Variante von GA103, wo hätte die denn landen sollen? Jetzt wird der kleine 103er die 4070Ti, passt. Und 104er muss noch darunter.
Ich schätze aber mal, dass NV zwar die UVP der 16GB-Karte auf dem jetzigen Niveau launcht, aber den EK-Preis auf dem ursprünglichen 12GB-Launchpunkt startet. Damit würden die Customs dann auf dem Preisniveau der 12GB-Variante fallen (sobald das Weihnachtsgeschäft durch ist) und man hätte einen neuen Launchspot für die 4080Ti, die offenbar nötiger ist gegen AMD das NV das anfangs zugeben wollte.
Wer vor Weihnachten kauft ist echt selber schuld mMn.

Eines ist auch klar, die (jetzt) 4070 leistet soviel wie die 3080 12GB und muss auch auf dem Preispunkt starten, die 4080 16 leistet soviel wie die 3090Ti und wird letztendlich auch auf dem Preispunkt zuhause sein. Diese bekommt man jetzt für 1200€ bzw. für unter $1000. Da muss die jetzige 4080 landen und das wird sie auch. Wer teurer kauft, hats auch nicht anders verdient.

AffenJack
2022-10-15, 10:37:42
Die "unlaunched" (what a word :freak:) 4080 12GB kann folgende Gründe haben:
- RTX 30 Inventory doch schneller abverkauft, als zuerst erwartet
- Mal versucht, ob das beim Konsumenten und der Presse durchgeht. Am Schluss kommt sie dann für 749$ und alle sagen, das ist ja voll OK. Ziel erreicht ;)
- RDNA3 ist doch stärker als von Nvidia erwartet, vor allem auch P/L mässig. Man stelle sich z.B. vor, N33 wäre so schnell wie die 3080 und kostet 399$ ;)


Inventory schneller verkauft als erwartet? Oder andersrum. Man kann mehr inventory loswerden, indem man erst im Januar launcht.

Es kann auch AMDs Release Zeitpunkt eine Rolle spielen. Die neusten Gerüchte sprechen ja sogar erst von Dezember Verfügbarkeit. Wenn da was dran ist, gibt das Nvidia mehr Zeit die 30er zu verkaufen und die 4080 12GB stört da nur.

robbitop
2022-10-15, 10:39:11
@HOT
Es hätte ja auch klappen können. Nennt sich dreistes Austesten (und verschieben) der Grenzen.
Außerdem je dreister man ist, desto zufriedener sind die Leute wenn verringerte Rückschritte passieren. Trotzdem hat man mit AD103 den halben Chip der sonst der 70 entspricht jetzt als 80 verkauft und der stark beschnittene AD102 der normalerweise eine 80ti wäre als 90 verkauft. Die 60 als 80 zu verkaufen hat nicht funktioniert. Aber alles andere hat man durch bekommen. Und die Leute atmen nur wegen des dreistesten Moves auf der nicht geklappt hat. :So kann man die Massen über Jahre erfolgreich auf immer höhere Preise dressieren.

Ein ehemals normaler Performancesprung wird in 2022 gefeiert als „kind of redicouous“. Läuft läuft läuft… ;)

Daredevil
2022-10-15, 10:49:02
Traut sich jemand abzuschätzen wieviel weniger Miner bei diesem Launch Karten kaufen? (weltweit natürlich!). Oder werden die überhaupt noch irgendwo zum Mining gekauft? Bricht damit tatsächlich 60-80% Umsatz weg?
Mining ist aktuell eher eine Liebhabersache bzw. wird aus Gründen gemacht, um "dezentrales Geld" zu schaffen als Absicherung, aber nicht aus reinem offiziellen Profit.
Hier kannst du selber nachschauen: https://whattomine.com/coins?aq_39Ti=1&a_39Ti=true&aq_69xt=0&aq_68xt=0&aq_68=0&aq_67xt=0&aq_66xt=0&aq_vii=0&aq_5700xt=0&aq_5700=0&aq_5600xt=0&aq_vega64=0&aq_vega56=0&aq_3090=0&aq_38Ti=0&aq_3080=0&aq_38L=0&aq_37Ti=0&aq_3070=0&aq_37L=0&aq_3060Ti=0&aq_36TiL=0&aq_3060=0&aq_36L=0&aq_66=0&aq_55xt8=0&aq_580=0&aq_570=0&aq_480=3&aq_470=0&aq_fury=0&aq_380=0&aq_a5=0&aq_a45=0&aq_a4=0&aq_a2=0&aq_2080Ti=0&aq_2080=0&aq_2070=0&aq_2060=0&aq_166s=0&aq_1660Ti=0&aq_1660=0&aq_1080Ti=0&aq_1080=0&aq_1070Ti=0&aq_1070=0&aq_10606=0&aq_1050Ti=0&eth=true&factor%5Beth_hr%5D=128.0&factor%5Beth_p%5D=350.0&e4g=true&factor%5Be4g_hr%5D=128.0&factor%5Be4g_p%5D=350.0&zh=true&factor%5Bzh_hr%5D=0.0&factor%5Bzh_p%5D=0.0&cnh=true&factor%5Bcnh_hr%5D=0.0&factor%5Bcnh_p%5D=0.0&cng=true&factor%5Bcng_hr%5D=0.0&factor%5Bcng_p%5D=0.0&cnf=true&factor%5Bcnf_hr%5D=0.0&factor%5Bcnf_p%5D=0.0&cx=true&factor%5Bcx_hr%5D=0.0&factor%5Bcx_p%5D=0.0&eqa=true&factor%5Beqa_hr%5D=0.0&factor%5Beqa_p%5D=0.0&cc=true&factor%5Bcc_hr%5D=0.0&factor%5Bcc_p%5D=0.0&cr29=true&factor%5Bcr29_hr%5D=0.0&factor%5Bcr29_p%5D=0.0&hh=true&factor%5Bhh_hr%5D=990.0&factor%5Bhh_p%5D=280.0&ct32=true&factor%5Bct32_hr%5D=0.0&factor%5Bct32_p%5D=0.0&eqb=true&factor%5Beqb_hr%5D=0.0&factor%5Beqb_p%5D=0.0&rmx=true&factor%5Brmx_hr%5D=0.0&factor%5Brmx_p%5D=0.0&ns=true&factor%5Bns_hr%5D=0.0&factor%5Bns_p%5D=0.0&al=true&factor%5Bal_hr%5D=270.0&factor%5Bal_p%5D=285.0&ops=true&factor%5Bops_hr%5D=0.0&factor%5Bops_p%5D=0.0&eqz=true&factor%5Beqz_hr%5D=0.0&factor%5Beqz_p%5D=0.0&zlh=true&factor%5Bzlh_hr%5D=86.0&factor%5Bzlh_p%5D=360.0&kpw=true&factor%5Bkpw_hr%5D=53.0&factor%5Bkpw_p%5D=360.0&ppw=true&factor%5Bppw_hr%5D=0.0&factor%5Bppw_p%5D=0.0&x25x=true&factor%5Bx25x_hr%5D=0.0&factor%5Bx25x_p%5D=0.0&fpw=true&factor%5Bfpw_hr%5D=53.0&factor%5Bfpw_p%5D=360.0&vh=true&factor%5Bvh_hr%5D=1.9&factor%5Bvh_p%5D=250.0&factor%5Bcost%5D=0.1&factor%5Bcost_currency%5D=USD&sort=Profitability24&volume=0&revenue=24h&factor%5Bexchanges%5D%5B%5D=&factor%5Bexchanges%5D%5B%5D=binance&factor%5Bexchanges%5D%5B%5D=bitfinex&factor%5Bexchanges%5D%5B%5D=bitforex&factor%5Bexchanges%5D%5B%5D=bittrex&factor%5Bexchanges%5D%5B%5D=coinex&factor%5Bexchanges%5D%5B%5D=exmo&factor%5Bexchanges%5D%5B%5D=gate&factor%5Bexchanges%5D%5B%5D=graviex&factor%5Bexchanges%5D%5B%5D=hitbtc&factor%5Bexchanges%5D%5B%5D=ogre&factor%5Bexchanges%5D%5B%5D=poloniex&factor%5Bexchanges%5D%5B%5D=stex&dataset=Main&commit=Calculate

KarlKastor
2022-10-15, 10:52:51
Der Chip ist deutlich kleiner als GA104 und die +4GByte Speicher kosten definitiv nicht +100$ verglichen zur 3070.

Welche Relevanz hat Die size? Es macht mehr Sinn auf die Anzahl Transistoren zu schauen.
Wenn der Vorgänger auf einen veralteten Prozess gefertigt wurde ist es kein Wunder, dass der Nachfolger deutlich kleiner ist.
AD104 liegt etwa bei GA102, wie vorige Generationen meist auch. Unterschied ist, dass jetzt ein AD103 zwischen geschoben ist.
Die 1000$ sind sicher völlig Banane für den AD104. Aber dass die den jetzt nicht verschenken ist auch klar.

ChaosTM
2022-10-15, 10:57:44
edge

ChaosTM
2022-10-15, 10:59:34
V1O9oldh_g4

unl34shed
2022-10-15, 10:59:58
@KarlKastor: Nvidia zahlt pro mm² nicht pro Transistor, von daher ist die Fläche schon die interessantere Metrik. Aber wenn du so sicher bist, bitte nenn mal Zahlen, wie viel AD102, AD103, AD104, sowie GA102, GA104 und GA106 in etwa kosten.

KarlKastor
2022-10-15, 11:00:37
Trotzdem hat man mit AD103 den halben Chip der sonst der 70 entspricht jetzt als 80 verkauft und der stark beschnittene AD102 der normalerweise eine 80ti wäre als 90 verkauft. Die 60 als 80 zu verkaufen hat nicht funktioniert.


Aber alles andere hat man durch bekommen. Und die Leute atmen nur wegen des dreistesten Moves auf der nicht geklappt hat. :So kann man die Massen über Jahre erfolgreich auf immer höhere Preise dressieren.

In meinen Augen übertrieben. Man muss beachten, dass AD102 auch größer ist, als vorige Generationen. GP102 war nur 450 mm2 groß, erst der zweite Chip auf dem gleichen Node hat voll ausgereizt.
Der AD103 deklassiert das vorherige Topmodell deutlich. Sowas wurde auch früher nie als x070 verkauft. Und Ampere ist der erste wo die x080 nicht auf den 104 er setzt.

GA103 als 4080 und AD104 als 4070 geht schon in Ordnung.
Die "4080 12GB" erreicht vielleicht 3080Ti Performance, als kleinste Variante des Top Chip. Wo wurde sowas früher als x060 verkauft?

4080 12 GB war sicherlich komplett bescheuert, aber man muss jetzt auch nicht Übertreiben.

KarlKastor
2022-10-15, 11:02:04
@KarlKastor: Nvidia zahlt pro mm² nicht pro Transistor, von daher ist die Fläche schon die interessantere Metrik. Aber wenn du so sicher bist, bitte nenn mal Zahlen, wie viel AD102, AD103, AD104, sowie GA102, GA104 und GA106 in etwa kosten.
Und TSMC 4N kostet sicherlich genau so viel wie 8LPP.... Was ein Quatsch.
Nenn du doch Zahlen, du bist dir ja so sicher, dass die neuen Chips so billig sind.

ChaosTM
2022-10-15, 11:02:05
es war dumm ohne ende..

unl34shed
2022-10-15, 11:03:32
Und TSMC 4N kostet sicherlich genau so viel wie 8LPP.... Was ein Quatsch.
Nenn du doch Zahlen, du bist dir ja so sicher, dass die neuen Chips so billig sind.

Ich hab weder das eine noch das andere behauptet, lern lesen ;)

ChaosTM
2022-10-15, 11:04:58
die "4080"er ist immer noch dumm ohne ende

Troyan
2022-10-15, 11:09:15
Und TSMC 4N kostet sicherlich genau so viel wie 8LPP.... Was ein Quatsch.
Nenn du doch Zahlen, du bist dir ja so sicher, dass die neuen Chips so billig sind.

Bitte, gehe doch nicht auf den Trollo ein. Der wird dir sagen, dass die Kosten zwischen TSMC 4nm und Samsung 8nm zu 2020 vollkommen identisch sind.

Daredevil
2022-10-15, 11:10:27
Hm.... ich frage mich ob sowas nicht schon von Anfang an geplant war?
Man released doch nicht eben mal ne GPU und schickt sie dann spontan wieder heim?
Würde Nvidia alles zutrauen, um Konsumenten einzufangen. ;D

KarlKastor
2022-10-15, 11:12:17
Ich hab weder das eine noch das andere behauptet, lern lesen ;)
Doch, hast du implizit. Wenn der Preis pro Fläche nicht gleich ist, macht es auch wenig Sinn nur auf die Fläche zu schauen.

Ob Nvidia pro Fläche bezahlt oder nicht ist völlig egal bei der Betrachtung.

ChaosTM
2022-10-15, 11:13:24
so, was tut NV mit all ihre Brett Partnern ?

Ein Sticker der 4070 sagt ?

Oder its a 4080 kastriert ?

Ich tippe her auf das LE Label..

Troyan
2022-10-15, 11:15:23
Brauchen bestimmt auch ein neues Bios. Frage ist nur, wieviele Karten schon verschickt worden sind. Bilder gibt es ja keine.

Sticker wäre die umweltfreundlichere Lösung. Wahrscheinlich werden die Kartons geschrottet und neu produziert.

VooDoo7mx
2022-10-15, 11:15:30
nVidia hat auf die Kritik gehört und trotzdem nölen alle weiter noch rum.
Ich finde es echt gut das hier nVidia reagiert hat. Die 4080 12GB Bezeichnung war einfach nur bescheuert.
Die rebrandete 4080 12GB kommt dann auch nicht mehr dieses Jahr. Also kommt jetzt nur noch die AD103 4080 dieses Jahr und das war es dann erst mal.

ChaosTM
2022-10-15, 11:17:14
Bitte, gehe doch nicht auf den Trollo ein. Der wird dir sagen, dass die Kosten zwischen TSMC 4nm und Samsung 8nm zu 2020 vollkommen identisch sind.


Tell me, was ist die NV offizielle aussage ?

robbitop
2022-10-15, 11:18:40
In meinen Augen übertrieben. Man muss beachten, dass AD102 auch größer ist, als vorige Generationen. GP102 war nur 450 mm2 groß, erst der zweite Chip auf dem gleichen Node hat voll ausgereizt.
Der AD103 deklassiert das vorherige Topmodell deutlich. Sowas wurde auch früher nie als x070 verkauft. Und Ampere ist der erste wo die x080 nicht auf den 104 er setzt.

GA103 als 4080 und AD104 als 4070 geht schon in Ordnung.
Die "4080 12GB" erreicht vielleicht 3080Ti Performance, als kleinste Variante des Top Chip. Wo wurde sowas früher als x060 verkauft?

4080 12 GB war sicherlich komplett bescheuert, aber man muss jetzt auch nicht Übertreiben.

Naja Pascal ist schon lange her. TU102 war 754 mm2 und GA102 war > 600 mm2.

Ada ist so wie (fast immer) einfach 6xx mm2 im neusten Prozess. Und dazu nich stark abgespeckt.
Ich finde den relativen Vergleich von ad103 zu 102 bezogen auf die 80 legitim.
Wenn n31 mit der 4090 mithalten kann, wird es einige SKUs geben mit mehr als nur 50%. Sicherlich einen salvage vom N31 und dann N32 der immerhin 2/3 und nicht 1/2 vom ganzen Chip ist. Mal schauen ob NV dann mit einem ad102 salvage reagieren muss.

Letztes Mal gab es einen 80% Chip mit weniger RAM für 699 usd. Jetzt gibts nen halben Chip für 1200 usd X-D

Man kann sich das natürlich alles schön reden.

VooDoo7mx
2022-10-15, 11:19:07
die "4080"er ist immer noch dumm ohne ende

Ich find eher das sowas wie die Notebook 3080 dumm ohne Ende. Schließlich ist das nur eine gedrosselte 3070 die sich schon an einer 3060Ti schwer tut.
Nur absolute Vollidioten fallen auf sowas rein.

ChaosTM
2022-10-15, 11:20:57
Viele Brettpartner verlieren unglaublich viel geld..


Erzähl warmu das gut ist ?

robbitop
2022-10-15, 11:21:15
nVidia hat auf die Kritik gehört und trotzdem nölen alle weiter noch rum.
Ich finde es echt gut das hier nVidia reagiert hat. Die 4080 12GB Bezeichnung war einfach nur bescheuert.
Die rebrandete 4080 12GB kommt dann auch nicht mehr dieses Jahr. Also kommt jetzt nur noch die AD103 4080 dieses Jahr und das war es dann erst mal.
Sehr gut! Der halbe chip für 1200 usd (das werden grob 1500€ brutto mit UST). Da kann man schon zufrieden sein. Hört auf zu nölen. Unverschämtes Pack wer sich da beschwert! X-D

why_me
2022-10-15, 11:22:22
Bitte, gehe doch nicht auf den Trollo ein. Der wird dir sagen, dass die Kosten zwischen TSMC 4nm und Samsung 8nm zu 2020 vollkommen identisch sind.

Hör doch endlich mal auf unl34shed ständig irgednwelche Dinge zu unterstellen. Niemand wird das behaupten, also warum die Unterstellung? Und btw, Ada ist in 5nm, was willst du also mit 4nm? ;)

Erst das ständige angreifen mit irgendwelchen Reflexionen, für die du keine Qotes liefern konntest und ihn dann nach mehrmaligen nachfragens auf die ignore gepackt hast.
Du liest seine Posts nicht richtig und interprätierst da ständig irgendwelche dinge hinein, die er so nie geschrieben hat. Reitest dann aber auf diesen Dingen tagelang herum.

Vielleicht liegt es ja nicht an unl34shed sondern an dir? Nur so eine Idee. :wave:

Troyan
2022-10-15, 11:40:03
Hör doch endlich mal auf unl34shed ständig irgednwelche Dinge zu unterstellen. Niemand wird das behaupten, also warum die Unterstellung? Und btw, Ada ist in 5nm, was willst du also mit 4nm? ;)


Komisch, hier sehe ich, dass Trollo behauptet, dass die Waferpreise nicht massiv angestiegen wären:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13139457&postcount=7877

Ich habe den Typen auf der Ignore. Jetzt bist du dran: Belege einfach, dass die Waferpreise zwischen TSMC 4nm und Samsung 8nm zu 2020 identisch wären. Sollte ja ein einfaches für dich Trollo sein.

why_me
2022-10-15, 11:41:46
1. Wo steht da bitte, dass die Preise gleich geblieben sind?
2. Geht das eigentlich auch ohne gleich mit Trollo zu beleidigen?

Werd erwachsen und lern endlich lesen.

unl34shed
2022-10-15, 11:43:42
Doch, hast du implizit. Wenn der Preis pro Fläche nicht gleich ist, macht es auch wenig Sinn nur auf die Fläche zu schauen.

Ob Nvidia pro Fläche bezahlt oder nicht ist völlig egal bei der Betrachtung.

Nein es impliziert das nicht, ich hab nur gehofft, das du mal nachdenkst und nicht einfach nur "aber N4/5nm ist sooo viel teurer" wiederkäust.

Nvidia bekommt gleich viele Chips pro Wafer für AD103 und GA104 (gleiche Yield angenommen), der Chip ist nur ein Teil der Produktionskosten, auch wenn es wohl der größte ist. Eine Karte mit vergleichbarem Chip kostet jetzt 1199$ statt 499$, Faktor 2.4 (4080 16GB vs 3070). Wieviel muss also ein ehemals deutlich unter 100$ teurer Chip in 4N teurer werden um diesen Preis zu rechtfertigen? Es müssen weit mehr als 2.4x sein ;)

Reitest dann aber auf diesen Dingen tagelang herum.

Jahrelang bitte, das mit RT war zum Turing/BF5 Release und er kapiert es immer noch nicht...

Komisch, hier sehe ich, dass Trollo behauptet, dass die Waferpreise nicht massiv angestiegen wären:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13139457&postcount=7877

Ich hab da gar nichts über den Preis geschrieben :confused:
Und könntest du bitte aufhören mich Trollo zu nennen?

robbitop
2022-10-15, 11:51:14
Das ist schon irgendwie ironisch. X-D

OgrEGT
2022-10-15, 11:56:12
Nein es impliziert das nicht, ich hab nur gehofft, das du mal nachdenkst und nicht einfach nur "aber N4/5nm ist sooo viel teurer" wiederkäust.

Nvidia bekommt gleich viele Chips pro Wafer für AD103 und GA104 (gleiche Yield angenommen), der Chip ist nur ein Teil der Produktionskosten, auch wenn es wohl der größte ist. Eine Karte mit vergleichbarem Chip kostet jetzt 1199$ statt 499$, Faktor 2.4 (4080 16GB vs 3070). Wieviel muss also ein ehemals deutlich unter 100$ teurer Chip in 4N teurer werden um diesen Preis zu rechtfertigen? Es müssen weit mehr als 2.4x sein ;)



Jahrelang bitte, das mit RT war zum Turing/BF5 Release und er kapiert es immer noch nicht...



Ich hab da gar nichts über den Preis geschrieben :confused:
Und könntest du bitte aufhören mich Trollo zu nennen?

Da Du bei ihm auf der Ignore Liste stehst kann er das nicht lesen. Deshalb quote ich das mal... ich finde Beschimpfungen dieser Art müssen nicht sein. Wir sollten alle in der Lage sein einen angemessenen Diskussionsstil an den Tag zu legen.

Cyberfries
2022-10-15, 11:58:22
Viele Brettpartner verlieren unglaublich viel geld Dank NV`s Zug...

Bist du dir da sicher? Wenn überhaupt schon fertige Karten rumliegen - was ich nicht als gesichert annehmen würde
bei vermutlichem Verkaufsstart Ende Nov/Anfang Dez - werden die sicher einer neuen Verwendung zugeführt.
Das wirft man nicht einfach weg, neues Bios drauf, fertig. Eventuell bereits fertige Verpackungen sind natürlich Ausschuss.

Ich find eher das sowas wie die Notebook 3080 dumm ohne Ende. Schließlich ist das nur eine gedrosselte 3070 die sich schon an einer 3060Ti schwer tut.

Bei CPUs ist das Einteilen nach Marktsegmenten üblich, da regt sich niemand auf.
Ob da 3070m oder 3080m drauf steht ist egal, an eine Desktop 3070 kommt es ohnehin nicht ran.

nVidia hat auf die Kritik gehört und trotzdem nölen alle weiter noch rum.

Ein derartiger Schiffbruch schlägt eben noch weiter Wellen, das ist mehr als ein kleiner Betriebsunfall.
Und immer noch ist eben nicht alles gut. Dass das Segel nicht mehr brennt darf nicht vom Loch im Rumpf ablenken.

Vielleicht liegt es ja nicht an unl34shed sondern an dir?

unl34shed provoziert hier genau wie Troyan gezielt immer wieder.
Die ständig wiederholte Forderung, dass die 4080 als 4060 bezeichnet werde müsse nervt nur noch.
Das sind willkürliche Marketingbezeichnungen, jede Aufregung darüber dass die 4080 nur xx% einer 4090 hat...
das juckt außerhalb von Fanboykreisen doch keinen.

Wenn der nächste Golf nur noch 3 Sitze hat und dadurch der Abstand zum Passat deutlich größer wird,
dann ist das eine produktpolitische Entscheidung von VW. Dann kauft die vierköpfige Familie eben was anders.
Das ist dann auch keine arglistige Verbrauchertäuschung wie bei der 4080 12gb/4080 16gb Debatte.

Über Preis/Leistung kann und sollte man sich natürlich echauffieren. Aber doch nicht über den Namen...

why_me
2022-10-15, 12:10:21
unl34shed provoziert hier genau wie Troyan gezielt immer wieder.
Die ständig wiederholte Forderung, dass die 4080 als 4060 bezeichnet werde müsse nervt nur noch.
Das sind willkürliche Marketingbezeichnungen, jede Aufregung darüber dass die 4080 nur xx% einer 4090 hat...
das juckt außerhalb von Fanboykreisen doch keinen.

Aber so ganz unrecht hat er damit doch auch nicht. Der Name sugeriert eine gewisse Leistung zum Topmodell und rechtfertigt damit einen gewissen Preis.
Das passte bei beiden 4080 einfach nicht mehr.

Wenn der nächste Golf nur noch 3 Sitze hat und dadurch der Abstand zum Passat deutlich größer wird,
dann ist das eine produktpolitische Entscheidung von VW. Dann kauft die vierköpfige Familie eben was anders.
Das ist dann auch keine arglistige Verbrauchertäuschung wie bei der 4080 12gb/4080 16gb Debatte.

Glaub mir, dann würde es Genauso einen shitstorm geben. Vermutlich sogar deutlich größe, weil eine Golf für viele deutlich relevanter ist, als eine >1k€ GPU.

Über Preis/Leistung kann und sollte man sich natürlich echauffieren. Aber doch nicht über den Namen...

Wie oben geschrieben, der Name gehört aber dazu. Er ordnet die Karte in die Serie ein. Und erlaubt es einen bestimmten Preis zu verlangen. Wenn aber die Leistung nicht mehr zum namen passt, dann ist der Name schlicht falsch gewählt.
Das hat Nvidia ja jetzt auch begriffen. Leider nur bei der 12GB, denn bei der 16GB passt Preis/Performance/Name IMHO auch nicht.

AffenJack
2022-10-15, 12:20:22
Naja Pascal ist schon lange her. TU102 war 754 mm2 und GA102 war > 600 mm2.

Ada ist so wie (fast immer) einfach 6xx mm2 im neusten Prozess. Und dazu nich stark abgespeckt.


Welches fast immer bitte? Es gab noch niemals einen 6xx mm2 Chip im neuesten Prozess. Turing und Ampere waren so groß, weil sie in alten billigen Prozessen waren.

680, 1080, 2080 waren alles GX104 Chips.
Die 780 kam 1 Jahr später als der Prozess billiger war und Ampere kam eh auf dem billigen Prozess. Es gibt überhaupt keine Regel, dass die x80 auf XX102 basieren muss, wie hier von einigen getan wird.

Aber so ganz unrecht hat er damit doch auch nicht. Der Name sugeriert eine gewisse Leistung zum Topmodell und rechtfertigt damit einen gewissen Preis.
Das passte bei beiden 4080 einfach nicht mehr.


Weil er nicht damit klar kommt, dass Nvidia mit AD102 einen Chip designt hat, der explizit das Portfolio nach oben erweitert. Die Benennung xx90 gab es vor Ampere ja überhaupt nicht und das war nun der logische Schritt dahin. dafür gab es früher auch Dual-GPU, da war die x80 erst Recht weit weg. In seiner Vorstellung sollte es AD102 schlicht nicht geben in der Form. Die Alternative wäre ein <500mm² Chip, der deutlich weniger Leistung hat und den Nvidia dann in tiefere Preisregionen bringen kann. Damit wäre seinem Ego dann geholfen, da es weniger Abstand zum Top Dog gibt. Es gibt auch Luxusautos, Iphones für 1500€, muss für ihn alles teufelszeug sein. unl34shed Neid auf Leute die Geld ausgeben wollen geht so eben schon in die trollrichtung.

Mangel76
2022-10-15, 12:24:23
Es gibt überhaupt keine Regel, dass die x80 auf XX102 basieren muss, wie hier von einigen getan wird.

Das hat doch auch niemand behauptet???

Badesalz
2022-10-15, 12:26:58
Ein derartiger Schiffbruch schlägt eben noch weiter Wellen, das ist mehr als ein kleiner Betriebsunfall.
Und immer noch ist eben nicht alles gut. Dass das Segel nicht mehr brennt darf nicht vom Loch im Rumpf ablenken.Vielleicht interessiert die das auch einen feuchten, dafür aber wäre es anschliessend ein viel größeres Imageverlust, wenn eine der "4080" vom N33 geschlagen wird? :freak:

Es gibt überhaupt keine Regel, dass die x80 auf XX102 basieren muss, wie hier von einigen getan wird."150" Beiträge nur zu dem Thema und dann sowas... Darum geht es nicht. Es ging immer nur darum, daß es ZWEI 4080 gab - ohne Ti, ohne LE, ohne MX, ohne Ultra, ohne Pro und ohne sonstwas im Namen bei der einen - und die mit 12GB trotzdem eine ganz andere GPU hatte. Chekov?

Thunder99
2022-10-15, 12:48:54
Ich find eher das sowas wie die Notebook 3080 dumm ohne Ende. Schließlich ist das nur eine gedrosselte 3070 die sich schon an einer 3060Ti schwer tut.
Nur absolute Vollidioten fallen auf sowas rein.

Im Notebook haben schon immer eigene Gesetze gehabt...

Und ein 80er war schon früher auf dem 104er/204er Chip basierend. Hatte dazu paar Seiten vorher eine Auflistung gepostet.

Je stärker AMD wird, desto eher sind sie dann gedrängt die Preise anzupassen.
Und was dann wirklich die AD104er GPU im Vollausbau wird sehen wir dann. Tippe eher auf 4070Ti um den Preis zu rechtfertigen

Cyberfries
2022-10-15, 12:51:25
Wie oben geschrieben, der Name gehört aber dazu. Er ordnet die Karte in die Serie ein.

Und eingeordnet wird immer noch. x80 liegt über einer x70/x70ti und unter einer x90/x80ti.
Nicht mehr und nicht weniger bedeutet der Name.

Der Name sugeriert eine gewisse Leistung zum Topmodell und rechtfertigt damit einen gewissen Preis.
Das passte bei beiden 4080 einfach nicht mehr.

Es gab nie ein Versprechen über einen gewissen prozentualen Abstand. Da waren immer schon Schwankungen.
Die 1080 ist relativ zum Topmodell 15% schwächer als die 3080 und 7% stärker als die 4080.

edit2: edit1 gestrichen

unl34shed
2022-10-15, 12:57:53
Weil er nicht damit klar kommt, dass Nvidia mit AD102 einen Chip designt hat, der explizit das Portfolio nach oben erweitert. Die Benennung xx90 gab es vor Ampere ja überhaupt nicht und das war nun der logische Schritt dahin. dafür gab es früher auch Dual-GPU, da war die x80 erst Recht weit weg. In seiner Vorstellung sollte es AD102 schlicht nicht geben in der Form. Die Alternative wäre ein <500mm² Chip, der deutlich weniger Leistung hat und den Nvidia dann in tiefere Preisregionen bringen kann. Damit wäre seinem Ego dann geholfen, da es weniger Abstand zum Top Dog gibt. Es gibt auch Luxusautos, Iphones für 1500€, muss für ihn alles teufelszeug sein. unl34shed Neid auf Leute die Geld ausgeben wollen geht so eben schon in die trollrichtung.

Was sollen die ganzen Unterstellungen, was ist das für ein Kindergarten?
Ich liefere meiner Meinung nach valide Argumente und anstelle einer Diskussion kommt die Neider, armer Schlucker, ... Schiene? Nur weil ich nicht auf den Hypetrain aufspringe und die Preiserhöhung hinterfrage? Wow, einfach nur wow...

Btw. wo gönne ich das Niemandem? Wann soll ich dass denn bitte gemacht haben? Komm mal klar...

Kann hier eigentlich niemand mehr lesen, bzw. das gelesene verstehen? Mir werden hier auf den letzten Seiten dinge unterstellt, das so nie gesagt habe, geschweige denn in den Zitaten stehen...

Badesalz
2022-10-15, 13:06:30
Und eingeordnet wird immer noch. x80 liegt über einer x70/x70ti und unter einer x90/x80ti.
Nicht mehr und nicht weniger bedeutet der Name.Geht dieser Blödsinn jetzt immernoch weiter? Hast du jetzt keine andere Aufgabe als Offensichtliches zu verschnurbeln?

"150" Beiträge nur zu dem Thema und dann sowas... Darum geht es nicht. Es ging immer nur darum, daß es ZWEI 4080 gab - ohne Ti, ohne LE, ohne MX, ohne Ultra, ohne Pro und ohne sonstwas im Namen bei der einen - und die mit 12GB trotzdem eine ganz andere GPU hatte. Chekov?

Linmoum
2022-10-15, 13:17:56
Der eine Kommentar unter dem GN-Video zu dem "unlaunch" ist echt passend. ;D

How many times does NVIDIA need to prove that EVGA abandoned them for a reason?

Cyberfries
2022-10-15, 13:31:17
Geht dieser Blödsinn jetzt immernoch weiter? Hast du jetzt keine andere Aufgabe als Offensichtliches zu verschnurbeln?

"150" Beiträge nur zu dem Thema und dann sowas... Darum geht es nicht. Es ging immer nur darum, daß es ZWEI 4080 gab - ohne Ti, ohne LE, ohne MX, ohne Ultra, ohne Pro und ohne sonstwas im Namen bei der einen - und die mit 12GB trotzdem eine ganz andere GPU hatte. Chekov?

Was soll das denn jetzt? Wieso grätscht du mir da so merkwürdig schräg rein? Arbeite mal an deiner Lesekompetenz.

Es geht um diejenigen, die nach nVidias gestriger Meldung über die eine verbliebene 4080 weiter meckern.
Sowas hier zum Beispiel (Zitat gekürzt):
....
TLDR: Die Karte ist viel zu stark beschnitten für eine 4080 und hinzu kommt noch der unverschämte Preisanstieg.
....
Am besten als Kunde noch dankbar sein, dass man abgezockt wird... :rolleyes:

Da musst du mir nicht blöd kommen, ich hätte die Diskussion nicht verstanden. Siehe auch meinen ersten Beitrag (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13139545&postcount=7898) dazu.

AffenJack
2022-10-15, 13:32:51
Was sollen die ganzen Unterstellungen, was ist das für ein Kindergarten?
Ich liefere meiner Meinung nach valide Argumente und anstelle einer Diskussion kommt die Neider, armer Schlucker, ... Schiene? Nur weil ich nicht auf den Hypetrain aufspringe und die Preiserhöhung hinterfrage? Wow, einfach nur wow...

Btw. wo gönne ich das Niemandem? Wann soll ich dass denn bitte gemacht haben? Komm mal klar...

Kann hier eigentlich niemand mehr lesen, bzw. das gelesene verstehen? Mir werden hier auf den letzten Seiten dinge unterstellt, das so nie gesagt habe, geschweige denn in den Zitaten stehen...

Wenn es dir um Preiserhöhungen ginge, dann könnte ich das verstehen und die 4080 12Gb mit gleichem Namen wie die 4080 16Gb ist natürlicher ziemliche Verarsche gewesen, weil der Gleiche Name für zwei sehr unterschiedliche Karten.

Nur geht es dir ja im Großteil gar nicht darum. Deine Argumente drehen sich immer wieder um den Vergleich X80 zu Top Dog. Das es deshalb Kunderverarsche ist. Aber der Abstand zum Top Dog ist völlig egal, solange es eine Perf/$ Steigerung für die Kundern gibt. Liest man aber deine Posts, dann wirkt es so als wärst du schon zufriedener, wenn AD102 schwächer wäre. Denn es geht dir immer wieder um den Vergleich zu dem Chip. Mit einem schwächeren AD102 würden die Verhältnisse ja schließlich wieder stimmen. Wieso ist dir der Vergleich zum Top Dog denn soviel wichtiger als die Perf/$ Steigerung der 4080?

Achja zu Produktionspreisen, AD103 auf der 4080 dürfte bei den Waferpreisen von TSMC 5nm im Vergleich zu Samsung 8nm wahrscheinlich höhere Produktionskosten haben als GA102 mit gleicher Rammenge (3080 Ti). Die exorbitante Steigerung der Kosten ist leider auch eine traurige Realität, auch wenn die 4080 16GB trotzdem max. 999$ kosten sollte.

why_me
2022-10-15, 13:33:43
Und eingeordnet wird immer noch. x80 liegt über einer x70/x70ti und unter einer x90/x80ti.
Nicht mehr und nicht weniger bedeutet der Name.

Nur doof, wenn dann 80 30% unter 80 liegt, dann ist hier eben nicht 80 gleich 80 und hat einen faden Beigeschmack.

Es gab nie ein Versprechen über einen gewissen prozentualen Abstand. Da waren immer schon Schwankungen.
Die 1080 ist relativ zum Topmodell 15% schwächer als die 3080 und 7% stärker als die 4080.

Versprochen sicherlich nicht, aber wo ihre Leistung innerhalb einer Serie einzuordnen war, war in der Regel immer gleich.
Diesmal schießt der Preis durch die Decke und die Leistung innerhalb der Serie sinkt. Und zwar bei beiden 80ern.
Warum darf man das also nicht ankreiden?

BlacKi
2022-10-15, 14:10:18
Darum geht es nicht. Es ging immer nur darum, daß es ZWEI 4080 gab - ohne Ti, ohne LE, ohne MX, ohne Ultra, ohne Pro und ohne sonstwas im Namen bei der einen - und die mit 12GB trotzdem eine ganz andere GPU hatte. Chekov?


es gab schon immer, gibt noch immer, wird immer gpus mit selbem namen und verschiedenen chips geben. was hier neu ist, es direkt zum release zu tun. imho hätte die ad104 mit 12gb einfach 4070 heißen sollen, dann hätten die leute am preis gemeckert, aber das portfolio in sich wäre koherent. ausserdem kann man preise senken oder refresh karten mit besserem P/L anbieten, so wie in der vergangenheit.


aber der unlaunch selbst, hat weder für den kunden, noch nv etwas positives.

unl34shed
2022-10-15, 14:49:08
Wenn es dir um Preiserhöhungen ginge, dann könnte ich das verstehen und die 4080 12Gb mit gleichem Namen wie die 4080 16Gb ist natürlicher ziemliche Verarsche gewesen, weil der Gleiche Name für zwei sehr unterschiedliche Karten.

Aber darum geht es doch, die Preise gehen hoch und die relative Performance runter, also noch eine weitere "Preiserhöhung" durch die Hintertür.

Nur geht es dir ja im Großteil gar nicht darum. Deine Argumente drehen sich immer wieder um den Vergleich X80 zu Top Dog. Das es deshalb Kunderverarsche ist.

Aber das ist es doch auch, wenn du weniger Performance bekommst als erwartet und das bei einer gleichzeitigen deutlichen Preissteigerung. Was hab ich dann? Noch einen höheren Preisanstieg.

Aber der Abstand zum Top Dog ist völlig egal, solange es eine Perf/$ Steigerung für die Kundern gibt.

Ja aber die gibt es doch nicht, 3080 -> 4080 16GB sind +71% $-MSRP bei einer zu erwartenden ~50% Performancesteigerung. Relativ gesehen ist er das ja nicht (Mit der Metrik der letzten 5 Generation wäre das eine 70er Karte).
Gleiches Spiel bei der 4080 12GB: 3080 -> 4080 12GB sindwären es +29% $-MSRP bei +19% Performance geworden. Relativ gesehen müsste es aber eine 60Ti sein.
Also nach meiner Schulmathe macht das weniger Perf/$ und das sogar nur unter der Annahme, dass es wirklich um 3080 Nachfolger handelt... Gegen die anderen Karten sieht es noch schlimmer aus.

Das ist eine neue Generation, die sollte deutlich mehr perf/$ liefern. Auch mehr als wir aktuell an Inflation haben.

DLSS3 ist nur ein Gimmick und sollte nicht eingepreist werden, wenn es noch nicht flächendeckend eingesetzt wird.

Funfact: Perf/$ ist diese Generation sogar bei allen gezeigten Karten genau gleich, das gab es so auch noch nicht. Normalerweise hat man oben das Halo-Produkt mit einer deutlich schlechteren Perf/$ und unten bekommt man mehr fürs Geld.

Ein weiterer Punkt: Mit dem verschieben des Leistungssprektrums 60Ti als 80 verkaufen, bleibt für die kleineren Karten nur noch ein schlechterer Performance Uplift übrig, was für den Großteil der Kunden eher schlecht ist, bekommen ja weniger fürs Geld.

Liest man aber deine Posts, dann wirkt es so als wärst du schon zufriedener, wenn AD102 schwächer wäre. Denn es geht dir immer wieder um den Vergleich zu dem Chip. Wieso ist dir der Vergleich zum Top Dog denn soviel wichtiger als die Perf/$ Steigerung der 4080?

Nein, denn dann wäre die 4090 ja noch mit einem beschisseneren Perf/$ zu haben, was ist das für eine Logik?
Die sollen auf die Karten den richtigen Namen und dementsprechend einen angemessenen Preis drauf schreiben und nicht mit versteckten Preiserhöhungen um die Ecke kommen und hoffen, dass die Kunden Idioten sind.

Meine Argumentation ist eigentlich recht logisch:
1. Chips mit dem Vorgänger vergleichen, die sind ja zum Glück fast gleich groß
2. Modelle, die mit ähnlichen Specs Released wurden raus suchen
3. Preisaufschlag berechnen
Daraus dann den Kostentreiber finden, weil ich den "N4/5nm ist ja soo teuer" Chor einfach nicht nachplappern will. N4 ist teuer, keine Frage aber der Chip macht nur einen kleinen Teil des Endpreises aus.

Wenn das so sicher ist, das hauptsächlich TSMC für die Preiserhöhung verantwortlich ist und man es hinnehmen soll, darf man doch mal nach Quellen Fragen. Logisch zu erklären ist der Preisanstieg in der Höhe nämlich nicht.

Achja zu Produktionspreisen, AD103 auf der 4080 dürfte bei den Waferpreisen von TSMC 5nm im Vergleich zu Samsung 8nm wahrscheinlich höhere Produktionskosten haben als GA102 mit gleicher Rammenge (3080 Ti). Die exorbitante Steigerung der Kosten ist leider auch eine traurige Realität, auch wenn die 4080 16GB trotzdem max. 999$ kosten sollte.

Die 3080Ti ist einfach nur ein Witz als Vergleich, die kam wären des Miningbooms raus und ist dementsprechend eingepreist.
Selbst 999$ wären mMn. als realistischer Preis für die 4080 16GB noch zu hoch angesetzt.

Badesalz
2022-10-15, 14:49:33
Da musst du mir nicht blöd kommen, Falsch. Ich hätte das viel eher machen sollen. Erst versuchst du den Grund zu verschwurbeln warum die Leute über die 4080/12 gemeckert haben sollen. Dann willst du auch noch, daß man NV lobt, wenn sie unter welchem Druck auch immer einen Rückzieher machen? Träum weiter.

@blacki
es gab schon immer, gibt noch immer, wird immer gpus mit selbem namen und verschiedenen chips geben. was hier neu ist, es direkt zum release zu tun.Warum nicht gleich paar Beispiele welche DIE GLEICHE Situation spiegeln? (Muss nicht zum Release sein. Die Mobile lassen wir mal aus.)

BlacKi
2022-10-15, 15:09:49
@blacki
Warum nicht gleich paar Beispiele welche DIE GLEICHE Situation spiegeln? (Muss nicht zum Release sein. Die Mobile lassen wir mal aus.)
hatte ich nicht vor, war nie meine intention. deshalb auch so grob formuliert. aber die 3080 war eine ähnliche verwirrende situation.

Hypadaiper
2022-10-15, 15:11:34
Ich find eher das sowas wie die Notebook 3080 dumm ohne Ende. Schließlich ist das nur eine gedrosselte 3070 die sich schon an einer 3060Ti schwer tut.
Nur absolute Vollidioten fallen auf sowas rein.

Also ich habe mir bewusst einen Laptop mit ner 3080 gekauft. War preislich sogar unter der 3070 Variante bei Alternate zu haben. Und jetzt kommt’s..ich betreibe die mit 70W. Es gibt einfach kaum eine effizientere Grafikkarte. Okay mit 40x0 schon aber vor 1,5 Jahren war das einsame Spitze im Bezug auf Performance/ Watt.

Alternativ kann ich das Ding aber auch auf 130W flashen. Die 3070er Version kommt da Taktmäßig nie und nimmer dran, da die ganzen guten Chips eben als 3080er verkauft werden. In meinem Zephyrus G15 ist die damit immer noch im PowerLimit, weswegen sich eine gute Takt/Spannungskurve gleich doppelt „lohnt“.

Ich gebe dir aber recht, dass der Name 3080 ohne mobile Zusatz ziemlich irreführend sein kann und ich im discord das auch schon mal dem ein oder anderen erklären musste.
Die Käufer dann aber alle gleich als idioten zu beschimpfen zeigt eigentlich nur, dass es dir nur darum geht Nvidia zu verteidigen.

Cyberfries
2022-10-15, 15:17:55
Falsch. Ich hätte das viel eher machen sollen. Erst versuchst du den Grund zu verschwurbeln warum die Leute über die 4080/12 gemeckert haben sollen. Dann willst du auch noch, daß man NV lobt, wenn sie unter welchem Druck auch immer einen Rückzieher machen? Träum weiter :mad:

Bin ich im falschen Film?
Ich habe dir gerade eben den Beitrag verlinkt, in dem ich die 4080 12gb als arglistige Verbrauchertäuschung bezeichnet habe.
Und du wirfst mir vor, ich wolle dass man nVidia lobt?
Du bist dir wirklich sicher dass du gerade den Richtigen anpöbelst?

Nur doof, wenn dann 80 30% unter 80 liegt, dann ist hier eben nicht 80 gleich 80 und hat einen faden Beigeschmack.

Ich habe mich explizit auf unl34sheds Kritik an der jetzt einzig verbliebenen 4080 bezogen.
Mit der 4080 12gb hatte das nichts zu tun.

Diesmal schießt der Preis durch die Decke und die Leistung innerhalb der Serie sinkt.
....
Warum darf man das also nicht ankreiden?

Auch dir muss ich vorwerfen, nicht richtig gelesen zu haben. Ich habe ausdrücklich geschrieben:

Über Preis/Leistung kann und sollte man sich natürlich echauffieren. Aber doch nicht über den Namen...

Und nochmal: Namensdiskussion nur auf die 4080 16gb bezogen, nicht auf das Verwirrspiel mit der 4080 12gb.

------

Ich glaube ihr beide habt in meinen Beitrag etwas interpretiert, was so nie beabsichtigt war.
Ich hoffe dass mit meinen letzten beiden Beträgen und den darin enthaltenen Verweisen darauf, worum es mir ging,
die Verwirrung geklärt ist und wir hier wieder zu einer sinnvolleren Diskussion finden.

Badesalz
2022-10-15, 15:26:52
Ich glaube ihr beide habt in meinen Beitrag etwas interpretiert, was so nie beabsichtigt war.Schliesse ich nicht aus. Sowas passiert überall auf der Welt :tongue: :redface: Ich hätte das Nörgeln aber auch einfach ausklingen lassen, jetzt wo das Kind klar in den Brunnen fiel, und mich da eher rausgehalten, bis das mit der 12GB vorbeigeht. An deiner Stelle. Aber ok. Ich bin ja nicht du.

Nun denn. Zurück zu noch verbliebene Karten :wink:

KarlKastor
2022-10-15, 16:33:51
Naja Pascal ist schon lange her. TU102 war 754 mm2 und GA102 war > 600 mm2.

Ada ist so wie (fast immer) einfach 6xx mm2 im neusten Prozess. Und dazu nich stark abgespeckt.

Du gehst leider auf keines meiner Argumente ein. Zudem ist die Aussage ja nicht korrekt. GA102 ist nicht im neuesten Prozess. TU102 war die zweite Iteration auf dem Node.
Ada ist zum ersten mal auf einen neuen Prozess und geht bei der Fläche in die vollen.
GA102 auf 8LPP wäre wie AD102 auf N6.Dann wäre AD102 1000 mm² groß.

Man kann sich auch die Transistoren anschauen:
GM200 zu GP102: x1.5
GP102 zu TU102: X1.55
TU102 zu GA102: x1.52
GA102 zu AD102: x2.7

Alles wie immer? Sorry, aber diese These steht auf ganz dünnem Eis.



Wenn n31 mit der 4090 mithalten kann, wird es einige SKUs geben mit mehr als nur 50%. Sicherlich einen salvage vom N31 und dann N32 der immerhin 2/3 und nicht 1/2 vom ganzen Chip ist. Mal schauen ob NV dann mit einem ad102 salvage reagieren muss.

Verstehe nicht ganz was du sagen möchtest. Auf Basis der Shader:
AD103 ist 58% von AD102.
Navi32 ist 62% von Navi31.
Ich sehe da jetzt keinen großen Unterschied.


Letztes Mal gab es einen 80% Chip mit weniger RAM für 699 usd. Jetzt gibts nen halben Chip für 1200 usd X-D

Man kann sich das natürlich alles schön reden.
Was hat das mit schönreden zu tun? Habe nirgendwo behauptet, die Preise wären toll. Aber es ist einfach lächerlich zu behaupten AD104 solle als 4060 kommen, Salvage dann 4050 Ti? Als was soll man potentielle AD106 und AD107 verkaufen?

KarlKastor
2022-10-15, 17:01:01
Nein es impliziert das nicht, ich hab nur gehofft, das du mal nachdenkst und nicht einfach nur "aber N4/5nm ist sooo viel teurer" wiederkäust.

Und du beschwerst dich über unsachliche Diskussion? Es wurde rein auf die Fläche geschaut und das ist einfach unzureichend. Keine Ahnung was du mit nachplappern willst, das ist einfach Fakt. Ein 8LPP Wafer war erheblich billiger als ein 4N Wafer nach TSMCs ganzen Preiserhöhungen.


Nvidia bekommt gleich viele Chips pro Wafer für AD103 und GA104 (gleiche Yield angenommen), der Chip ist nur ein Teil der Produktionskosten, auch wenn es wohl der größte ist. Eine Karte mit vergleichbarem Chip kostet jetzt 1199$ statt 499$, Faktor 2.4 (4080 16GB vs 3070). Wieviel muss also ein ehemals deutlich unter 100$ teurer Chip in 4N teurer werden um diesen Preis zu rechtfertigen? Es müssen weit mehr als 2.4x sein ;)

Was soll das für eine Rechnung sein? Die Marge in verschiedenen Performancesegmenten ist vollkommen unterschiedlich. Und wie kommst du auf die Idee die UVP hängt maßgeblich von den Herstellungskosten ab?

KarlKastor
2022-10-15, 17:12:18
Vielleicht interessiert die das auch einen feuchten, dafür aber wäre es anschliessend ein viel größeres Imageverlust, wenn eine der "4080" vom N33 geschlagen wird? :freak:

Geht's nicht noch ein bisschen größenwahnsinniger?

Und btw, Ada ist in 5nm, was willst du also mit 4nm? ;)

Wo wurde das mal untersucht oder bestätigt? Habe noch nie was von gelesen.

Dovregubben
2022-10-15, 18:32:25
Man kann sich auch die Transistoren anschauen:
GM200 zu GP102: x1.5
GP102 zu TU102: X1.55
TU102 zu GA102: x1.52
GA102 zu AD102: x2.7
Kann man tun. Aber dann muss man Nvidia vielleicht vorwerfen, dass man die Transistoren hätte sinnvoller als in den gigantischen Cache hätte investieren können.
Falls die Kosten pro Transistor wirklich der limitierende Faktor sind, hat Nvidia da keinen tollen Job gemacht.

GerryB
2022-10-15, 18:46:41
Ihr streitet zu sehr im Klein Klein.

Ein AMDler würde sagen die size x yield = Kosten.
Schließlich muss der komplette Wafer bezahlt werden.

Dann relativiert sich auch der Preis von 4090 abwärts.
Ob NV den jeweiligen Chip im Vollausbau verwendet ist dem Käufer egal, solange die Fps kommen.

NV soll ja schon für die 4090Ti selektieren, ... heisst guter yield?
(= wenig Chancen auf nen Salvage 4080Ti)

Thunder99
2022-10-15, 18:49:35
Transistoren sind wohl auch einige für den Takt drauf gegangen

fondness
2022-10-15, 19:17:00
Naja Pascal ist schon lange her. TU102 war 754 mm2 und GA102 war > 600 mm2.

Ada ist so wie (fast immer) einfach 6xx mm2 im neusten Prozess.

Der letzte Satz ist halt falsch. Die letzten Nvidia high end gpus waren eben nicht im neuesten Prozess. Das letzte Mal als Nvidia im neuesten Prozess war, waren die gpus kleiner. Deshalb wohl auch huangs Aussage die Zeit der billigen gpus ist vorbei. Ein 6xx mm2 Chip in tsmc 4n kostet zweifellos ein Vermögen. Sah Nvidia aber wohl als notwendig an um vorne zu bleiben.

fondness
2022-10-15, 19:20:13
Man kann sich auch die Transistoren anschauen:
GM200 zu GP102: x1.5
GP102 zu TU102: X1.55
TU102 zu GA102: x1.52
GA102 zu AD102: x2.7


Sehr schöner Vergleich. 1.5 x 1.5 wären übrigens 2.25. Der Sprung zu AD102 ist also größer als zwei Generationen in der Vergangenheit.

Dural
2022-10-15, 19:50:21
Oh Wunder bei zwei vollen node ;)

Ada hat deutlich mehr Takt, mehr Cache und sonstige Optimierungen + 70% mehr Einheiten.

robbitop
2022-10-16, 08:49:27
Welches fast immer bitte? Es gab noch niemals einen 6xx mm2 Chip im neuesten Prozess. Turing und Ampere waren so groß, weil sie in alten billigen Prozessen waren.

680, 1080, 2080 waren alles GX104 Chips.
Die 780 kam 1 Jahr später als der Prozess billiger war und Ampere kam eh auf dem billigen Prozess. Es gibt überhaupt keine Regel, dass die x80 auf XX102 basieren muss, wie hier von einigen getan wird.



Weil er nicht damit klar kommt, dass Nvidia mit AD102 einen Chip designt hat, der explizit das Portfolio nach oben erweitert. Die Benennung xx90 gab es vor Ampere ja überhaupt nicht und das war nun der logische Schritt dahin. dafür gab es früher auch Dual-GPU, da war die x80 erst Recht weit weg. In seiner Vorstellung sollte es AD102 schlicht nicht geben in der Form. Die Alternative wäre ein <500mm² Chip, der deutlich weniger Leistung hat und den Nvidia dann in tiefere Preisregionen bringen kann. Damit wäre seinem Ego dann geholfen, da es weniger Abstand zum Top Dog gibt. Es gibt auch Luxusautos, Iphones für 1500€, muss für ihn alles teufelszeug sein. unl34shed Neid auf Leute die Geld ausgeben wollen geht so eben schon in die trollrichtung.
Naja GA102 auf 7 nm (also top notch 2020) Packdichte wären 550 mm2. AD102 sind 608 mm2. Wir sprechen als gerade mal von normiert gesehen von +10%.
Richtig richtig das ist eine gaaaanz neue Klasse obendrauf. Besonders wenn 12 % deaktivert sind im Topmodell. X-D (man also normiert gesehen aufs gleiche rauskommt!)
Und selbst wenn er das nicht wäre sind 80% für 699 usd dann so krass anders als 50% für 1200 usd dass die 10% den Kohl nicht fett machen.

Das ist alles Schönrederei. Zumindest aus Endkundensicht. Aus Investoren und Propellerjungssicht kann ich das natürlich nachvollziehen.

Und wahrscheinlich wird AD103 es schwer haben sich von der 3080 richtig abzusetzen wenn ich mir NVs eigene Benchmarks anschaue. Gute 20% für +500 usd ggü dem Lastgen 80 Produkt was schon seit 2 Jahren verfügbar ist. Sehr sehr gut X-D
Hört blos auf zu nölen! Mehr P/L für ein neues Produkt haben zu wollen ist unerhört.

Und wer glaubt die 500 usd kostet der AD103 Chip und die +4 gb mehr(!) als der gesalvagte AD103 (ja 4N ist teuer aber das delta ist nicht so riesig) ist etwas naiv. Das ist fettiges das Hochtreiben der Margen mit Sicherheit dabei. Mal schauen wie es in der Preisklasse aussieht wenn da Wettbewerb kommt.

@Karlkastor
bitte Vollausbau vergleichen. Dann kommst du auf 52% zu 62%. Je nach Gerücht hat n32 sogar mehr Shader was bei 66% landen würde. Muss man mal sehen was am Ende wahr ist.

fondness
2022-10-16, 09:13:51
Naja GA102 auf 7 nm (also top notch 2020) Packdichte wären 550 mm2. AD102 sind 608 mm2. Wir sprechen als gerade mal von normiert gesehen von +10%.

Wie kommst du auf die Zahl? Tsmc 7nm hat eine erheblich höhere packdichte als Samsung 8nm Prozess. Außerdem geht es ja um Kosten und da ist tsmc bekanntlich selbst Prozessnormiert teurer.

robbitop
2022-10-16, 09:16:32
Wie kommst du auf die Zahl? Tsmc 7nm hat eine erheblich höhere packdichte als Samsung 8nm Prozess.

Packdichte GA102: 45,1MTr/mm2
Packdichte N21: 51,5 MTr/mm2

Quelle: Techpowerup

Der 8 nm Prozess war was Packdichte angeht in der Transistordichte nicht schlecht.

fondness
2022-10-16, 09:18:07
Packdichte GA102: 45,1MTr/mm2
Packdichte N21: 51,5 MTr/mm2

Quelle: Techpowerup

Der 8 nm Prozess war was Packdichte angeht in der Transistordichte nicht schlecht.

Naja, unterschiedliche Designs verglichen ist Äpfel mit Birne, schau dir mal GA100 an. Auch nicht perfekt aber wohl besser als ein AMD Design.

Badesalz
2022-10-16, 10:01:23
Geht's nicht noch ein bisschen größenwahnsinniger?Gehts nicht noch ein bisschen überheblicher?

Thunder99
2022-10-16, 11:49:13
Nvidia hat anstelle deutlich von mehr SM, abgesehen vom AD102, lieber den Takt deutlich erhöht.
Wie wir mittlerweile wissen oder annehmen können ist AD103 zu langsam gegenüber AD102, gemessen auch am Preis.
Daher ist die 4080 16GB zu teuer gegenüber ihrer Performance im Vergleich zur 4090 (alles mit UVP).
Richten kann es die Konkurrenz mit besseren Produkten und der Kunde der dir Wahre nicht kauft.

Schon verrückt, dass aktuell die 4090 mit dem UVP die beste Preis/Leistung hat.

Finde persönlich sind die Preise viel zu hoch, schon seit Turing. Ampere wäre da wieder normal gewesen aber Mining und Chipkrise hat ja bekanntlich was anders bewirkt. Erst zum Ende des Zyklus sieht man die Preise welche normalerweise in der Mitte des Zyklus zu finden sind.

dildo4u
2022-10-16, 11:56:52
NV hat 2021 Tonnen Kohle mit der 3080 verloren, macht deutlich mehr Sinn den Scalper Bonus diesmal selber einzustecken.
Ich bin immer noch überzeugt neue Karten unter 1k€ kommen erstmal nicht in 5/4nm, daher bringt AMD Midrange Modelle in 6nm.

Tangletingle
2022-10-16, 14:06:57
Die 4080 12GB wird den Markt unter dem Namen nicht erreiche ;D

Wörtlich heißt es in Nvidias Blog: "Die RTX 4080 12 GByte ist eine fantastische Grafikkarte, aber sie trägt nicht den richtigen Namen. Zwei GPUs mit der Bezeichnung 4080 sind verwirrend. Deshalb drücken wir bei der 4080 12GB auf den 'Unlaunch'-Knopf."

https://www.heise.de/news/Nvidia-GeForce-RTX-4080-12-GByte-kommt-nicht-mehr-als-RTX-4080-7309734.html

Was für eine shitshow.

To late to the party.

horn 12
2022-10-16, 14:10:11
Da AMD schneller und Günstiger ist und Zudem 16 GB Speicher verbaut, für 749 bis 849 Euro
deshalb muss wohl die 12 GB 4080 nicht Releast werden und NV trägt die Kosten der Ganzen Board Partner.
Welch ein Reinfall und wenn man zu hoch hinaus will!

dildo4u
2022-10-16, 14:11:36
Da AMD schneller und Günstiger ist und Zudem 16 GB Speicher verbaut, für 749 bis 849 Euro
deshalb muss wohl die 12 GB 4080 nicht Releast werden und NV trägt die Kosten der Ganzen Board Partner.
Welch ein Reinfall und wenn man zu hoch hinaus will!
Eine Karte die 50% schneller ist kostet soviel wie eine 6900XT?
Hast du mal geguckt was für Preise AMD bei Zen 4 nimmt? 320€ für 70mm² Chips.
Der 5nm Navi 31 Compute Die soll über 300mm² haben.

KarlKastor
2022-10-16, 18:01:02
Richtig richtig das ist eine gaaaanz neue Klasse obendrauf.
Was verstehst du an dem Argument nicht. Statt Faktor 1.5 wurde es 2.7.
Und du versuchst immer noch mit irgendwelchen Milchmädchenrechnungen zu argumentieren, dass es ein ganz gewöhnlicher Sprung ist.


Hört blos auf zu nölen! Mehr P/L für ein neues Produkt haben zu wollen ist unerhört.

Was für ein BS. Keiner findet die Preise gut. Aber die Bezeichnung 4080 passt grob zur Performance, genauso 4070 für AD104.


Und wer glaubt die 500 usd kostet der AD103 Chip und die +4 gb mehr(!) als der gesalvagte AD103 (ja 4N ist teuer aber das delta ist nicht so riesig) ist etwas naiv.
Wer glaubt die Verkaufspreise orientieren sich hauptsächlich an den Herstellungskosten ist mehr als naiv. Natürlich wird hier die Marge maximiert.


bitte Vollausbau vergleichen. Dann kommst du auf 52% zu 62%.
Mach ich ja.
AD102 hat 144 und AD103 hat 84.
Macht 58%.

KarlKastor
2022-10-16, 18:06:28
Gehts nicht noch ein bisschen überheblicher?
Du glaubst also ein 203 mm² Chip in N6 kann einen 295mm² Chip in 4N schlagen? Und wunderst dich, das man das für unrealistisch hält?

Mangel76
2022-10-16, 19:46:08
Du glaubst also ein 203 mm² Chip in N6 kann einen 295mm² Chip in 4N schlagen? Und wunderst dich, das man das für unrealistisch hält?

Ironie ist nicht so deine Stärke, oder? Den Smiley hast du anscheinend übersehen. Das N33 den 104er schlägt erwartet niemand, ist auch ne andere Klasse.

robbitop
2022-10-17, 09:08:21
Was verstehst du an dem Argument nicht. Statt Faktor 1.5 wurde es 2.7.
Der Faktor ist doch nur so hoch weil man vorher einen veralteten Müllprozess genutzt hat. Viel relevanter als Transistoren sind für den Endkunden Performance.
Performancesprung liegt laut CB Rating bei 1,69. Ja der ist größer als bei Turing ggü Pascal und etwas höher als als Ampere. Aber bei Pascal vs Maxwell war er mit 1,88 sogar höher:
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k

Und dennoch war die 1080 2/3 vom großen Chip.

Die 4080 16 GB für 1200 USD muss sich mit ihrer Vorgängering der 3080 messen. Da sehe ich in NV's eigenem Benchmarks +44%. Bei +71% UVP.
Und das trotz 2 Jahre Innovation.

Die 3080 hingegen war 1,6x ggü der 2080. Bei gleichem MSRP von $699.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160

Ich sehe nirgends, dass die 4090 ein Klasse oben drüber ist. Es gibt genug Präzedenzfälle vorher, wo es ähnliche und höhere Performancesprünge gab.

Man hat diesen Move mit "einer Klasse darüber" ja schon damals erfolgreich umgesetzt, in dem man einfach seinen normalen Top Dog "Titan" genannt hat und ein paar mehr Shader und Chipfunktionen nicht kastriert hat um vor ~10 Jahren die $1000 Kategorie einzufügen.

IMO ist das cleveres Marketing - aber am Ende nur Margenmaximierung. Aber solange die Lemminge es mitmachen ist es halt so. X-D

Aus Endkundensicht aber halt mehr als suboptimal. Hoffentlich kommen sowohl AMD als auch Intel mittelfristig in die Puschen um da mal Wettbewerbsdruck zu setzen. Wir wollen ja nicht die Ferraris von anderen finanzieren, oder? ;)

Dural
2022-10-17, 10:38:49
Die 4090 ist auch abgespeckt wie kein andere top dog cpu vor ihr. Da fehlen ca. 20% leistung, sprich anstelle 6x% wären es 8x% mehr leistung gegenüber 3090ti.

Nazar
2022-10-17, 11:00:07
hatte ich nicht vor, war nie meine intention. deshalb auch so grob formuliert. aber die 3080 war eine ähnliche verwirrende situation.

Könntest du das bitte erläutern?
Mir ist es selbst nach intensiver Recherche nicht gelungen, bei der 3080 zwei unterschiedliche Chipsätze und Bandbreiten herauszufinden. Und schon gar nicht, ist es mir gelungen, bei der 3080 eine Leistungsdifferenz von 30% zu ermitteln.

Die 4080 16GB und 4080 12 GB sind zwei !!vollkommen unterschiedliche!! Leistungsklassen, die aber als solche nicht gekennzeichnet gewesen wären. Die Produktwächter hatten schon mit den Hufen gescharrt, um nVidia mit Abmahnungen und Klagen zu überziehen. Alleine die Irreführung der Kunden war hier zu 100% gegeben.

Wie ich schon schrieb, ich würde gerne wissen, wo das bei der 3080 auch der Fall gewesen sein soll!?

Dovregubben
2022-10-17, 14:44:37
Die 4090 ist auch abgespeckt wie kein andere top dog cpu vor ihr. Da fehlen ca. 20% leistung, sprich anstelle 6x% wären es 8x% mehr leistung gegenüber 3090ti.
Welche 20% Leistung? Zum Vollausbau werden das vielleicht 5% reale Leistung.

https://abload.de/img/ad1027fd0o.png

BlacKi
2022-10-17, 14:47:47
Welche 20% Leistung? Zum Vollausbau werden das vielleicht 5% reale Leistung.

https://abload.de/img/ad1027fd0o.png


die zahlen passen nicht zu deiner einschätzung.

Könntest du das bitte erläutern?
Mir ist es selbst nach intensiver Recherche nicht gelungen, bei der 3080 zwei unterschiedliche Chipsätze und Bandbreiten herauszufinden. Und schon gar nicht, ist es mir gelungen, bei der 3080 eine Leistungsdifferenz von 30% zu ermitteln.

Die 4080 16GB und 4080 12 GB sind zwei !!vollkommen unterschiedliche!! Leistungsklassen, die aber als solche nicht gekennzeichnet gewesen wären. Die Produktwächter hatten schon mit den Hufen gescharrt, um nVidia mit Abmahnungen und Klagen zu überziehen. Alleine die Irreführung der Kunden war hier zu 100% gegeben.

Wie ich schon schrieb, ich würde gerne wissen, wo das bei der 3080 auch der Fall gewesen sein soll!?

es ist genau dieselbe situation, nur schlimmer. mehr speicher, mehr bandbreite, höhere tdp, mehr leistung, mehr recheneinheiten. kunden die nicht darauf geachtet haben, haben eine schlechtere karte gekauft. der unterschied ist größer, aber es ist eine andere karte.

Dovregubben
2022-10-17, 14:49:50
die zahlen passen nicht zu deiner einschätzung.
Aus 12% mehr Shader werden sicherlich keine 20% Mehrleistung rausfallen.
Wenn wir mit 6% die Hälfte umgesetzt bekommen, wäre das schon gut.

why_me
2022-10-17, 14:52:47
Durals 20% aber genausowenig.

Die SMs skalieren nicht linear.
Der Cache kann zwar etwas bringen, aber da muss man dann aber die Frage stellen, warum man bei der 4090 den Chip dann so beschnitten hat.
Offen ist der Takt und wie ineffizient Nvidia die 4090ti betreiben will. (600W)

Raff
2022-10-17, 14:58:50
20 Prozent liegen mit einem voll ausgereizten Chip im Rahmen des Möglichen - mit entsprechendem Powerlimit. Wir wissen nicht, wie stark der Cache hilft, aber die Abspeckung um 1/4 bei der RTX 4090 wird nicht folgenlos sein. Idealerweise hat die Ti(tan) dann 3 GHz und auch schnelleren RAM.

MfG
Raff

BlacKi
2022-10-17, 15:04:51
Die SMs skalieren nicht linear.


das ist generell richtig, aber wenn das weniger als 10% werden fress ich nen besen. gerade die kombination aus mehr takt, mehr recheneinheiten, mehr power, mehr cache, vl auch mehr vram takt könnte das mehr als 10% bringen. 20% sind nicht garantiert.

Linmoum
2022-10-17, 15:06:18
Naja, so richtig viel bringt Speicher-OC auch nicht, dass es großartig relevant wäre. Lass es 10-15% sein, wenn du eine 4090 vs. 4090Ti bei 3GHz vergleichst.

Das größte Problem ist eigentlich die Voltage-Limitierung. Ganz davon ab, dass es natürlich unheimlich ineffizient für die letzten Prozente wird, aber Geralt macht bei mir z.B. bei ~520W in der Spitze dicht - trotz 600W-Bios. Einfach, weil die 1.1V limitieren. Die Bremse müsste man bei der 4090 nur lösen.

Radeonfreak
2022-10-17, 15:09:36
Und 3GHZ haben wir ja auch schon. :freak:

Tesseract
2022-10-17, 15:11:16
gerade die kombination aus mehr takt, mehr recheneinheiten, mehr power, mehr cache, vl auch mehr vram takt könnte das mehr als 10% bringen. 20% sind nicht garantiert.

das einzige was hier in einem typsichen gamingworkload multiplikativ ist sind recheneinheiten und takt. alles andere füttert die recheneinheiten und muss (zumindest teilweise) mitskaliert werden damit die recheneinheiten überhaupt skalieren können. taktnormiert besteht keine chance, dass bei diesen eckdaten mehr als 10% rausschauen, eher richtung 5% und der rest ist dann halt takt bzw. power target die man bei einem salvage aber auch rausholen kann.

Dovregubben
2022-10-17, 15:24:47
20 Prozent liegen mit einem voll ausgereizten Chip im Rahmen des Möglichen - mit entsprechendem Powerlimit.
Da müsste aber noch mindestens ein neues Stepping her. Wenn ich mir die bisherigen Ergebnisse mit Voltage Mods anschaue, sind da 10% durch höheres Powerlimit in sehr, sehr weiter Ferne.

BlacKi
2022-10-17, 15:40:53
das einzige was hier in einem typsichen gamingworkload multiplikativ ist sind recheneinheiten und takt. alles andere füttert die recheneinheiten und muss (zumindest teilweise) mitskaliert werden damit die recheneinheiten überhaupt skalieren können. taktnormiert besteht keine chance, dass bei diesen eckdaten mehr als 10% rausschauen, eher richtung 5% und der rest ist dann halt takt bzw. power target die man bei einem salvage aber auch rausholen kann.


wenn ich mir die skalierung von der 12gb 4080 zur 4090 anschaue, dann skalieren die SM mit mehr als der hälfte, so mit 60-70%. das wären +-8% nur durch die SM, aber dann kommt nochmal deutlich mehr cache, das die IPC anhebt, vermutlich nochmal core clock obendrauf. ich bleibe dabei, es werden 10%+.

Ailuros
2022-10-17, 15:42:50
Da müsste aber noch mindestens ein neues Stepping her. Wenn ich mir die bisherigen Ergebnisse mit Voltage Mods anschaue, sind da 10% durch höheres Powerlimit in sehr, sehr weiter Ferne.

Es ist wohl aber auch schon eine Ewigkeit her wo sie volle chips von Anfang fuer den mainstream Markt verkaufen konnten. Selbst mit einem neuem stepping aber wuerde ich bei einem 20% Leistungszusatz eine ziemlich pfiffigen Verbrauchszusatz (wie schon erwaehnt) erwarten. Ohne eine sehenswert schnellere CPU ist es sowieso nicht besonders viel wert.

Dural
2022-10-17, 16:28:28
Die Zahlen der 4090Ti sind ja "bekannt" nämlich 100Tflops, die 4090 hat 82 TFlops.


Jeder darf jetzt den Rechner selber bedienen ;)

Praktisch jede 4090 macht ja schon 100Tflops mit OC.

why_me
2022-10-17, 16:38:19
Und sind dabei auch 20% schneller..... nicht.

Tesseract
2022-10-17, 16:44:38
die offiziellen TFLOPS beziehen sich seit vielen jahren auf den "boost clock" der mit der realität nur sehr rudimentär zu tun hat. 82 TFLOPS sind ~2500MHz am salvage, ein voller chip braucht für 100TFLOPs ~2700MHz. beides weit vom architekturlimit entfernt.

basix
2022-10-17, 17:12:22
Und sind dabei auch 20% schneller..... nicht.

Nicht gewiss, nein. 96MByte L2$ vs. 72MB können hier aber das Zünglein an der Waage sein. Und der ominöse "Video-Clock", welcher die Performance doch recht deutlich beeinflusst (mMn mit dem L2$ und on-chip Fabric zusammenhängend).

- 142 / 128 SM = 1.109x
- 2.85 / 2.75 GHz = 1.036x (-> realer Boost in Games!)
- 96 vs. 72 MB = ???
- Video Clock = ???

20% können schon drin liegen. Ist aber eher als obere Grenze zu sehen. ~10% sind definitiv realistisch, ~15% wenn es gut kommt und ~20% max.
Die 4090 skaliert bei weitem nicht linear mit dem Takt nach oben, da der Video Clock fix an der Spannung hängt und nicht OCed wird, auch wenn der restliche Chiptakt steigt.

why_me
2022-10-17, 17:21:26
Hab ich ja weiter oben schon geschrieben. Das große Fragezeichen ist der Cache und wie weit Nvidia die Karte prügelt.

Aber Durals aussage, mit den TFLOPs sagt halt absolut nichts aus.

Und beim Cache muss man halt wie gesagt dann auch die Frage stellen, warum die 4090 nicht den vollen Cache bekommen hat, falls der wirklich so viel bringen sollte.

Meridian12
2022-10-17, 17:23:03
NVIDIA wäre doof, wenn sie die TI nicht für 3000 Dollar bringen würden. Eigentlich müssten sie eher 3500 dafür nehmen.

Gibt genug Dumme,die jeden Preis zahlen, also wäre es ja schön blöd von NVIDIA, diese nicht schön zu melken :D

vinacis_vivids
2022-10-17, 17:39:19
Ne Titan 48GB für 5000 USD ist auch noch drin. Mit 800W Verbrauch natürlich.

Dural
2022-10-17, 17:51:02
Ich habe gesagt von 6x% zu 8x% ausgehend von der 3090Ti.

Prozentrechnen ist nicht jedem gegeben, was :wink:

Und ja, auch die 20% erachte ich als durchaus möglich für eine 4090Ti, ausgehend von der 4090. Es sind ja nicht nur Recheneinheiten weniger, sondern 36MB Cache und auch ROPs dazu ist definitiv noch Takt potential bei GPU und Speicher vorhanden. Das nicht in jeder Anwendung dann 20% anliegen dürfte sollte klar sein, weil auch andere Sachen Limitieren können. Ada skaliert ja schon so schlecht mit der Rohpower.

basix
2022-10-17, 18:32:02
Und beim Cache muss man halt wie gesagt dann auch die Frage stellen, warum die 4090 nicht den vollen Cache bekommen hat, falls der wirklich so viel bringen sollte.

Mir kommen folgende Dinge in den Sinn:
- Yield
- Verbrauch
- 4090 Ti mit gutem Performance-Sprung dastehen zu lassen (vs. 4090)
- Max. Performance von AD102 verschleiern (vs. RDNA3)
- Kombination von all dem ;)

KarlKastor
2022-10-18, 02:52:10
Verbrauch? Man wollte die 4090 nicht zu sparsam machen?
Yield kann ich mir gut vorstellen. Habe mich schon immer gewundert, dass die RDNA2 alle mit vollem Cache daher kommen.
Der Cache ist wahrscheinlich schon mit viel Redundanz aufgebaut.

Edgecrusher86
2022-10-18, 11:01:55
https://abload.de/img/screenshot2022-10-181myeug.jpg

https://videocardz.com/newz/nvidia-titan-ada-is-reportedly-not-planned

Also bleibt es dann später bei der 4090 Ti als Krönung im Desktop - aber wer weiß, vielleicht hat Jensen ja auch dort wieder Bock auf Clampshell für $2499 MSRP. :D

E: Ich denke aber, das hebt man sich eher für die RTX 5090 auf - 48GB. RTX 4090 Ti dürfte 24GB @ 23-24 Gbps bekommen, so meine Vermutung.

DrFreaK666
2022-10-18, 11:11:44
Für was steht eigentlich das "Ti"?

Badesalz
2022-10-18, 11:17:00
Titanium.

https://videocardz.com/newz/nvidia-titan-ada-is-reportedly-not-plannedAlso brannte da wohl doch was dauernd ab (?) :rolleyes:

Slipknot79
2022-10-18, 12:11:37
Für Titan :redface:

Niall
2022-10-18, 12:28:17
Woher kam denn die üppige Einschätzung zu 800W TDP? Die 1792 Cores und der doppelte Speicher machen doch keine 350W+ zur 4090 aus, oder? :freak:

robbitop
2022-10-18, 12:37:41
Das wird über den Betriebspunkt kommen. Ggf. hat man die einfach hochgeprügelt. Frequenz ist zur dritten Potenz zur Leistungsaufnahme proportional.

Raff
2022-10-18, 12:39:09
Für was steht eigentlich das "Ti"?

Titanium.

Übrigens seit dem Debüt im Jahr 2001 (Geforce 3 Ti-XXX). :)

MfG
Raff

DrFreaK666
2022-10-18, 12:42:12
Übrigens seit dem Debüt im Jahr 2001 (Geforce 3 Ti-XXX). :)

MfG
Raff

Stimmt, gab ja verschiedene Versionen. Ich war da allerdings mit einer 8500 unterwegs mitsamt Flimmer-AF :D

PJ
2022-10-18, 13:57:06
Das wird über den Betriebspunkt kommen. Ggf. hat man die einfach hochgeprügelt. Frequenz ist zur dritten Potenz zur Leistungsaufnahme proportional.
I'd say Power is in a power of ~ 2.5 relation to Voltage and hence Frequency assuming V <-> F is close to linear.

basix
2022-10-18, 14:03:42
Verbrauch? Man wollte die 4090 nicht zu sparsam machen?
Yield kann ich mir gut vorstellen. Habe mich schon immer gewundert, dass die RDNA2 alle mit vollem Cache daher kommen.
Der Cache ist wahrscheinlich schon mit viel Redundanz aufgebaut.

Normalerweise sollte der Cache die Karte sparsamer machen ja. Gab aber auch Fälle, wo Cache überproportional gesoffen hat. Und mehr Cache könne simpel auch entsprechend mehr Bandbreite bedeuten (96/72 = 1.33x), welche sich faktisch linear in dessen Verbrauch äussern sollte.

Yield ist eher in den Schaltungen rund um den L2$ zu suchen und weniger dem Cache an sich. Wie du richtig sagst, kann man bei Cache leicht etwas Redundanz beigeben.

Meridian12
2022-10-18, 14:16:49
Denke wenn AMD mit der 7950 (falls so eine kommt) heftig abliefert, gibt es vor Weihnachten noch die Ankündigung zur 4090ti von NVIDIA.

iamthebear
2022-10-18, 21:29:30
Es ist doch vollkommen egal, ob die Karte nun 4090 Ti, Titan oder "4090 140SM 96MB L2" heißt und ich frage mich woher das kopite schon wieder wissen will. Das weiß zu dem Zeitpunkt wohl nicht mal Jensen selbst.

Ailuros
2022-10-19, 09:44:20
Übrigens seit dem Debüt im Jahr 2001 (Geforce 3 Ti-XXX). :)

MfG
Raff

Nicht dass es irgendwie wichtig ist aber der GTS, PRO, TI & ULTRA Quark hat mit GeForce 2 angenfangen in 2000: https://en.wikipedia.org/wiki/GeForce_2_series

HOT
2022-10-19, 10:13:57
Schon vom S3 Savage4 gab es 4 Varianten mit Pro. Xtreme usw.

Chris Lux
2022-10-19, 10:20:31
Nicht dass es irgendwie wichtig ist aber der GTS, PRO, TI & ULTRA Quark hat mit GeForce 2 angenfangen in 2000: https://en.wikipedia.org/wiki/GeForce_2_series
Ultra gab es schon zu TNT2 Zeiten. Das könnten sie mal wieder reaktivieren... Obwohl nun belegt das Apple ;D

Raff
2022-10-19, 10:22:23
Nicht dass es irgendwie wichtig ist aber der GTS, PRO, TI & ULTRA Quark hat mit GeForce 2 angenfangen in 2000: https://en.wikipedia.org/wiki/GeForce_2_series

Ti kam erst Ende 2001, da bin ich zu 99,99 Prozent sicher. Damals wurden die Geforce-3-Modelle Ti-200 und Ti-500 nachgeschoben und parallel die Geforce 2 Ti ins Leben gerufen.

MfG
Raff

robbitop
2022-10-19, 10:23:55
Wurde bei GF3 und GF2 Oktober 2001 nachgeschoben. Quasi gleichzeitig. Die GF2 GPU wurde sogar auf 150 nm geshrinkt dafür.

Dural
2022-10-19, 10:29:49
Verstehe ich auch nicht wie so NV das Wort Ultra nicht mehr verwendet.

Die letzte Ultra, nämlich die 8800Ultra hat bis heute was magisches wie ich finde. Die Bezeichnung Titan, das ja sehr nahe an Ti ist fand ich dagegen nie wirklich gut.

Edgecrusher86
2022-10-19, 10:46:33
Ja, eben - RTX 4090 Ultra wäre sexy -> dafür! :D

basix
2022-10-19, 11:12:40
Die 8800 Ultra war aber nicht wirklich eine Offenbarung gegenüber der 8800 GTX ;) Etwas schneller ja, aber hässlicher Kühler :D

Dural
2022-10-19, 14:51:57
Neues Stepping des G80 (A3), neuer Speicher, neuer Kühler, ca. 10% mehr Leistung als die 8800GTX alleine durch Takt, gibt es heute doch überhaupt gar nicht mehr. Gerade mit OC waren die A3 schon sehr gut.

Meine beste Ultra lief doch was mit 800MHz GPU/ROPs und Shader noch deutlich mehr mit Hart vMod usw. kann mich nicht mehr genau erinnern.

Wobei ich eine 8800GTX A2 habe die brutal lief, aber das war eine von keine Ahnung wie vielen... Die Karte ist nach wie vor in meinem Bestand, sowie zwei Ultras.

Ich fand die 8800Ultra super. Eine Schande was heute bei der Hardware abgeht, ich kann mich noch an Zeiten erinnern wo wir 50% mehr Leistung aus CPUs und Grafikkarten rausgeholt haben. Heute haben wir 8% mehr bei 150Watt mehr Verbrauch :freak:

ChaosTM
2022-10-19, 14:54:29
Ja, eben - RTX 4090 Ultra wäre sexy -> dafür! :D


Sexy wäre eine 4080er mit annähernd der 4090er Performance ;)

basix
2022-10-19, 15:15:25
...und 700$ Kaufpreis ;) Wäre das, was die 6800XT kostete (mit 521mm2 N7 vs. 379mm2 N5 und ebenfalls 16GByte und ~300W)

rentex
2022-10-19, 17:49:03
Neues Stepping des G80 (A3), neuer Speicher, neuer Kühler, ca. 10% mehr Leistung als die 8800GTX alleine durch Takt, gibt es heute doch überhaupt gar nicht mehr. Gerade mit OC waren die A3 schon sehr gut.

Meine beste Ultra lief doch was mit 800MHz GPU/ROPs und Shader noch deutlich mehr mit Hart vMod usw. kann mich nicht mehr genau erinnern.

Wobei ich eine 8800GTX A2 habe die brutal lief, aber das war eine von keine Ahnung wie vielen... Die Karte ist nach wie vor in meinem Bestand, sowie zwei Ultras.

Ich fand die 8800Ultra super. Eine Schande was heute bei der Hardware abgeht, ich kann mich noch an Zeiten erinnern wo wir 50% mehr Leistung aus CPUs und Grafikkarten rausgeholt haben. Heute haben wir 8% mehr bei 150Watt mehr Verbrauch :freak:

Willkommen am Ende der HW Performance Fahnenstange.

Ailuros
2022-10-20, 09:39:28
Willkommen am Ende der HW Performance Fahnenstange.

Fuer grosse monolithische cores ja.

Adam D.
2022-10-20, 12:29:10
https://videocardz.com/newz/massive-quad-slot-cooler-for-unreleased-900w-geforce-rtx-40-gpu-has-been-pictured

What the actual fuck :ulol:

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-2-1536x1114.jpg

just4FunTA
2022-10-20, 12:35:10
https://videocardz.com/newz/massive-quad-slot-cooler-for-unreleased-900w-geforce-rtx-40-gpu-has-been-pictured

What the actual fuck :ulol:

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-2-1536x1114.jpg


boah, also das Ding verkauft man doch mit einer wakü und gut ist, das kann doch nicht deren ernst sein da mit dem Monster da. :freak:

r3ptil3
2022-10-20, 12:38:45
Heisst also definitiv den 3.11 abwarten.

Edgecrusher86
2022-10-20, 15:26:31
What the actual fuck :ulol:


Die kann man ja gerne für die RTX 5090 FE in den Schrank legen und dann verbauen. :devil:

aceCrasher
2022-10-20, 15:38:00
https://videocardz.com/newz/massive-quad-slot-cooler-for-unreleased-900w-geforce-rtx-40-gpu-has-been-pictured

What the actual fuck :ulol:

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-2-1536x1114.jpg

Ich wünschte wirklich es gäbe Hersteller, die die Karten komplett nackt ohne Kühler verkaufen. Ich will mit meiner Wakü für so einen riesen Metallklotz nicht zahlen. Dann muss halt n riesen roter Sticker auf die GPU auf dem "NICHT OHNE KÜHLER VERWENDEN" steht :P

Dural
2022-10-20, 15:38:46
Der Kühler ist ja verkehrt, wie soll das funktionieren?

Das Layout des PCB scheint auch komplett anders zu sein, zudem sieht das nach sehr vielen Speicher Bausteinen aus. Für mich sieht das nicht nach AD102 aus, dazu die GPU über 550Watt sowie so gar nicht mehr skaliert.

Dual Lösung? Chiplet?

Edgecrusher86
2022-10-20, 15:42:10
"Blackwell", anyone? :D

Ja, das sieht eher für HPC aus - das PCB könnte vielleicht seitlich dran kommen - auf jeden Fall sehr interessant, wie er auch bei VC.com schreibt. :)

Rolsch
2022-10-20, 15:44:21
Meine nächste Grafikkarte wird auf einer Europalette geliefert. :biggrin:

Dural
2022-10-20, 15:45:54
Dual Lösung mit AD103?
Die Speicher Bestückung könnte passen: links und rechts je 4, unten 8.

Aber auch da passen die 900Watt nicht, wohl eher 600Watt.

Thunder99
2022-10-20, 19:34:06
SLI ist tot. Daher eher keine Dual GPU, zumindest nicht für Spieler.

Badesalz
2022-10-20, 19:46:05
Das Layout des PCB scheint auch komplett anders zu sein, zudem sieht das nach sehr vielen Speicher Bausteinen aus. Für mich sieht das nicht nach AD102 aus, dazu die GPU über 550Watt sowie so gar nicht mehr skaliert.

Dual Lösung? Chiplet?Jungen... Das war für die RT40 Titan gedacht.