Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
FastAndy
2022-10-20, 21:47:29
Dieser 900w kühler sieht ja absolut genial aus. Hoffentlich kommt da eine karte mit
Dovregubben
2022-10-21, 09:51:15
Das wirkt aktuell auf mich, als ob sich Nvidia mit der Leistungsskalierung bei höheren Powertargets komplett verschätzt hätte. Nun haben sie viel zu große Kühler, zu hohe Preise und Karten, die zwischen 350 und 450 Watt schon komplett gegen eine Wand laufen.
Dural
2022-10-21, 09:54:12
Jungen... Das war für die RT40 Titan gedacht.
Der Name ändert natürlich alles :freak:
Auch auf einer Titan wäre der AD102 drauf. Der Name Titan ist ja so wie so tot, gibt es seit Ampere nicht mehr und es würde kaum auf dem Kühler "GeForce RTX" stehen. Gut man könnte sagen das alle 24 Speicher Chip vorne sind, aber das sieht für mich nicht nach 24 Chips aus. Vom Layout her macht es auch nicht wirklich viel Sinn, ausser vielleicht thermisch.
Interessant ist ja das alle davon ausgehen das die nicht kommt, das sieht auf den Fotos aber extrem nach Massenfertigung aus.
Meine 4090 geht heute zurück ;D
Edgecrusher86
2022-10-21, 09:58:08
Dieser 900w kühler sieht ja absolut genial aus. Hoffentlich kommt da eine karte mit
Ja, dito - würde ich gerne in der Praxis sehen....bräuchte ich jetzt zwar hier im Hause nicht, aber zumindest Reviews und Videos gerne. Das Ding wiegt doch sicher 3-4kg. Bipod-klappbar inklusive wenigstens? :D
Gott1337
2022-10-21, 09:59:41
Jungen... Das war für die RT40 Titan gedacht.
Junge das sind Gerüchte und nix anderes
Edgecrusher86
2022-10-21, 10:09:02
RTX 4090 ULTRA 48GB? :D
Dural
2022-10-21, 13:17:10
Nehme ich :biggrin:
Thunder99
2022-10-21, 17:36:06
Gibt es schon Leaks wie 4080 16er aussehen werden? Eher 3 Slot+ oder zwischen 2-3 auch was dabei?
DrFreaK666
2022-10-23, 12:00:06
was haltet ihr davon?
"NVIDIA Allegedly Shifts GeForce RTX 4090 Gaming GPU Production To Hopper H100 AI GPUs"
https://wccftech.com/nvidia-allegedly-shifts-geforce-rtx-4090-gaming-gpu-production-to-hopper-h100-ai-gpus/
Achill
2022-10-23, 13:03:02
was haltet ihr davon?
"NVIDIA Allegedly Shifts GeForce RTX 4090 Gaming GPU Production To Hopper H100 AI GPUs"
https://wccftech.com/nvidia-allegedly-shifts-geforce-rtx-4090-gaming-gpu-production-to-hopper-h100-ai-gpus/
Nicht so viel .. wccftech referenziert https://news.mydrivers.com/1/866/866894.htm und laut Google Übersetzung klingt "[..]It is reported that NVIDIA [..]" nicht wirklich nach gesichert bzw. echter Quelle.
Es kann hat jetzt sein:
- Chip ist nicht optimal im Vergleich zu dem was AMD bringen wird (bzgl. Preis, Effz, Perf, what ever)
- Es gibt einen großen Abnehmer/Planung für Hopper
- Die Skalper sitzen auf größeren Mengen GPUs und werden diese nicht los und verbreiten Gerüchte
- NV hat ihre treue Kundenbasis bedient, gezeigt wie stark 40XX ist aber geht jetzt in den Abverkauf von 30XX und Einführung der kleineren Modelle über, ggf wegen Kapazität o.ä. ..
- Der Hype im Review Thread zur 4090 entspricht halt nicht der Wahrnehmung der restlichen Welt und der Zielmarkt ist schon erschöpft für diesen Preis
- Eine Kombination von einigen dieser Punkte oder auch gar nichts davon weil es etwas anderes ist oder sich gar nichts ändert und die Container mit den GPUs einfach noch nicht angekommen sind.
ChaosTM
2022-10-23, 13:08:33
Gibt es schon Leaks wie 4080 16er aussehen werden? Eher 3 Slot+ oder zwischen 2-3 auch was dabei?
Die FE wird wohl wie die 90er ausschauen. Spart Geld - bei den anderen kann mans noch ned sagen.
..leider ist das Ding zu kastriert um generell als 80er durchzugehen, aber das hatten wir schon
dildo4u
2022-10-23, 13:12:59
Gibt es schon Leaks wie 4080 16er aussehen werden? Eher 3 Slot+ oder zwischen 2-3 auch was dabei?
Die Karten sind alle überbaut wie bei der 4090 das war eine Maßnahme wenn AMD was aus dem Hut zaubert, NV scheint sich aber für das untere Ende des möglichen TDP entschieden zu haben.
Spekuliert wurden über 500Watt für 4090 und 400Watt für 4080.
Neurosphere
2022-10-23, 13:51:16
Die Karten sind alle überbaut wie bei der 4090 das war eine Maßnahme wenn AMD was aus dem Hut zaubert, NV scheint sich aber für das untere Ende des möglichen TDP entschieden zu haben.
Spekuliert wurden über 500Watt für 4090 und 400Watt für 4080.
Scheinbar bringt eine höhere TDP schlichtweg auch nichts. Gibt ja schon einige Versuche über die TDP und auch Voltage was zu machen, aber wirklich mehr Takt kam dabei nicht raus.
Selbst wenn NV 600 Watt geplant hatte, es bringt halt nicht wirklich was.
KarlKastor
2022-10-23, 14:44:51
Ja, auch der Vollausbau sollte locker mit 450 W auskommen. 600W sind völlig überflüssig.
vinacis_vivids
2022-10-23, 14:51:13
Die 600W werden benötigt um beim Vollausbau (also mehr Shader) auch die hohen Taktraten halten zu können. Außerdem geht's bei Huang um die Krone und den längsten Balken (wie einst Intel). Was wäre das für ein Desaster wenn AMD N31XTX bei weniger Leistungsaufnahme ne bessere Leistung auf die Straße bringt als AD102.
Thunder99
2022-10-23, 15:29:01
Die 600W werden benötigt um beim Vollausbau (also mehr Shader) auch die hohen Taktraten halten zu können. Außerdem geht's bei Huang um die Krone und den längsten Balken (wie einst Intel). Was wäre das für ein Desaster wenn AMD N31XTX bei weniger Leistungsaufnahme ne bessere Leistung auf die Straße bringt als AD102.
Wäre zu gut ;D
Ja, der Name ist nicht zutreffend zur Karte aber dennoch ist der AD103 sehr interessant wenn der Preis stimmt (im Verhältnis).
Dann mal schauen was die Customs so bieten werden. Zu groß soll der Nachfolger von der 1080Ti nicht werden :wink:
Gott1337
2022-10-23, 16:37:32
Die 600W werden benötigt um beim Vollausbau (also mehr Shader) auch die hohen Taktraten halten zu können. Außerdem geht's bei Huang um die Krone und den längsten Balken (wie einst Intel). Was wäre das für ein Desaster wenn AMD N31XTX bei weniger Leistungsaufnahme ne bessere Leistung auf die Straße bringt als AD102.
ja bei AMD gehts denen nicht darum, deswegen wurde die TDP auch nicht extrem erhöht bei dem CPUs, oh warte.
Und dann noch mit einem besseren Fertigungsprozess zu verkacken, alle Achtung.
=Floi=
2022-10-23, 17:06:49
Nicht so viel .. wccftech referenziert https://news.mydrivers.com/1/866/866894.htm und laut Google Übersetzung klingt "[..]It is reported that NVIDIA [..]" nicht wirklich nach gesichert bzw. echter Quelle.
Es kann hat jetzt sein:
- Es gibt einen großen Abnehmer/Planung für Hopper
- NV hat ihre treue Kundenbasis bedient, gezeigt wie stark 40XX ist aber geht jetzt in den Abverkauf von 30XX und Einführung der kleineren Modelle über, ggf wegen Kapazität o.ä. ..
Man kennte heutzutage ganz genau den markt und ich behaupte, der markt für 2000€ karten ist größer als ihr euch vorstellen könnt.
Es wächst auch stetig der markt für 200000€ autos.
Ihr müsst das weltweit sehen.
Die 4090 wird mind. 2 jahre noch verkauft werden. Es gibt für NV keine eile. Ich denke, wenn sie umstellen gibt es bedarf für hopper.
Es hätte für NV mehrere vorteile. Höhere marge, der autuell teure prozess kann noch teurere produkte produzieren.
Der kunde für den supercomputer kann zeitnah bedient werden.
Ich sehe das überhaupt nicht dramatisch.
DrFreaK666
2022-10-23, 18:05:51
Man kennte heutzutage ganz genau den markt und ich behaupte, der markt für 2000€ karten ist größer als ihr euch vorstellen könnt.
Es wächst auch stetig der markt für 200000€ autos.
Ihr müsst das weltweit sehen.
Die 4090 wird mind. 2 jahre noch verkauft werden. Es gibt für NV keine eile. Ich denke, wenn sie umstellen gibt es bedarf für hopper.
Es hätte für NV mehrere vorteile. Höhere marge, der autuell teure prozess kann noch teurere produkte produzieren.
Der kunde für den supercomputer kann zeitnah bedient werden.
Ich sehe das überhaupt nicht dramatisch.
Was ist das wieder für ein dummer Autovergleich und was interessiert Google, Amazon, Microsoft und co ob sich Menschen weltweit einen Porsche leisten können? Wenn Server ausgebaut werden sollen, dann muss Nvidia jetzt liefern und nicht erst wenn das Interesse für die 4090 sinkt
unl34shed
2022-10-24, 16:19:49
kRkjUtH4nIE
https://cablemod.com/12vhpwr/
Ist ja alles nicht so schlimm und gar nicht auf Kante genäht... Oder wie war das?
https://i.imgflip.com/45ysxp.jpg
FastAndy
2022-10-24, 16:34:49
klar, weil 2 von den 236247 hochgehen, ist gleich alles mist. zumal userfehler nicht ausgeschlossen werden können (ich weiß schon warum ich das nicht selbst mache)
internet halt, wer den ganzen mist der da verallgemeinert wird bzw. überhaupt glaubt was da immer steht, selbst schuld ;)
Tangletingle
2022-10-24, 16:48:39
klar, weil 2 von den 236247 hochgehen, ist gleich alles mist. zumal userfehler nicht ausgeschlossen werden können (ich weiß schon warum ich das nicht selbst mache)
internet halt, wer den ganzen mist der da verallgemeinert wird bzw. überhaupt glaubt was da immer steht, selbst schuld ;)
du hast nicht den dunst von ahnung wer buildzoid ist, oder?
cablemod sind natürlich auch völlige nappen: https://cablemod.com/12vhpwr/
Sardaukar.nsn
2022-10-24, 17:52:32
klar, weil 2 von den 236247 hochgehen, ist gleich alles mist. zumal userfehler nicht ausgeschlossen werden können (ich weiß schon warum ich das nicht selbst mache)
internet halt, wer den ganzen mist der da verallgemeinert wird bzw. überhaupt glaubt was da immer steht, selbst schuld ;)
Ist halt Wasser auf die Mühlen für alle die sich gerne aufregen. Wie du schon sagst, kann auch nicht ausgeschlossen werden das beim Zusammenbau etwas falsch gemacht wurde. Stecker saß nicht 100%ig oder wurde zu stark geknickt. RMA und Abfahrt.
Thunder99
2022-10-24, 18:05:55
Die neuen Kabel bzw Anschluss ist leider fehleranfälliger als der ältere Standard. Nicht mehr Dau sicher:freak:
FastAndy
2022-10-24, 23:38:14
Er sagt im vid selbst, sieht nach userfehler aus. Wird sicher noch mehr fälle geben bei denen das zu arg angewinkelt oder sonstwie belastet wurde und dann auf den bösen stecker geschoben. Wie so oft halt
Mein großvater sagte mal, früher stand in der bedienungsanleitung von autos wie man das ventilspiel einstellt, heute dass man das motoröl nicht schlucken soll. Sagt alles
Linmoum
2022-10-24, 23:48:17
Sein "Userfehler" bezieht sich auf das, was auch CableMod schreibt: Vertikal leicht geknickt. Das man sowas überhaupt unterlassen soll (wo wird man darauf eigentlich hingewiesen außer auf Drittseiten?) ist absurd genug.
unl34shed
2022-10-24, 23:59:08
Vor allem in welches Case hat zwischen 4090 und Seitenwand noch >35mm Luft um das Kabel überhaupt verlegen zu können?
Also ist der Userfehler ja schon, dass man die Karte nicht vertikal oder auf einem Benchtable betreibt oder?
Die Größe der Karten und Position des Steckers zur Seite lässt in 90% der Gehäusse eigentlich nichts anderes zu!
[MK2]Mythos
2022-10-25, 02:19:19
Er sagt im vid selbst, sieht nach userfehler aus. Wird sicher noch mehr fälle geben bei denen das zu arg angewinkelt oder sonstwie belastet wurde und dann auf den bösen stecker geschoben. Wie so oft halt
Mein großvater sagte mal, früher stand in der bedienungsanleitung von autos wie man das ventilspiel einstellt, heute dass man das motoröl nicht schlucken soll. Sagt alles
Und ist das nicht genau für Leute wie dich relevant? Du sagst ja selber dass du keinen Schimmer von der Technik und deswegen nen "Spezi" hast.
Kleiner Protipp von jemandem, der seit über 20 Jahren keinen Spezi hat und in beiden Fällen alles selber macht: Kabel werden in Computergehäusen gerade bei "unsichtbarer" Verlegung immer geknickt und verwurschtelt. In meinem Mini ITX Gehäuse sieht's aus wie in ner Schlangengrube. Wenn das nicht funktioniert, dann ist die Spec scheiße und nicht der Anwender schuld. Vllt solltest du dich aufs photohoppen von Ferraris beschränken und solche Diskussionen Leuten überlassen, die auch wirklich selber schon Mal was zusammen gebaut haben.
Thunder99
2022-10-25, 10:40:53
Vor allem in welches Case hat zwischen 4090 und Seitenwand noch >35mm Luft um das Kabel überhaupt verlegen zu können?
Also ist der Userfehler ja schon, dass man die Karte nicht vertikal oder auf einem Benchtable betreibt oder?
Die Größe der Karten und Position des Steckers zur Seite lässt in 90% der Gehäusse eigentlich nichts anderes zu!
Nicht umsonst wurde bereits ein 90° abgewinkelten Stecker vorgestellt. Hab es irgendwo als News gelesen.
why_me
2022-10-25, 10:56:50
Dieser 90° Stecker ist aber auch nur eine Lösung für ein Problem, dass es in erster Linie nicht hätte geben müssen.
Bei der 3090 hatte es Nvidia noch hinbekommen, den 12 Pol stecker leicht gewinkelt zu verbauen, was ein verlegen der Kabel erleichtert hat. Jetzt geht er direkt Seitlich raus und muss dadurch zwangsweise sehr nah am Stecker geknickt werden.
FastAndy
2022-10-25, 12:59:23
Welcher Ingenieur hat sich das denn einfallen lassen
https://pbs.twimg.com/media/Ff3pkfgUYAAE3dZ?format=png&name=small
;D
nachtrag:
keine ahnung wie das mit den bildern hier funktioniert
steht hier:
https://twitter.com/HardwareUnboxed
DrFreaK666
2022-10-25, 23:00:58
Hat das was mit der Steckerproblematik zu tun oder bin ich total falsch?
https://abload.de/thumb/signal-2022-10-25-22-36ev7.jpg (https://abload.de/image.php?img=signal-2022-10-25-22-36ev7.jpg)
anorakker
2022-10-25, 23:52:27
Wo kommt das Bild her?
DrFreaK666
2022-10-25, 23:56:14
Wo kommt das Bild her?
https://twitter.com/9550pro/status/1584833997607440389?t=w8DWwcydJVJQ77OmSBb9kA&s=19
Den Rest kann ich nicht entziffern
unl34shed
2022-10-26, 00:01:24
Das sind die original Meldungen, die man der PCI SIG gemeldet hat, als man beim Testen bereits abgebrannte Stecker beobachtet hat.
ChaosTM
2022-10-26, 00:37:52
https://www.tomshardware.com/news/another-geforce-rtx-4090-16-pin-adapter-bites-the-dust
der 3. oder 4.?
Thunder99
2022-10-26, 10:58:57
Ist der neue Standard also nicht zu gebrauchen wenn man so einfach einen Schaden an Kabel und Grafikkarte verursachen kann?
Das Risiko ist ja deutlich erhöht gegenüber dem vorherigen 8-PIN (6+2).
Troyan
2022-10-26, 11:01:09
Da du vier 8-PIN Adapter benötigst, wird es sich wohl eher die Waage halten. Bei 32 PINs kann es genug Probleme geben.
Im Grunde muss ein kompletter anderer Standard her, der 375W+ Karten mit Strom versorgt. Bis 375W kann man ja selbst mit einem Kabel als Daisy Chain noch klarkommen.
anorakker
2022-10-26, 11:07:50
Ist der neue Standard also nicht zu gebrauchen wenn man so einfach einen Schaden an Kabel und Grafikkarte verursachen kann?
Das Risiko ist ja deutlich erhöht gegenüber dem vorherigen 8-PIN (6+2).
Wer das abgesegnet hat ist definitv kein Ingenieur, so auf Kante genäht ist das absolut absurd als Standard. Vor allem wenn dann in der Realität nicht original Molex Stecker sondern tausende Nachbauten zum Einsatz kommen, vor allem bei den Adaptern, weil kann man ja Geld sparen.
anorakker
2022-10-26, 11:33:44
Ich hab auch das Bild passend für die nächste Generation gefunden:
https://i.imgflip.com/6ybraa.jpg
why_me
2022-10-26, 11:51:47
Da du vier 8-PIN Adapter benötigst, wird es sich wohl eher die Waage halten. Bei 32 PINs kann es genug Probleme geben.
Das Problem wie beim 12 Pin hast du bei den vier 8 Pin des Adapters ja nicht. Da Stecker und Buchse an Kabeln hängen. Die mechanische Belastung der einzelnen Pins ist da deutlich geringer, weil sich zuerst auf beiden Seiten die Kabel bewegen.
Troyan
2022-10-26, 12:07:20
Schonmal den Platzbedarf von 4x8PIN gesehen? Habe jetzt auf 12 PIN umgebaut und da ist wieder Luft im Gehäuseschacht. Und bei 4x8PIN wird auch die Kabellänge zu einen Problem, wodurch auch die Belastung höher wird.
Bei kurzen Karten mit maximal 2 Anschlüssen kann man über den Sinn von 12 Pin noch diskutieren. Aber bei solchen Brocken wie 4090 ist der Stecker ein klarer Vorteil.
why_me
2022-10-26, 12:18:18
Falls das auf mich bezogen sein sollte, schreibst du wirres Zeug.
Der Platzbedarf der 4x8Pin hat nichts mit der Belastung der Kontakte des Steckers zu tun.
Und warum sollte die Kabellänge ein Problem sein? Die Grafikkarte hängt doch im gleichen Slot -> die Kabel sind gleich lang.
Der 12 Pin stecker mag zwar hübscher aussehen, aber die Sicherheitsmarge bei einem 8Pin Stecker gab es nicht ohne Grund. Und ein etwas größere Stecker (12-14Pin Mini Fit) hätte auch nicht weh getan.
Thunder99
2022-10-26, 12:48:45
Der Platzbedarf bei den 12Pin ist schon deutlich besser als 3 oder 4x8PIN aber schon krass, dass sie es mit so wenig Sicherheit der mechanischen Stabilität released haben.
Bin gespannt wann sie es einsehen und ein Revision Update machen samt größeren Steckern und Kabeln ;D
vinacis_vivids
2022-10-26, 14:35:53
NVIDIA RTX 4080 16GB has been supposedly tested in 3DMark
https://videocardz.com/newz/alleged-nvidia-geforce-rtx-4080-16gb-3dmark-benchmarks-have-been-leaked
ChaosTM
2022-10-26, 14:43:34
leider ohne 4090er Vergleich, aber man liegt da wohl ziemlich genau in der Mitte.. (3090ti - 4090)
Das wäre gar nicht soo schlecht..
Platos
2022-10-26, 15:50:39
Für den verlangten Preis ist das sogar sehr schlecht. Die 4080 ist kein Top-Dog, so dass ein hoher Preis "gerechtfertigt" wäre.
Das wäre maximal 700 Dollar wert.
davidzo
2022-10-26, 16:47:54
Da du vier 8-PIN Adapter benötigst, wird es sich wohl eher die Waage halten. Bei 32 PINs kann es genug Probleme geben.
Im Grunde muss ein kompletter anderer Standard her, der 375W+ Karten mit Strom versorgt. Bis 375W kann man ja selbst mit einem Kabel als Daisy Chain noch klarkommen.
Theoretisch würde ein einzelner 8pin Stecker auch für 600Watt reichen (4 x 13A pro Pin). Das wäre in RM4.2mm auch nicht größer gewesen als Nvidias neuer HPWR Stecker.
Das erfordert aber neben hohem Kabelquerschnitt und hochwertigen Crimpkontakten auch ein geändertes Keying mit 4x 12V statt bisher 3x, also keine Abwärtskompatibilität mit 6Pin Steckern mehr. Die aktuellen 8P mit nur 3x 12V liefern selbst mit dem besten Material nur max 468W. Außerdem würden sicher einige Leute versuchen den neuen Stecker auch bei geändertem keying des receptacles in die alten 8P Buchsen hinein zu quetschen.
Also lieber erhöhen auf 10P oder 12P mit einer Toleranz für 2-4Pins mit schlechtem Crimpkontakt oder generell niedrigerem Kabelquerschnitt und abgenutzten Steckkontakten.
Oder eben gleich auf High Current Stecker wie MPX oder XT wechseln. Ein XT60 Stecker ist nur halb so groß wie Nvidias 12V HPWR und hat ein fast 20% höheres Current Rating. Von der Haltbarkeit und möglichst niedrigen Herstellungskosten sind aber Flach connectoren wie MPX besser. Das ließe sich sogar als edge Connector umsetzen direkt auf dem GPU PCB. Da lässt sich das Federelement im Crimpkontakt robuster umsetzen und mit wesentlich mehr Kontaktfläche als bei quadratischen Drähten wie bei Molex MicroFit und Mini-fit.
Wieso Nvidia und die PCIeSig den 12V HPWR Stecker so merkwürdig umgesetzt haben erschließt sich mir einfach nicht. Scheint mir als wenn Molex da ein gutes Wörtchen mitzureden hat.
Timbaloo
2022-10-26, 17:25:45
XT60 hat "nur" 30A Nennstrom laut Spec.
Ich stimme dir aber zu, die ganzen PC-Stecker sind elektrisch sowas von schlecht und haben in 2022 das Qualitätsgefühl auf Molex-Niveau. Da gibt es wesentlich besseres.
davidzo
2022-10-26, 19:32:27
Okay, ich ging von 60A sustained aus bei XT60, daher ja der Name. Gibt sicher auch billiger gefertigte Varianten die das nicht vertragen, aber eigentlich sind die 30A stecker dann kleine rund heißen xt30.
Aber das sind halt Fräsbearbeitete und vergoldete Kontakte für Lötmontage, also nicht zum crimpen. Das merkt man natürlich im Preis, zumal die Zug- und Knick-sicherung am Stecker sicher nochmal überdacht werden müsste damit die Lötstelle nicht zu sehr belastet wird. Andererseits ist das bei Micro-Fit ja anscheinend auch ein riesen Problem. Am besten wäre da sowieso Overmoulding so wie man es bei jedem normalen USB oder Netzstecker schon macht.
MPX sind viel billiger als xt30 oder 60 und haben mehr Pins so dass man auch eine art sensing machen könnte für schwächere Netzteile. MPX mit overmoulded Kabeln fände ich richtig gut als 8Pin Ersatz. 450W sind da kein problem (bis 45A) und wenn man 600W + möchte nimmt man einfach zwei Stück, die sind ähnlich kompakt wie ein einzelner der 12V HPWR Stecker.
anorakker
2022-10-26, 20:57:37
Ich bin ja selber Modellbauer, aber Modellbaustecker sollten da bleiben wo sie herkommen. Weder XT60 noch MPX sind in irgendeiner Weise geeignet für diese Aufgabe. Kein Stecker hat von Haus aus eine mechanische Sicherung eingebaut und es gibt keine gelöteten Kabel an Steckern. Und wer im Jahr 2022 immer noch MPX Stecker verwendet hat halt einen grossen Drang zur Nostalgie und sich selbst lösenden Steckverbindungen ;)
Man findet bei den üblichen Industriegrössen diverse andere Stecker für Power Aufgaben die viel viel besser geeignet wären.
Zossel
2022-10-26, 22:53:32
Wäre bei einer GPU für 2K€ eine externe Box denkbar?
Also eine PCIe Karte die PCIe nach draußen auf eine externe GPU-Box führt mit eigenen NT und Kühlung.
OCuLink gibt es bereits und selbst ein optischer Link macht bei 2K€ den Kohl lange nicht fett.
Dann könnte Lederjacke auch endlich GPUs mit >2KW bauen.
[MK2]Mythos
2022-10-26, 23:34:08
Durch die erstarkte AMD Konkurrenz scheint Nvidia in der Tat immer mehr die Brechstange rausholen zu müssen. Vielleicht liegt die nächste Gen also wirklich schon bei 1kw.
Die gute Nachricht ist, dass bei rund 2kw dann irgendwann Schluss ist weil gewöhnliche Steckdosen da schon langsam an ihre Dauerlastgrenze kommen. Ansonsten gibt's halt das, was der HPWR Stecker fabriziert, in groß und wirklich gefährlich...
Platos
2022-10-27, 08:29:39
Das Thema hatten wir schonmal. Es wird keine 1000Watt+ Grafikkarten geben, weil das Stromnetz der USA das nicht abkann. Die haben nicht solche Leitungen/Sicherungen, wie bei uns.
Thunder99
2022-10-27, 09:19:33
Geschweige ob man das noch kühlen kann.
Sunrise
2022-10-27, 12:35:00
Mythos;13150370']Durch die erstarkte AMD Konkurrenz scheint Nvidia in der Tat immer mehr die Brechstange rausholen zu müssen.
Die Käufer werden ihnen evtl. dann Recht geben, nachdem AMD RDNA3 verfügbar ist. Wenn es relativ gesehen aktuell ein schlechter Weg ist, dann hat man Spielraum bei Upgrades bzw. Vollausbau.
Jetzt wird halt mal ausgereizt, dann gibts evtl. mal auf die Mütze, außer irgendeiner kann wieder kaum liefern, was schlecht für die Vergleichbarkeit wäre.
NV ist im PC-Desktop weiterhin auf dem hohen Ross und kann machen, was sie möchten. Leider ist es seit Jahren NV, die sich insbesondere für RT usw. einsetzen, AMD zieht oft nur nach. Diese Spirale muss enden.
Mangel76
2022-10-27, 14:52:00
NV ist im PC-Desktop weiterhin auf dem hohen Ross und kann machen, was sie möchten. Leider ist es seit Jahren NV, die sich insbesondere für RT usw. einsetzen, AMD zieht oft nur nach. Diese Spirale muss enden.
Neuerungen in dieser Größenordnung kannst du halt nur aus einer marktbeherrschenden Stellung bringen. Für alle anderen ist das finanzielle Risiko viel zu groß. Am Ende hat man aufgepumpte GPUs, die nutzlosen teuren Ballast mitschleppen. Das wäre AMDs Tod gewesen!
AMDs Aufgabe ist es eher, den proprietären Kram dann in allgemein verfügbarer Form bereitzustellen, siehe etwa FreeSync oder FSR. Anderenfalls könnte nvidia sich die eigene Stellung weiter zementieren.
dildo4u
2022-10-28, 07:11:07
Angeblich Benches der 4080 12GB.
https://wccftech.com/nvidia-geforce-rtx-4080-12-gb-graphics-card-benchmarks-leak-out-slower-than-3090-ti/
Zossel
2022-10-28, 07:34:45
Das Thema hatten wir schonmal. Es wird keine 1000Watt+ Grafikkarten geben, weil das Stromnetz der USA das nicht abkann. Die haben nicht solche Leitungen/Sicherungen, wie bei uns.
Jein: https://de.wikipedia.org/wiki/Einphasen-Dreileiternetz
Der Brain
2022-10-28, 08:26:46
Ich finde die aktuelle Produktpolitik von nVidia maximal beschissen und hoffe, dass sie damit ordentlich auf die Schnauze fallen. Dabei spreche ich nicht mal von den völlig überzogenen Preisen. Wers bezahlen will und kann, der solls tun. Aber dass DLSS 3 nur auf den 4xxx Karten läuft, ist doch schon eine bodenlose Frechheit. Vor allem im Hinblick darauf, dass es keine technischen Gründe hat und auf 3xxx genauso laufen könnte. Ein Schlag ins Gesicht all dener, die für ihre 3000er Karten jede Menge Geld ausgegeben haben.
Ich hoffe, dass AMD denen in Kürze ein ordentliches Ei gegen die Schiene nagelt.
Berniyh
2022-10-28, 08:41:38
Mythos;13150370']Durch die erstarkte AMD Konkurrenz scheint Nvidia in der Tat immer mehr die Brechstange rausholen zu müssen. Vielleicht liegt die nächste Gen also wirklich schon bei 1kw.
Die gute Nachricht ist, dass bei rund 2kw dann irgendwann Schluss ist weil gewöhnliche Steckdosen da schon langsam an ihre Dauerlastgrenze kommen. Ansonsten gibt's halt das, was der HPWR Stecker fabriziert, in groß und wirklich gefährlich...
Die Steckverbindung für die nächste Generation von Nvidia GPUs sieht dann vermutlich irgendwie so aus:
https://upload.wikimedia.org/wikipedia/commons/8/89/CEE_400V_16A_6h_IP67_Stecker_und_Kupplung_2012_01_27.jpg
:biggrin:
Troyan
2022-10-28, 09:17:09
Die GPU, formely known as 4080 12GB, lief durch 3DMark: https://videocardz.com/newz/unlaunched-geforce-rtx-4080-12gb-trades-places-with-3090-ti-in-alleged-3dmark-tests
Frage mich immer noch, wie die 4090 mit 65% mehr Stromverbrauch fast doppelt so schnell sein kann.
dildo4u
2022-10-28, 09:22:37
Bandbreite ist 2X bei der 4090 da das Interface auf 192 Bit beschränkt wurde.
Die 500MB/sec liegen unter 3070 TI, also der Cache hilft nur nicht genug.
Troyan
2022-10-28, 09:26:50
Selbst wenn ich meine 4090 bis zur Kotzgrenze übertakte, liegt die bei nur <=550W in Speed Way. Wenn die 4080 12GB die Hälfte an Leistung liefert, müsste die auch die ca. die Hälfte des Stroms aufnehmen.
Ergo liegt die nicht bei 285W sondern wohl eher bei 250W oder niedriger...
dargo
2022-10-28, 09:33:33
Lol... die 4080 12GB erreicht im Rasterizer @285W gerade mal die 300W RX 6900XT. Was ein Fortschritt, das wird mit RDNA3 noch lustig. :lol:
dildo4u
2022-10-28, 09:46:06
Angeblich nutzten die Midrange AMD Karten 6nm das ist das Gerücht das die 6900XT Performance erreichen.
Könnte sein das die über 200 Watt liegen also nicht anders als 6750XT vs 3070 Ti was TDP angeht.
BlacKi
2022-10-28, 10:31:33
der cache. in fhd wird der unterschied kleiner. da dieselbe auflösugn gefahren wird, aber der cache deutlich kleiner ist, skaliert die performance nicht gleich.
Lol... die 4080 12GB erreicht im Rasterizer @285W gerade mal die 300W RX 6900XT. Was ein Fortschritt, das wird mit RDNA3 noch lustig. :lol:
du siehst wo die 3090 liegt, die schneller als die 6900xt ist? kein benchmark für amd vs nv karten vergleiche.
dargo
2022-10-28, 10:38:33
du siehst wo die 3090 liegt, die schneller als die 6900xt ist? kein benchmark für amd vs nv karten vergleiche.
Im Schnitt sind 3090 + 6900XT gleiche Leistungsklasse. :rolleyes:
Dural
2022-10-28, 10:40:44
Wow was für eine Erkenntnis! Ein kleiner Chip der neuen Generation ist gleichschnell wie die Topdogs der alten Generation, das gab es noch nie! :freak:
Die Karte ist ja genau dort wo es erwartet und auch von NV gesagt wurde, halt der Bereich um die 3090ti :rolleyes:
Dovregubben
2022-10-28, 10:48:35
Lol... die 4080 12GB erreicht im Rasterizer @285W gerade mal die 300W RX 6900XT. Was ein Fortschritt, das wird mit RDNA3 noch lustig. :lol:
Vermutlich war die Karte auch massiv über den Sweetspot hinaus betrieben. Wäre gut möglich, dass sie als 4070TI mit leicht niedrigeren Taktraten auch problemlos wesentlich weniger verbraucht.
Hat eigentlich jemand mal nach der Methode die Kosten für Ada ausgerechnet?
https://www.youtube.com/watch?v=oMcsW-myRCU
Ich bekomme da schon etwas erschreckend hohe Werte raus und da wird auch sehr schnell klar, warum Nvidia auf teildefekte Chips setzt. Auch Chiplets werden da nur 2-3 Prozessgenerationen helfen. 5nm Wafer sollen wohl bei 17k Dollar liegen und 3nm schon mindestens 20k.
robbitop
2022-10-28, 10:48:51
Die GPU, formely known as 4080 12GB, lief durch 3DMark: https://videocardz.com/newz/unlaunched-geforce-rtx-4080-12gb-trades-places-with-3090-ti-in-alleged-3dmark-tests
Frage mich immer noch, wie die 4090 mit 65% mehr Stromverbrauch fast doppelt so schnell sein kann.
Was ist daran überraschend? Die 4080 12 GB hat 47 % der Units der 4090. Und sie ist 54% so schnell wie die 4090. Das passt doch. Der TDP Unterschied ist einfach "Betriebspunkt", der im oberen Bereich hoch nicht linear ist.
Wir wissen, dass die 4090 mit reduzierter TDP fast keine Leistung verliert. Das ist auch bei der 4080 12 GB anzunehmen. Man müsste beide auf einen ähnlichen Betriebspunkt manuell legen (und idealerweise auch eine repräsentative Sample size aufgrund der typischen Schwankungen von Silizium zu Silizium) und vergleichen. Aber ich sehe daran wenig Ungewöhnliches.
Lol... die 4080 12GB erreicht im Rasterizer @285W gerade mal die 300W RX 6900XT. Was ein Fortschritt, das wird mit RDNA3 noch lustig. :lol:
Betriebspunkt ist gerade beim Hochprügeln schnell hoch-nicht linear. Man kann gerade dort mit vielen TDP Erhöhung nur marginale Geschwindigkeitserhöhungen schaffen und mit wenig Leistungsverlust große TDP Reduktionen schaffen.
Das ist doch eigentlich bekannt.
Die Karte ist ja genau dort wo es erwartet und auch von NV gesagt wurde, halt der Bereich um die 3090ti :rolleyes:
Im 3DMark vielleicht. In realen Spielen ist die 4080 12 GB deutlich langsamer als die 3090/ti laut Nvidias eigenen Benchmarks. 84% der Geschwindigkeit der 3090 ti.
https://www.computerbase.de/2022-10/offizielle-benchmarks-der-abstand-zwischen-rtx-4080-und-rtx-4090-ist-riesig/
BlacKi
2022-10-28, 10:49:03
Im Schnitt sind 3090 + 6900XT gleiche Leistungsklasse. :rolleyes: richtig. aber die 12gb 4080 ist schneller, fast auf höhe der 3090ti.
und die 285w werden wohl wie bei der 4090 eher selten anliegen und mit undervolting sub 200w, schwankend zwischen 150-200w. durch die niedrigere bandbreite und weniger cache, wird die auslastung wohl etwas geringer ausfallen als bei der 4090.
Troyan
2022-10-28, 10:51:31
Was ist daran überraschend? Die 4080 12 GB hat 47 % der Units der 4090. Und sie ist 54% so schnell wie die 4090. Das passt doch. Der TDP Unterschied ist einfach "Betriebspunkt", der im oberen Bereich hoch nicht linear ist.
Wir wissen, dass die 4090 mit reduzierter TDP fast keine Leistung verliert. Das ist auch bei der 4080 12 GB anzunehmen. Man müsste beide auf einen ähnlichen Betriebspunkt manuell legen (und idealerweise auch eine repräsentative Sample size aufgrund der typischen Schwankungen von Silizium zu Silizium) und vergleichen. Aber ich sehe daran wenig Ungewöhnliches.
Laut den Screenshots taktet die Karte vielleicht 100MHz höher. Das sollte ebenfalls mit 1,05V wie bei der 4090 erreichbar sein.
Weder im Speed Way noch Timespy Extreme rennt die 4090 dauerhaft gegen das 450W Limit. Eher liegt der Verbrauch im Schnitt bei 425W. Die 4080 12Gb müsste also dann eher bei 225W liegen.
In AC:Valhalla liegt die 4090 sogar nur bei 330W in 4K. Da wird die 4080 12GB wohl kaum 285W brauchen, wenn sie ca. 42% weniger Leistung liefert...
dargo
2022-10-28, 10:52:18
Betriebspunkt ist gerade beim Hochprügeln schnell hoch-nicht linear. Man kann gerade dort mit vielen TDP Erhöhung nur marginale Geschwindigkeitserhöhungen schaffen und mit wenig Leistungsverlust große TDP Reduktionen schaffen.
Das ist doch eigentlich bekannt.
Das gilt für alle IHVs. :rolleyes:
und die 285w werden wohl wie bei der 4090 eher selten anliegen und mit undervolting sub 200w...
Alter... was willst du wieder mit deinem UV-Geschwurbel? UVen kann man jede Graka.
robbitop
2022-10-28, 10:53:02
richtig. aber die 12gb 4080 ist schneller, fast auf höhe der 3090ti.
Im 3DMark vielleicht. In realen Spielen ist die 4080 12 GB deutlich langsamer als die 3090/ti laut Nvidias eigenen Benchmarks. 84% der Geschwindigkeit der 3090 ti.
https://www.computerbase.de/2022-10/...90-ist-riesig/
robbitop
2022-10-28, 10:53:59
Das gilt für alle IHVs. :rolleyes:
Richtig. Und je nach dem wer mehr prügelt hat eine deutlich schlechtere Effizienz. Deshalb sagt das wenig über den Chip aus und mehr über die SKU (out of the box). Was IMO super irrelevant ist, da die TDP schnell nach gusto einstellbar ist.
Was erschreckend wäre, wenn man beide SKUs auf den sweetspot einstellt und die 4080 12GB trotzdem keine bessere Perf/W als die 6900XT erreicht. So (out of the box) wissen wir aber nicht, welche der beiden SKUs von Haus aus einfach mehr verprügelt wurde.
BlacKi
2022-10-28, 10:58:30
Das gilt für alle IHVs. :rolleyes:
Alter... was willst du wieder mit deinem UV-Geschwurbel? UVen kann man jede Graka.das ändert nichts daran, das der 8auer eine steigerung um 3x der effizient beim undervolting gegenüber der 3090ti festgestellt hat.
ada skaliert viel besser als ampere beim undervolting. trotz des voltage nachteils.
Im 3DMark vielleicht. In realen Spielen ist die 4080 12 GB deutlich langsamer als die 3090/ti laut Nvidias eigenen Benchmarks. 84% der Geschwindigkeit der 3090 ti.
https://www.computerbase.de/2022-10/...90-ist-riesig/
laut nvidias benchmarks gibts auch titel mit gleicher performance, siehe division 2. ist das kein reales spiel?
robbitop
2022-10-28, 11:04:39
das ändert nichts daran, das der 8auer eine steigerung um 3x der effizient beim undervolting gegenüber der 3090ti festgestellt hat.
ada skaliert viel besser als ampere beim undervolting. trotz des voltage nachteils.
Hat Der 8auer da dann nur die 4090 geundertvoltet und optimiert und die 3090ti stock gelassen? Bei Faktor 3x klingt das so und dann ist das ein lächerlicher "Vergleich" weil Apfel/Birne. Wenn muss man beide Vergleichsparteien optimieren und vergleichen.
Soweit ich mich erinnern kann, konnte man die 3090ti auch extrem gut undervolten und tdp optimieren. IIRC rannte die mit ~200W in irgendeinem Test noch mit nicht all zu viel Performanceverlust, was natürlich Perf/W extrem gesteigert hat.
laut nvidias benchmarks gibts auch titel mit gleicher performance, siehe division 2. ist das kein reales spiel?
Oh nicht gesehen - du hast Recht. Müssen wir auf jeden Fall mal Tests abwarten.
basix
2022-10-28, 11:12:56
Frage mich immer noch, wie die 4090 mit 65% mehr Stromverbrauch fast doppelt so schnell sein kann.
Betriebspunkt? Knall 1.1V und 3.0GHz anstatt 1.05V und 2.7 GHz auf die 4090 und du wirst dich wundern.
dargo
2022-10-28, 11:15:05
das ändert nichts daran, das der 8auer eine steigerung um 3x der effizient beim undervolting gegenüber der 3090ti festgestellt hat.
Welche Orangen mit welchen Birnen hat der da wieder verglichen? :lol:
dildo4u
2022-10-28, 11:16:28
Die Karte ist vollkommen ok nur der Preis muss halt angepasst werden, ich will keine Version mit 10GB.
dargo
2022-10-28, 11:19:24
Geht nicht... Lederjacke meint Ada muss so viel kosten. ;) Und das Ding hat 12GB, keine 10GB.
dildo4u
2022-10-28, 11:32:29
Die Effizienz ist doch kacke weil der Chip so klein ist, da gibt es Tonnen Potenzial nach unten beim Preis.
Dovregubben
2022-10-28, 11:58:31
Ich bleibe dabei, dass Nvidia sich mit der Skalierung komplett verschätzt hat.
Die haben einen Kühler + PCB gebaut für 450-600W, aber der endgültige Chip skaliert ab 350W kaum noch. Nachdem ja alles auf höheres Powertarget ausgelegt war, haben sie die Karte dann auch damit releast. Ich hoffe sie das Wissen noch rechtzeitig in die Entwicklung der kleineren Karten einfliesen lassen können. Der aktuelle Betriebspunkt macht keinerlei Sinn und war noch nie bei einer Serienkarte so extremst daneben.
dildo4u
2022-10-28, 13:22:30
NV veröffentlich immer noch Werte mit der 12GB Version.
https://abload.de/img/dlss4ybiqm.png
https://www.computerbase.de/2022-10/nvidia-geforce-526-47-dlss-3-f1-22/
Troyan
2022-10-28, 13:30:43
Das ist vom letzten Monat.
basix
2022-10-28, 13:44:34
Ich bleibe dabei, dass Nvidia sich mit der Skalierung komplett verschätzt hat.
Die haben einen Kühler + PCB gebaut für 450-600W, aber der endgültige Chip skaliert ab 350W kaum noch. Nachdem ja alles auf höheres Powertarget ausgelegt war, haben sie die Karte dann auch damit releast. Ich hoffe sie das Wissen noch rechtzeitig in die Entwicklung der kleineren Karten einfliesen lassen können. Der aktuelle Betriebspunkt macht keinerlei Sinn und war noch nie bei einer Serienkarte so extremst daneben.
Kann sein. Wieso aber jammern? Wenn das so stimmt, wären die Karten ja besser und energieffizienter als geplant. Die Performance ist ja da. Im Realbetrieb nimmt sich die 4090 fast nie die 450W. Da Nvidia die Chip-Spannung auf max. 1.05V limitiert, ergibt sich automatisch ein relativ effizienter Betriebspunkt.
Dural
2022-10-28, 14:27:34
Glaub ich nicht, ich bin mir ziemlich sicher das die die Chips ziemlich gut zum voraus einschätzen können.
Reine Vermutung: Bei den aktuellen Karten geht es nur darum den Kunden auf diese einzugewöhnen und selber damit Erfahrungen zu sammeln, der "Hammer" kommt erst später oder sogar mit einer neuen Generation.
Thunder99
2022-10-28, 21:35:46
Kann sein. Wieso aber jammern? Wenn das so stimmt, wären die Karten ja besser und energieffizienter als geplant. Die Performance ist ja da. Im Realbetrieb nimmt sich die 4090 fast nie die 450W. Da Nvidia die Chip-Spannung auf max. 1.05V limitiert, ergibt sich automatisch ein relativ effizienter Betriebspunkt.
Wenn sie Mal richtig ausgelastet werden würde könnte es öfters vorkommen, dass die TDP limitiert.
Aktuell aber ist sie in der Tat öfters darunter.
Jetzt aber erstmal die 16er abwarten was sie auf die Straße bringt zu welchem Verbrauch und Realpreis
vinacis_vivids
2022-10-29, 00:05:25
AD104 295mm² 4nm 285W ~ N33 203mm² 6nm 220W?
Vermutlich schleppt Nvidia das ganze veraltete riesige I/O mit sich rum und tarnt es als 4nm. Und der L2-Cache ist so gigantisch, bringt aber nur wenig Leistung.
Ada sieht für mich mehr und mehr aus wie Altmetall in der Mittelklasse. Der Shrink hat nur sehr wenig gebracht und die Transistoren bringen nicht wirklich viel Leistung auf die Straße. Auch der L2-Cache einfach lieblos draufgeklatscht.
Alles in Allem offenbart die Ada uArch mehr und mehr Schwächen (zu groß, zu energiehunrig, zu teuer, zu ineffizient)
Sardaukar.nsn
2022-10-29, 08:16:24
Gefühlt die Hälfte der Transistoren in Ada sind für künstliche Intelligenz und deep learning. Ob das Konzept mit den Tensor Cores und DLSS bei den Kunden ankommt wird die Zukunft zeigen.
dildo4u
2022-10-29, 09:27:38
NV setzt halt drauf das das öfter passiert, wenn du F1 22 maxt ist RT aktiv.
Das Game ist ein ganz normaler Konsolen Titel auf Konsole kannst du z.b RT im Replay@30fps nutzen.(So macht es z.b Gran Turismo 7)
https://abload.de/img/f12246fax.png
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/34.html
vinacis_vivids
2022-10-30, 23:16:56
4080 16Gb für 1199USD gelistet
https://www.hardwaretimes.com/nvidia-geforce-rtx-4080-16gb-listed-for-1199-on-newegg/
Sehr viel Geld für den kleinen AD103 Chip mit 379mm² Fläche. Meinem Geschmack nach zu teuer.
In EUR umgerechnet ~1500€
robbitop
2022-10-31, 07:17:27
Einfach nur lächerlich. Aber die Lemminge werden es schon bezahlen. Ist ja eine 80er Geforce.
dildo4u
2022-10-31, 07:48:19
Es gibt immer noch 3090 auf Lager, 4080 für weniger würde erneut auf die AIB kacken die die alten Karten nicht los bekommen.
Die 16GB sorgen vermutlich dafür das die sogar als Workstation Karte sinn macht was die 3090 noch unattraktiver macht.
Die restlichen 102er gehen doch als 3070ti weg.
dildo4u
2022-10-31, 08:06:13
Nicht die schon gebaut wurden, die 3090 hatte große Bestellungen Anfang 2022 da sie als einzige Karte kein Mining lock hatte.
Thunder99
2022-10-31, 13:05:12
Einfach nur lächerlich. Aber die Lemminge werden es schon bezahlen. Ist ja eine 80er Geforce.
Es braucht unbedingt Konkurrenz und hohe Lagerbestände damit der Preis in bessere Region kommt (unter 1000€).
Kann man nur abwarten...
Platos
2022-10-31, 13:06:04
Es braucht vor allem Leute, die nicht kaufen.
Das ist mit Abstand das wichtigste.
Meridian12
2022-10-31, 13:09:10
Es braucht vor allem Leute, die nicht kaufen.
Das ist mit Abstand das wichtigste.
Hätte niemand,absolut niemand die 4090 gekauft, wäre die jetzt schon für 1800 Euro zu haben. Jede Wette.
Aber natürlich unrealistisch,dass niemand diese kauft.
Slipknot79
2022-10-31, 13:13:03
Bevor Lederjacke die price senkt, wird einfach die Produktion gedrosselt. Wäre ja ein falsches Zeichen, sich "erpressen" zu lassen. Das merkt sich sonst noch der Kunde und handelt in Zukunft genauso. (y)
Platos
2022-10-31, 13:28:54
Hätte niemand sie gekauft, wäre sie für unter 1000 zu haben...
Aber in der Praxis wirds dann vlt. so laufen, dass man einfach die Produktion senkt und zwar so, dass immer Knappheit herrscht. Kann ich mir gut vorstellen.
Thunder99
2022-11-01, 10:32:48
Wenn am Ende dennoch nicht entsprechend gekauft wird werden dennoch die Preise runter gehen müssen.
Lieber was für weniger gekauft als abschreiben zu müssen.
Jetzt aber erstmal abwarten wie es sich in den nächsten 4-8 Wochen entwickelt
Meridian12
2022-11-01, 11:16:55
Bevor Lederjacke die price senkt, wird einfach die Produktion gedrosselt. Wäre ja ein falsches Zeichen, sich "erpressen" zu lassen. Das merkt sich sonst noch der Kunde und handelt in Zukunft genauso. (y)
Klar wird dann die Produktion gedrosselt, aber man hätte ja schon zehntausende Karten rumliegen bis man das bemerkt.
AffenJack
2022-11-01, 11:25:11
Hätte niemand sie gekauft, wäre sie für unter 1000 zu haben...
Aber in der Praxis wirds dann vlt. so laufen, dass man einfach die Produktion senkt und zwar so, dass immer Knappheit herrscht. Kann ich mir gut vorstellen.
Nö, es würde den Chip einfach nicht geben. Man würde den überhaupt nicht produzieren oder entwickeln. Keine Firma wird dir nen Hochpreischip entwickeln, der kein ROI bringt. Also gäbe es da einfach nix. AD103 würde AD102 heißen und als teuerster Chip verkauft werden.
DrFreaK666
2022-11-01, 15:34:45
Ist die Grafik korrekt?
https://abload.de/img/zbub1wzroernub3kj_li1l9c0q.png (https://abload.de/image.php?img=zbub1wzroernub3kj_li1l9c0q.png)
https://www.reddit.com/r/hardware/comments/yhrnf6/nvidia_gpus_2012_2022_relative_cuda_core_count/
Lehdro
2022-11-01, 16:08:29
Die erste Titan war kein Vollausbau, der kam erst mit der 780 Ti/Titan Black/Titan Z.
Die Titan X(Pascal) war auch kein Vollausbau, das kam erst mit der Titan Xp.
1060 gab es in unterschiedlichen Core Konfigurationen.
why_me
2022-11-01, 16:46:25
Aber prinzipiell passt das schon, ja.
BlacKi
2022-11-01, 17:11:41
ja, das ist "etwas" platz zwischen 4090 und 4080 16gb.
was mich immernoch fuchst, die performance und der verbrauch der 4080 liegt nichtmal annäherend bei der hälfte, trotz ähnlicher taktraten. die kleineren karten müssen die cores wohl besser auslasten.
unl34shed
2022-11-01, 18:01:06
Ist die Grafik korrekt?
Sag ich schon seit dem die Karten vorgestellt wurden, aber mir wollte ja keiner glauben :rolleyes:
E: Die reine Betrachtung der Cudacores verzerrt es aber etwas, da die kleineren Chips höher Takten. TFLOPs sind mMn. die bessere Metrik, da sie den Takt einbeziehen.
Troyan
2022-11-01, 19:03:29
Ist die Grafik korrekt?
https://abload.de/img/zbub1wzroernub3kj_li1l9c0q.png (https://abload.de/image.php?img=zbub1wzroernub3kj_li1l9c0q.png)
https://www.reddit.com/r/hardware/comments/yhrnf6/nvidia_gpus_2012_2022_relative_cuda_core_count/
Die Grafik ist dumm, weil diese ignoriert, dass die Chipgrößen nie identisch waren.
So hat nVidia auch eine GTX690 mit zwei GK104 Chips rausgebracht (kostete 1000€). Bei der GTX1080 gab es auch einen GP100 als P100 mit der doppelten Chipgröße (kam später als Quadro auf den Markt).
Wir hatten die Diskussion ja schon: GK104 und GP104 waren 300mm^2 groß und wurden als 80er Version verkauft. GM204 und TU104 waren 400mm^2 (bzw. 520mm^2) groß und wurden als 80er Version verkauft.
Relevant ist einzig Chipgröße und die ist nie statisch bei nVidia in einem bestimmten Rahmen.
Mangel76
2022-11-01, 19:09:18
Die Grafik ist dumm, weil diese ignoriert, dass die Chipgrößen nie identisch waren.
So hat nVidia auch eine GTX690 mit zwei GK104 Chips rausgebracht (kostete 1000€). Bei der GTX1080 gab es auch einen GP100 als P100 mit der doppelten Chipgröße (kam später als Quadro auf den Markt).
Wir hatten die Diskussion ja schon: GK104 und GP104 waren 300mm^2 groß und wurden als 80er Version verkauft. GM204 und TU104 waren 400mm^2 (bzw. 520mm^2) groß und wurden als 80er Version verkauft.
Relevant ist einzig Chipgröße und die ist nie statisch bei nVidia in einem bestimmten Rahmen.
Die Größe ist dem Kunden doch egal? Für ihn ist die Nummer eine Orientierung im Leistungsspektrum. Und die stimmt halt bei Ada überhaupt nicht mehr.
Troyan
2022-11-01, 19:17:41
Die Größe ist dem Kunden doch egal? Für ihn ist die Nummer eine Orientierung im Leistungsspektrum. Und die stimmt halt bei Ada überhaupt nicht mehr.
Wenn die Größe egal ist, dann bekommt er exakt das: Ein Produkt. GTX680 hatte einen Die, der fast die Hälfte kleiner war als bei der GTX580. Da die GTX580 für $499 verkauft wurde, hat man also vor 10 Jahren auch nur 35% Mehrleistung erhalten: https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/12/
Dem Kunden ist es egal, was nach oben hin existiert. Tangiert ja einen Apple-Kunden auch nicht, ob es ein iPhone gibt, was das doppelte vom Einsteiger-iPhone kostet.
DrFreaK666
2022-11-01, 19:22:05
Wenn die Größe egal ist, dann bekommt er exakt das: Ein Produkt. GTX680 hatte einen Die, der fast die Hälfte kleiner war als bei der GTX580. Da die GTX580 für $499 verkauft wurde, hat man also vor 10 Jahren auch nur 35% Mehrleistung erhalten:...
35% Mehrleistung für einen 50% höheres Preis. Sicher dass du das zum Vergleich nehmen willst?
Mangel76
2022-11-01, 19:27:54
Wenn die Größe egal ist, dann bekommt er exakt das: Ein Produkt. GTX680 hatte einen Die, der fast die Hälfte kleiner war als bei der GTX580. Da die GTX580 für $499 verkauft wurde, hat man also vor 10 Jahren auch nur 35% Mehrleistung erhalten: https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/12/
Dem Kunden ist es egal, was nach oben hin existiert. Tangiert ja einen Apple-Kunden auch nicht, ob es ein iPhone gibt, was das doppelte vom Einsteiger-iPhone kostet.
Du willst es nicht verstehen, oder? Dem Kunden ist doch völlig egal, wo die Leistung herkommt! Chipgröße also unwichtig, ob 102, 103 oder 104 ebenfalls. Wichtig sind die Leistungsklassen, damit man sich in der Angebotspalette orientieren kann. Ampere war da mit der 80er eher näher am oberen Ende als andere Generationen. Dafür fällt man mit Ada umso tiefer. Und mit der 12GB wäre es noch weit dreister geworden.
robbitop
2022-11-01, 19:56:19
Es ist die historisch eine der schwächsten 80 relativ zum Topdog. Das kann man nicht schönreden.
Sardaukar.nsn
2022-11-01, 20:16:27
Klar kann und macht man das überall. Die neue 80er wird die stärkste 80er sein die es je gegeben hat. Ganz einfach.
Wie viele Kunden interessieren sich denn schon für Details wie Chipgröße und relativen Abstand zum Topdog?
Linmoum
2022-11-01, 20:22:57
Klar kann und macht man das überall. Die neue 80er wird die stärkste 80er sein die es je gegeben hat. Ganz einfach.Um mal in der nahen Vergangenheit zu bleiben: Die 1080 war (laut damaligem CB-Rating) 30% schneller als die 980Ti. Ob das jetzt also "die stärkste 80er die es je gegeben hat" sein wird, bleibt abzuwarten. Wenn doch, dann nicht mit viel Vorsprung. Wohlgemerkt bei $1199 vs. $699 (den fake-$599 MSRP der 1080 nehme ich jetzt mal bewusst nicht).
Also ich erkenne da schon einen eklatanten Unterschied.
robbitop
2022-11-01, 20:37:50
Absolut gesehen ist es natürlich lächerlich. Natürlich ist die neuste GPU Serie immer die stärkste die es je gab. Wenn es nicht so wäre, wäre es ein historischer fail. :D
basix
2022-11-01, 20:44:55
Das Problem sind ja gar nicht die Namen. Die Preisgestaltung ist das Problem. Denn eine 4080 (egal ob 16GB oder 12GB) wird wohl als Produkt eine ziemlich gute Karte. Gute Performance, viele Features, sinnvolle Speichermengen, vermutlich gute Kühler, bei Bedarf ziemlich energieeffizient. Alles also gut. Nur zu teuer. Wären die 80er / 90er Karten 599$, 849$ und 1299$ wäre alles fein. Und vermutlich auch von den Margen her machbar. Nur werden wir sowas wohl nicht mehr sehen.
Linmoum
2022-11-01, 20:51:22
Wobei ich mir ehrlich gesagt nicht so sicher bin, ob NV bei $1299 mit einem >600mm² N5-Die noch die hohen Margen hätte, die man sich erhofft bzw. die man anstrebt. Zumindest aktuell. Kann natürlich trotzdem immer noch jammern auf hohem Margen-Niveau sein.
Das Problem sehe ich auch eher weniger bei AD102, sondern bei AD103. Riesiger Abstand zu AD102, aber auf der anderen Seite gerade mal nur 84mm² größer als AD104. Mit dieser Staffelung hat sich Nvidia IMO selbst das Problem mit vernünftiger Preisgestaltung und dem Portfolio geschaffen.
basix
2022-11-01, 21:21:05
Von den Kosten her ist AD103 = ~1.33x AD104 (1.33x Speicher, 1.29x Chipgrösse). Und in der Theorie 30-40% schneller (84 -> 60 SM) plus den Preisaufschlag, den schnellere Grafikkarten bekommen. Ich sehe hier kein Problem, wenn man z.B. 599$ -> 899$ machen würde. Auch 649$ -> 899$ wäre noch im normalen Rahmen.
Nazar
2022-11-01, 22:09:51
Die Grafik ist dumm, weil diese ignoriert, dass die Chipgrößen nie identisch waren.
So hat nVidia auch eine GTX690 mit zwei GK104 Chips rausgebracht (kostete 1000€). Bei der GTX1080 gab es auch einen GP100 als P100 mit der doppelten Chipgröße (kam später als Quadro auf den Markt).
Wir hatten die Diskussion ja schon: GK104 und GP104 waren 300mm^2 groß und wurden als 80er Version verkauft. GM204 und TU104 waren 400mm^2 (bzw. 520mm^2) groß und wurden als 80er Version verkauft.
Relevant ist einzig Chipgröße und die ist nie statisch bei nVidia in einem bestimmten Rahmen.
OMG
:facepalm:
Da fehlen einem echt die Worte. :uwoot:
Troyan
2022-11-02, 10:29:31
Es ist die historisch eine der schwächsten 80 relativ zum Topdog. Das kann man nicht schönreden.
Was ist mit der GTX980? Laut Computerbase bissl schneller als die GTX780TI zum Launch gewesen: https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/
Das Problem ist einfach der Preis. Wäre die Karte bei $699 geblieben, sähe es anders aus.
Meridian12
2022-11-02, 10:34:42
Kennt denn jemand überhaupt die genauen Preise für NVIDIA??
Wenn man manche hier so reden hört, müsste man denken, dass von den 1499 Dollar für die 4090,NVIDIA 1000 Dollar an TSMC überweisen muss für den Chip.
Aber wahrscheinlich sind das eher nur 300 Dollar.
Deswegen die Frage, weiß jemand was der Großkunde NVIDIA zahlen muss an TSMC?
basix
2022-11-02, 10:35:28
Was ist mit der GTX980? Laut Computerbase bissl schneller als die GTX780TI zum Launch gewesen: https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/
Das Problem ist einfach der Preis. Wäre die Karte bei $699 geblieben, sähe es anders aus.
Korrekt, nur ist der nicht gleich geblieben.
Nichtsdestotrotz war das 4080 12/16GB Thema einfach irreführend für Kunden. Von mir aus hätte die 16GB Version 4080 Ti heissen können, das wäre klarer gewesen.
Zudem war bei der 680 nichts oben drüber. Sobald GK102 kam (780) wurde GK104 zur x70er degradiert. Dort wo der Chip hingehört. Genau gleich könnte man auch für AD104 argumentieren ;)
Troyan
2022-11-02, 10:39:04
Naja, erstens gab es die GTX690 im Mai 2012 und Titan kam im Februar 2013. Es hat also 14 Monate gedauert, bis GK104 im Preis reduziert wurde.
basix
2022-11-02, 11:01:42
Dual-Chip und eine Titan = Exoten ;)
Platos
2022-11-02, 11:08:36
Was ist eig. dein Beweggrund, Troyan, dass du bei allem, was nvidia angeht, das Bedürfnis hast, irgendwie den nvidia-defendor zu spielen?
Badesalz
2022-11-02, 11:16:15
@basix
Wäre das Thema zu verteidigen, hätte NV das mit einer kleinen Initiative hingebogen. Wenn man einen Unlaunch =) macht, gibt man zu, daß es nicht so gut war und auch nicht mehr zu retten ist. Keine Ahnung also worüber der Typ seiert. Es ist aber wenigstens das erste Mal wo er nicht NVs Meinung ist :D
@Platos
Die Fragestellung ist zwar nicht ohne :rolleyes: aber trotzdem zu eng gedacht. Er marodiert nun wieder im RDNA3-Thread und bringt sich da langsam in Stellung. Das Thema ist also schon bisschen breiter als nur das was du ansprichst :wink:
amdfanuwe
2022-11-02, 11:44:07
Wenn man manche hier so reden hört, müsste man denken, dass von den 1499 Dollar für die 4090,NVIDIA 1000 Dollar an TSMC überweisen muss für den Chip.
Sicherlich etwas weniger.
Ein wesentlicher Batzen sind eher die Entwicklungskosten.
Also frage dich eher, wieviele ADA Chips glaubt Nvidia verkaufen zu können und wie werden die Entwicklungskosten umgelegt.
Dann braucht es noch etwas Gewinn für die Entwicklung der nächsten Generation und Reserven, falls es mal nicht gut läuft.
robbitop
2022-11-02, 11:54:29
Was ist mit der GTX980? Laut Computerbase bissl schneller als die GTX780TI zum Launch gewesen: https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/
Das Problem ist einfach der Preis. Wäre die Karte bei $699 geblieben, sähe es anders aus.
Die 980 hat 66% des GM200. Die 4080 hat nur grob die halbe SM Anzahl bom AD102. Relativ zum vollen Topdog Chip (die sku word noch kommen) ist das die schwächste 80 seit langem.
Meridian12
2022-11-02, 14:17:12
Glaube auf irgendeiner Seite hier oder bei Computerbase,wurde mal eine Tabelle gezeigt mit den ganzen NVIDIA Karten mit % Verhältnis zur stärksten NVIDIA CPU.
(Finde diese leider nicht mehr.)
Dort lag die 4080 16GB in einer Reihe mit den ganzen 70er Karten der letzten Generationen.
Sprich,die 4080 16GB ist mit den Daten der letzten paar Jahre (bis zur 9xx Version) einfach eine reinrassige 4070er Karte. Glaube nichtmal ne TI,aber habe die Tabelle nicht mehr genau im Kopf.
Kurzum,auch mit der 4080 16GB verarscht NVIDIA die Leute.
why_me
2022-11-02, 14:29:15
Meinst du das Bild von unl34shed?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13122313#post13122313
basix
2022-11-02, 14:31:33
Meinst du das Bild von unl34shed?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13122313#post13122313
Evtl. das hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13155244#post13155244
Und stimmt schon, hier liegt die 4080 16GB auf ~70er (Ti) Niveau im Vergleich zu den Vorgänger-Generationen. Am Schluss zählt aber die relative Performance, und da ist die 4080 16GB vermutlich schon nicht extrem weit weg von der 4090. Die 4090 ist anscheinend nicht einfach auszulasten. Wenn sie ausgelastet wird, dreht sie aber Kreise um die 4080 16GB (siehe A Plagues Tale: Requiem): https://www.computerbase.de/2022-10/offizielle-benchmarks-der-abstand-zwischen-rtx-4080-und-rtx-4090-ist-riesig/
Sardaukar.nsn
2022-11-02, 17:32:00
Wobei 3090 und 3080 auch ungewöhnlich nah beieinander lagen. Das gab es in der Vergangenheit auch nicht so.
basix
2022-11-02, 20:13:38
Wobei 3090 und 3080 auch ungewöhnlich nah beieinander lagen. Das gab es in der Vergangenheit auch nicht so.
Eine 90er gab es vorher noch nie ;) Nur eine xx80 Ti oder Titan. Dual-GPU Karten mal ausgenommen (295, 590, 690)
Thunder99
2022-11-04, 17:55:04
Nach der Vorstellung der RDNA3 GPUs, wie wahrscheinlich ist es, dass die Preis(e) der 4080 angepasst werden? Immerhin wird die 7900XT schneller erwartet bei niedrigerem Preis.
Klar wird es den Nvidia Aufschlag geben aber dennoch könnte so -100/200 drinne liegen
Ich kann einfach mit Nvidia Karten mehr mache und bin flexibler als mit AMD Karten (kein Fanboy, nur Realist)
basix
2022-11-04, 18:14:13
Bei RT wird die 4080 16GB in den meisten Fällen schneller sein. Dazu der Markenname Nvidia. Keinen Grund also, die Preise zu senken.
Die 4070 (ehemals 4080 12GB) wird vermutlich bei ~699$ landen.
Ravenhearth
2022-11-04, 19:26:23
Wenn die bei $699 landet, wäre die 4080 aber ziemlich unattraktiv :freak: Mit vlt 25% mehr Perf und 33% mehr VRAM würden $999 (+43%) wesentlich besser passen als $1199 (+71%). Das gilt auch für den Vergleich mit der 4090, die 50% mehr VRAM bietet und mglw. 40% schneller ist, aber so nur 33% teurer wäre.
basix
2022-11-04, 19:49:13
Vielleicht ist es halt wieder Nvidia und es wird 799$. Würde zu ~50% eines AD102 passen (SM Count, Speichermenge). 899$ ist aber gestorben, da ist jetzt die 7900XT mit im Schnitt höherer Performance (bei RZ sogar deutlich) und viel mehr Speicher.
dildo4u
2022-11-04, 20:28:53
4070 muss nicht zwangsweise billiger sein die 6800 sind z.b günstiger als 3070TI.
Mit 12GB wirds sehr interessant ob NV auf Tonnen Marge verzichten wird.
Sardaukar.nsn
2022-11-04, 20:43:08
iGame RTX 4080 16GB
https://cdn.videocardz.com/1/2022/11/COLORFUL-GeForce-RTX-4080-16GB-iGame-Neptune-OC-2.jpg
https://cdn.videocardz.com/1/2022/11/COLORFL-NEPTUNE-4080.png
Quelle: https://videocardz.com/newz/colorful-geforce-rtx-4080-igame-neptune-has-max-tdp-at-380w
Sardaukar.nsn
2022-11-06, 08:05:54
Weniger 4080 als 4090? :|
https://i.imgur.com/E6ErJxh.png
Will nVidia den Radeon RX7000 Absatz ankurbeln?
dildo4u
2022-11-06, 08:19:16
Das ist einfach Müll von Moores law der Satz würde Sinn machen wenn die 4070 mit der 4080 zusammen kommt was abgesagt wurde.
Ampere überschneidet sich mit Lovelace bis 2023 nicht.
just4FunTA
2022-11-06, 09:28:05
Weniger 4080 als 4090? :|
https://i.imgur.com/E6ErJxh.png
Will nVidia den Radeon RX7000 Absatz ankurbeln?
steht doch da sie wollen die rtx30x0 Karten los werden, AMD nehmen sie offensichtlich nicht ernst..
mal schauen ob sie damit auf die fresse fliegen. (also falls das gerücht stimmt..)
Dural
2022-11-06, 09:48:44
Natürlich gibt es vorerst mehr 4090, konkurenzloses Produkt mit der höchsten Marge!
Zudem einige die 4080 planen wahrscheinlich gleich zur 4090 greifen wenn zb. 4080 nicht lieferbar ist. Alles andere wäre seitens NV auch komisch.
AMD spielt im Grafikkarten Bereich schon lange keine Rolle mehr. In dem Preisbereich von 800.-+ wird AMD wohl gerademal 5% abdecken, der Rest ist NV.
Troyan
2022-11-06, 09:53:37
Weniger 4080 als 4090? :|
https://i.imgur.com/E6ErJxh.png
Will nVidia den Radeon RX7000 Absatz ankurbeln?
Der Typ schreibt doch immer nur Quatsch. Echt, glaubt doch nicht alles, was im Internet steht.
Natürlich gibt es vorerst mehr 4090, konkurenzloses Produkt mit der höchsten Marge!Diese Produkte sind aber eher Imagepflege, richtig verdient, trotz kleinerer Marge, wird doch mit den *060/*070. Macht Sinn wenn Nvidia da erst die Ampere aus dem Lager bekommen will, bevor Konkurenz in eigenen Reihen gelauncht wird.
Und es macht es AMD nicht einfacher, wenn die P/L bei Ampere über die Weihnachtszeit top sein wird.
hardtech
2022-11-06, 10:41:30
weiß jemand von euch, wann die kleineren karten rauskommen unter 200w?
Platos
2022-11-06, 10:48:14
weiß jemand von euch, wann die kleineren karten rauskommen unter 200w?
Kann niemand sagen Momentan, da nicht bekannt. Kann man nur schätzen.
Ich würde mich auf April-Juli 2023 Einstellen. Für 4060 und 4050.
hardtech
2022-11-06, 10:49:31
04-07 würde ja über 1/2 jahr später bedeuten. ich dachte, die karten kommen 2-3 monate später. das finde ich doof, da man in der mittelklasse nicht die effizienten neuen karten kaufen kann. die alte generation ist ja bereits gute 2 jahre alt!
Platos
2022-11-06, 10:51:36
04-07 würde ja über 1/2 jahr später bedeuten. ich dachte, die karten kommen 2-3 monate später. das finde ich doof, da man in der mittelklasse nicht die effizienten neuen karten kaufen kann. die alte generation ist ja bereits gute 2 jahre alt!
Das ist leider so (beschissen).
Letztes mal wars ja auch so: Launch im September 2020 und RTX 3060 kam Ende Februar (2021), also quasi ~ ab Anfang März.
3050 Kam sogar im Januar 2022!
Schnitzl
2022-11-06, 10:57:41
Natürlich gibt es vorerst mehr 4090, konkurenzloses Produkt mit der höchsten Marge!
Zudem einige die 4080 planen wahrscheinlich gleich zur 4090 greifen wenn zb. 4080 nicht lieferbar ist. Alles andere wäre seitens NV auch komisch.
AMD spielt im Grafikkarten Bereich schon lange keine Rolle mehr. In dem Preisbereich von 800.-+ wird AMD wohl gerademal 5% abdecken, der Rest ist NV.
Ach sooo dass wusste ich nicht! Immer wieder toll was man hier für heisse Infos bekommt.
Troyan
2022-11-06, 11:04:51
04-07 würde ja über 1/2 jahr später bedeuten. ich dachte, die karten kommen 2-3 monate später. das finde ich doof, da man in der mittelklasse nicht die effizienten neuen karten kaufen kann. die alte generation ist ja bereits gute 2 jahre alt!
CES22 kann interessant werden. Dort werden aufjedenfall die Notebooks vorgestellt. Vielleicht launcht nVidia dann auch gleich die "Mid-Range" Modelle.
basix
2022-11-06, 11:39:03
Nvidia hat AD103 und AD104 ja ready. Die werden in High End Notebooks landen.
Auf Basis von AD104 interessante Karten für Desktop wären eine 4060 Ti 10GB (~549$), 4070 12GB (~649$) und 4070 Ti 12GB (~749$). Eine 3080 10GB hat man für 699$ angeboten (faktisch nicht verfügbar, ich weiss) und das war ein 2x so grosser Chip. Da sollten die genannten Preise schon drin liegen. Ebenso, wenn man es mit der 499$ der RTX 3070 vergleicht (1.2...1.5x teurerer Chip, 1.5x Speicher, 1.5x Performance, 1.5x Preis). P/L stagniert hier aber, wenn man noch den Euro-Kurs miteinbezieht.
Richtiger Midrange <500$ werden wir wohl erst mit AD106 sehen. Der wird aber nur etwa auf RTX 3070 Niveau landen und vermutlich >400$ kosten. Inkl. Euro-Kurs wiederum eine P/L Stagnation.
hardtech
2022-11-06, 11:42:17
CES22 kann interessant werden. Dort werden aufjedenfall die Notebooks vorgestellt. Vielleicht launcht nVidia dann auch gleich die "Mid-Range" Modelle.
und wir wissen gut, dass launch und verfügbarkeit mittlerweile zwei richtig unterschiedliche paar schuhe sind.
ich finds schade, dass aus einem produkt so viel show gemacht wird.
früher gab es gerüchte. dann irgendwann einen launch mit kurzfristiger ausreichender verfügbarkeit. die preise waren vertretbar.
ich rede von zeiten der kyro 2 als die welt noch in ordnung war.
https://www.computerbase.de/2021-06/hercules-prophet-450-powervr-kyro-2/
Sardaukar.nsn
2022-11-06, 14:47:57
Für RTX 4090 bezahle ich 1599€ und kein Euro mehr. :freak: https://www.ebay-kleinanzeigen.de/s-anzeige/nvidia-rtx-4090-24gb-vram-grafikkarte-gesuch/2264507150-225-5119?utm_source=copyToPasteboard&utm_campaign=socialbuttons&utm_medium=social&utm_content=app_ios
Radeonfreak
2022-11-06, 15:08:09
Rechtschreibung ist auch nicht gerade seine Stärke.
Niall
2022-11-06, 15:11:00
Rechtschreibung ist auch nicht gerade seine Stärke.
Wie schreibt man denn Skalpa? :confused:
Linmoum
2022-11-06, 15:17:23
Millioner oder ein dumes Scharf
;D
Eigentlich fies, sich darüber lustig zu machen. Aber die 1599€, die er zahlen will, wären woanders wohl besser investiert...
arcanum
2022-11-06, 17:17:54
viel trauriger ist wohl, dass mittlerweile jede textbox im internet dazu genutzt wird die eigene unzufriedenheit kundzutun. als ob das irgendeine sau auf ebay kleinanzeigen interessiert. wenn er nur 1600€ zahlen will, soll er halt 12 monate warten oder millionär werden.
DrFreaK666
2022-11-06, 17:20:07
viel trauriger ist wohl, dass mittlerweile jede textbox im internet dazu genutzt wird die eigene unzufriedenheit kundzutun. als ob das irgendeine sau auf ebay kleinanzeigen interessiert. wenn er nur 1600€ zahlen will, soll er halt 12 monate warten oder millionär werden.
Wenn er Millionär ist, dann gibt es trotzdem keine 4090 für 1600€ :D
arcanum
2022-11-06, 17:28:19
Wenn er Millionär ist, dann gibt es trotzdem keine 4090 für 1600€ :D
dann ist er wenigstens kein dummes schaf weil er ja genug geld hat :D
=Floi=
2022-11-07, 03:58:56
Ein wesentlicher Batzen sind eher die Entwicklungskosten.
Also frage dich eher, wieviele ADA Chips glaubt Nvidia verkaufen zu können und wie werden die Entwicklungskosten umgelegt.
Dann braucht es noch etwas Gewinn für die Entwicklung der nächsten Generation und Reserven, falls es mal nicht gut läuft.
Komischerweise schaffen es die anderen ihre chips günstig verkaufen zu können. Auch bei vram schaffen die anderen auf einmal normale preise.
Selbst 300€ telefone gibt es mit 8gb ram. Apple TV geht auch in günstig.
Dann soll NV es doch sagen, wenn zb 30% der karte in die F&E und den treiber gehen. Aktuell habe ich mittlerweile das gefühl da geht das ganze geld nur in deren taschen. Als wenn es bei den preisen so ein drama wäre genug vram zu verbauen und zur not die karte 100€ teurer zu machen. Da könnte der kunde ja mal was von haben... :rolleyes:
Auch hier ist das ganze bei AMD wieder mal kein problem.
Den treiber und die F&E finanziert man vor allem über die breite und da fehlt der 200-400€ bereich komplett.
NV im markt hat nicht umsonst mit keinem anderen eine kooperation. Nicht mit apple oder den anderen. Nun werden die kunden noch abgefuckt.
Mittlerweile kann ich die einwände gegen ARM auch voll verstehen und im hintergrund wurde da sicherlich klartext geredet.
Edgecrusher86
2022-11-07, 07:06:36
weiß jemand von euch, wann die kleineren karten rauskommen unter 200w?
Also ich kann die 4090 (quasi fast) immer unter 200W oder leicht darüber betreiben und das ist keine kleine Karte. ;D
Man muss halt DL-DSR nutzen, wenn verfügbar (oder "nativ bleiben") sowie DLSS Q und/oder halt einen Framelimiter oder am besten alles zusammen.
Die Pics unten sind jeweils maxed out (bei CoD - BO:CW ohne RT! SSR langt völlig für MP und ist besser für die Frametimes!) - DX9 mit 8xSGSSAA + HBAO+ Custom.
Aus der Galerie unten:
https://abload.de/thumb/dearesther_2022_10_23nyc12.png (https://abload.de/image.php?img=dearesther_2022_10_23nyc12.png)
https://abload.de/thumb/d2r_2022_10_15_13_10_pxcx2.png (https://abload.de/image.php?img=d2r_2022_10_15_13_10_pxcx2.png)
https://abload.de/thumb/maxpayne3_10320x4320_qsir1.jpg (https://abload.de/image.php?img=maxpayne3_10320x4320_qsir1.jpg)
https://abload.de/thumb/mafia2_2022_10_23_12_ybf5j.png (https://abload.de/image.php?img=mafia2_2022_10_23_12_ybf5j.png)
https://abload.de/thumb/screenshot2022-10-162y8f1v.jpg (https://abload.de/image.php?img=screenshot2022-10-162y8f1v.jpg)
https://abload.de/thumb/kingdomcome_2022_10_2lec3g.png (https://abload.de/image.php?img=kingdomcome_2022_10_2lec3g.png)
Ganz anspruchlose Schinken laufen auch im P8 - siehe das Jump & Run in WQHD60 (UWQHD zumindest per default nicht verfügbar ingame - evtl. per .ini). Ein lustiger Verbrauchswert!
https://abload.de/thumb/stickit_2022_10_19_195vcuu.png (https://abload.de/image.php?img=stickit_2022_10_19_195vcuu.png)
mironicus
2022-11-07, 08:52:07
Was meint ihr ist NVidias Antwort auf die schmelzenden Stromstecker?
Ein Biosupdate was den Powertarget auf 80% absenkt...? :D
Und die 4090 Ti hat dann wieder 8 Pin-Stromstecker...? :D
Sardaukar.nsn
2022-11-07, 08:54:40
@mironicus: Es gibt doch schon eine Lösung...
https://i.imgur.com/EVHOaVR.jpg
;D
Exxtreme
2022-11-07, 08:57:00
Was meint ihr ist NVidias Antwort auf die schmelzenden Stromstecker?
Ein Biosupdate was den Powertarget auf 80% absenkt...? :D
Und die 4090 Ti hat dann wieder 8 Pin-Stromstecker...? :D
Wäre interessant zu wissen wie oft das vorgekommen ist, dass der Stromstecker abgeschmolzen ist. Wie gesagt, sowas kocht (no pun indeed) im Internet extrem schnell hoch und kann extreme Hype-Ausmaße annehmen obwohl nur <1% der Karten betroffen waren.
Ist wie mit den Catalyst-Treibern, die angeblich hunderte Monitore geschrottet haben oder mit New World, welches Nvidia-Karten schrottet. Dabei waren es nur EVGA-Spezialanfertigungen.
Nach der Vorstellung der RDNA3 GPUs, wie wahrscheinlich ist es, dass die Preis(e) der 4080 angepasst werden? Immerhin wird die 7900XT schneller erwartet bei niedrigerem Preis.
Klar wird es den Nvidia Aufschlag geben aber dennoch könnte so -100/200 drinne liegenDas kommt drauf an, wie die sich verkaufen. Das wird bei AMD nicht anders sein, wenn die Karten ausverkauft sind, gibt es 0 Grund am Preis zu schrauben.
Vermutlich ist das auch der Grund weshalb Nvidia noch eine zweite 4080 auf den Markt werfen wollte.
Dimon
2022-11-07, 08:58:26
Ist die Grafik korrekt?
[/URL]https://abload.de/img/zbub1wzroernub3kj_li1l9c0q.png (https://abload.de/image.php?img=zbub1wzroernub3kj_li1l9c0q.png)
[URL]https://www.reddit.com/r/hardware/comments/yhrnf6/nvidia_gpus_2012_2022_relative_cuda_core_count/
Meiner meinung nach passt es nicht ganz,
den GK104 oder GM104 gehören zum Vollausbau des jeweiligen Chips...
Also entweder Größtmöglicher Chip oder in Kategorien unterteilen... imho
Radeonfreak
2022-11-07, 09:10:20
Wie schreibt man denn Skalpa? :confused:
Scalper? :confused:
mironicus
2022-11-07, 09:14:21
Wenn man den kleinen Stromstecker beibehalten will, sollte er nicht aus Plastik sein, sondern aus einem Material der Hitze besser weiterleitet.
dildo4u
2022-11-07, 09:21:31
408O Geekbench leak.
https://wccftech.com/nvidia-geforce-rtx-4080-graphics-card-geekbench-5-benchmarks-leas-out-faster-than-rtx-3090-ti/
Edgecrusher86
2022-11-07, 09:25:06
Zu lahm und dafür zu teuer - besser gleich richtig! Für mich ist die Karte allerhöchstens die Hälfte der 4090 wert. :D
mironicus
2022-11-07, 09:26:24
Das lohnt sich ja kaum, da kann man gleich zur 3090 Ti im Ausverkauf greifen. Und da wirkt auch die 7900XT gleich viel attraktiver.
dildo4u
2022-11-07, 09:30:45
3090ti sind 450 Watt Modelle und kosten 1400€.
Alles in dem Bereich ist unattraktiv.
BlacKi
2022-11-07, 09:36:31
3090ti sind 450 Watt Modelle und kosten 1400€.
Alles in dem Bereich ist unattraktiv.
das sind gute nachrichten für mich. zeigt gestiegene nachfrage. umso früher sind die alten karten weg.
robbitop
2022-11-07, 09:40:31
Schwache 80. Kaum schneller als der letzte Topdog. Normalerweise frisst die 80 den alten Topdog zum Frühstück. Und diesmal ist man kaum schneller. Meh.
Linmoum
2022-11-07, 09:44:56
Natürlich wird die 4080 in Spielen deutlich schneller sein bei >40% mehr Takt.
Oder wollt ihr für Spiele jetzt mit Geekbench argumentieren? Really?
Die 4080 in der Form ist trotzdem abenteuerlich von Nvidia, aber man muss jetzt nicht so tun, als würde sie nur knapp vor der 3090Ti liegen.
Sardaukar.nsn
2022-11-07, 09:56:43
Konnte man anhand der Tflops ja schon ahnen.
3090 hatte 40
4080 hat 49
4090 über 80
Exxtreme
2022-11-07, 09:56:48
Das ist Geekbench und auch noch ein Leak. :freak: Die Leaker waren dann doch sehr unzuverlässig die letzten 2 Jahre.
Palpatin
2022-11-07, 10:22:49
Schwache 80. Kaum schneller als der letzte Topdog. Normalerweise frisst die 80 den alten Topdog zum Frühstück. Und diesmal ist man kaum schneller. Meh.
Seit wann das?
Die 980 war 7% schneller als die 780ti:
https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/
Die 1080 war ca 10% schneller als die 980ti:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
Die 2080 war ca 5% schneller als die 1080ti:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
Troyan
2022-11-07, 10:28:35
Die 4090 ist auch nur 36% schneller bei 68% mehr Rechenleistung. Ergo steht die 4080 hier sogar ziemlich gut da...
Edgecrusher86
2022-11-07, 10:46:49
Seit wann das?
Die 980 war 7% schneller als die 780ti:
https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/
Die 1080 war ca 10% schneller als die 980ti:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
Die 2080 war ca 5% schneller als die 1080ti:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
Project Cars 4K -> GTX 980 = +50% auf Kepler (Regen)!
GTX 1080 war 25-30% avg. auf GTX 980 Ti in 4K - hatte immer +10 fps auf ne TITAN X Maxwell in 4K gesehen.
2080er kommt grob hin - etwa 5-10%, ja. ;)
Palpatin
2022-11-07, 11:36:52
Project Cars 4K -> GTX 980 = +50% auf Kepler (Regen)!
Woran lag das wohl. :uponder:
In 4k ging der 780ti und später auch der 980ti natürlich irgendwann dann der VRAM aus. Das Beispiel Spiel erschien auch erst 1 Jahr nach der 980. Zum release Zeitpunkt haben die 80er Karten aber keine Topdog Vorgänger Karten gefrühstückt. Ausnahme in ganz spezielle ausgesuchten Benches in denen die Vorgängerversionen durch den VRAM limitiert wurden 5k 8k usw.
Edgecrusher86
2022-11-07, 11:39:28
An der besseren Kompression vor allem. ;)
Thunder99
2022-11-07, 13:00:09
Normalerweise hat die 70er knapp dem TopDog der vorherigen Generation geschlagen und die 80er war spürbar drüber.
Das kann man diesmal nicht mehr sagen da der 04er Chip zu schwach ist und der 03er nicht gut genug.
Kann daher nur über den Preis korrigiert werden, normalerweise...
Troyan
2022-11-07, 13:21:03
Timespy-Leak: https://videocardz.com/newz/nvidia-geforce-rtx-4080-3dmark-timespy-scores-have-been-leaked-as-well
Custom-Karte 4080 ist 32% schneller als die 3090TI.
Adam D.
2022-11-07, 14:10:41
Timespy-Leak: https://videocardz.com/newz/nvidia-geforce-rtx-4080-3dmark-timespy-scores-have-been-leaked-as-well
Custom-Karte 4080 ist 32% schneller als die 3090TI.
Damit dürfte sie der 7900XTX in Rasterizing deutlich unterlegen sein, umgekehrt wird die 4080 in RT uneinholbar vorne sein. Bin gespannt, wie das am Ende im Detail aussieht.
Dural
2022-11-07, 14:42:01
Ich finde es interessant das nach wie vor viele davon ausgehen das Navi3 nach wie vor eine raster stärke hat, ich wäre mir da nicht so sicher.
Auch Navi3 wird massive Verluste im Vergleich zur Rohpower hinnehmen müssen. Navi2 dürfte nicht mehr vergleichbar sein.
Schwache 80. Kaum schneller als der letzte Topdog. Normalerweise frisst die 80 den alten Topdog zum Frühstück..
Was für ein Fail. Die neue 80 ist nicht drölftausendmal schneller als die 3090 Ti... probiers mal mit Fakten.
Troyan
2022-11-07, 16:00:00
Wird eine Woche voller Leaks zur 4080 16gb werden. Forza z.B. 15% langsamer: https://twitter.com/Zed__Wang/status/1589610959521579008?cxt=HHwWgIDQ1duvt48sAAAA
Karte boostet bei 320W auf 2900MHz hoch. Sieht man, dass breite GPUs nicht wirklich mehr richtig in Rasterizing-Spielen skalieren.
robbitop
2022-11-07, 16:07:18
Was für ein Fail. Die neue 80 ist nicht drölftausendmal schneller als die 3090 Ti... probiers mal mit Fakten.
Die NV eigenen Benchmarks sind Fakten, die meine Aussage belegen. Die 4080 ist kaum schneller als die 3090ti. Probiere es mal mit substanzvollen Posts, Argumenten und Belegen anstatt es anderen vorzuwerfen. ;)
Wird eine Woche voller Leaks zur 4080 16gb werden. Forza z.B. 15% langsamer: https://twitter.com/Zed__Wang/status/1589610959521579008?cxt=HHwWgIDQ1duvt48sAAAA
Karte boostet bei 320W auf 2900MHz hoch. Sieht man, dass breite GPUs nicht wirklich mehr richtig in Rasterizing-Spielen skalieren.
Wahrscheinlich ist die 4090 im CPU Limit bereits.
ChaosTM
2022-11-07, 16:08:03
Bei der 4080er fällt die CPU Limitierung wohl nicht so stark ins Gewicht. Die 4090er langweilt sich wahrscheinlich ziemlich bei Forza, selbst bei 4k.
Linmoum
2022-11-07, 16:24:37
Die 4080 ist kaum schneller als die 3090ti.Wie soll das gehen, wenn die 4080 tatsächlich ootb mit 2900MHz läuft? Das sind über 50% mehr Takt als eine ausgefahren Custom 3090Ti.
Troyan
2022-11-07, 16:44:26
Wenn ich mir den benchmark von Forza 5 ansehe, dann kommen beim 12900K die selbe Werte raus wie beim 7600X und 13900K (siehe Tweets): https://youtu.be/3aWuwWql83I?t=854
Losgelöst davon, mit 117FPS wäre die 4080 16GB 50% schneller als die dortige 3090TI.
robbitop
2022-11-07, 16:49:43
Wie soll das gehen, wenn die 4080 tatsächlich ootb mit 2900MHz läuft? Das sind über 50% mehr Takt als eine ausgefahren Custom 3090Ti.
https://www.computerbase.de/2022-10/offizielle-benchmarks-der-abstand-zwischen-rtx-4080-und-rtx-4090-ist-riesig/
robbitop
2022-11-07, 16:51:06
Wenn ich mir den benchmark von Forza 5 ansehe, dann kommen beim 12900K die selbe Werte raus wie beim 7600X und 13900K (siehe Tweets): https://youtu.be/3aWuwWql83I?t=854
Losgelöst davon, mit 117FPS wäre die 4080 16GB 50% schneller als die dortige 3090TI.
Gibt es denn eine Verifizierung des Tweets? Irgendwas tweeten kann jeder. Bis zu Tests sind Benchmarks die NV veröffentlicht hat zumindest noch das glaubwürdigste.
dildo4u
2022-11-07, 16:52:22
Hat die 4080 nicht mehr Bandbreite pro Tflop das könnte sich je nach Game anders auswirken.
Troyan
2022-11-07, 16:53:20
Du meinst, er hat alle Tweets zur 4080 gefakt: https://twitter.com/Zed__Wang
Naja, kann sein. Kann aber auch sein, dass eine 4090 einfach in vielen Spielen nicht ausgelastet wird. Und wenn die in 4K in Forza 5 mit 2750MHz bei 350W rumdümpelt, kann dies einfach auch der Fall sein.
Hat die 4080 nicht mehr Bandbreite pro Tflop das könnte sich je nach Game anders auswirken.
Sowie mehr Cache pro Bandbreite. 66mb zu 77mb (15%), bei 31% weniger Bandbreite.
ChaosTM
2022-11-07, 17:01:23
obsolet :) (mein Post wäre der von Wang gewesen..)
Für die meisten unter uns wird/würde die 80er völlig reichen. Interessant wird der RT Zugewinn. "Verlust".
Dural
2022-11-07, 17:24:00
Ich glaube du verwechselst die 4080 12GB mit der 4080 16GB.
Die 16GB ist auch nach NV klar schneller als eine 3090Ti. Die 12GB soll um 3090-3090Ti sein, es wäre komisch falls die 16GB auch in dieser Region wäre ;)
Es war doch von Anfang an klar das die 4080 16GB besser mit den Flops umgeht als die 4090: kaum Cache Unterschiede, die 4080 hat pro Flops auch mehr Bandbreite und die GPU wird wohl auch höher takten.
ich denke im Schnitt wird die 4080 16GB schon 30% auf die 3090Ti drauf legen können.
Krass finde ich ja das NV in dieser Generation mit AD102 sowie AD103 sogar noch ziemlich nachlegen kann. Die 4080 wird ca. 8% und die 4090 ca. 15% noch Luft nach oben haben.
basix
2022-11-07, 18:44:10
Krass finde ich ja das NV in dieser Generation mit AD102 sowie AD103 sogar noch ziemlich nachlegen kann. Die 4080 wird ca. 8% und die 4090 ca. 15% noch Luft nach oben haben.
So krass ist das jetzt nicht. Bei den letzten GPUs in Form von xx80 Ti, 90 oder gar Titanen war immer Luft nach oben. 10% waren eigentlich normal. Bei der Ur-Titan war es sogar einiges mehr. Auch bei anderen Chips konnte man in Form von xx70 Ti oder xx Super noch ein paar Prozent rausholen.
Sunrise
2022-11-07, 19:10:03
Wie ist eigentlich der Stand bzgl. Shader Execution Reordering? War das sowohl ein Treiber- als auch Implementierungsthema bei den Entwicklern?
Troyan
2022-11-07, 19:12:27
Ist reines Entwicklungsthema bei Entwicklern. Spiele gerade mit dem UE5 Branch von nVidia und dort ist es für Lumen und Hardware-RT (Reflektionen) implementiert.
basix
2022-11-07, 20:50:23
Ist reines Entwicklungsthema bei Entwicklern. Spiele gerade mit dem UE5 Branch von nVidia und dort ist es für Lumen und Hardware-RT (Reflektionen) implementiert.
Irgendwelche Indizien, wie viel Performance das bringt?
Sardaukar.nsn
2022-11-07, 21:51:24
4080 FE. Das Board sieht ganz schön geplündert aus.
https://cdn.videocardz.com/1/2022/11/NVIDIA-RTX4080-FOUNDERS-EDITION-PCB-AD103-GPU-1.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-4080-founders-edition-pcb-and-ad103-gpu-pictured-up-close
MiamiNice
2022-11-07, 22:41:58
Die kostet über 1000€, dafür fehlen ganz schön viele Bauteile.
Gott1337
2022-11-07, 22:49:47
Die kostet über 1000€, dafür fehlen ganz schön viele Bauteile.
welche denn ausser dem Kühler und ein paar Ram module? klär uns auf was fehlt und notwendig wäre.
basix
2022-11-07, 22:56:11
Ein bisschen was mit RGB hätte es schon sein dürfen.... :D
Voodoo6000
2022-11-07, 22:56:21
EVGA 4090
PZ1Kf9PaTr4
Ähm, das halbe VRM? :D
Aber der Chip wirkt groß im Vergleich zur CPU.
Gott1337
2022-11-08, 00:15:57
die soll ja auch keine 600 Watt machen können und hat weniger RAM. passt doch.
Troyan
2022-11-08, 00:19:02
Irgendwelche Indizien, wie viel Performance das bringt?
Im Editor sind es bis zu 2x. Hängst davon ab, wieviel Reflektionen existieren. Sinnvoll sind wohl eher Einstellungen, wo der Gewinn bei 1,5x liegt.
Im Editor sind es bis zu 2x. Hängst davon ab, wieviel Reflektionen existieren. Sinnvoll sind wohl eher Einstellungen, wo der Gewinn bei 1,5x liegt.
Okay, das ist schon ziemlich viel. Nvidia gibt im Kontext Raytracing Overdrive bei Cyberpunk 2077 "nur" gut 40 Prozent an.
MfG
Raff
DrFreaK666
2022-11-08, 00:47:06
EVGA 4090
https://youtu.be/PZ1Kf9PaTr4
tYzJf71WUcM
=Floi=
2022-11-08, 04:16:10
Timespy-Leak: https://videocardz.com/newz/nvidia-geforce-rtx-4080-3dmark-timespy-scores-have-been-leaked-as-well
Custom-Karte 4080 ist 32% schneller als die 3090TI.
Sicher wieder mit DLSS3 performance. Bitte bleib bei serösen benchmarks und nicht dem upscaling mist.
Wenn die 4080 16gb das so OOB abliefern kann, bin ich still und freue mich, aber ich glaube nicht dran, weil eine 3090ti auch keine schlechte karte ist und mit viel chippower um sich werfen kann.
dildo4u
2022-11-08, 04:37:04
Sicher wieder mit DLSS3 performance. Bitte bleib bei serösen benchmarks und nicht dem upscaling mist.
Wenn die 4080 16gb das so OOB abliefern kann, bin ich still und freue mich, aber ich glaube nicht dran, weil eine 3090ti auch keine schlechte karte ist und mit viel chippower um sich werfen kann.
Timespy ist uralt und hat kein DLSS.
Troyan
2022-11-08, 09:11:16
Okay, das ist schon ziemlich viel. Nvidia gibt im Kontext Raytracing Overdrive bei Cyberpunk 2077 "nur" gut 40 Prozent an.
MfG
Raff
Editor ist ja unoptimiert. Da macht die Sortierung schon einen immensen Vorteil aus. Auch muss man das Ray-Budget erhöhen - also z.B. von Bounce/Rays 1/1 zu 2/2 gehen. Macht auch Sinn, da SER nur dann hilft, wenn divergence existiert und die benötigt nunmal umherfliegende Rays. :cool:
Dural
2022-11-08, 09:55:30
Ist das nicht das gleiche PCB wie bei der 4090? Auf den ersten Blick fehlt etwas Speicher Möglichkeit, sonst sieht das doch sehr ähnlich aus.
Edit:
Gleich mal verglichen, die Grundstruktur ist schon sehr ähnlich, im Detail aber schon klar anders. Aber das ist mit voller Bestückung doch eine 450Watt Platine, es ist schon echt ein Rätsel wie so AMD so wie NV im Vorfeld mit solchen Monster Karten geplant haben.
Thunder99
2022-11-08, 13:16:37
Option offen halten denke ich aus den Erfahrungen auch von der Ampere Serie.
Uns ggf auch für Partner die dann entsprechendende TDP Fahren können ohne eigenes Board zu entwickeln (müssen)
Troyan
2022-11-08, 13:22:43
Ne, die Partner erhalten ein anderes PCB. Das hier ist rein für nVidias FE.
arcanum
2022-11-08, 15:24:03
hat noch niemand den tweet von kopite aufgegriffen:
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
4080 12 GB soll jetzt in Januar als 4070 ti launchen. die richtige bezeichnung wäre ja eigentlich 4060 ti, gemessen am vollausbau aber dann müsste man auch die 4080 umbenennen und den preis halbieren.
Troyan
2022-11-08, 15:29:46
Wieso soll die Karte 4060TI heißen, wenn die so schnell wie eine 7900XTX ist?
Gott1337
2022-11-08, 15:30:21
hat noch niemand den tweet von kopite aufgegriffen:
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
4080 12 GB soll jetzt in Januar als 4070 ti launchen. die richtige bezeichnung wäre ja eigentlich 4060 ti, gemessen am vollausbau aber dann müsste man auch die 4080 umbenennen und den preis halbieren.
ja und jeder sollte ein Einfamilienhaus für 50.000€ bekommen :rolleyes:
und die hälfte von einem unbekannten Preis ist natürlich auch clever.
arcanum
2022-11-08, 15:31:28
Wieso soll die Karte 4060TI heißen, wenn die so schnell wie eine 7900XTX ist?
deswegen:
https://i.ibb.co/ZWmGdrF/JNkbRk0.jpg (https://ibb.co/Ln5YSyc)
und die hälfte von einem unbekannten Preis ist natürlich auch clever.
die preise von den "4080" karten wurden doch offiziell verkündet.
Fragman
2022-11-08, 15:31:45
hat noch niemand den tweet von kopite aufgegriffen:
https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-to-replace-canceled-rtx-4080-12gb-sku-launch-in-janaury
4080 12 GB soll jetzt in Januar als 4070 ti launchen. die richtige bezeichnung wäre ja eigentlich 4060 ti, gemessen am vollausbau aber dann müsste man auch die 4080 umbenennen und den preis halbieren.
Damit versuchen sie die gleiche Nummer nochmal.
Diese Benennung soll sicher nur den Preis oben halten.
Troyan
2022-11-08, 15:32:45
BTW:
Die 6900XT ist mit Rasterzing fast 2x und mit Raytracing 1,6x schneller als die 3060.
Die 7900XTX wird wohl 1,5x schneller mit Rasterizing und ~Raytracing als die 4080 12GB sein.
Normal so, wenn man hier über Namen von Grafikkarten redet. Da scheint eine Firma mal so $400 in $999 verwandeln zu wollen.
deswegen:
https://i.ibb.co/ZWmGdrF/JNkbRk0.jpg (https://ibb.co/Ln5YSyc)
die preise von den "4080" karten wurden doch offiziell verkündet.
Und immer noch gilt: GTX680 und GTX1080 hatten einen 300mm^2 Chip.
Gott1337
2022-11-08, 15:41:19
die 4080 12GB gibts nicht mehr, daher auhc keine Preise, die werden mit Sicherheit etwas nach unten korrigiert. Natürlich sind die Preise zu hoch, das gilt für ALLE Grakas. Auch für die von AMD und speziell für die CPUs von AMD. 850€ für 150mm² ohne sonstwas.
und das AMD hier den gleichen namen, nämlich 7900 für 2 unterschiedliche grakas mit unterschiedlicher Rambestückung und Bandbreite nutzt juckt auch keinen. bei Nvidia der Mega shitstorm, bei AMD egal =D
auch das die 4080 und 4070 einen viel teureren Kühler haben, eher Vergleichbar mit denen der Customs wird auch nicht in den Vergleich mit einbezogen. Die hälfte ist komplett bekloppt, wir sehen doch das sogar 2 Jahre alte Produkte teurer werden. (PS5 und bald XSX)
699 für die 4070 fänd ich schon wirklich gut für die jetzige Zeit.
AMD kann den Bumms auch noch quersubventionieren durch Ryzen, haben sie auch und das freut manche auch. Gesund ist das für ein Unternehmen aber auf keinen Fall.
Und nur mal so, die 7900XTX kostet weit weniger als die hälfte einer 4090 in der Produktion, aber der VKP ist dennoch 999$.
Wenn die 4080 auf 1099 geht wäre es ein free win für Nvidia, denn 100€ sind die Nvidia GPUs auf jeden Fall mehr wert, allein wegen des Featuresets (CUDA, RTX Voice etc etc.) Vergiss den DLSS 3 scheiss, das brauch noch Jahre aber RT wird man auf jeden fall brauchen, gerade die Leute die eine GPU länger behalten. Gerade für diese Leute ist die 7900er reihe ungeeignet.
Dovregubben
2022-11-08, 15:52:52
deswegen:
https://i.ibb.co/ZWmGdrF/JNkbRk0.jpg (https://ibb.co/Ln5YSyc)
Das ganze Problem daran ist ja, dass man Topdog als die 100% Konstante ansieht. Das kann man noch so schön in Bildern packen, wie man will, aber es bleibt falsch.
arcanum
2022-11-08, 15:55:49
was richtig und was falsch ist wird der markt entscheiden.
Gott1337
2022-11-08, 15:55:56
Das ganze Problem daran ist ja, dass man Topdog als die 100% Konstante ansieht. Das kann man noch so schön in Bildern packen, wie man will, aber es bleibt falsch.
eben, es kam einfach noch eine Klasse oben drauf.
Die Namensschemen sind einfach nur dazu da, die Klassen zu definieren und haben NICHTS mit den Cuda cores zu tun.
Porsche nennt den Taycan auch Turbo, obwohl da kein Turbo drin ist. Mercedes nennt die S Klasse 600 obwohl gar kein 6 Liter Motor mehr drin ist.
Wer sich doch nur etwas damit befasst, wird das doch wohl verstehen, es ist doch wirklich nicht zu viel verlangt.
Gott1337
2022-11-08, 15:56:49
was richtig und was falsch ist wird der markt entscheiden.
tja dann guck mal in die Steam surveys, da siehst du das mehr user eine 3090 oder 3090ti nutzen (NICHT kombiniert) als eine 6600XT
Und der Markt will mehr 4090er, ich hab auch noch keine bekommen.
es gibt einfach Millionen Spieler die das beste wollen. Es gibt hunderttausende die kaufen sie Porsches etc.
Wenn man ehrlich ist, ist das immer noch ein billiges Hobby. Viele geben 5-10k für ihr Hobby im Jahr aus.
arcanum
2022-11-08, 15:58:20
tja dann guck mal in die Steam surveys, da siehst du das mehr user eine 3090 oder 3090ti nutzen als eine 6600XT
gewöhn dir mal die vorstellung ab, dass das nächste jahr samt rezession genauso aussieht wie während des mining booms und mit einer pandemie wo alle zu hause hocken.
prinz_valium_2
2022-11-08, 16:54:05
Jetzt muss die 4070TI (ehemals 4080 12GB) nur noch für 499€ kommen und sie ist gekauft.
Who the fuck am I kidding.
Wir können froh sein, wenn die den alten 3080 launch Preis von $699 bekommt^^
just4FunTA
2022-11-08, 17:13:35
Jetzt muss die 4070TI (ehemals 4080 12GB) nur noch für 499€ kommen und sie ist gekauft.
Who the fuck am I kidding.
also das wäre ja ein feiner Zug von NV. :)
Troyan
2022-11-08, 17:23:02
Sieht so aus, dass nVidia bei der 4080 1,075V als Maximum ansetzt, so sind auch die 2900MHz erklärt.
Wir können froh sein, wenn die den alten 3080 launch Preis von $699 bekommt^^
Wohl war :-( Die Preise sind einfach komplett balla balla.
ChaosTM
2022-11-08, 17:40:54
Vorher friert eher die Hölle zu. Unter der 3070er ist leider nicht zu erwarten. Ziemlich sicher drüber. Ich tippe auf 999.
prinz_valium_2
2022-11-08, 17:51:37
Vorher friert eher die Hölle zu. Unter der 3070er ist leider nicht zu erwarten. Ziemlich sicher drüber. Ich tippe auf 999.
Die 4080 12GB war doch schon günstiger mit $899
Oder sprichst du von €?
Wie gesagt ich halte $699 für nicht soooooo unrealistisch.
Troyan
2022-11-08, 17:55:07
Wäre immer noch $100 teurer als die 3070TI und $200 mehr als die 3070. Aber immerhin besseres P/L als die 7900XT.
DrFreaK666
2022-11-08, 17:56:44
Ich denke er meint 999€. Das wäre immerhin 500€ günstiger als die 4080 und das ist schließlich die 4070 Ti mit 12GB und nicht die popelige 4070
Badesalz
2022-11-08, 17:58:11
Die 7900XTX wird wohl 1,5x schneller mit Rasterizing und ~Raytracing als die 4080 12GB sein.
Normal so, wenn man hier über Namen von Grafikkarten redet. Da scheint eine Firma mal so $400 in $999 verwandeln zu wollen.
Wie meinst du das? Soll es die 4070Ti also für 359$ geben? Da wäre ich glaub ich langsam schwach :smile:
ChaosTM
2022-11-08, 18:10:04
Die 4080 12GB war doch schon günstiger mit $899
Oder sprichst du von €?
Wie gesagt ich halte $699 für nicht soooooo unrealistisch.
Euro - dementsprechend ~ 800$
DrFreaK666
2022-11-08, 18:15:12
Bei NV gibt es ja "krumme" UVPs. Könnte auch 959€ oder so werden
iamthebear
2022-11-08, 20:30:17
Wie meinst du das? Soll es die 4070Ti also für 359$ geben? Da wäre ich glaub ich langsam schwach :smile:
Turing im Jahr 2018:
Full 102 Die: 72 SM
RTX 2060@349$: 30 SM
Ada im Jahr 2020:
Full 102 Die: 144 SM (doppelt so viele wie Turing)
RTX 4080 12GB@60 SM (doppelt so viele wie die 2060): 899$
Und Turing war jetzt bei Launch nicht unbedingt der große P/L Kracher...
Und ich kann mich noch gut an eine GTX 970 um 329$ erinnern, die es bei uns um 300 Euro zu kaufen gab. Der Die war größer als AD103 heute.
Ich denke es tut Nvidia und TSMC ganz gut, wenn sie umsatzmäßig einmal ordentlich auf die Schnauze fliegen wenn der Markt zusammenbricht. Dann kommen die beiden wieder langsam zur Vernunft.
Sardaukar.nsn
2022-11-08, 21:08:10
Wenn man die aktuelle Inflation sieht, sind die GPU Preise noch eher harmlos. Laib Brot 6$, Pfund Kaffee 18$ usw.
Tja, wer hätte schon ahnen können das die grenzenlose Geldvermehrung der letzten Jahre nicht irgendwann mal Konsequenzen hätte.
=Floi=
2022-11-09, 02:26:12
Aber immerhin besseres P/L als die 7900XT.
12 vs 20gb
dich kann man auch nicht ernst nehmen. Die 192bit machen sich auch irgendwann bemerkbar.
aufkrawall
2022-11-09, 02:38:45
Wenn man die aktuelle Inflation sieht, sind die GPU Preise noch eher harmlos. Laib Brot 6$, Pfund Kaffee 18$ usw.
Tja, wer hätte schon ahnen können das die grenzenlose Geldvermehrung der letzten Jahre nicht irgendwann mal Konsequenzen hätte.
So ein Blödsinn, und OT noch dazu...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.