Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Thunder99
2022-09-13, 22:44:47
https://www.tweaktown.com/news/88259/colorful-igame-geforce-rtx-4080-ultra-oc-spotted-oh-man-here-we-go/index.html
RTX 4080 Picture
Drüften so 2.5 - 3Slot sein.
Eine zu schwache 80er macht die "Marke" kaputt. Als 1080Ti Besitzer halb so schlimm, aber dennoch unschön.
Je schwächer die Karte wird, desto eher wird es 1 - 2 Karten zwischen 80er und 90er geben.
robbitop
2022-09-13, 23:21:17
Naja es gibt schon doch eine ganze Menge Dinge die sich verdichten. Also Gerüchte, die aus verschiedenen Richtungen kommen und den gleichen Inhalt haben und sich nicht mehr zu ändern scheinen.
Slipknot79
2022-09-13, 23:38:55
Da hab ich zum Glück vorgesorgt!
https://s20.directupload.net/images/220912/temp/d3a3pc7d.jpg (https://www.directupload.net/file/d/6670/d3a3pc7d_jpg.htm)
Gruß
https://abload.de/img/img_20220912_23595411sd87.jpg
Da ged noch was, letzten Tagen schon mal ready gem8. :redface: (y)
iamthebear
2022-09-13, 23:49:59
Da kommt es halt ganz drauf an ob AMD mithalten kann oder ob man wirklich dual GDC Karten bringen muss.
Es gibt bisher nicht einmal Indizien dafür, dass Dual GCD als Gamingkarte überhaupt theoretisch funktionieren könnte geschweige denn Informationen zu konkreten Plänen, dass das mit RDNA3 bereits umgesetzt werden könnte.
Alle bisherigen Leaks zu Dual GCD waren anscheinend nur wilde Spekulationen basierend auf einem Patent, das aber nichts mit Gamingkarten zu tun haben muss.
Die Anforderungen für Gamingkarten ist:
.) Bandbreite zwischen den GCDs mindestens so viel wie die L3 Bandbreite (derzeit 2TB/s, bei Navi31 vermutlich deutlich mehr)
.) Keine Interaktion von seiten des Spieleentwicklers notwendig auch mit DX12
Naja es gibt schon doch eine ganze Menge Dinge die sich verdichten. Also Gerüchte, die aus verschiedenen Richtungen kommen und den gleichen Inhalt haben und sich nicht mehr zu ändern scheinen.
Also zu Ada ist eigentlich alles Grundlegende bis auf den Preis bekannt und den werden wir erst wissen wenn die Karten kaufbar im Laden stehen, denn auf Nvidias gelogene UVPs braucht man sowieso nichts geben.
Das große Fragezeichen ist für mich die Performance von RDNA3. Hier passen die Aussagen von früheren Leakern absolut nicht zur IF$ Menge + Die size laut Angstronomics. Ich befürchte, dass RDNA3 hier viel zu overhyped ist und sich bei Release ziemliche Ernüchterung breit machen wird wenn der "400$ 6900XT competitor" Navi33 dann doch nur ein "400$ 6700 XT competitor" ist, was für einen 200mm² N6 Die schon ein absolutes Wunder wäre.
r3ptil3
2022-09-14, 00:10:04
Naja es gibt schon doch eine ganze Menge Dinge die sich verdichten. Also Gerüchte, die aus verschiedenen Richtungen kommen und den gleichen Inhalt haben und sich nicht mehr zu ändern scheinen.
Ist halt der Zeitpunkt, an dem der Umsatz anfängt zu bluten.
RTX 3090 ist zwar praktisch nicht mehr verfügbar, da hier schon sehr früh eine Art "Abverkauf" initiiert wurde (während dem Ende des Mining-Booms, aber noch in der Blase drin) und das Ti Modell fiel schon um die Hälfte und verkauft sich trotzdem nicht, d.h. Nachfolger muss jetzt her.
Eigentlich genau das gleiche wie bei den Autos. Sobald ein Modell messbar über die Breite weniger Umsatz generiert, kommt ein Refresh.
Matrix316
2022-09-14, 00:21:22
Etwas OT, aber bin ich der einzige der immer wieder fasziniert ist von der Magie, wenn neue Grafikkarten erst gerüchtet werden und dann erste Bilder gezeigt werden? Ich denk immer: Wie kann das noch so viel schneller werden? Wie machen die das? Kann man das noch toppen? Bis dann der Relase ist und dann werden die normal, bis dann die neuen Modelle am Horizont sind. ;)
rentex
2022-09-14, 06:06:37
@Matrix316 +1 Technologie ist moderne Magie...
dildo4u
2022-09-14, 06:07:37
Diesmal überrascht es nicht wirklich jeder der High-End Chips baut ist von Samsung abgesprungen und zu TSMC.
8nm Samsung war immer eine Lösung um Maximalen Profit mit Gamern zu machen, der Daten Center Chip wurde weiter bei TSMC gefertigt.
Wenn der Sprung zu 4nm TSMC nicht massive Gewinne bringt ist irgendwas schief gelaufen vorallem da die neuen Karten immer noch absolute Schluckspechte sind.
y33H@
2022-09-14, 07:59:51
Ist am Ende primär eine Frage des Sweet Spots.
Edgecrusher86
2022-09-14, 08:07:00
https://abload.de/img/img_20220912_23595411sd87.jpg
Da ged noch was, letzten Tagen schon mal ready gem8. :redface: (y)
Pff - extern....langweilig! :freak:
Ich hätte offiziell 2 MoRA verbauen können [3 inkl. Top-Erhöhung ^^] - aber der zweite nur für die CPU wär bissl too much gewesen. ;D
Die hatte ich auch. Wie viel die gekostet hat kann ich dir aber nicht mehr sagen. Denke es waren mehr als 400€.
Erinnere mich nur an den schwarzen löchrigen Kühler der recht warm und laut wurde. Dafür aber nur 2-Slot und mit dem Loch am Ende. Löcher hatte auch die 480 GTX aka Thermi. :D
469€ waren es bei mir (Zotac) - das waren noch entspannte Zeiten. Erst nach 15:00 Reviews überflogen, dann telefoniert und grob 19:00 zum Launchtag aus Linden bei Alternate im quasi leeren Shop mit meinem Nachbarn abgeholt. Rein und raus. :D
Ja, die Entwicklung ist schon böse - aber irgendwann ist auch eine Kotzgrenze beim Kunden erreicht. Ich denke, das wäre spätestens dann der Fall, wenn man für eine xx70 (Ti) vierstellige Preise als UVP ausrufen würde (abseits eines Mining-Booms) und zum Beispiel eine xx60 (Ti) locker $699 MSRP hätte.
E: Hatten wir das hier schon?
https://abload.de/img/screenshot2022-09-1409oczx.png
Standard wäre wohl 450W und Premium 600W - denke ich mal....hm, mal sehen.
Angeblich sollten die Karten ja günstiger als die 3090 Ti werden (2200€ UVP). ^^
Neurosphere
2022-09-14, 08:50:41
Es gibt bisher nicht einmal Indizien dafür, dass Dual GCD als Gamingkarte überhaupt theoretisch funktionieren könnte geschweige denn Informationen zu konkreten Plänen, dass das mit RDNA3 bereits umgesetzt werden könnte.
Alle bisherigen Leaks zu Dual GCD waren anscheinend nur wilde Spekulationen basierend auf einem Patent, das aber nichts mit Gamingkarten zu tun haben muss.
Die Anforderungen für Gamingkarten ist:
.) Bandbreite zwischen den GCDs mindestens so viel wie die L3 Bandbreite (derzeit 2TB/s, bei Navi31 vermutlich deutlich mehr)
.) Keine Interaktion von seiten des Spieleentwicklers notwendig auch mit DX12
Das ist alles richtig und ändert trotzdem nichts an der Tatsache daß es entscheidend sein wird wie stark die Konkurrenz ist.
Es gäbe basierend auf der jetzigen Performancegerüchten kein Grund für NV eine 4089 ti zu bringen deren Verbrauch jenseits von Gut und Böse zu bringen außer man weiß das AMD was im Köcher hat. Und ich denke die Wände bei TSMC sind dünn
Slipknot79
2022-09-14, 10:13:21
Pff - extern....langweilig! :freak:
Ich hätte offiziell 2 MoRA verbauen können [3 inkl. Top-Erhöhung ^^] - aber der zweite nur für die CPU wär bissl too much gewesen. ;D
E: Hatten wir das hier schon?
https://abload.de/img/screenshot2022-09-1409oczx.png
Standard wäre wohl 450W und Premium 600W - denke ich mal....hm, mal sehen.
Angeblich sollten die Karten ja günstiger als die 3090 Ti werden (2200€ UVP). ^^
Hätte. Was zählt ist machen. :redface: How rain. (y)
Wenn das Teil bei den Preisen liegen sollte, dann can man sogar etwas upwarten und beobachten ob sich genug finden, die das Teil kaufen, vorallem wenn sich AMD noch dazumischt. Wenn sich nicht genug finden, dann gibts innerhalb weniger Monate noch nen price drop, dann sollte es auch bereits WakÜs geben. (y)
Dann m8 es aber auch Sinn, warum die 4080 so nen dicken Upstand zur 4090 haben soll inkl bezahlbaren Price für die 4080, denn irgendwas muss Lederjacke dann doch auch mal verkaufen. (y)
Troyan
2022-09-14, 10:38:00
https://www.tweaktown.com/news/88259/colorful-igame-geforce-rtx-4080-ultra-oc-spotted-oh-man-here-we-go/index.html
RTX 4080 Picture
Spoilern sogar den Codename. :mad:
Edgecrusher86
2022-09-14, 10:48:36
Hätte. Was zählt ist machen. :redface: How rain.
560er + 1260er langt(e). :D
Ich will es gar nicht anders haben als so:
https://abload.de/img/img_20220914_110008uef0l.jpg
Oben auf sitzt Junior. :biggrin:
Spoilern sogar den Codename. :mad:
Das ist doch vom NV Marketing. :cool:
Ja, Schande. :freak:
prinz_valium_2
2022-09-14, 11:12:57
Und die nächste. Diesmal von Lenovo
https://cdn.videocardz.com/1/2022/09/LENOVO-RTX4090-hero-850x632.jpg
Ich glaube 4090 Preis = 3090Ti Launch Preis.
$1999 und dann irgendwas zwischen 1999€ und 2299€
Edgecrusher86
2022-09-14, 11:17:49
Auch ein netter Brocken - wenn man mal nicht Vollgas geben muss, bestimmt extrem kühl und leise mit UV + Limiter so eine Konstruktion. Zum Beispiel hier den alten Shice in UWQHD60 bei 1xxW (vs. 140-220W 3090 UV). :)
Dural
2022-09-14, 11:37:43
So viel zum Thema 600Watt+ :rolleyes:
Die Karte hat einen 12P Stecker, also werden die rund 450Watt für die 4090 zutreffen, gleich viel wie die 3090Ti.
Da kann man davon ausgehen das die 4080 im 3xxWatt Bereich sein wird.
dildo4u
2022-09-14, 11:40:19
Das ist auch nicht der volle Chip, 3090 350 Watt,4090 450 Watt, 4090 Ti???
Slipknot79
2022-09-14, 11:42:28
Und die nächste. Diesmal von Lenovo
https://cdn.videocardz.com/1/2022/09/LENOVO-RTX4090-hero-850x632.jpg
Offensichtlich brechen Halterungen, da muss der User eben das Teil selbst halten, Tag und N8, 24/7. :redface:
Muss man positiv sehen, gibt Muskeln und damit höpsche :redface: girlfriends. (y)
unl34shed
2022-09-14, 11:44:59
Der 12P kann doch 600W liefern, also warum 450W?
The_Invisible
2022-09-14, 11:45:44
Und die nächste. Diesmal von Lenovo
https://cdn.videocardz.com/1/2022/09/LENOVO-RTX4090-hero-850x632.jpg
Ich glaube 4090 Preis = 3090Ti Launch Preis.
$1999 und dann irgendwas zwischen 1999€ und 2299€
Welche Monster, gut das ich mir so einen Grafikkarten Abstandhalter schon für die 3080Ti zugelegt habe, wird mir noch lange einen guten Dienst erweisen :D
Slipknot79
2022-09-14, 11:52:36
Welche Monster, gut das ich mir so einen Grafikkarten Abstandhalter schon für die 3080Ti zugelegt habe, wird mir noch lange einen guten Dienst erweisen :D
Oder vertial GPU mount. (y) Gibt nur nicht viele Gehäuse die da noch Platz zur Seitenscheibe haben und das Teil braucht auch etwas Abluftraum.
Das Teil ist 4-Slot oder?
Troyan
2022-09-14, 11:54:20
Spec sind draußen: https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked
450W (4090), 340W (4080) und 280W (4080 12GB) als 100% Power-Limit.
Sollte nVidia wirklich einen 75 Milliarden Chip mit 2500MHz laufen lassen können, dann ist das mit die größte Überraschung überhaupt. Eigentlich absurd.
/edit: Die 4090 kommt auf die doppelte Rechenleistung zur 3090TI beim selben Verbrauch. Wäre dann ja auch bald doppelte Effizienz. Lmao.
mboeller
2022-09-14, 11:55:23
So viel zum Thema 600Watt+ :rolleyes:
Die Karte hat einen 12P Stecker, also werden die rund 450Watt für die 4090 zutreffen, gleich viel wie die 3090Ti.
Da kann man davon ausgehen das die 4080 im 3xxWatt Bereich sein wird.
600W
https://www.igorslab.de/bis-zu-600-watt-power-fuer-grafikkarten-mit-dem-neuen-pcie-5-0-adapter-nvidias-rtx-3090-ti-macht-den-anfang-exklusiv/
Der 12VHPWR-Stromanschluss liefert bis zu 55 A Dauerstrom, um die Add-in-Karte über eine 12-V-Stromschiene mit einer maximalen Leistung von 600 W zu versorgen
kommen da dann noch 75w vom PCIe oben drauf?
Edgecrusher86
2022-09-14, 11:55:31
So viel zum Thema 600Watt+ :rolleyes:
Die Karte hat einen 12P Stecker, also werden die rund 450Watt für die 4090 zutreffen, gleich viel wie die 3090Ti.
Da kann man davon ausgehen das die 4080 im 3xxWatt Bereich sein wird.
Es soll doch zwei Varianten geben - Standard mit 450W und "Premium" 600W über die AIBs - auch im Hinblick auf die Ti. ;)
Wir werden zu 1000% Hardcore-Modelle mit 2x16 Pol. sehen -> KP, HoF OC Lab und so weiter...
E: Ah, gar bis zu 660W per BIOS. Also noch den Rest per Bus, okay. :D
E2: Mal hübscher fürs Auge. :)
https://abload.de/img/screenshot2022-09-1412tdc0.png
Erwartete Release-Dates:
RTX 4090 - Mitte Oktober
RTX 4080 16GB / 12GB - Anfang bis Mitte November
Slipknot79
2022-09-14, 11:56:55
Spec sind draußen: https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked
450W, 340W und 280W als 100% Power-Limit.
Sollte nVidia wirklich einen 75 Milliarden Chip mit 2500MHz laufen lassen können, dann ist das mit die größte Überraschung überhaupt. Eigentlich absurd.
Also erst mal keine 4070, stattdessen 4080 12GB?
Cubitus
2022-09-14, 11:56:59
Ahhh, na ein Glück ist mein Strompreis bis 2024 auf 28 Cent safe ;D
600+ Watt wird die FE sich schon gönnen, wenn im Afterburner sämtliche Vernunft außer Acht gelassen wird.
UV und künstliche Drosselung wird definitiv ein Thema
Passendes NT dazu
https://www.idealo.de/preisvergleich/OffersOfProduct/6038633_-prime-ultra-titanium-1000w-seasonic.html
Linmoum
2022-09-14, 12:03:42
Wie jetzt? Selbst bei der 4080 keine 3GHz? Hieß doch, die 4090 würde nur niedrig takten und der Rest geht deutlich höher. Leaker mal wieder.
Troyan
2022-09-14, 12:04:38
Also erst mal keine 4070, stattdessen 4080 12GB?
Rest verschiebt sich wahrscheinlich ins Jahr 2023 - CES 2023 ggfs.
Wenn der Max-TGP Bereich so hoch, sollten dann wohl auch die 3000MHz machbar sein. :eek:;D:cool:
Glaube das wird mein Weihnachtsgeschenk.
Wie jetzt? Selbst bei der 4080 keine 3GHz? Hieß doch, die 4090 würde nur niedrig takten und der Rest geht deutlich höher. Leaker mal wieder.
3GHz wurden nie als "normal" bezeichnen. Sondern als erreichbar. Aber das dir schon die Muffen gehen - verstehen wir alle.
Neurosphere
2022-09-14, 12:05:39
Nur so als Gedanke, vermutlich fällt die 4080 diesmal so lahm aus weil NV sie zum gleichen Preis wie damals die 3080 anbieten will, was eh viel zu knapp kalkuliert war.
Nun also die 4080 zwar klar langsamer innerhalb der Serie, aber hey, 60% über 3080 zum gleichen Preis.
Troyan
2022-09-14, 12:08:40
Wenn die Transistorenzahl wirklich stimmt, dann wird nVidia versuchen soviele GPUs wie möglich verkaufen zu wollen. Und das geht nur durch Beschneidung. Ergo gibt es eine 4090 zum absurden Preis und dann die beschnittenen GPUs darunter (<=$1000?).
75 Milliarden Transistoren macht den Chip auch größer als 600mm^2.
Linmoum
2022-09-14, 12:13:05
3GHz wurden nie als "normal" bezeichnen. Sondern als erreichbar. Aber das dir schon die Muffen gehen - verstehen wir alle.
Der letzte TSE war mit 3GHz bei ~20k Graphics Score und das wäre nicht einmal doppelte Perf zur 3090Ti.
Die Specs sind davon ab wie erwartet, einzig der Takt ist ein gutes Stück niedriger als vermutet. Dein Fanboy-Grabenkrieg ist mal wieder lächerlich.
Edgecrusher86
2022-09-14, 12:14:18
Nur so als Gedanke, vermutlich fällt die 4080 diesmal so lahm aus weil NV sie zum gleichen Preis wie damals die 3080 anbieten will, was eh viel zu knapp kalkuliert war.
Nun also die 4080 zwar klar langsamer innerhalb der Serie, aber hey, 60% über 3080 zum gleichen Preis.
Ich würde auch darauf tippen. Die RTX 4080 12GB evtl. knapp darunter preislich als Verkaufsschlager:
RTX 4080 12GB => $599-649 MSRP
RTX 4080 16GB => $749-799 MSRP.
Könnte ich mir vorstellen. Ansonsten halt RTX 4080 12GB wieder zu $699 MSRP und die 16er vielleicht nochmals $50-100 über der obigen Schätzung.
arcanum
2022-09-14, 12:15:47
Also erst mal keine 4070, stattdessen 4080 12GB?
die 4080 12GB ist ja eigentlich eine 4070 :lol: wahrscheinlich geht es eher um die preisliche positionierung als die performance.
Edgecrusher86
2022-09-14, 12:16:55
die 4080 12GB ist ja eigentlich eine 4070 :lol: wahrscheinlich geht es eher um die preisliche positionierung als die performance.
4080 12GB klingt sexier. :tongue:
Troyan
2022-09-14, 12:19:51
Ich würde auch darauf tippen. Die RTX 4080 12GB evtl. knapp darunter preislich als Verkaufsschlager:
RTX 4080 12GB => $599-649 MSRP
RTX 4080 16GB => $749-799 MSRP.
Könnte ich mir vorstellen. Ansonsten halt RTX 4080 12GB wieder zu $699 MSRP und die 16er vielleicht nochmals $50-100 über der obigen Schätzung.
Glaube ich nicht. Eher wird die 4080 12GB bei >$700 und die 16GB bei >$1000 aufschlagen.
Edgecrusher86
2022-09-14, 12:24:45
Ich denke mal unter 1k USD MSRP für die 4080 16GB wäre ein kluger Schachzug.
Maximal $999 - der AD103er sollte es möglich machen und das kleine SI.
Bedenke auch, dass NV deutlich weniger in Q2/22 im Desktop-Segment verkaufte als zuvor.
Bei der RTX 4090 ist es natürlich egal, wenn die sich 1/3 von der großen RTX 4080 absetzen kann und wieder 24Gig bekommt - kann man auch wieder $1999 MSRP verlangen.
davidzo
2022-09-14, 12:27:39
die 4080 12GB ist ja eigentlich eine 4070 :lol: wahrscheinlich geht es eher um die preisliche positionierung als die performance.
Denke eher es hat mit der Zielgruppe bzw. Marketing-Persona zutun. Preisgesteuert würde ja heißen dass die Consumenten rational entscheiden, also Namen schall und Rauch wären. Dem ist aber nicht so, Kaufentscheidungen sind im B2C viel mehr emotional als rational.
Es wird ja bis Q2 nächstes Jahr lediglich GA102 ersetzt.
Ein Kunde der aber für eine 3080, 3080ti oder 3090 in Frage kam, wird wohl kaum eine 4070 kaufen. Die kaufen direkt die 4080 oder 4090 oder warten dann lieber. Das sind auch Leute die von einer 1080ti, 2080ti, 2080 kommen und die gewohnt sind "Highend" zu kaufen. Das ist weniger eine Preisfrage sondern eine Marketing-Frage.
Natürlich kann eine 4070 schneller sein als eine 3090 der letzten Generation, aber das heißt noch lange nicht dass die "Highend"-Zielgruppe sich davon angesprochen fühlt. Die würden eher sagen dass die 4090 noch zu teuer ist und sie keine performance Karte wie die 4070 kaufen würden selbst wenn diese schnell genug ist für ein upgrade.
Die wenigsten Highendkunden upgraden jede Generation. Deswegen kaufen sie ja Highend, um seltener upgraden zu müssen.
Für einen 1080ti oder 2080 Besitzer ist eine 12GB 4080 mit AD104 der perfekte Upgradepfad - ca. gleiche TDP und Größe, etwas mehr Speicher und mindestens doppelte Performance.
Und die Performance-Kunden sollen ja noch die ganzen Stockpiles an GA104 Chips kaufen, nicht die neuen AD104er.
Ich denke das Naming ist weniger preisgesteuert als vielmehr um die Zielgruppen zu den passenden Produkten zu funneln. Und die 80er Serie hat halt ausreichend Prestige, welches der 70er für die relevante Zielgruppe fehlt.
Troyan
2022-09-14, 12:28:35
Dafür muss nVidia mehr pro Wafer ausgeben - mindesten den 3x Preis. Auch sind andere Rohstoffe im Preis gestiegen. Man sollte her von höheren als geringeren Preis ausgeben. Dann kann man auch nur noch positiv überrascht werden. :)
Edgecrusher86
2022-09-14, 12:30:54
Ja, AD104 Full als RTX 4080 12GB zu vermarkten ist sicherlich ein kluger Marketingschachzug - das suggeriert gleich eine höhere Wertigkeit als 4070 (Ti). :)
E: Also dann denke ich mal kommt die RTX 4070 (Ti) mit 10GB und 160-bit - genau so:
https://abload.de/img/screenshot2022-09-141uzfcj.png
prinz_valium_2
2022-09-14, 12:36:23
Spec sind draußen: https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked
450W (4090), 340W (4080) und 280W (4080 12GB) als 100% Power-Limit.
Sollte nVidia wirklich einen 75 Milliarden Chip mit 2500MHz laufen lassen können, dann ist das mit die größte Überraschung überhaupt. Eigentlich absurd.
/edit: Die 4090 kommt auf die doppelte Rechenleistung zur 3090TI beim selben Verbrauch. Wäre dann ja auch bald doppelte Effizienz. Lmao.
Warum. Ich verstehe es nicht.
Warum macht man aus einer 4070Ti eine 4080.
Oder aus der besseren 4080 nicht eine 4080Ti?
Ich kann mir nur vorstellen, dass nVidia das aus Marketing gründen macht.
So kann die 4080 ab $499 angeboten werden.
"super affordable price"
davidzo
2022-09-14, 12:39:33
Ja, AD104 Full als RTX 4080 12GB zu vermarkten ist sicherlich ein kluger Marketingschachzug - das suggeriert gleich eine höhere Wertigkeit als 4070 (Ti). :)
Naja, langfristig entwertet man damit aber den Markennamen der 80er Serie.
Aber Langzeitfolgen und Brand Value hat die Marketingleute noch nie interessiert, die sind nur Sales-getrieben.
Bis dahin hat man eh die Firma gewechselt und die Nachfolger wollen sowieso gerne mal wieder ein neues Namensschema etablieren.
BTW: gibt es schon Transistorcounts zu AD103 und 104?
.
Edgecrusher86
2022-09-14, 12:41:01
Die RTX 4080 Ti wertet es dann wieder auf und Jensen verdient dazu.
Troyan
2022-09-14, 12:43:09
Warum sollte nVidia die Karte 4080 nennen und dann für $499 verkaufen?! Dann könnten die auch bei 4070 bleiben...
Man muss akzeptieren, dass TSMCs 4nm Prozess wahrscheinlich 3x+ kostet als Samsungs 8nm Prozess. Bezahlte nVidia bei Samsung für 400mm^2 $20 pro Chip, sind es jetzt $60. Will nVidia 50% Marge, ist der Unterschied schon $60. Dazu kommt die allgemeine Inflation, die Rohstoffpreise, die Marge der Zwischenbeteiligten und am Ende egal wo Mwst.
Das macht alleine die Karte wahrscheinlich $100 teurer gegenüber 2020...
Edgecrusher86
2022-09-14, 12:46:10
BTW: gibt es schon Transistorcounts zu AD103 und 104?
.
Habe nichts gehört, aber wenn der AD103-400 84SM hätte, würde ich mal grob von 44 Mrd.(+) Transistoren aus gehen und beim AD104-400 (60SM) von 31 Mrd. (+) Transistoren => Milchmädchenrechnung Anhand von 75 Mrd.(+) für AD102-400 bei 144SM. :D
Warum sollte nVidia die Karte 4080 nennen und dann für $499 verkaufen?! Dann könnten die auch bei 4070 bleiben...
Wer redet von $499? Das wird der Mindestpreis für eine RTX 4070 sein. ;)
prinz_valium_2
2022-09-14, 12:58:10
Dann ist das gaze noch lächerlicher.
Eine 4070 im Mantel einer 4080 zum Preis einer 4080 verkaufen?
Troyan
2022-09-14, 13:00:08
Dann ist das gaze noch lächerlicher.
Eine 4070 im Mantel einer 4080 zum Preis einer 4080 verkaufen?
Was ist daran lächerlich? Am Ende zählt Leistung und fertig. Und nicht, wie Produkte bezeichnet werden.
davidzo
2022-09-14, 13:00:46
Warum sollte nVidia die Karte 4080 nennen und dann für $499 verkaufen?! Dann könnten die auch bei 4070 bleiben...
Man muss akzeptieren, dass TSMCs 4nm Prozess wahrscheinlich 3x+ kostet als Samsungs 8nm Prozess. Bezahlte nVidia bei Samsung für 400mm^2 $20 pro Chip, sind es jetzt $60. Will nVidia 50% Marge, ist der Unterschied schon $60. Dazu kommt die allgemeine Inflation, die Rohstoffpreise, die Marge der Zwischenbeteiligten und am Ende egal wo Mwst.
Das macht alleine die Karte wahrscheinlich $100 teurer gegenüber 2020...
Ja, denke auch dass die Karte wohl kaum billiger als die zu ersetzende 3080(ti) wird.
AD104 auf der 4080 konkurriert bei der Rohleistung mit einer 3080ti: 38Tflops vs 34Tflops. Durch die 48mb L2 Cache von AD104 gibt es auch keinen Bandbreitenvorteil mehr für die alte AD102 Karte. Speicherausbau sind dieselben 12GB.
Die 3080 12Gb kostet 799$ (MSRP + Vat) und die 3080ti 12GB 1099$ (MSRP+VAT).
Ich denke dass die 4080 12GB wohl kaum unter 749$ launchen wird. Das ist immer noch ein deutlich besserer Deal als die 1100$ teure und langsamere 3080ti, insofern gibt es hier für den Kunden nichts zu meckern.
Unter 700$ würde die AD104 Sales zu sehr gefährden.
Die 4080 16Gb kommt dann für 999$, also gerade noch unter der magischen 1K-Grenze. Die 4090 übernimmt dann die klassische Titan Position für um die 2K.
Bei AMD wird es ähnlich aussehen, navi31 ist für die 7900 series reserviert, navi32 für die 7800 series. Mit Navi33 wird man wohl kaum mit der 4080 konkurrieren können, also wird es eben ein salvage von navi32 geben der mit der 12GB Variante der 4080 konkurriert. Es wäre zwar kurzzeitig peinlich wenn nvidias Prestigeträchtige 80er Serie gegen die 7800 series verliert, aber auch nicht so schlimm, da man die AD104 basierte 4080 dann einfach langsam durch die AD103 basierte ausfaden kann, bzw. durch eine AD103 basierte super series oder eine 4070ti ersetzen kann.
prinz_valium_2
2022-09-14, 13:21:38
Was ist daran lächerlich? Am Ende zählt Leistung und fertig. Und nicht, wie Produkte bezeichnet werden.
Natürlich zählt das.
Sonst könnte VW einem Polo einfach ein paar mehr PS geben, ihn Größer machen und dann Golf nennen.
Das würden die Kunden genauso lächerlich finden.
nVidia ist seit langem dabei die Dies immer weiter zu verschieben.
Bald wird dann ein low end budget chip eine 4070 (was mal die Karte unter dem absoluten High End und bestem was es gibt war) und mache sagen immer noch "ist doch egal, mich interessiert nur die Leistung"
Gabz zu schwiegen davon, dass das Teil eben nur die Leistung einer 4070 haben wird und nicht 4080.
Linmoum
2022-09-14, 13:23:16
Man nennt das Ding 4080 statt 4070, da man dann den Preis höher ansetzen kann, ohne dafür vom Durchschnittskunden auf die Fresse zu kriegen, weil die 4070 plötzlich mehrere hundert Dollar mehr kosten würde. Simple as that.
basix
2022-09-14, 13:23:48
Noch als Punkt für die 4090 Ti oder Titan:
- Jensen liebt runde Zahlen
- Jensen liebt grosse Zahlen
- Jensen liebt TFLOPs
Die grösste 144 SM Karte wird deswegen exakt 2713 MHz Boost Clock mitbringen. Wieso? 18'432 FP32 * 2713 MHz * 2 = World's First 100.0 TFLOPs GPU :D
Troyan
2022-09-14, 13:25:53
Natürlich zählt das.
Sonst könnte VW einem Polo einfach ein paar mehr PS geben, ihn Größer machen und dann Golf nennen.
Das würden die Kunden genauso lächerlich finden.
nVidia ist seit langem dabei die Dies immer weiter zu verschieben.
Bald wird dann ein low end budget chip eine 4070 (was mal die Karte unter dem absoluten High End und bestem was es gibt war) und mache sagen immer noch "ist doch egal, mich interessiert nur die Leistung"
Genau. Wenn die 4070 dann mal 1000€ kostet, ist das okay. Weil man dann hier ja weiß, was man bekommt. ;D
Man nennt das Ding 4080 statt 4070, da man dann den Preis höher ansetzen kann, ohne dafür vom Durchschnittskunden auf die Fresse zu kriegen, weil die 4070 plötzlich mehrere hundert Dollar mehr kosten würde. Simple as that.
Nun, man orientiert sich hier an AMD. Verkaufen auch eine 6600 als 6750XT für $579. Lmao.
prinz_valium_2
2022-09-14, 13:29:55
Man nennt das Ding 4080 statt 4070, da man dann den Preis höher ansetzen kann, ohne dafür vom Durchschnittskunden auf die Fresse zu kriegen, weil die 4070 plötzlich mehrere hundert Dollar mehr kosten würde. Simple as that.
Die Befürchtung habe ich auch ein bisschen. Ist aber dumm, weil die Presse und Kunden mit Ahnung wissen was es für ein Produkt ist Und was sie da für welchen Preis bekommen.
Dann reizen die negativ Schlagzeilen für nVidia hoffentlich nicht ab.
Cyberfries
2022-09-14, 13:38:03
Spec sind draußen: https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked
Das sind doch immer noch nur frisch aufgewärmte alte Leaks ...
Powerlimit soll sich um 47% bzw. 52% aufdrehen lassen, nachdem in der letzten Generation nur 9% gingen?
Zwei 4080, von denen die eine 27% mehr Recheneinheiten hat? Und beide im November? Ja, ne.
Noch 6 Tage bis sich (hoffentlich) der Wahrheitsgehalt überprüfen lässt.
Troyan
2022-09-14, 13:41:59
Die Specs sind von hier: https://twitter.com/kopite7kimi/status/1569978869016580096?cxt=HHwWgMDSidPd18krAAAA
Und da wir nur noch eine Woche vor uns haben, werden diese stimmen. Die RTX4080 12GB geht auch nur bis 366W und somit innerhalb von ATX 3.0 oder so. Sind nur 28% mehr und z.B. meine Gigabyte 2080TI ging von 280W auf 350W hoch...
/edit: 3070 TI hatte ein Limit auf 320W von 290W: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/56352-zumindest-der-angedachte-preis-stimmt-drei-geforce-rtx-3070-ti-im-test.html?start=25
Dovregubben
2022-09-14, 13:46:10
Also erst mal keine 4070, stattdessen 4080 12GB?
Vielleicht haben Grafikkartenhersteller verlangt, dass die 4070 später rauskommen muss, weil sie noch zu viele 3070 auf Lager haben? Und Nvidia dann so "ok. wir bringen halt nur ne 4080 raus und eine 4080 light... aber es ist ne 4080!"
Oder sie haben auf die ganzen Schreihälse gehört, die nach den ersten Leaks gemeint haben "ZUVIEL STROMVERBRAUCH!" und geben denen halt jetzt ne sparsamere 4080 :freak:
Im Endeffekt ist es aber absurd die Klasse der Karte an der Chipgröße auszumachen. Das ist nur ein beliebiger Parameter, der auch nur ein Faktor unter Vielen für den Chippreis ist.
basix
2022-09-14, 13:53:43
Die Specs sind von hier: https://twitter.com/kopite7kimi/status/1569978869016580096?cxt=HHwWgMDSidPd18krAAAA
Und da wir nur noch eine Woche vor uns haben, werden diese stimmen. Die RTX4080 12GB geht auch nur bis 366W und somit innerhalb von ATX 3.0 oder so. Sind nur 28% mehr und z.B. meine Gigabyte 2080TI ging von 280W auf 350W hoch...
/edit: 3070 TI hatte ein Limit auf 320W von 290W: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/56352-zumindest-der-angedachte-preis-stimmt-drei-geforce-rtx-3070-ti-im-test.html?start=25
4090 zu 4080 16GB passen mMn überhaupt nicht zusammen. 16k vs. <10k Shader, 1.5x Memory Interface. Dennoch <1/3 mehr TDP? Bei fast identischem Takt? Schwer vorstellbar. Und dan eine 4080 12GB, welche vielleicht 65% der Performance der 4090 erreicht und auch deutlich schwächer als die 16GB Version sein wird? alles sehr ungewöhnlich.
Neurosphere
2022-09-14, 13:58:19
4080MX :D
Troyan
2022-09-14, 14:00:23
4090 zu 4080 16GB passen mMn überhaupt nicht zusammen. 16k vs. <10k Shader, 1.5x Memory Interface. Dennoch <1/3 mehr TDP? Bei fast identischem Takt? Schwer vorstellbar. Und dan eine 4080 12GB, welche vielleicht 65% der Performance der 4090 erreicht und auch deutlich schwächer als die 16GB Version sein wird? alles sehr ungewöhnlich.
Naja, Größteil des Stromverbrauchs wird durch GDDR6X beeinflusst. Siehe auch 3090 <> 3070 TI: 350W zu 290W (maximal 10% mehr Takt). Die 3090 ist mehr als 30% effizienter...
Cyberfries
2022-09-14, 14:03:47
Die Specs sind von hier: https://twitter.com/kopite7kimi/status/1569978869016580096?cxt=HHwWgMDSidPd18krAAAA
Und da wir nur noch eine Woche vor uns haben, werden diese stimmen.
Eine Zusammenfassung eines Leakers seiner alten Tweets? Also das was ich schrieb? Sowas aber auch...
Eine Woche bis zur Ankündigung der 4090... die deutlich später erscheinenderen 4080 sind Stein des Anstoßes.
3070 TI hatte ein Limit auf 320W von 290W:
Was auch nur 10% sind - weit entfernt von den 52% der 4080.
Linmoum
2022-09-14, 14:04:31
4090 zu 4080 16GB passen mMn überhaupt nicht zusammen. 16k vs. <10k Shader, 1.5x Memory Interface. Dennoch <1/3 mehr TDP? Bei fast identischem Takt? Schwer vorstellbar. Und dan eine 4080 12GB, welche vielleicht 65% der Performance der 4090 erreicht und auch deutlich schwächer als die 16GB Version sein wird? alles sehr ungewöhnlich.Ungewöhnlich ist halt der riesige Abstand des xx102 zum xx104. Nun hat man zwar diesmal einen xx103 dazwischen, aber auch der hängt einer schon beschnitten 4090 selbst im Vollausbau deutlich hinterher. Irgendwas dürfte sich Nvidia dabei schon gedacht haben. Ich hätte eher erwartet, dass man das dann durch Takt ein wenig kompensiert. Aber das scheint ja nicht der Fall zu sein.
Troyan
2022-09-14, 14:06:40
Eine Zusammenfassung eines Leakers seiner alten Tweets? Also das was ich schrieb? Sowas aber auch...
Eine Woche bis zur Ankündigung der 4090... die deutlich später erscheinenderen 4080 sind Stein des Anstoßes.
Eine Woche vor Release hatte der Typ bis jetzt immer recht. Daher ist das schon mehr als glaubwürdig.
Was auch nur 10% sind - weit entfernt von den 52% der 4080.
Ganz einfach: Neuer Stromanschluss ermöglicht bis 600W. Warum also nicht freigeben, wenn die Chips es auch schaffen?
prinz_valium_2
2022-09-14, 14:15:44
https://pbs.twimg.com/media/FcnKd7WaMAA7Rp2?format=jpg&name=large
Ein 4090 Kühler?
Jedenfalls von einem Twitter user gepostet, der einiges an anderen 4090 Leaks gepostet hat.
https://twitter.com/wxnod/status/1570008594145513478?s=20&t=HCG6qcp0T9Wb5j7rKGrQ0g
Linmoum
2022-09-14, 14:18:11
Ich sag ja, bei Lukü wird man den enormen Verbrauch, insb. bei Customs, mit Materialaufwand erschlagen. Hilft, obwohl man dann auch gleich eigentlich einfach eine AiO raufklatschen könnte bzw. sollte.
davidzo
2022-09-14, 14:23:31
Euch ist schon klar dass eine die 4080 12GB durchaus imstande ist es mit einer 3080ti aufzunehmen welche immer noch weit über 1000€ kostet und abseits des VRAM Limits wohl auch mit einer 3090ti?
Wenn das irgendwo im Preisbereich von 600-800€ kommt ist das immer noch eine große Verbesserung beim P/L, selbst gegenüber den gesenkten MSRPs der 3000er Serie.
Vor wenigen Monaten hat man für 699€ gerade mal eine 3060 bekommen.
Ungewöhnlich ist halt der riesige Abstand des xx102 zum xx104. Nun hat man zwar diesmal einen xx103 dazwischen, aber auch der hängt einer schon beschnitten 4090 selbst im Vollausbau deutlich hinterher. Irgendwas dürfte sich Nvidia dabei schon gedacht haben. Ich hätte eher erwartet, dass man das dann durch Takt ein wenig kompensiert. Aber das scheint ja nicht der Fall zu sein.
Ich schätze dass man relativ früh Wind von AMDs "Nvidia Killer" Plan bekommen hat (war ja sogar 2020 schon öffentlich geleakt). AMD hat anscheinend wie bei Zen1-3 doch sehr langfristige Roadmaps, die zum großen Teil parallel entwickelt werden. Nvidia hat daher vorausschauend einen Chip entworfen der so groß angesetzt ist, dass er "uneinholbar" vorne liegen muss bzw. reichlich Reserven hat. Pricing ist egal denn bei 80% Marktanteil setzt man die Preise selber. Aber man vermeidet so eine peinliche Situation in der AMD leicht vorne liegt was sich nachhaltig negativ auf den Wert der Marke Nvidia auswirken würde.
Ungewöhnlich ist halt der riesige Abstand des xx102 zum xx104. Nun hat man zwar diesmal einen xx103 dazwischen, aber auch der hängt einer schon beschnitten 4090 selbst im Vollausbau deutlich hinterher. Irgendwas dürfte sich Nvidia dabei schon gedacht haben. Ich hätte eher erwartet, dass man das dann durch Takt ein wenig kompensiert. Aber das scheint ja nicht der Fall zu sein.
Ja, der Takt der 103er ist verdächtig niedrig. Unterhalb des 102er Chips war das noch nie der Fall.
Und wenn man mit dem 104er eine 4080 auflegt hätte ich auch werwartet dass diese näher am limit getaktet wird um die Lücke zu schließen, also eher 2,7-2,8Ghz.
Platos
2022-09-14, 14:25:03
Möglicherweise ist die 104-er 4080 ja Laptop.
basix
2022-09-14, 14:29:17
Naja, Größteil des Stromverbrauchs wird durch GDDR6X beeinflusst. Siehe auch 3090 <> 3070 TI: 350W zu 290W (maximal 10% mehr Takt). Die 3090 ist mehr als 30% effizienter...
Wenn es vor allem am G6X hängt, ist es nicht weniger komisch. 1.5x Busbreite und mehr Takt, dennoch nur gerade mal +1/3 Stromverbrauch --> Geht einfach nicht auf
prinz_valium_2
2022-09-14, 14:29:27
Euch ist schon klar dass eine die 4080 12GB durchaus imstande ist es mit einer 3080ti aufzunehmen welche immer noch weit über 1000€ kostet?
Wenn das irgendwo im Preisbereich von 600-800€ Kommt ist das immer noch eine große Verbesserung beim P/L.
Vor wenigen Monaten hat man für das Geld gerade mal eine 3060 bekommen.
980TI war $999
Dann kam eine 1070 für $379, mit deutlich mehr Leistung.
Wenn wir es schon mit der schlechtesten Zeit vergleichen, dann bitte auch mit der Besten.
basix
2022-09-14, 14:31:00
So ein Quatsch. Eine 980 Ti hat eine MSRP von 739 Euro: https://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/10/
Nur Titanen und später die 2080 Ti hatten eine MSRP von 999$
Troyan
2022-09-14, 14:31:57
Du redest wirr. Erstens gab es nur die Titan X für $999, die GTX980TI kostete $649. Zweitens existiert etwas namens Inflation, was bedeutet, dass der Preis immer weiter ansteigt. Dazu kommt, dass die Inflation in der Prozesstechnologie deutlich über der allgemeinen Inflation liegt.
Oder einfach ausgedrückt: Was frühher $999 sind, ist heute $1999. Also kann man sich ausrechnen, was das für jede andere Preiskategorie bedeutet.
prinz_valium_2
2022-09-14, 14:35:13
Du redest wirr. Erstens gab es nur die Titan X für $999, die GTX980TI kostete $649. Zweitens existiert etwas namens Inflation, was bedeutet, dass der Preis immer weiter ansteigt. Dazu kommt, dass die Inflation in der Prozesstechnologie deutlich über der allgemeinen Inflation liegt.
Oder einfach ausgedrückt: Was frühher $999 sind, ist heute $1999. Also kann man sich ausrechnen, was das für jede andere Preiskategorie bedeutet.
Dann guck dir mal Inflationscharts an und wo Elektronik da liegt.
Eines der wenigen Sachen, die normalerweise günstiger werden.
Kann aber sein, dass der Preis der 980TI ein anderer war. Bei der Quelle die ich gelesen habe stand $999.
Also nur knapp die Hälfte und nicht 1/3 des Preises.
Troyan
2022-09-14, 14:37:43
Dir ist klar, dass 28nm noch ohne FinFet auskam? Wir reden bei Lovelace um einen 4nm FF EUV Prozess und bei Maxwell um einen 28nm Billigprozess.
Weiß du, wie aufwendig es ist angeblich 75 Mrd. Transistoren überhaupt fertigen zu können? Die Investitionen in Simulation und Design?
Du kannst doch solch einen Chip nicht mit einen Fernseher aus China vergleichen...
prinz_valium_2
2022-09-14, 14:53:52
Ja ich weiß das. Da muss sich die Hableiterbranche schwer was einfallen lassen.
Entweder auf Margen verzichten, das Ziel der Leistungssteigerung aufgeben, oder komplett neue Fertigungen entwickeln und/oder Materialien nutzen.
Wenn Leistung und Kosten linear steigen, dann gibt es keinen Grund mehr zum upgraden.
Zur Zeit zieht noch die Steigerung bei der Effizienz. Aber wenn das irgendwann auch mal nicht mehr Kosteneffektiv realisierbar ist, dann gute Nacht.
Für Konsumenten rechtet es sich schon fast nicht mehr. Bei Hyperscalern natürlich schon noch. Aber auch nur, weil da die Energiekosten ein riesen Faktor sind, oder auch z.B. der Footprint.
Was hat mehr Leistung? Zehn 1070 oder eine 3090TI? Beides für 2k zu haben.
Verbrauch und Praktikabilität gewinnt die neue GPU Generation. Aber dass wir bei Leistung pro $ Rückschritte machen ist einfach nur traurig.
Bei den CPUs ist das übrigens auch nicht der Fall.
Edgecrusher86
2022-09-14, 16:23:59
Das oben wird die Karte aus dem Lenovo Legion sein - evtl. GB Gaming OC?!
https://abload.de/img/fcnkdzuaaae5xrh0fdgc.jpg https://abload.de/img/fcnkd7wamaa7rp2zgita.jpghttps://abload.de/img/fcmpaawaiaerlpbwme5y.jpg
Hier die GB 3090 Ti:
https://abload.de/img/gigabyte-geforce-rtx-gfe6k.jpg
robbitop
2022-09-14, 16:25:03
Aus Endkundensicht:
Die Margen sind so hoch wie noch nie - sowohl bei NV als auch bei AMD. Entsprechend fällt es mir schwer, bei diesen Ausreden der immer höher werdenden Kosten (RnD, teurer werdende Prozesse, Inflation) nicht die Augen zu verdrehen. Das ist sicherlich wahr - aber es ist nicht "the full story" - es ist vor allem eine Rechtfertigung. Ein Teil der Preiserhöhung kommt daher, dass man sich die Taschen immer voller haut. Mit den Margen aus der Maxwell Zeit (die auch schon deutlich fetter war als noch zu Fermi oder Tesla Zeit die wiederum auch solide war) gingen sicherlich Karten mit deutliche besserem P/L Verhältnissen. Da ist eine Menge Luft, die aktuell in die Taschen der Shareholders landet (was ich nicht verurteile - das ist der Job einer Firma - es fehlt halt einfach nur an Wettbewerb). Mit nur 2x Marktteilnehmern kann man sich darauf einigen, dass es zu keinem Preiskampf kommt. Ein dritter Teilnehmer hätte dieser Konstellation für den Endkunden sehr gut getan. Ohne Druck kein Preiskampf.
Platos
2022-09-14, 17:17:02
Leider gibts hier zu viele, die ständig versuchen die eine oder andere Firma immer positiv darzustellen.
Das selbe hat man wunderbar bei Zen3 gesehen. Auf einmal massive Preiserhöhung für 1.5 Jahre "verständlich" oder gar gut...
Ich hoffe allerdings, dass das nicht stimmt und das mit der 104-er RTX 4080 noch anders kommt. Aber Jensen hat ja schon sein Bullshit mit den 500$ und Konsole raus gehauen.
arcanum
2022-09-14, 17:29:36
Verbrauch und Praktikabilität gewinnt die neue GPU Generation. Aber dass wir bei Leistung pro $ Rückschritte machen ist einfach nur traurig.
fing doch schon mit Turing an. damals wurde die absolut lächerliche RT leistung zumindest von den käufern als guter grund für 999$ (bzw. 1260€ für die FE :lol:) genannt. die 3080 war für mich hingegen ein schnapper für 700€, allen unkenrufen und 10 GB zum trotz.
Sunrise
2022-09-14, 17:37:23
Aus Endkundensicht:
Die Margen sind so hoch wie noch nie - sowohl bei NV als auch bei AMD. Entsprechend fällt es mir schwer, bei diesen Ausreden der immer höher werdenden Kosten (RnD, teurer werdende Prozesse, Inflation) nicht die Augen zu verdrehen. Das ist sicherlich wahr - aber es ist nicht "the full story" - es ist vor allem eine Rechtfertigung. Ein Teil der Preiserhöhung kommt daher, dass man sich die Taschen immer voller haut. Mit den Margen aus der Maxwell Zeit (die auch schon deutlich fetter war als noch zu Fermi oder Tesla Zeit die wiederum auch solide war) gingen sicherlich Karten mit deutliche besserem P/L Verhältnissen. Da ist eine Menge Luft, die aktuell in die Taschen der Shareholders landet (was ich nicht verurteile - das ist der Job einer Firma - es fehlt halt einfach nur an Wettbewerb). Mit nur 2x Marktteilnehmern kann man sich darauf einigen, dass es zu keinem Preiskampf kommt. Ein dritter Teilnehmer hätte dieser Konstellation für den Endkunden sehr gut getan. Ohne Druck kein Preiskampf.
Ich glaube du machst es dir etwas zu einfach.
Vergleiche mal z.B. wieviel R&D die jeweiligen Firmen investieren müssen, um eine neue Generation zu entwickeln, welche immer wieder diese enormen Steigerungen zulässt. Das sind im Vergleich zu Zeiten von Radeon 9500 (ATI) oder Geforce FX irrsinnige Steigerungen. Gerade im GPU-Bereich gab es fast nie eine Stagnation (wie im CPU-Bereich). Keine dieser Firmen ruht sich auf den eigenen Lorbeeren aus.
Dann kommt dazu, dass die Kosten bei TSMC immens gestiegen sind, und das nicht nur für die jeweiligen Fertigungsprozesss selbst, sondern auch die enormen Preissteigerungen die TSMC die letzten 3 Jahre angekündigt und durchgedrückt hat.
Selbstverständlich (wir reden über AGs) ist gerade z.B. bei Nvidia hier eine irrsinnige Marge vorhanden, die theoretisch niedrigere Preise zulassen würde. Dann musst du aber auch Apple und andere mit in den Topf werfen.
Selbstverständlich arbeiten die auch nicht für dich, sondern in die eigenen Taschen.
Was auch noch ein Punkt ist:
Warum kauft denn jeder die Produkte (nennt sich Marktwirtschaft) anstatt sie zu boykottieren und stattdessen die billigeren Konkurrenzprodukte zu nehmen? Weil man insbesondere in DE seinen Status als “Ich brauche das beste!” verteidigen muss.
robbitop
2022-09-14, 17:37:35
fing doch schon mit Turing an. damals wurde die absolut lächerliche RT leistung zumindest von den käufern als guter grund für 999$ (bzw. 1260€ für die FE :lol:) genannt. die 3080 war für mich hingegen ein schnapper für 700€, allen unkenrufen und 10 GB zum trotz.
Für 700€ wäre es, wenn verfügbar, eine Top Karte gewesen. Aber leider bis auf ein paar Bots und Glückpilze war das nicht real.
Ich glaube du machst es dir etwas zu einfach.
Vergleiche mal z.B. wieviel R&D die jeweiligen Firmen investieren müssen, um eine neue Generation zu entwickeln, welche immer wieder diese enormen Steigerungen zulässt. Das sind im Vergleich zu Zeiten von Radeon 9500 (ATI) oder Geforce FX irrsinnige Steigerungen. Gerade im GPU-Bereich gab es fast nie eine Stagnation (wie im CPU-Bereich). Keine dieser Firmen ruht sich auf den eigenen Lorbeeren aus.
Dann kommt dazu, dass die Kosten bei TSMC immens gestiegen sind, und das nicht nur für die jeweiligen Fertigungsprozesss selbst, sondern auch die enormen Preissteigerungen die TSMC die letzten 3 Jahre angekündigt und durchgedrückt hat.
Das habe ich alles nie bezweifelt und auch nie behauptet, jemand ruht sich aus (:|) - aber die Marge ist halt fettig gestiegen was im Umkehrschluss bedeutet, dass bessere P/Ls möglich wären. Und ich habe es auch explizit nicht kritisiert im Sinne es IHVs sondern im Sinne des Marktes. Also insofern können wir uns diesen Teil schenken. ;)
Selbstverständlich (wir reden über AGs) ist gerade z.B. bei Nvidia hier eine irrsinnige Marge vorhanden, die theoretisch niedrigere Preise zulassen würde. Dann musst du aber auch Apple und andere mit in den Topf werfen.
Selbstverständlich arbeiten die auch nicht für dich, sondern in die eigenen Taschen.
Whataboutism finde ich immer nicht wirklich hilfreich in Diskussionen. Aber jap es gibt auch andere Unternehmen in anderen Branchen die fette Gewinne machen. Allerdings ist es in Apples Fall so, dass sie das trotz enormen Wettbewerb schaffen und wer ein Phone, Watch, Tablet, Headphones, Laptop mit besserem P/L haben will: es gibt etliche Produkte des Wettbewerbs die das bieten. ;)
Again: bitte meine Postings auch im Detail lesen. Ich kritisiere keine Firma für Gewinnmaximierung und ich bezweifle auch keine Kostensteigerung durch RnD/Inflation/modernere Fertigungsprozesse. Das ist völlig normal und ist die Pflicht der Unternehmensführung ggü den Investoren das zu tun. Es ist einfach der fehlende Wettbewerb, der das zulässt.
Mit mehr Druck durch Wettbewerb (und das ist die Kernaussage) wären Grafikkarten mit deutlich besserem P/L möglich, weil starker Wettbewerb eben dazu führt, dass häufig entsprechende Unternehmen von ihrer (im Moment richtig fettigen) Marge ablassen müssen.
Was auch noch ein Punkt ist:
Warum kauft denn jeder die Produkte (nennt sich Marktwirtschaft) anstatt sie zu boykottieren und stattdessen die billigeren Konkurrenzprodukte zu nehmen? Weil man insbesondere in DE seinen Status als “Ich brauche das beste!” verteidigen muss.
LOL ich hoffe du meinst damit nicht Grafikkarten. Das wäre ein lächerliches Statusobjekt.
Also ich mache das so. Ist es zu teuer (also kein bestimmer Euro Betrag sondern Preis bezogen auf das was es aus meiner Sicht wert ist), kaufe ich es nicht. Das ist der Grund warum ich immernoch eine 1080ti habe (und Budget für sowas wie eine Grafikkarte egal wie teuer gar kein Thema wäre).
Linmoum
2022-09-14, 18:35:56
https://mobile.twitter.com/NVIDIAGeForce/status/1570062830271107072
208% Perf
629mm2
75.38 Mrd. Transistoren
Who knows. Würde aber irgendwie Sinn ergeben.
AffenJack
2022-09-14, 18:41:43
https://mobile.twitter.com/NVIDIAGeForce/status/1570062830271107072
208% Perf
629mm2
75.38 Mrd. Transistoren
Who knows. Würde aber irgendwie Sinn ergeben.
Würde tatsächlich Sinn ergeben.
Ich hoffe aber immernoch, dass die 12GB 4080 Fake sind. Das wäre einfach so ein Blödsinn.
Platos
2022-09-14, 18:50:58
629mm2 wäre schon sehr wenig für die 75Milliarden. Wäre auf jeden Fall nochmals deutlich besser wie Hopper.
Das wären dann 120 Millionen Transistoren pro mm2. Das ist schon krass. Hopper hat "nur" ca. 100 Millionen pro mm2.
Thunder99
2022-09-14, 18:54:11
Logisch betrachtet macht eine Desktop 4080 12GB keinen Sinn auf AD104 Basis, da die Namen nach oben ja begrenzt sind und noch viele Shader bis zum Maximalausbau vom AD102 gibt.
Wo soll da denn ansonsten die 4070Ti hin wenn full AD104 die 4080 12GB wäre?
Bei mir steht ja ein Upgrade (auf RT für morgen und übermorgen) an aber unter 16GB wird es keine Karte geben :wink:
Meridian12
2022-09-14, 18:54:38
Schade dass NVIDIA nicht alles direkt zeigt. Eine 4080ti wäre wohl die optimale Karte für mich.
Klar wäre mir die 4090 noch lieber, aber wer glaubt denn bei der Karte an 1499 Euro UVP?
4080 mit 12GB kann mir gestohlen bleiben. Will meine nächste Karte 4-5 Jahre behalten. Da gehe ich bestimmt nicht das Risiko ein wegen der peinlichen Speichergröße irgendwelche Details runterschrauben zu müssen,obwohl der Grafichip selber schnell genug wäre.
Platos
2022-09-14, 19:03:06
Es geht ja nicht nur um die 12GB, diese 4080 mit 12GB aus dem letzen Leak hat auch deutlich weniger Perfomance, da weniger SM bzw. basierend auf dem 104-er DIE.
Ich hoffe auch, dass das ein falsches Gerücht ist oder einfach nicht in die Tat umgesetzt wird. Das wäre tatsächlich ein neuer Tiefpunkt.
Adam D.
2022-09-14, 19:09:09
Es geht ja nicht nur um die 12GB, diese 4080 mit 12GB aus dem letzen Leak hat auch deutlich weniger Perfomance, da weniger SM bzw. basierend auf dem 104-er DIE.
Ich hoffe auch, dass das ein falsches Gerücht ist oder einfach nicht in die Tat umgesetzt wird. Das wäre tatsächlich ein neuer Tiefpunkt.
Das "Problem" ist, dass WhyCry grundsätzlich sehr vorsichtig ist und solche Daten mit dieser Gewissheit (er lässt ja wirklich keine Zweifel) so kurz vor Launch mit an Sicherheit grenzender Wahrscheinlichkeit stimmen.
Linmoum
2022-09-14, 19:11:15
Wenige Tage vor einer offiziellen Ankündigung ist es bei VCZ in der Tat sehr unwahrscheinlich, dass da irgendwas wirklich (mal abgesehen von sowas wie Last-Minute-Aktionen bei der Preisgestaltung) nicht hinhaut.
Das dürfte schon seine Richtigkeit haben und am 20.09. bestätigt werden.
prinz_valium_2
2022-09-14, 19:21:14
Logisch betrachtet macht eine Desktop 4080 12GB keinen Sinn auf AD104 Basis, da die Namen nach oben ja begrenzt sind und noch viele Shader bis zum Maximalausbau vom AD102 gibt.
Wo soll da denn ansonsten die 4070Ti hin wenn full AD104 die 4080 12GB wäre?
Bei mir steht ja ein Upgrade (auf RT für morgen und übermorgen) an aber unter 16GB wird es keine Karte geben :wink:
Mit einem Super refresh kann man das ganze ja quasi resetten
horn 12
2022-09-14, 19:21:56
Ungewöhnlich ist halt der riesige Abstand des xx102 zum xx104. Nun hat man zwar diesmal einen xx103 dazwischen, aber auch der hängt einer schon beschnitten 4090 selbst im Vollausbau deutlich hinterher. Irgendwas dürfte sich Nvidia dabei schon gedacht haben. Ich hätte eher erwartet, dass man das dann durch Takt ein wenig kompensiert. Aber das scheint ja nicht der Fall zu sein.
Der Fall dürfte die Konkurrenz sein,
denn da gehe ich von 240 bis 280 Watt bei 7800XT aus
und 300 bis 340 Watt bei der 7900XT
Die 7950XT dürfte dann die 375 bis 400 Watt haben und womöglich gar schneller/ schlimmsten Falls kaum langsamer sein als die 4090
Gott1337
2022-09-14, 19:24:56
Würde tatsächlich Sinn ergeben.
Ich hoffe aber immernoch, dass die 12GB 4080 Fake sind. Das wäre einfach so ein Blödsinn.
Blödsinn ist das was du sagst. Wo ist dein Problem wenn es 12GB und 16GB gibt? solange es die 16GB Version gibt sollte dich das doch nicht stören, es ist nur eine weitere Option...
Linmoum
2022-09-14, 19:28:45
Blödsinn ist das was du sagst. Wo ist dein Problem wenn es 12GB und 16GB gibt? solange es die 16GB Version gibt sollte dich das doch nicht stören, es ist nur eine weitere Option...Was denkst du denn wohl, wie diese 4080 12GiB gegenüber einer entsprechenden 3080 bzw. der 3080Ti performen wird?
Oder vermutest du hier einen deutlich niedrigeren Preis?
Platos
2022-09-14, 19:46:38
Blödsinn ist das was du sagst. Wo ist dein Problem wenn es 12GB und 16GB gibt? solange es die 16GB Version gibt sollte dich das doch nicht stören, es ist nur eine weitere Option...
Und schon einer drauf rein gefallen ;D
Die 4080 hat nicht nur 12GB, sie hat auch weniger SMs laut leak.
Ne 4070 umbenennt. Die Gefahr ist dann natürlich gross, dass sie 699 kostet und die "eigentliche" 4080 kostet dann 799-999...
Das ist das Problem.
aufkrawall
2022-09-14, 19:57:23
Full ack, stinkt bisher nach verschleierter Preiserhöhung für den 104er Chip. Dann gibts ggf. noch eine Kastraten-Version mit Krüppel-VRAM...
crux2005
2022-09-14, 20:07:58
Die 12GB 4080 ist die Daufang Karte von NV. Neues Tief? Eher nicht. Gab genug solcher in der Vergangenheit. 4070 wäre eindeutig die passendere Bezeichnung.
Edgecrusher86
2022-09-14, 20:28:09
Logisch betrachtet macht eine Desktop 4080 12GB keinen Sinn auf AD104 Basis, da die Namen nach oben ja begrenzt sind und noch viele Shader bis zum Maximalausbau vom AD102 gibt.
Wo soll da denn ansonsten die 4070Ti hin wenn full AD104 die 4080 12GB wäre?
Bei mir steht ja ein Upgrade (auf RT für morgen und übermorgen) an aber unter 16GB wird es keine Karte geben :wink:
Na dann hin - die 4070 (Ti) wäre dann wohl :
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13107182&postcount=4040
Sunrise
2022-09-14, 20:32:30
…Also ich mache das so. Ist es zu teuer (also kein bestimmer Euro Betrag sondern Preis bezogen auf das was es aus meiner Sicht wert ist), kaufe ich es nicht. Das ist der Grund warum ich immernoch eine 1080ti habe (und Budget für sowas wie eine Grafikkarte egal wie teuer gar kein Thema wäre).
Dann bist du nicht die Zielgruppe… ebensowenig wie ich.
Dass die Preise bezahlt werden, ergibt sich ja schon aus der Tatsache, dass man die Preise immer weiter erhöhen kann.
Die Preise sind einfach nur noch lächerlich geworden.
prinz_valium_2
2022-09-14, 20:34:54
Für 700€ wäre es, wenn verfügbar, eine Top Karte gewesen. Aber leider bis auf ein paar Bots und Glückpilze war das nicht real.
Das habe ich alles nie bezweifelt und auch nie behauptet, jemand ruht sich aus (:|) - aber die Marge ist halt fettig gestiegen was im Umkehrschluss bedeutet, dass bessere P/Ls möglich wären. Und ich habe es auch explizit nicht kritisiert im Sinne es IHVs sondern im Sinne des Marktes. Also insofern können wir uns diesen Teil schenken. ;)
Whataboutism finde ich immer nicht wirklich hilfreich in Diskussionen. Aber jap es gibt auch andere Unternehmen in anderen Branchen die fette Gewinne machen. Allerdings ist es in Apples Fall so, dass sie das trotz enormen Wettbewerb schaffen und wer ein Phone, Watch, Tablet, Headphones, Laptop mit besserem P/L haben will: es gibt etliche Produkte des Wettbewerbs die das bieten. ;)
Again: bitte meine Postings auch im Detail lesen. Ich kritisiere keine Firma für Gewinnmaximierung und ich bezweifle auch keine Kostensteigerung durch RnD/Inflation/modernere Fertigungsprozesse. Das ist völlig normal und ist die Pflicht der Unternehmensführung ggü den Investoren das zu tun. Es ist einfach der fehlende Wettbewerb, der das zulässt.
Mit mehr Druck durch Wettbewerb (und das ist die Kernaussage) wären Grafikkarten mit deutlich besserem P/L möglich, weil starker Wettbewerb eben dazu führt, dass häufig entsprechende Unternehmen von ihrer (im Moment richtig fettigen) Marge ablassen müssen.
LOL ich hoffe du meinst damit nicht Grafikkarten. Das wäre ein lächerliches Statusobjekt.
Also ich mache das so. Ist es zu teuer (also kein bestimmer Euro Betrag sondern Preis bezogen auf das was es aus meiner Sicht wert ist), kaufe ich es nicht. Das ist der Grund warum ich immernoch eine 1080ti habe (und Budget für sowas wie eine Grafikkarte egal wie teuer gar kein Thema wäre).
Da spricht mir jemand aus der Seele und ich bin Anarcho Kapitalist.
Leider Nutzen Konsumenten ihre Markmacht viel zu selten.
Aber nach dem jetzt der Kryptocrash eingesetzt hat, wird es für die GPU Hersteller vllt doch mal endlich sehr ungemütlich, wenn sie die neue Generation zu den selben Preisen vermarkten wollen.
Das selbe hoffe ich bei der PS5 und der Preissteigerung. Aber das gibt es auch massig Konkurrenz in Form der Xbox oder anderen Platformen.
Ich habe auch noch eine 1070 (gekauft, weil es ein gutes Produkt zu einem guten Preis war) und warte darauf endlich Aufrüsten zu können. Wird diese Generation vllt schon wieder nichts, außer AMD liefert.
Wie gesagt, geht es bei den CPUs ja auch. Die HighEnd Modelle sind nicht x-fach teurer geworden. $1k gab es schon vorher.
Und im unteren Bereich gibt es nach wie vor viel Leistung für wenig Geld.
robbitop
2022-09-14, 20:53:09
Dann bist du nicht die Zielgruppe… ebensowenig wie ich.
Dass die Preise bezahlt werden, ergibt sich ja schon aus der Tatsache, dass man die Preise immer weiter erhöhen kann.
Die Preise sind einfach nur noch lächerlich geworden.
Das widerum liegt am mangelnden Wettbewerb. Man stelle sich mal vor, was passiert, wenn Intel in ein paar Jahren richtig erfolgreich werden würde und alle drei erbittert um Marktanteile kämpfen. Richtig: Preiskampf und damit ein besseres P/L. Der Markt ist leider im Moment in keinem tollen Zustand.
basix
2022-09-14, 22:28:16
https://mobile.twitter.com/NVIDIAGeForce/status/1570062830271107072
208% Perf
629mm2
75.38 Mrd. Transistoren
Who knows. Würde aber irgendwie Sinn ergeben.
208W
629$
75.38 TFLOPs ;D
Oder:
208% Price Tag
629W
753.8% im 3DC 4K Index ;D
iamthebear
2022-09-14, 22:45:32
Mir kommt vor als launched Nvidia die 4080 nur, damit diese möglichst scheiße aussieht und sich die Leute dann doch zu einer Ampere zum Vollpreis hinreißen lassen und nicht jeder auf die 2x Performance Karten wartet.
Ich hoffe echt, dass AMD hier mit RDNA3 etwas mehr Druck macht, denn falls nicht word das schon woeder eine Generation zum Aussetzen aber schön langsam brauche ich echt eine neue Karte.
robbitop
2022-09-14, 23:25:26
Oder: es gibt nochmal eine 4080ti mit gesalvagetem ad102. RGT hat heute sowas erzählt auf yt.
116-118 SM, 320 bit, 20 gb vram
Linmoum
2022-09-14, 23:29:38
Ist eigentlich naheliegend, dass da unterhalb der 4090 später noch ein weiterer Salvage kommt. Ansonsten ist der Abstand zu AD103 eigentlich viel zu groß.
AMD hatte bei N21 zu N22 ja auch einen ziemlich großen Abstand, das hat man aber bei N22 dafür mit mehr Taktraten teilkompensiert. Aber das scheint bei der großen 4080 ja nicht einmal zu der Fall zu sein.
aceCrasher
2022-09-14, 23:39:43
Oder: es gibt nochmal eine 4080ti mit gesalvagetem ad102. RGT hat heute sowas erzählt auf yt.
116-118 SM, 320 bit, 20 gb vram
Bei so einem Modell sehe ich mich persönlich. Selbst die "große" 4080 wirkt auf mich eher wie eine Mittelklassekarte im Vergleich zu AD102. Ich befürchte nur dass in Anbetracht des Wechselkurses auch eine 4080ti hierzulande pervers teuer werden wird...
robbitop
2022-09-15, 00:29:14
Bei so einem Modell sehe ich mich persönlich. Selbst die "große" 4080 wirkt auf mich eher wie eine Mittelklassekarte im Vergleich zu AD102. Ich befürchte nur dass in Anbetracht des Wechselkurses auch eine 4080ti hierzulande pervers teuer werden wird...
Sehe ich komplett genauso. :)
iamthebear
2022-09-15, 05:32:09
AD102 zu AD103 ist in etwa der Abstand wie zwischen GA102 und GA104.
Die 4090 ist so beschnitten wie sie ist auch in etwa mit der 3080 vergleichbar. Von daher wird die Lücke da nicht größer sein als bisher. Nur der Preis und TDP sind höher.
Ich denke der weitere Verlauf wird davon abhängen wie intensiv AMD mit RDNA3 angreift.
Edgecrusher86
2022-09-15, 07:44:27
Ich persönlich sehe die großen Lücken zwischen AD102 und 103/104 auch nur, damit man diese auch schön mit Refresh-Modellen wie Tis stopfen kann und zuvor vielleicht der ein oder andere aus Ungeduld eine Nummer größer nimmt. ;)
Mit krummen SIs wäre beim VRAM auch noch mehr Spielraum - etwa 288-bit 18GB für eine 4080 Ti, auch wenn sicherlich 20GB wahrscheinlicher wären oder ebenso 224-bit und 14GB für eine 4080 Super oberhalb der 4080 12GB oder whatever. :D
Dural
2022-09-15, 09:43:48
Klar wird es eine 4080Ti mit AD102 geben, die Lücke ist trotzdem zu Gross :rolleyes: und wenn eine 4090Ti kommt ist der Abstand noch mal deutlich grösser zur 4080.
In der Vergangenheit lagen zwischen den Karten keine 20%, eher 10%.
Die 4080 12GB ist ja so wie so ein Witz, da hat irgend jemand definitiv was völlig falsches verstanden. Das wird die Mobile oder die 4070 sein, aber sicher nicht zweimal Desktop Versionen der 4080 mit völlig unterschiedlichen Spec.
Einfach mal ein bisschen Gehirn einschalten... :wink:
Linmoum
2022-09-15, 09:45:35
Gehirn einschalten wie bei der 1060 3GiB/6GiB?
Dural
2022-09-15, 09:55:28
Das sind OEM / China Karten, hat doch ziemlich nichts mit Desktop zu tun.
Eventuell kommt auch was ganz anderes:
Tell us, how fast would you like to go?
Grafikkarten wo sich den Kundenwünschen anpassen? Abo Modell? Die Frage ist halt wie das NV zu 100% hack sicher anstellen will.
gnomi
2022-09-15, 11:42:43
War doch absolut zu erwarten das Lineup.
Eine sehr starke 90er, die quasi die einzige geniale Aufrüstoption für Enthusiasten im Besitz der höheren Vorgänger Modelle darstellt.
Der Rest drunter sind denke ich Lockangebote für alle, die bei High End Ampere nicht zugeschlagen haben.
So besteht auch eine gewisse Lieferbarkeit und viel Preis/Leistung gegenüber Ampere.
Gerade die nicht verfügbare 3080 zum Launch war genau wie die brutalen Preise danach ein Ärgernis.
Alles andere kommt nächstes Jahr. Denn die alten Karten kann man ja auch noch brauchbar abverkaufen, um nicht zu günstig die kleine 80er raushauen zu müssen. Das regt dann auch die bisherigen Käufer nicht so auf.
Und dann natürlich die 4080TI nachschieben in die große Lücke.
Die sollte wie schon die drei letzten Ableger wieder top werden.
Von daher warte ich auf die, oder setze eine Generation mit der 3080TI aus.
The_Invisible
2022-09-15, 11:50:34
Oder: es gibt nochmal eine 4080ti mit gesalvagetem ad102. RGT hat heute sowas erzählt auf yt.
116-118 SM, 320 bit, 20 gb vram
So eine 4080Ti für ~1k lass ich mir einreden, AD102 scheint aber teuer zu werden anscheinend, ka ob sich das ausgeht. Aber eh nur mehr 5 Tage bis Lederjacke mit "RTX on" loslegt, vielleicht kann man dann schon einiges ableiten ;)
Troyan
2022-09-15, 11:56:11
Die RTX4080 mit 12GB bietet die doppelte Rechenleistung zur 3070TI beim selben Verbrauch. Da Lovelace im Gegensatz zu Ampere es über mehr ComputeUnits und deutlich mehr Takt erreicht (48% mehr Takt!) ist das Ding auf dem Leistungslevel, wo AMD RDNA3 platziert.
Der Name ist grottig, aber P/L-technisch bei ca. $750 ist es für den Kunden vollkommen okay.
Neurosphere
2022-09-15, 11:59:58
..., wo AMD RDNA3 platziert.
Hab ich was nicht mitbekommen?
Troyan
2022-09-15, 12:04:18
Hab ich was nicht mitbekommen?
Offiziell 50% besseres Perf/W. Machen wir 75% daraus. Das ist dann irgendwo bei der RTX4080 12GB.
mboeller
2022-09-15, 12:18:52
Offiziell 50% besseres Perf/W. Machen wir 75% daraus. Das ist dann irgendwo bei der RTX4080 12GB.
Meinst du N33?
Leonidas
2022-09-15, 12:53:57
So ein Quatsch. Eine 980 Ti hat eine MSRP von 739 Euro: https://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/10/
CB gibt gern nur deutsche UVP an. Die zählen aber nicht zur eigentlichen Preisgestaltung.
3DC gibt originale US-Listenpreise an:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-980-ti
980Ti: $649
TitanX: $999
Troyan
2022-09-15, 13:21:48
Meinst du N33?
Schlägt sich mit dem Ampere-Abfall rum. :cool:
Laut AMD sind es 50%+ mit 5nm Chiplet. Wie soll da z.B. der Nachfolger der 6700XT überhaupt noch mithalten? Wenn nVidia bei 285W 90% mehr Rechenleistung liefern kann, können sie das auch bei 220W als 3070 Ersatz indem auf GDDR6X verzichtet wird. :eek:
Es ist ja nicht nur Rechenleistung erhöhen. Eine 3070 bei 220W ist ca. 30% bis 40% schneller als die 2080 (selbe Konfiguration) mit der selben Bandbreite, 10% höheren Takt, 50% größeren L1 Cache und die Verdopplung der FP32 Leistung pro ComputeUnit (im Schnitt ca. 70% nutzbar in Spielen).
Die 4080 12GB hat gegenüber der 3070TI zwar 100GB/s weniger Bandbreite, aber angeblich 48mb L2 Cache (+44MB oder Faktor 12) als Ausgleich. 48% mehr Takt (löst Flaschenhälse in der Grafikpipeline) und 25% mehr ComputeUnits sowie ggfs. weitere Verbesserungen von denen wir noch nichts wissen.
Thunder99
2022-09-15, 13:39:04
Am Ende muss man sich vom Namen befreien und das kaufen, was am Ende das persönliche Performance Ziel ist (und natürlich bezahlt werden möchte).
Ausgehend von einer 1080Ti ist ja jede Karte gut welche mindestens 12GB hat, besser 16 bei +200+% (wenn 1080Ti 100% hat).
Aus dieser Überlegung kann es fast nur ein AD103 werden, egal welche Bezeichnung die Grafikkarte hat.
robbitop
2022-09-15, 15:20:07
AD102 zu AD103 ist in etwa der Abstand wie zwischen GA102 und GA104.
Die 4090 ist so beschnitten wie sie ist auch in etwa mit der 3080 vergleichbar. Von daher wird die Lücke da nicht größer sein als bisher. Nur der Preis und TDP sind höher.
Ich denke der weitere Verlauf wird davon abhängen wie intensiv AMD mit RDNA3 angreift.
Ich hab es anhand der aktiven SPs doch bereits vor ein paar Seiten vorgerechnet. Prozentual gab es noch nie so eine schwache 80 wie dieses Mal. Ich hab exemplarisch Pascal und Turing dazu gepackt. Auch Maxwell und Kepler und Fermi und Tesla sind da nicht drunter.
robbitop
2022-09-15, 15:22:32
So eine 4080Ti für ~1k lass ich mir einreden, AD102 scheint aber teuer zu werden anscheinend, ka ob sich das ausgeht. Aber eh nur mehr 5 Tage bis Lederjacke mit "RTX on" loslegt, vielleicht kann man dann schon einiges ableiten ;)
Ich befürchte es wird deutlich mehr als 1000€ werden. Und schlimm, dass heute 1000€ als Okay für eine gesalvagte Karte gelten. Man hat uns fein gewöhnt und dressiert. X-D
Dovregubben
2022-09-15, 16:13:13
Prozentual gab es noch nie so eine schwache 80 wie dieses Mal.
Relativ zu was? Gab es schon mal eine so starke 90? Das ist doch eine ganz neue Kategorie und nicht zu vergleichen.
Btw. ist all unsere PC Hardware Salvage im Vergleich zu dem was möglich wäre. Kann man ja gut bei Apple sehen. Da bekommst du in einer APU mal 40% mehr Transistoren als wir bei der 4090 im Vollausbau. Mit dem M2 wächst der Abstand nochmal deutlich.
robbitop
2022-09-15, 16:32:40
Zum Topdog. Ob der jetzt 90, titan oder ti heißt ist ja unterschiedlich über die Generationen.
Ob es schon jemals eine so starke 90 gibt ist eine merkwürdige Frage. Relativ zum Vorgänger? Wenn man 90 logischerweise mit „Topdog“ ersetzt dann ja. G80. Absolut gesehen? Natürlich nicht weil die neuste GPU Gen natürlich immer die schnellste ist.
Ich sehe jetzt auch keine außergewöhnliche Leistung. Neuster Fertigungsprozess 620 mm2. Das ist - außer bei Ampere - „the usual“. Ampere wurde halt auf einem veralteten Fertigungsprozess gebaut und man hatte jetzt halt fast 2x fullnodes als shrink. Man wird sich wie immer mit dem Wettbewerber messen müssen deren top dog wohl auch um den ähnlichen Faktor wachsen soll an performance. Was angesichts des Wachstums der SPs und des Taktes auch realistisch ist.
Entsprechend sehe ich es als legitim den produktstack in relation zum top dog zu sehen.
Das kann man natürlich alles verteidigen und anders sehen.
Ich sehe das als Endkunde aber so. Investoren (und Propellerjungs ggf) sehen das sicherlich anders. :)
Platos
2022-09-15, 16:59:27
Falls die Gerüchte wirklich war sind mit der umbenannten 4070 spricht das eher dafür, dass nvidia von einer schwachen Konkurrenz ausgeht.
Rampage 2
2022-09-15, 17:25:27
1500 Euro ist auch bei mir die Grenze, was ich schon für total bekloppt halte.Und damit meine ich die 4090.
Mache ich nur weil meine 1080ti defekt ist und ich jetzt eine Leih 970 habe.
Die 4090 wird in Europa wohl nicht unter 1800 Euro kosten, da der Dollarpreis wohl bei 1500 USD liegen wird und derzeit Paritaet (1:1) beim Euro-Dollar-Kurs herrscht.
Bei der 4080 gehe ich von 750-800 USD (bzw. 900-950 Euro) aus und bei einer hypothetischen 4080 Super mit vollem AD103-Chip von 850-900 USD (bzw. 1000-1050 Euro).
Oder: es gibt nochmal eine 4080ti mit gesalvagetem ad102. RGT hat heute sowas erzählt auf yt.
116-118 SM, 320 bit, 20 gb vram
Eine hypothetische 4080 Ti wird nicht unter 120 SMs haben, da bei weniger als 120 SMs (z.B. 119) nur 9 statt 10 der insgesamt 12 GPCs aktiv sein können - und das waere eine zu starke Beschneidung. Die 4080 hat schon bereits 7 GPCs...
Insofern würde ein 320Bit SI mit 20GB VRAM @ 24Gbps GDDR6X perfekt dazu passen. (144 / 1.2 = 120; 384 / 1.2 = 320)
R2
Edit: Huups... habe das falsch berechnet: tatsaechlich reichen schon 109 (bzw. mehr als 108) SMs aus, damit die 10. GPC aktiv wird. Ich glaube aber trotzdem nicht, dass es weniger als 120 SMs sein werden - denn erst bei 120 waeren dann alle 10 GPCs vollstaendig "gefüllt". :)
Dovregubben
2022-09-15, 17:26:42
Zum Topdog. Ob der jetzt 90, titan oder ti heißt ist ja unterschiedlich über die Generationen.
Topdog ist für mich tatsächlich der schlechteste Referenzpunkt. Noch weit hinter der Chipfläche. Beim Topdog kann grade abhängig von der verfügbaren Technologie, Kapital und Größenwahn nach oben und unten schrauben. Ich bin sicher Nvidia wäre mit Chiplets auch in der Lage gewesen nochmal Faktor 2 draufzulegen, falls Geld keine Rolle spielt. Mit Titan hat man ausprobiert, ob ein Markt für die aktuelle Preislage existiert und schraubt das nun mit jeder Generation nach oben.
Im Vergleich zum Vergänger kann man sich solche Schwankungen natürlich nicht erlauben. Beim 60/70/80er kommt es dann doch auf Wirtschaftlichkeit und auf die Konkurrenz an. Damit sind sie die für mich der beste Referenzpunkt.
An diese 4080 light kann ich aber auch kaum glauben. Wenn sie das bringen, müsste ein gesundes Vertrauen in eine sehr schlechte AMD Leistung in dieser Generation vorhanden sein... oder Absprachen.
Cyberfries
2022-09-15, 17:32:43
Eine hypothetische 4080 Ti wird nicht unter 120 SMs haben, da bei weniger als 120 SMs (z.B. 119) nur 9 statt 10 der insgesamt 12 GPCs aktiv sein können - und das waere eine zu starke Beschneidung. Die 4080 hat schon bereits 7 GPCs...
Völliger Blödsinn.
Bei 12 SM je GPC sind bei 9 GPC nur maximal 108 SM möglich, 119 SM verlangen zwingend nach mindestens 10 GPC.
Mindestens, weil für 119 SM auch 11 oder 12 GPC möglich wären, alles sonst ist Produktpolitik.
Und eine Produktabgrenzung nach GPC gibt es nicht. Siehe RTX 3080 auf GA102, GA103 und RTX 3070 auf GA104, alle mit 6 GPC.
Rampage 2
2022-09-15, 18:03:42
Völliger Blödsinn.
Bei 12 SM je GPC sind bei 9 GPC nur maximal 108 SM möglich, 119 SM verlangen zwingend nach mindestens 10 GPC.
Mindestens, weil für 119 SM auch 11 oder 12 GPC möglich wären, alles sonst ist Produktpolitik.
Habs ja auch korrigiert... scheinst du wohl übersehen zu haben;)
Und eine Produktabgrenzung nach GPC gibt es nicht. Siehe RTX 3080 auf GA102, GA103 und RTX 3070 auf GA104, alle mit 6 GPC.
Richtig, und sie waren leistungsmaessig viel zu dicht beieinander (mit Ausnahme von GA104 bzw. 3070/Ti, da diese deutlich weniger Recheneinheiten und Bandbreite besassen). Genau das scheint Nvidia nun mit LL ja aendern zu wollen;)
R2
DrFreaK666
2022-09-15, 20:34:18
Karten seit August auf Lager?
https://www.tweaktown.com/news/88449/nvidia-geforce-rtx-40-series-gpus-waiting-in-warehouses-since-august/index.html
Sardaukar.nsn
2022-09-15, 21:01:39
Karten seit August auf Lager?
https://www.tweaktown.com/news/88449/nvidia-geforce-rtx-40-series-gpus-waiting-in-warehouses-since-august/index.html
Direkt was mit Wasserblock wäre ganz schön. :wink:
Troyan
2022-09-15, 21:03:14
Karten seit August auf Lager?
https://www.tweaktown.com/news/88449/nvidia-geforce-rtx-40-series-gpus-waiting-in-warehouses-since-august/index.html
Bestimmt nicht seit August. Wir hätten viel eher Bilder gesehen.
Sardaukar.nsn
2022-09-15, 21:09:50
Bestimmt nicht seit August. Wir hätten viel eher Bilder gesehen.
Wir haben ja jetzt Bilder von fertigen Karten inkl. Karton gesehen. Schon möglich das die GPUs seit 2-3 Wochen dort verfügbar sind.
prinz_valium_2
2022-09-15, 22:09:03
Naja eine gewisse Vorlaufzeit brauchst du sowieso. Erinnert mich an den Series X launch, wo Phil Spencer ein Lager voller Boxen gepostet hat. Das wurde da auch nicht erst ein paar Tage vorher gefüllt.
Tangletingle
2022-09-15, 22:16:23
Karten seit August auf Lager?
https://www.tweaktown.com/news/88449/nvidia-geforce-rtx-40-series-gpus-waiting-in-warehouses-since-august/index.html
der alte dreck muss noch rauß. den will sonst keiner mehr. mit dem absehbaren ende von eth-mining müssen die abssatzahlen ins bodenlose gefallen sein.
Hott3X
2022-09-16, 07:01:10
Ich frage mich immer wie viele von den Karten eigentlich so verkauft werden. Bei dem Preis, der Größe und dem Verbrauch. Also bei uns im Freundeskreis wurde nichts größeres als eine 3070TI gekauft und 2 Kollegen haben eine 3070. Der Rest hat teilweise immer noch GTX970 / 1060 / 1080er Karten. Hoffe echt, das der Wahnsinn mit den Karten wieder aufhört.
Exxtreme
2022-09-16, 08:24:17
Ich frage mich immer wie viele von den Karten eigentlich so verkauft werden. Bei dem Preis, der Größe und dem Verbrauch. Also bei uns im Freundeskreis wurde nichts größeres als eine 3070TI gekauft und 2 Kollegen haben eine 3070. Der Rest hat teilweise immer noch GTX970 / 1060 / 1080er Karten. Hoffe echt, das der Wahnsinn mit den Karten wieder aufhört.
Das wird wohl nicht aufhören weil es technisch nicht so ohne Weiteres möglich ist. :) Eventuell ein komplett neues Design könnte da Abhilfe bringen.
Neurosphere
2022-09-16, 10:35:04
Mal eine generelle Fragen zur Performance-Einschätzung, gab es schon andere "leaks" außer 3DMark?
Hintergrund, bislang hat Nvidia da eher schlecht performt im Vergleich zu AMD. Es könnte also gut möglich sein das die neue Arch einfach besser auf 3DMark skaliert, das sich aber nicht im Durchschnitt widerspiegeln muss.
RoNsOn Xs
2022-09-16, 10:37:01
Nein, gibt es nicht. Selbst die Benches vom 3DM sollen nach unserem User "HOT" quark sein, da es noch keine fertige Treiber für Außenstehende geben soll.
Ich bin ohne Wertung.
Dural
2022-09-16, 11:04:28
Klar sind schon irgendwo Karten auf Lager, oder wie habt ihr das Gefühl wie die Produktion funktioniert? Von heute auf morgen Lager voll? :wink:
Dazu kommen Transportwege, bis Karten beim Kunden sind vergehen Wochen.
Troyan
2022-09-16, 11:25:08
Mal eine generelle Fragen zur Performance-Einschätzung, gab es schon andere "leaks" außer 3DMark?
Hintergrund, bislang hat Nvidia da eher schlecht performt im Vergleich zu AMD. Es könnte also gut möglich sein das die neue Arch einfach besser auf 3DMark skaliert, das sich aber nicht im Durchschnitt widerspiegeln muss.
Was heißt schlecht skaliert? Ampere ist dort doch so, wo die Karten auch in Spielen ohne Raytracing sind.
Ich habe es ja schonmal aufgeführt, nVidia ändert gegenüber Ampere mindesten drei Dinge:
25% mehr ComputeUnits beim selben Verbrauch (siehe 4080 12GB mit 60SMs gegenüber der 3070 TI mit 48SMs)
~50% mehr Takt beim selben Stromverbrauch (4080 12GB mit Boost von 2601Mhz gegenüber 1770MHz bei der 3070 TI)
~12x mehr L2 Cache (48MB gegenüber 4MB) zum Ausgleich von weniger Bandbreite (500GB/s gegenüber 600GB/s).
Die Karten sollten daher in Timespy Extreme, wenn nicht irgendwann was anderes limitiert (API, CPU etc.) fast 1:1 mit Zunahme an Leistung skalieren.
basix
2022-09-16, 12:07:22
Die Karten sollten daher in Timespy Extreme, wenn nicht irgendwann was anderes limitiert (API, CPU etc.) fast 1:1 mit Zunahme an Leistung skalieren.
Genau, in TSE. Was ist aber mit Spielen? ;) 3DMark war hier als Referenz bisher nicht allzu schlecht, wenn man sich den Durchschnitt über viele Spiel anschaut (zumindest bei dGPUs). Kann bei Lovelace ähnlich sein, muss es aber nicht. Dann noch das Thema, wie es bei den dicken GPUs <4K aussieht. Da wäre ja zu hoffen, dass Lovelace aufgrund des grösseren L2-Caches überproportional skaliert.
Nazar
2022-09-16, 12:15:20
Was heißt schlecht skaliert? Ampere ist dort doch so, wo die Karten auch in Spielen ohne Raytracing sind.
Ich habe es ja schonmal aufgeführt, nVidia ändert gegenüber Ampere mindesten drei Dinge:
25% mehr ComputeUnits beim selben Verbrauch (siehe 4080 12GB mit 60SMs gegenüber der 3070 TI mit 48SMs)
~50% mehr Takt beim selben Stromverbrauch (4080 12GB mit Boost von 2601Mhz gegenüber 1770MHz bei der 3070 TI)
~12x mehr L2 Cache (48MB gegenüber 4MB) zum Ausgleich von weniger Bandbreite (500GB/s gegenüber 600GB/s).
Die Karten sollten daher in Timespy Extreme, wenn nicht irgendwann was anderes limitiert (API, CPU etc.) fast 1:1 mit Zunahme an Leistung skalieren.
Dass man diesen Benchmark manipulieren (https://winfuture.de/news,129503.html) kann und es auch tat, steht doch außer Frage.
Das oben verlinkte Beispiel von Intel, sollte als Widerlegung deiner These reichen. :wink:
Edit: falschen Link angepasst
Neurosphere
2022-09-16, 12:50:06
Was heißt schlecht skaliert?
Habe ich nicht geschrieben.
Ampere ist dort doch so, wo die Karten auch in Spielen ohne Raytracing sind.
Jup, aber AMD Performt da deutlich besser.
Ich habe es ja schonmal aufgeführt, nVidia ändert gegenüber Ampere mindesten drei Dinge:
25% mehr ComputeUnits beim selben Verbrauch (siehe 4080 12GB mit 60SMs gegenüber der 3070 TI mit 48SMs)
~50% mehr Takt beim selben Stromverbrauch (4080 12GB mit Boost von 2601Mhz gegenüber 1770MHz bei der 3070 TI)
~12x mehr L2 Cache (48MB gegenüber 4MB) zum Ausgleich von weniger Bandbreite (500GB/s gegenüber 600GB/s).
Die Karten sollten daher in Timespy Extreme, wenn nicht irgendwann was anderes limitiert (API, CPU etc.) fast 1:1 mit Zunahme an Leistung skalieren.
Eben ist es nicht unmöglich das Ada bei 3DMark eben überproportional skaliert.
Alles schön und gut. Aber gerade weil ja scheinbar schon so viele Karten im Umlauf sind ist es schon merkwürdig das nur 3DMark rennt und gerade hier dürfte es an den Treibern liegen....
basix
2022-09-16, 12:54:27
Aber gerade weil ja scheinbar schon so viele Karten im Umlauf sind ist es schon merkwürdig das nur 3DMark rennt und gerade hier dürfte es an den Treibern liegen....
Applikation Whitelisting im Pre-Release Treiber ;) Finde ich gar nicht merkwürdig, eher normal. Sobald Karten bei den Reviewern sind inkl. neuem Treiber, werden wir Leaks mit anderen Benchmarks sehen.
BlacKi
2022-09-16, 13:05:57
Eben ist es nicht unmöglich das Ada bei 3DMark eben überproportional skaliert.
Alles schön und gut. Aber gerade weil ja scheinbar schon so viele Karten im Umlauf sind ist es schon merkwürdig das nur 3DMark rennt und gerade hier dürfte es an den Treibern liegen....
sind die bisherhigen TSE werte nicht von NV selbst? also die werte stammen nicht von leakern die unabhängig testen, sondern von leuten bei NV die werte gewollt oder eben nicht legal nach aussen weiterleiten? nv selbst wird treiber/bios haben wo die benchmarks wohl echt laufen.
Neurosphere
2022-09-16, 13:18:56
sind die bisherhigen TSE werte nicht von NV selbst? also die werte stammen nicht von leakern die unabhängig testen, sondern von leuten bei NV die werte gewollt oder eben nicht legal nach aussen weiterleiten? nv selbst wird treiber/bios haben wo die benchmarks wohl echt laufen.
Keine Ahnung wo sie her kommen. Bislang aus den Untiefen asiatischer Foren.
bananenmann
2022-09-16, 14:24:03
Hey Leute,
mal eine Frage an die Profis unter euch:
Ich habe nen Ryzen 5950X, Gigabyte Aourus X570 Master, 3 HDDs und eine M.2 System SSD. Schiele auf die kommende "echte" RTX 4080 mit 16GB und höherer TDP (laut letzter Meldung 340W TDP, max. Powerlimit 516W bei OC - wobei ich gar nicht ocen will). Fürchte mein relativ neues Dark Power Pro 11 mit 850W reicht da nicht mehr aus, oder?
Ich weiß, die Frage ist spekulativ, da keine exakten Daten bekannt. Aber vom Gefühl her...?
RoNsOn Xs
2022-09-16, 14:30:20
Reicht locker.
Niall
2022-09-16, 15:12:30
Hey Leute,
mal eine Frage an die Profis unter euch:
Ich habe nen Ryzen 5950X, Gigabyte Aourus X570 Master, 3 HDDs und eine M.2 System SSD. Schiele auf die kommende "echte" RTX 4080 mit 16GB und höherer TDP (laut letzter Meldung 340W TDP, max. Powerlimit 516W bei OC - wobei ich gar nicht ocen will). Fürchte mein relativ neues Dark Power Pro 11 mit 850W reicht da nicht mehr aus, oder?
Ich weiß, die Frage ist spekulativ, da keine exakten Daten bekannt. Aber vom Gefühl her...?
Sollte dicke reichen. Fahre hier einen 5950X, 6950XT, fette Wakü mit 2xD5, Mo-Ra3, 13 Lüfter etc pp mit einem relativ alten 750W HXi von Corsair und kratze immer maximal an 600W. Ohne Probleme. Du hast 100W mehr und das DPP11 ist dazu noch eine Ecke neuer. Kann mir nicht vorstellen dass Du damit nicht auskommst.
TheCounter
2022-09-16, 15:15:05
Irgendwie hab ich auch Bock auf ne RTX 4090. Hab zwar noch eine 3080, aber wenn die 4090 wirklich so schnell ist, wäre das schon ein gutes Upgrade.
Brauche nur einen Wasserkühler dafür. Mal sehen, wie die Verfügbarkeit diesmal ist. Sollte aber dank dem ETH Merge nun besser sein wie damals zur 3080.
prinz_valium_2
2022-09-16, 15:41:47
Reicht locker.
Also locker finde ich jetzt ein bisschen sehr übertrieben.
Aber dürfte reichen.
Sardaukar.nsn
2022-09-16, 15:56:39
Die Miner fürchten wohl den baldigen Launch. Erstaunlich was bei ebay unter "mining rig" angeboten wird https://www.ebay.de/sch/i.html?_fsrp=1&rt=nc&_from=R40&_nkw=mining+rig&_sacat=0&LH_SellerType=1
davidzo
2022-09-16, 16:05:33
Hey Leute,
mal eine Frage an die Profis unter euch:
Ich habe nen Ryzen 5950X, Gigabyte Aourus X570 Master, 3 HDDs und eine M.2 System SSD. Schiele auf die kommende "echte" RTX 4080 mit 16GB und höherer TDP (laut letzter Meldung 340W TDP, max. Powerlimit 516W bei OC - wobei ich gar nicht ocen will). Fürchte mein relativ neues Dark Power Pro 11 mit 850W reicht da nicht mehr aus, oder?
Ich weiß, die Frage ist spekulativ, da keine exakten Daten bekannt. Aber vom Gefühl her...?
Ja, der 5950x ist ja geradezu eine StromsparCPU im vergleich zu den gerade kommenden Nextgen CPUs. Und 3x HDDs ziehen auch nicht soviel als dass ich mir da irgendwie sorgen machen würde.
Also locker finde ich jetzt ein bisschen sehr übertrieben.
Aber dürfte reichen.
Die Zeiten in denen man die NTs ohne not überdimensioniert hat sind einfach vorbei. Ich erinnere mich da an 700Watt NTs für Systeme mit 4790K + 780ti
welche kaum 340Watt unter load (prime+furmark) verbrauchten.
Fairerweise muss man aber auch sagen dass die NTs damals wesentlich schlechterer Qualität und Effizienz waren (80plus bronze anybody?). Bei Nennleistung waren die quasi kurz vor dem verglühen wegen der hohen thermischen Belastung. In Sommertagen konnte man diese Leistungen gar nicht abrufen und an 200% oder gar 300% surge power wie bei heutigen Netzteilen war damals gar nicht zu denken.
Also bei so einem modernen Netzteil würde ich mir gar keine Sorgen machen. Da bleiben sogar noch ein paar hundert Watt Puffer.
The_Invisible
2022-09-16, 16:27:11
Hey Leute,
mal eine Frage an die Profis unter euch:
Ich habe nen Ryzen 5950X, Gigabyte Aourus X570 Master, 3 HDDs und eine M.2 System SSD. Schiele auf die kommende "echte" RTX 4080 mit 16GB und höherer TDP (laut letzter Meldung 340W TDP, max. Powerlimit 516W bei OC - wobei ich gar nicht ocen will). Fürchte mein relativ neues Dark Power Pro 11 mit 850W reicht da nicht mehr aus, oder?
Ich weiß, die Frage ist spekulativ, da keine exakten Daten bekannt. Aber vom Gefühl her...?
Hier gibts auch keine Probleme, nicht mal mit 5950x@PBO und 3080 Ti auf max PT mit einem 10 Jahre alten 800W Netzteil. Die neuen Karten sollen auch nicht so die Spannungsspitzen haben wie die 3000er, die 3090 Ti ausgenommen.
@Sardaukar.nsn
Noch immer viel zu teuer was die meisten anbieten, die sollen nur "bluten"
Platos
2022-09-16, 16:40:35
Die Miner fürchten wohl den baldigen Launch. Erstaunlich was bei ebay unter "mining rig" angeboten wird https://www.ebay.de/sch/i.html?_fsrp=1&rt=nc&_from=R40&_nkw=mining+rig&_sacat=0&LH_SellerType=1
Auf jeden Fall viel zu teuer.
Aber ja, das geht schon lange so. Die ganzen Schätzungen, wie viele Grakas zu den Minern gingen, sind m.M.n völlig falsch, wenn man sich mal ansieht, wie viel da kommt.
Erstaunlich ist aber vor allem, dass der Scheiss noch weg geht für diese Preise.
prinz_valium_2
2022-09-16, 16:57:40
Die Zeiten in denen man die NTs ohne not überdimensioniert hat sind einfach vorbei. Ich erinnere mich da an 700Watt NTs für Systeme mit 4790K + 780ti
welche kaum 340Watt unter load (prime+furmark) verbrauchten.
Fairerweise muss man aber auch sagen dass die NTs damals wesentlich schlechterer Qualität und Effizienz waren (80plus bronze anybody?). Bei Nennleistung waren die quasi kurz vor dem verglühen wegen der hohen thermischen Belastung. In Sommertagen konnte man diese Leistungen gar nicht abrufen und an 200% oder gar 300% surge power wie bei heutigen Netzteilen war damals gar nicht zu denken.
Also bei so einem modernen Netzteil würde ich mir gar keine Sorgen machen. Da bleiben sogar noch ein paar hundert Watt Puffer.
Klar da hast du recht.
Aber ich mag meine Netzteile trotzdem nicht gerne dauerhaft auf 90% der Nennleistung laufen lassen, alleine wegen der Lautstärke.
Deswegen ist das für mich ein Reichen. Locker reichen wäre dann ein 1000 Watt Netzteil. Gerade auch darauf bezogen, aus welcher Richtung der Fragesteller kommt. Austausch muss natürlich nicht sein. Es reicht. Aber mit deinem locker Klang es für mich so, als ob massig Luft für eine 4090 und OC vorhanden wäre. Da wird es dann nämlich schon knapp.
Tesseract
2022-09-16, 17:12:41
das wattrating ist keine nennleistung sondern der punkt an dem die sicherheitsschutzschaltungen auslösen und der kann bei guten netzteilen weit unter dem liegen was die komponenten schaffen. mehr watt bedeutet nicht automatisch dass das netzteil weniger am limit läuft oder dass lüfter weniger hoch drehen müssen. viele hochwertige netzteile drehen den lüfter unter 2/3 oder so des wattratings garnicht erst auf bzw. sind vielleicht sogar voll passiv.
man muss sich halt im klaren sein, dass gute elektronische komponenten geld kosten und billige 1000W+ chinaböller nicht die speerspitze der technik sind.
why_me
2022-09-16, 21:25:32
cV9QES-FUAM
Linmoum
2022-09-16, 21:39:57
Das ist mal eine echte Bombe. Quasi Nvidias größter Partner mal eben, vor allem auch, was Bekanntheitsgrad und Reichweite angeht.
Aber gut, mich wundert das ehrlich gesagt nur bedingt. Wie gut Nvidia seine Partner behandelt, ist ja schon seit etlichen Jahren immer wieder Thema.
Mal schauen, was dann das nächste Aushängeschild für Ada und beyond bei Nvidia wird. Bleibt eigentlich kaum noch was.
Überraschend aber ist halt kaum relevant für unsere Region, Nvidia hat immerhin für verfügbare Consumer-Karten noch 11 AIBs übrig im Vergleich zu AMD mit 7(8 wenn man die Biostar-Einhörner mit zählt).
Die 3000er-Kontingente für Europa und etc. waren bei der Warteschlange-Scharade von EVGA kaum vorhanden.
Im Vergleich zu ASUS, MSI und Gigabyte ist EVGA halt weltweit ein kleines Licht.
Für den US-Markt ist es halt schade, da der Support gut gewesen sein soll.
aufkrawall
2022-09-16, 22:02:13
Nach Nvidias Referenzdesigns die Karten, die ich am ehesten nicht kaufen würde. :biggrin:
Aber peinlich ist es natürlich trotzdem. Würde mich nicht wundern, wenn Nvidia mit Lovelace irgendein weltfremdes Feature launcht, das kein Schwein interessieren wird. Völlig abgehoben...
ChaosTM
2022-09-16, 22:06:53
It tells us everything we have to know about ...
Wenn man den ersten und treuesten Brettpartner fallen lässt..
The are forked..
aceCrasher
2022-09-16, 22:07:16
Sehr schade, für mich war EVGA *der* Nvidia AIB Partner. Mit meiner GTX 1080 FTW war ich 6 Jahre lang sehr zufrieden.
Ich persönlich hätte sie gerne bei AMD gesehen. Mit ihrem Marketing-Gewicht hätte man da sicherlich einen guten Deal mit Rabatten und präferierter Behandlung rausholen können.
Neurosphere
2022-09-16, 22:39:51
Sehr schade, für mich war EVGA *der* Nvidia AIB Partner. Mit meiner GTX 1080 FTW war ich 6 Jahre lang sehr zufrieden.
Ich persönlich hätte sie gerne bei AMD gesehen. Mit ihrem Marketing-Gewicht hätte man da sicherlich einen guten Deal mit Rabatten und präferierter Behandlung rausholen können.
Hatte die 580, 980ti und nun 3080 von EVGA. Bis auf die letzte Karte war ich eigentlich immer Glücklich und man wusste was man bei EVGA bekommt. Schade.
Wäre natürlich ne Marke wenn Sie doch zu AMD gehen:rolleyes:
aceCrasher
2022-09-16, 22:42:01
Hatte die 580, 980ti und nun 3080 von EVGA. Bis auf die letzte Karte war ich eigentlich immer Glücklich und man wusste was man bei EVGA bekommt. Schade.
Wäre natürlich ne Marke wenn Sie doch zu AMD gehen:rolleyes:
Was hat dir an der 3080 nicht gefallen?
Neurosphere
2022-09-16, 23:00:31
Was hat dir an der 3080 nicht gefallen?
Hab die XC3, die ist was die Stromversorgung angeht sehr stark beschnitten, mehr als 300 Watt sind bei der Karte nicht möglich. Ist nicht direkt schlimm, aber man fühlt sich doch um etwas beraubt, zumal das Thema im Evga Forum erst nach und nach hoch kochte.
Vermutlich gehört das Thema aber irgendwie mit dazu, man hat versucht noch Gewinn mit den Karten zu machen und da ist sowas mit zum Opfer gefallen.
BlacKi
2022-09-16, 23:06:20
Keine Ahnung wo sie her kommen. Bislang aus den Untiefen asiatischer Foren.die TSE werte von kimi stammen aus keinen asiatischen foren. igor und seine quellen sind der meinung, das er infos aus dem nv headquarter hat.
Dural
2022-09-16, 23:41:03
Die Zeit von evga ist doch schon lange vorbei, seit gefühlt Kepler/Maxwell kaum noch gute karten von denen gesehen und waren trotzdem oft die teuersten.
Würde behaupten der Marktanteil weltweit gesehen von denen war kaum noch der rede wert.
Neurosphere
2022-09-16, 23:48:52
die TSE werte von kimi stammen aus keinen asiatischen foren. igor und seine quellen sind der meinung, das er infos aus dem nv headquarter hat.
Du meinst die Einschätzung die die beiden abgegeben haben, ich die Screenshots von Punktzahlen.
BlacKi
2022-09-17, 00:04:37
Du meinst die Einschätzung die die beiden abgegeben haben, ich die Screenshots von Punktzahlen.
was meinst du mit einschätzung? die TSE werte waren nicht erdacht.
Sardaukar.nsn
2022-09-17, 08:33:15
Wie ist das jetzt eigentlich mit der Stromversorgung geregelt? Bei den Ampere Karten sind die 3080 und 3090 FE ja gnadenlos ins Powerlimit gelaufen. Erst die Custom Karten mit 3x Stromversorgung lieferten genug Spielraum. Übernimmt das jetzt alles der neue Stecker bis 600W?
Redneck
2022-09-17, 08:52:35
Überraschend aber ist halt kaum relevant für unsere Region, Nvidia hat immerhin für verfügbare Consumer-Karten noch 11 AIBs übrig im Vergleich zu AMD mit 7(8 wenn man die Biostar-Einhörner mit zählt).
Die 3000er-Kontingente für Europa und etc. waren bei der Warteschlange-Scharade von EVGA kaum vorhanden.
Im Vergleich zu ASUS, MSI und Gigabyte ist EVGA halt weltweit ein kleines Licht.
Für den US-Markt ist es halt schade, da der Support gut gewesen sein soll.
In den USA hatten sie aber 40% Marktanteil.. Das ist eine echte Hausnummer, die NV im eigenen Land verloren geht..hinzu kommen die Spekulationen und negative PR, die sich sicherlich nicht positiv auswirken wird.
Troyan
2022-09-17, 09:27:18
Wie ist das jetzt eigentlich mit der Stromversorgung geregelt? Bei den Ampere Karten sind die 3080 und 3090 FE ja gnadenlos ins Powerlimit gelaufen. Erst die Custom Karten mit 3x Stromversorgung lieferten genug Spielraum. Übernimmt das jetzt alles der neue Stecker bis 600W?
Laut dem Leak sind die Limits offen. Also keine 5% wie bei der 3090...
prinz_valium_2
2022-09-17, 11:18:51
Ja es gibt wichtig bezogen auf die Bottom Line und wichtig bezogen auf sekundäre ripple Effekte.
Ich hatte nie eine EVGA Karte, aber sie sind mehr als bekannt.
Palit, Asus, Gigabyte, MSI, Zotac, EVGA
Abgesehen von Asien, ist EVGA noch immer der größte der kleineren AIBs
Sardaukar.nsn
2022-09-17, 11:48:58
Laut dem Leak sind die Limits offen. Also keine 5% wie bei der 3090...
Klingt gut. Ich fand die Inno3D 3090 TI Frostbite mit dem Alphacool Block ganz spannend. Die TI hat laut Igor ja schon in groben Zügen das PCB Design der 4090. Das dürfte an von den Dimensionen ganz ähnlich aussehen...
https://cdn.videocardz.net/cache/ad20cb1c81a942d00cd4fdef91ec330f-1200x900.jpg
https://videocardz.net/inno3d-geforce-rtx-3090-ti-24gb-ichill-frostbite
Bei meiner jetzigen Suprim ärgert es mich immer noch, das der echt gute Luftkühler eigentlich nur im Schrank liegt. Daher wollte ich beim Wechsel gleich ne Karte mit Wasserblock wählen. Eine Hydro Copper wird es ja wohl nicht mehr geben.
Neurosphere
2022-09-17, 12:47:41
was meinst du mit einschätzung? die TSE werte waren nicht erdacht.
Nein, aber trotzdem eher eine Einschätzung. Man weiß ja da nicht, so wie bisher eigentlich immernoch, was NV bei der Leistungsaufnahme macht.
https://twitter.com/kopite7kimi/status/1549426657903390721
davidzo
2022-09-17, 12:54:09
Sehr schade, für mich war EVGA *der* Nvidia AIB Partner. Mit meiner GTX 1080 FTW war ich 6 Jahre lang sehr zufrieden.
Dito, meine 980ti hatte einen Kühler der praktisch das 2080 Referenzdesign vorweg genommen hat.
Vor Ampere hatte EVGA meistens sehr solide, hochwertige und zurückhaltende designs die beim Formfaktor nicht übertrieben haben. Auch hat man bis zu Ampere bei dem ganzen LED RGB kram nicht mitgemacht und stattdessen frühzeitig auf verlötete lamellen, vernickelung und leise Lüfter mit FDB Bearings gesetzt.
EVGA Karten hatten eine Detailverliebtheit und Qualität wie man sie sonst nur bei FE Karten gesehen hat.
Vermutlich ist das auch genau was ihnen das Genick gebrochen hat: Nvidias vermehrte Retail-Konkurrenz gerade im Heimatmarkt USA. Anstatt die Partner in der Chipkrise richtig zu beliefern hat Nvidia lieber eigene Karten gebaut mit entsprechend guter marge. Vormalige EVGA-Kunden haben dann nvidia FEs gekauft. Die anderen Boardpartner betrifft das weniger, weil die schon immer mehr RGB und überschwänglich hässliche Kühler gebaut haben. Wer auf Prollo-designs stand hat für den waren FE Modelle nichts, de rmusste weiter MSI, Asus, Gigabyte kaufen.
Man sieht imo auch direkt einen Designschwenk bei EVGA selber. Man wollte sich mehr von Nvidia-FEs unterscheiden. Leider zum Schlechten imo...
Man kann mit Sicherheit davon ausgehen dass da auch viel persönliches eine Rolle gespielt hat: Also die werden sehr wohl intensiv mit Jensen gesprochen haben und er hat die EVGA Spitze abblitzen lassen oder düpiert. Das ist eine sehr enge, jahrelange Beziehung.
Die sitzen immerhin beide in Satan Clara :biggrin: und die Nvidia- und EVGA Employees essen ständig in denselben restaurants zu Mittag. Da ist es kaum einen unterschied gewesen ob man nvidia field support engineer für partner-boradlayouts ist, oder evga pcb layouter. Ständiger wechsel zwischen den Firmen ist da auch normal.
Im Silicon Valley da sind die Top Leute, aber alles ist wie ein Stepbro-Dorf (jeder machts mit jedem), ist aber auch ein extrem teures Pflaster zu entwickeln. Vielleicht wollte Jensen auch einfach dass EVGA dicht macht um billiger an gute Engineers zu kommen. Die werden wohl kaum jetzt alle plötzlich Netzteile und Tastaturen designen (das sind eh OEM Produkte) oder mit ihren Familien umziehen.
rentex
2022-09-17, 13:13:43
NV macht sich wirklich unbeliebt. Macht Jensen einen auf Putin?
Sardaukar.nsn
2022-09-17, 13:24:18
Interessenten könnten ja schon mal prüfen ob ein 4-5 Slot GPU ins Gehäuse passt: https://videocardz.com/newz/galax-new-serious-gaming-graphics-card-with-four-fans-has-been-leaked
https://cdn.videocardz.com/1/2022/09/GALAX-GEFORCE-SG-GPU3.jpg
Ex3cut3r
2022-09-17, 13:57:16
NV macht sich wirklich unbeliebt. Macht Jensen einen auf Putin?
Das mag sein. Wird aber sobald die 4090 draußen ist, und die Balken alles mit Abstand "vernichten" Die Enthusiasten nicht lange zappeln lassen, da wird der Bestell Button garantiert brennen. :wink:
Ich lasse diese Gen aus. Auch Zen 4 btw. Ich kaufe keine neue HW die nächsten 2 Jahre. ;D
Meridian12
2022-09-17, 14:02:08
Interessenten könnten ja schon mal prüfen ob ein 4-5 Slot GPU ins Gehäuse passt: https://videocardz.com/newz/galax-new-serious-gaming-graphics-card-with-four-fans-has-been-leaked
https://cdn.videocardz.com/1/2022/09/GALAX-GEFORCE-SG-GPU3.jpg
Bin ich eigentlich der Einzige,der 4-5 Slot GPUs an Schwachsinn kaum zu überbieten findet?
Wie groß müssen die Kühler noch werden um zu zeigen:" Das funktioniert so nicht mehr weiter".
Bis man einen 40x40x20cm Extra PC hat für die Grafikkarte,die dann per Kabel mit dem Mobo des PCs verbunden wird?
Sardaukar.nsn
2022-09-17, 14:33:02
Bin ich eigentlich der Einzige,der 4-5 Slot GPUs an Schwachsinn kaum zu überbieten findet?
Wie groß müssen die Kühler noch werden um zu zeigen:" Das funktioniert so nicht mehr weiter".
Bis man einen 40x40x20cm Extra PC hat für die Grafikkarte,die dann per Kabel mit dem Mobo des PCs verbunden wird?
Du meinst 475,5 x 430 x 65mm? Gibt´s doch schon länger (https://shop.watercool.de/MO-RA3-420-PRO-stainless-steel) :wink:
Maorga
2022-09-17, 16:03:28
Ist das schon gepostet worden:
https://www.extremetech.com/extreme/339548-nvidia-rtx-4090-pictured-final-specs-for-40-series-leaked
RTX 4090: 16,384 CUDA cores, 2,520MHz Boost Clock, 24GB G6X @384-bit, 450W TGP, 660W max.
RTX 4080 16GB: 9,728MHz CUDA cores, 2,505MHz Boost Clock, 16GB G6X @256-bit, 340W TGP, 516W max.
RTX 4080 12GB: 7,680 CUDA cores, 2,610Mhz Boost Clock, 12GB G6X @192-bit, 285W TGP, 366W max.
Meridian12
2022-09-17, 16:35:31
Ist das schon gepostet worden:
https://www.extremetech.com/extreme/339548-nvidia-rtx-4090-pictured-final-specs-for-40-series-leaked
RTX 4090: 16,384 CUDA cores, 2,520MHz Boost Clock, 24GB G6X @384-bit, 450W TGP, 660W max.
RTX 4080 16GB: 9,728MHz CUDA cores, 2,505MHz Boost Clock, 16GB G6X @256-bit, 340W TGP, 516W max.
RTX 4080 12GB: 7,680 CUDA cores, 2,610Mhz Boost Clock, 12GB G6X @192-bit, 285W TGP, 366W max.
NVIDIA zieht die Kundenverarschung mit der 4080 wirklich durch.
:rolleyes::rolleyes:
robbitop
2022-09-17, 17:05:14
Die Specs stehen seit Wochen bei TPU und WCF. Ist doch nix neues.
bbott
2022-09-17, 17:07:49
NVIDIA zieht die Kundenverarschung mit der 4080 wirklich durch.
:rolleyes::rolleyes:
Warum auch nicht, die NV Kunden interessiert es doch nicht wirklich. Ein paar neue Buzzword zur neuen Gen hinzufügen und dann ist der Rest egal. Gibt ja eigendlich gar keine Grafikkarten sondern nur GeForce. :freak:
NV ist (fast?) da wo Intel einst mit Pentium war.
Dampf
2022-09-17, 17:08:57
Yikes. Das ist echt Verarsche.
Die 4080 12 GB sollte die 4070 sein.
BlacKi
2022-09-17, 17:14:25
wenn es so kommt. kann ich mir aber nicht vorstellen. klingt für mich danach absichtlich fehlmeldungen zu leaken. aus gründen.
ChaosTM
2022-09-17, 17:36:08
Die angekündigte 4 Slot Karte mit einem Lüfter hinten würde nicht mal ins Gehäuse passen dank/wegen dem Noctua DH-15 ;)
+ passen vielleicht, aber es wäre extrem knapp (Define 6)
Da 350 Watt meine persönliche Schmerzgrenze ist, kommt die eher nicht in Frage, außer die lassen sich ohne viel Verlust undervolten/unterstromen..
iamthebear
2022-09-17, 18:32:46
Yikes. Das ist echt Verarsche.
Die 4080 12 GB sollte die 4070 sein.
Nope.
Die 4080 16GB sollte die 4070 sein mit 1.9x weniger SMs als der Top Die und nur 256Bit statt 384Bit.
Die 4080 12GB sollte die 4060 sein.
Gott1337
2022-09-17, 18:38:06
Nope.
Die 4080 16GB sollte die 4070 sein mit 1.9x weniger SMs als der Top Die und nur 256Bit statt 384Bit.
Die 4080 12GB sollte die 4060 sein.
wasn Quatsch, was soll denn dann die 4080 sein? es gibt keinen weiteren Chip...
Und wir sollten festhalten das es sich nur um Produktnamen handelt, wer sowas kauft sollte sich vorher einfach informieren. Alle Daten werden aber auch auf dem Karton stehen oder im Store als sheet.
es ist keine geile Entwicklung aber die gibts doch auch bei der Konkurrenz und in anderen Branchen schon seit Ewigkeiten. LEIDER aber es ist normal geworden. wie oft hat Intel Skylake verwurstet? AMD alte GPUs rebranded (auch nvidia)
Bei Autos wurde immer der Hubraum angegeben zB Mercedes S500 (5L Hubraum) aber das stimmt doch auch schon nicht mehr.
Bei Samsung bekommen wir Smartphones in Europa mit viel schlechterem SOC aber der Name ist der gleiche.
Oder das neue Namensschema für die AMD Notebook CPUs, als ob das ein normaler Kunde verstehen würde xD
Troyan
2022-09-17, 18:52:20
Nope.
Die 4080 16GB sollte die 4070 sein mit 1.9x weniger SMs als der Top Die und nur 256Bit statt 384Bit.
Die 4080 12GB sollte die 4060 sein.
50% Unterschied zwischen 80 und Ti(tan)/90 ist normal bei nVidia. Die 4080 12GB scherrt dort aus, aber die 16GB ist eine normale 80er Karte. Einziger Unterschied zur 4090 ist im Stromverbrauch, der deutlich höher liegt und somit mehr Takt ermöglicht als früher.
Nazar
2022-09-17, 19:12:47
Interessenten könnten ja schon mal prüfen ob ein 4-5 Slot GPU ins Gehäuse passt: https://videocardz.com/newz/galax-new-serious-gaming-graphics-card-with-four-fans-has-been-leaked
https://cdn.videocardz.com/1/2022/09/GALAX-GEFORCE-SG-GPU3.jpg
Könnte eventuell auch ein Grund dafür sein, dass EVGA aussteigt.
Wenn man bedenkt, was das für einen Anstieg an Rückläuferen produzieren könnte, weil Kunden gar nicht wussten, was das beim Einbau bedeutet oder weil die Gehäuse "schmelzen".
Wenn ich mir diese Lüfter ansehe, die das doppelte meiner 3090 in der Breite ausmachen, dann kann ich mir auch gleich die Abwärme ausmalen, die diese GPUs ins Gehäuse abgeben werden. Die CPU wird schon beim Starten eines Spiels anfangen zu throttlen und auf Idle-Betrieb zu fallen, weil die GPU das Gehäuse verglühen lässt. ;D
OMFG, und ich dachte schon meine 3090 wäre zu warm. :eek:
Zumindest hat man das Heizproblem für ein 2 Familienhaus gelöst. "Sohn, du musst noch 8 Stunden dauerzocken, sonst wird es hier unten zu kalt." ;D
Bin ich eigentlich der Einzige,der 4-5 Slot GPUs an Schwachsinn kaum zu überbieten findet?
Wie groß müssen die Kühler noch werden um zu zeigen:" Das funktioniert so nicht mehr weiter".
Bis man einen 40x40x20cm Extra PC hat für die Grafikkarte,die dann per Kabel mit dem Mobo des PCs verbunden wird?
Nein, bist du nicht, siehe EVGA. ;)
Rampage 2
2022-09-17, 19:23:06
Sehr schade, für mich war EVGA *der* Nvidia AIB Partner. Mit meiner GTX 1080 FTW war ich 6 Jahre lang sehr zufrieden.
Grossartig!:mad::mad:
Von einem Moment auf den anderen ist meine GPU-Planung für die Zukunft (Lovelace...) nun weitgehend Makulatur! Ich werde für den naechsten GPU-Kauf nicht nur die Marke (Boardpartner) sondern auch meine Gewohnheiten wechseln müssen - statt EVGA's Precision X1 nun in Zukunft MSI's Arschbrenner...
Vor Ampere hatte EVGA meistens sehr solide, hochwertige und zurückhaltende designs die beim Formfaktor nicht übertrieben haben. Auch hat man bis zu Ampere bei dem ganzen LED RGB kram nicht mitgemacht und stattdessen frühzeitig auf verlötete lamellen, vernickelung und leise Lüfter mit FDB Bearings gesetzt.
+1
Aber zum Fettgedruckten muss ich widersprechen: Bereits bei Turing kamen von EVGA die ersten RGB-Modelle raus und hatten IMO das beste RGB-Design für die Turing-Generation:)
EVGA Karten hatten eine Detailverliebtheit und Qualität wie man sie sonst nur bei FE Karten gesehen hat.
+1
Das Design fand ich bei EVGA i.d.R. am Besten. Auch Kühl- und Lüfterdesign waren ausgeklügelt und die verbauten Komponenten hochwertig. Dazu natürlich die Extra-Serviceleistungen von EVGA, die es bei den anderen Marken so nie gab.
Nach Nvidias Referenzdesigns die Karten, die ich am ehesten nicht kaufen würde. :biggrin:
Was hast Du gegen EVGA? Neben ASUS, Gigabyte und MSI ein Top-Player - definitiv keine Billigmarke. Überhaupt der allererste (?) und langjaerigste Nvidia-Vendor überhaupt. Und mit Sicherheit besser als die hauseigenen Nvidia-Modelle, oder etwa nicht!?
Die Zeit von Evga ist doch schon lange vorbei, seit gefühlt Kepler/Maxwell kaum noch gute karten von denen gesehen und waren trotzdem oft die teuersten.
Du hast die Turing-Modelle von EVGA vergessen? Auch bei Pascal kamen gegen Ende der Gen (nach der Aufruhr um die überhitzten VRAM-Chips bzw. schlechte VRAM-Pads) mit der iCX-Reihe noch gute Modelle raus. Und ausser dem Facepalm bei der Lüftersteuerung (New World...) sind die Ampere-Modelle doch auch ganz gut?
Ich gebe dir aber Recht, dass EVGA-Modelle regelmaessig die Teuersten und darüber hinaus auch noch sehr schlecht verfügbar waren - zumindest hier in Deutschland:redface:
Würde behaupten der Marktanteil weltweit gesehen von denen war kaum noch der rede wert.
Ich weiss nicht wie es in Europa aussieht, aber in den USA ist (war...) EVGA die Nr. 1 mit fast der Haelfte an allen verkauften Nvidia-GPUs...
R2
Neurosphere
2022-09-17, 19:27:52
50% Unterschied zwischen 80 und Ti(tan)/90 ist normal bei nVidia. Die 4080 12GB scherrt dort aus, aber die 16GB ist eine normale 80er Karte. Einziger Unterschied zur 4090 ist im Stromverbrauch, der deutlich höher liegt und somit mehr Takt ermöglicht als früher.
Was ist denn normal? 3080 und 3090 zeigen doch das es nicht normal ist:freak:
Troyan
2022-09-17, 19:36:35
Richtig, die Ausnahme.
In den letzten Generationen war der 104-Chip immer der in den 80er Karten. Der 100(102)er war dann 50% größer und hatte meisten 50% mehr Bandbreite. Bei Gaming-Ampere liegt der Unterschied aber bei 75% mehr Compute-Units und 50% mehr Bandbreite. Hier war die 3080 dann mit dem GA102 Chip bestückt und stark beschnitten.
Ex3cut3r
2022-09-17, 19:44:35
Grossartig!:mad::mad:
Ich weiss nicht wie es in Europa aussieht, aber in den USA ist (war...) EVGA die Nr. 1 mit fast der Haelfte an allen verkauften Nvidia-GPUs...
R2
In Deutschland waren die seit Turing IMHO äußert schlecht verfügbar, das hast sich IHMO schon irgendwo angedeutet, dass es knapp werden könnte.
Ich verstehe aber auch nicht warum, man sowas wie Step Up braucht?
Einfach im Luxx verkaufen, und das verdiente Geld in die neue GPU stecken, das ist das gleiche wie EVGAs Step Up Programm. Hab ich selbst, schon oft genug genauso gemacht.
Jetzt wo EVGA kein GPUs mehr herstellen wird, könnte so eine Ampere EVGA RTX Karte vlt. einen Sonderbonus im Wert haben. ^^
aufkrawall
2022-09-17, 20:03:10
Was hast Du gegen EVGA? Neben ASUS, Gigabyte und MSI ein Top-Player
Also an vierter von fünfter Stelle bei NV-Karten, das brauch ich unbedingt. :freak:
Tomahawk
2022-09-17, 20:03:51
Wie wahrscheinlich ist es, dass die 4080 12 GB auch den Preis der 3080 übernimmt und die die 4080 16 GB darüber platziert wird?
4090 : ca. 1.500 USD (bei uns ca. 2.000 Euro)
4080 16 GB : ca. 900 USD (ca. 1.200 Euro)
4080 12 GB : ca. 700 USD (ca. 950 Euro)
Das wäre eine ziemliche Enttäuschung, was die Verbesserung beim Preis-/Leistungsverhältnis, angeht oder? Eine 3080 12 GB kostet jetzt ca. 950 Euro - damit würde man für das gleiche Geld eine 4080 12 GB bekommen - die wird nur ca. 20% schneller sein.
Troyan
2022-09-17, 20:11:25
Das wird so kommen. TSMC 4nm kostet ~3x mehr als Samsung 8nm und AD104 wird ca. 1/2 der Größe von GA102 haben. Da gibt es eigentlich kaum Spielräume.
Aber wer weiß, vielleicht ist der Crash so schlimm, das nVidia mehr liefern muss.
aufkrawall
2022-09-17, 20:11:59
Ich würde erwarten, dass Nvidia sowohl die Inflation ausgleichen, die Margen der Mining-Zeit mindestens beibehalten, wenn nicht sogar noch ausbauen will. Da kommt man schnell auf scheinbar völlig absurde Preise. Die sie sich sonst wo hinstecken können. :freak:
Tomahawk
2022-09-17, 20:19:39
Die Preise sind nur eine Seite der Medaille - es müssen sich dafür auch noch Käufer finden lassen.
Es gab eine Zeit, da hatte man Sorgen, dass "große" Chips nur für HPC verwendet werden. Da kamen die Chips entweder verspätet (Maxwell, Kepler, Pascal) oder gar nicht in den Consumerbereich (Volta). Ich bin gespannt, wie viele Karten nVidia über 800 Euro verkaufen kann.
@Troyan
Das ist vermutlich nur eine Momentaufnahme. Vermutlich wird der Prozess in einigen Monaten ein ganzes Stück günstiger werden. Grafikkarten werden nicht mehr wie früher alle 6 Monate aktualisiert, sondern alle 2 Jahre.
ChaosTM
2022-09-17, 20:42:25
Die Zyklen werden naturgemäß immer länger. Wir steuern auf die EOtL* zu.
Software Innovationen werden immer wichtiger um zumindest noch einiges aus den derzeitigen Systemen heraus zu holen.
* end of the line - bei 0,6 Nanometer ist endgültig Schluss. Dann sind wir auf einzel Atom level
Und es wird exponentiell teurer..
Tomahawk
2022-09-17, 20:47:52
Klar - es geht mir viel mehr um die Frage, welche Grafikkarten (Chipgrößen) im Consumermarkt rentabel sein können.
ChaosTM
2022-09-17, 20:58:25
Klar - es geht mir viel mehr um die Frage, welche Grafikkarten (Chipgrößen) im Consumermarkt rentabel sein können.
Das kann niemand wirklich sagen. Große monolithische Chips scheinen Auslaufmodelle zu sein, weil die Chance eines Fehlers einfach zu hoch ist.
aufkrawall
2022-09-17, 20:59:53
Ist das so? Die 6900 XT war nicht gerade Mangelware, im Gegensatz zur 6800 XT.
ChaosTM
2022-09-17, 21:02:05
Ist das so? Die 6900 XT war nicht gerade Mangelware, im Gegensatz zur 6800 XT.
Momentan gehts scheinbar noch, aber mit zunehmender Verkleinerung wird es immer schwerer. Kann natürlich total daneben liegen - das hoffe ich sogar. :)
aceCrasher
2022-09-17, 22:14:00
* end of the line - bei 0,6 Nanometer ist endgültig Schluss. Dann sind wir auf einzel Atom level
Und es wird exponentiell teurer..
https://www.youtube.com/watch?v=TwgvJSOa09M
Laut Infos von Ian Cutress über TSMC gehts da aber noch eine ganze Weile weiter. Stellt sich halt die Frage wie teuer das ganze wird. Wenn die Kosten pro Transistor weiter stagnieren, oder sogar steigen, bringt das dem Konsumenten herzlich wenig.
Gott1337
2022-09-17, 22:21:25
https://www.youtube.com/watch?v=TwgvJSOa09M
Laut Infos von Ian Cutress über TSMC gehts da aber noch eine ganze Weile weiter. Stellt sich halt die Frage wie teuer das ganze wird. Wenn die Kosten pro Transistor weiter stagnieren, oder sogar steigen, bringt das dem Konsumenten herzlich wenig.
weil die nm Angaben auch reine Marketingangaben sind.
crux2005
2022-09-17, 22:46:47
Das wird so kommen. TSMC 4nm kostet ~3x mehr als Samsung 8nm und AD104 wird ca. 1/2 der Größe von GA102 haben. Da gibt es eigentlich kaum Spielräume.
Aber wer weiß, vielleicht ist der Crash so schlimm, das nVidia mehr liefern muss.
Hoffentlich nicht. Meine absolute Kotzgrenze für eine neue Grafikkarte sind 1000€. Lieber wären mir 800€. Wenn ich keine 16GB GeForce für die Summe bekomme (eigentlich auch zu viel aber egal), dann wird nicht gekauft.
=Floi=
2022-09-17, 23:46:46
Laut dem Leak sind die Limits offen. Also keine 5% wie bei der 3090...
das glaubst du doch selbst nicht. Alleine zum schutz muss es ein knappes limit geben.
Dann noch zur diversikation der modelle.
Troyan
2022-09-18, 00:57:34
Hoffentlich nicht. Meine absolute Kotzgrenze für eine neue Grafikkarte sind 1000€. Lieber wären mir 800€. Wenn ich keine 16GB GeForce für die Summe bekomme (eigentlich auch zu viel aber egal), dann wird nicht gekauft.
Durch den Euro-Kurs sind wir doch sowieso am Arsch. Stellt nVidia die 4080 16GB für $999 vor, sind das hier 1200€+...
ChaosTM
2022-09-18, 01:02:45
Trojan ist der letzte aufrechte NV Warrior - Lets bow before him ;)
Nazar
2022-09-18, 05:03:48
Trojan ist der letzte aufrechte NV Warrior - Lets bow before him ;)
Let us bow to him. ;)
robbitop
2022-09-18, 07:05:04
Lasst euch von den Propellerjungs keinen Scheiss erzählen. Die ratio zwischen SPs der 80 und dem topdog war auch vor Ampere nicht so klein wie bei den hier kolportierten Specs der 80. Nicht bei Turing und auch nicht bei Pascal oder Maxwell.
Die 80 wirkt eher wie eine 70 und wahrscheinlich rutscht relativ zum Top Dog jede Serie um 1x nach unten.
Platos
2022-09-18, 08:32:59
Wenn der Preis stimmt und der Leistungsschub, ist doch alles gut.
Aber nach den Leaks einer 12GB 4070 umbenannt zur 4080 bezweifle ich das stark.
Ergo viel wichtiger sind solche Dinge!
robbitop
2022-09-18, 09:09:29
Stimme ich zu - aber sehr unwahrscheinlich, dass der Preis besonders gut wird. Der Fakt dass man die 12 gb Version als 80 brandet zeigt, dass man den Brand nutzen will für die Preisbildung. Man bekommt wahrscheinlich 70er Performance für 80er Preis.
Ich finde es furchtbar, wenn man für Mehrleistung auch nochmal on top zahlen muss. Die neue Karte ist X% schneller als die Lastgen Karte also kostet sie auch Y% mehr. Die Erwartung ist eine neue Gen bringt mehr Leistung zum ähnlichen Preis der gleichen Klasse und P/L steigt. Das ist zum Glück nicht immer so wie oben beschrieben aber es kommt leider immer öfter vor.
Sardaukar.nsn
2022-09-18, 09:42:22
Ich finde es furchtbar, wenn man für Mehrleistung auch nochmal on top zahlen muss.
Zum Teil wird das aber wohl auch ziemliche Materialschlacht, die natürlich bezahlt werden will. Von der Lenovo Karte sind noch mehr Bilder aufgetaucht. Ich sehe dort alleine 13(!) Heatpipes und wenn ich mich nicht täusche auch noch ne Vapor Chamber.
https://cdn.videocardz.com/1/2022/09/RTX4090-Cooler1.jpg
https://cdn.videocardz.com/1/2022/09/RTX4090-cooler2.jpg
Quelle: https://videocardz.com/newz/leaked-lenovo-geforce-rtx-4090-legion-gpu-is-a-true-quad-slot-design
Platos
2022-09-18, 10:04:14
Ich finde es furchtbar, wenn man für Mehrleistung auch nochmal on top zahlen muss. Die neue Karte ist X% schneller als die Lastgen Karte also kostet sie auch Y% mehr. Die Erwartung ist eine neue Gen bringt mehr Leistung zum ähnlichen Preis der gleichen Klasse und P/L steigt. Das ist zum Glück nicht immer so wie oben beschrieben aber es kommt leider immer öfter vor.
Ja, traurigerweise stimmen dieser Politik immer wieder Leute zu, auch hier im Forum.
Bestes Beispiel in jüngster Vergangenheit dafür war Zen3 mit der Preiserhöhung. Oder die Top-Dog Preisrechfertigungen, die seit Turing bei nvidia und AMD reichlich im Gange sind bei manchen.
robbitop
2022-09-18, 10:04:47
@Sardauka
Ja naja es bleibt aber offenbar fett was hängen - siehe Margen. Bedeutet da geht noch einiges beim P/L.
Ja, traurigerweise stimmen dieser Politik immer wieder Leute zu, auch hier im Forum.
Bestes Beispiel in jüngster Vergangenheit dafür war Zen3 mit der Preiserhöhung. Oder die Top-Dog Preisrechfertigungen, die seit Turing bei nvidia und AMD reichlich im Gange sind bei manchen.
Ich werde nie verstehen, wie man als Endkunde die Interessen einer Firma vertreten kann, sofern sie diametral von denen der Endkunden sind. Insbesondere in Bezug auf Preis/Leistung.
iamthebear
2022-09-18, 10:11:00
Das kann niemand wirklich sagen. Große monolithische Chips scheinen Auslaufmodelle zu sein, weil die Chance eines Fehlers einfach zu hoch ist.
Die N5 Yieldraten sind so gut wie schon seit Ewigkeiten nicht mehr.
Abgesehen davon bedeutet ein Defekt ja nicht, dass der Chip Schrott ist. Dann muss man eben den defekten Teil deaktivieren.
Der Trend zu Chiplets hat bei AMD den Grund, dass man nicht das Kapital hat um genug Kapazität der aktuellsten Fertigung vorzufinanzieren.
Bei Intel liegt es daran, dass man Fabs rund um die Welt hat und mit Chiplets die Dies flexibler zusammenwürfeln kann bzw. wenn die Kapazität knapp wird die IO Dies zu TSMC auslagern kann (natürlich mit ein paar Jahren Vorlaufzeit).
Nvidia hat beides aktuell nicht notwendig und will daher die Nachteile einer Chiplet Architektur nicht auf sich nehmen.
robbitop
2022-09-18, 10:15:33
Kapazität bei bleeding edge Prozesse ist aber auch ein Faktor (speziell seit dem es zu TSMC keinen ernsten Wettbewerber gibt und sich alle den Kuchen teilen müssen) und die hat bei allen zuletzt stark limitiert.
Es werden früher oder später alle diesen Paradigmenwechsel eingehen.
Edgecrusher86
2022-09-18, 11:46:34
Yikes. Das ist echt Verarsche.
Die 4080 12 GB sollte die 4070 sein.
Früher hätte man das allerhöchstens 4080 LE getauft. ;)
Nun ja - dem informierten User kann das alles egal sein - er weiß, dass er eine 4070 (Ti) mit dem AD104-400 bekommt. Ansonsten ist das natürlich auch eine gute Bauernfängerei, etwa für OEM-Systeme.
So eine Karte würde ich mir persönlich höchstens für das Zweitsystem holen - und auch dort wohl eher die 16er. :)
Troyan
2022-09-18, 12:02:23
Lustig, dass Leute behaupten, dass nVidia hier verarschen würde, wenn die einen 104 Chip als 80er Karte erhalten - also so, wie es in den letzten vier von fünf Generationen war:
Kepler: GK104 (296mm^2) -> GTX680 ($499)
Maxwell: GM204 (396mm^2) -> GTX980 ($499)
Pascal: GP104 (314mm^2) -> GTX1080 ($649)
Turing: TU104 (545mm^2!) -> RTX2080 ($699)
Erst in Refreshes gab dann den großen Chip beschnitten als erschwingliche Consumer-Karte. Und nach den aktuellen Gerüchten liegt AD104 wohl bei <350mm^2 und somit genau im Rahmen.
OgrEGT
2022-09-18, 12:17:08
Lustig, dass Leute behaupten, dass nVidia hier verarschen würde, wenn die einen 104 Chip als 80er Karte erhalten - also so, wie es in den letzten vier von fünf Generationen war:
Kepler: GK104 (296mm^2) -> GTX680 ($499)
Maxwell: GM204 (396mm^2) -> GTX980 ($499)
Pascal: GP104 (314mm^2) -> GTX1080 ($649)
Turing: TU104 (545mm^2!) -> RTX2080 ($699)
Erst in Refreshes gab dann den großen Chip beschnitten als erschwingliche Consumer-Karte. Und nach den aktuellen Gerüchten liegt AD104 wohl bei <350mm^2 und somit genau im Rahmen.
Der Unterschied ist dass es jetzt noch einen weiteren Chip gibt den AD103...
The_Invisible
2022-09-18, 12:24:10
Wenn die 4080 12gb wirklich so kommt bin ich gespannt wie sie Lederjacke präsentieren wird und warum es es überhaupt eine zweite 4080 braucht....
Aber gut, 2 Tage noch ;-)
Edgecrusher86
2022-09-18, 12:29:10
https://abload.de/img/nextgeno8f5m.png
Mal kurz zusammengeschustert, wie ich mir das grob vorstelle...;)
E: Ich gehe davon aus, dass eine theor. "RTX 4080 Ti" dann den AD102 Cut mit ca. 100-104 SMs bekommen dürfte - also 12800 - 13312SP. Wäre dann bei 76,8 TF/s FP32 bis 79,9 TF/s FP32.
Damit würde die große Lücke zwischen RTX 4090 und RTX 4080 16GB perfekt gefüllt werden.
unl34shed
2022-09-18, 12:33:32
Der Unterschied ist dass es jetzt noch einen weiteren Chip gibt den AD103...
Und man nach aktuellen Gerüchten unter dem gleichen Namen 4080 zwei Karten mit einmal 100% und 80% Leistung verkauft.
Was Troyan auch unterschlägt: Man bekommt im Vergleich zum Top Modell in der 4000er Gen deutlich weniger Performance in den einzelnen Produktfamilien als in den letzten Generationen. 80er ist eigentlich nur eine 70er etc.
Ob das die Preise das widerspiegeln werden? Ich glaub mal nicht dran...
Auch unterschlägt Troyan, dass es bei der 600er Familie gar keinen Chip größer GK104 gab. Und bei der 700er, die in der Liste komischerweise fehlt hat die 780 auch den GK110 bekommen, also den größten Chip :rolleyes:
dildo4u
2022-09-18, 12:34:07
Wenn die 4080 12gb wirklich so kommt bin ich gespannt wie sie Lederjacke präsentieren wird und warum es es überhaupt eine zweite 4080 braucht....
Aber gut, 2 Tage noch ;-)
Es gab doch 3080 10GB und eine mit 12GB die schneller war(Mehr Cuda Cores) nicht wirklich neu.
Edgecrusher86
2022-09-18, 12:38:09
Aber zumindest lag bei den 3080ern über ein Jahr dazwischen. ^^
unl34shed
2022-09-18, 12:41:52
Ein Jahr nach der 10GB mit einem vernachlässigbaren Leistungsunterschied von 3%, nicht 20% und das angeblich zum Launch. 20% ist normalerweise eine komplett andere Produktfamilie
Troyan
2022-09-18, 12:42:30
Auch unterschlägt Troyan, dass es bei der 600er Familie gar keinen Chip größer GK104 gab. Und bei der 700er, die in der Liste komischerweise fehlt hat die 780 auch den GK110 bekommen, also den größten Chip :rolleyes:
Ach, weil es keinen größeren Chip gegeben habe, war es also keine Verarsche einen 294mm^2 Chip als GTX680 zu verkaufen, wenn der namentliche Vorgänger mit einem 520mm^2 groß Chip bestückt war? ;D
dildo4u
2022-09-18, 12:47:01
Aber zumindest lag bei den 3080ern über ein Jahr dazwischen. ^^
Weil die Nachfrage unendlich war kein Grund die besser Version zu bringen wenn die 10GB für 1000€ + wegging.
Diesmal haben sie sofort Modelle die man für 800 oder 1000€ verkaufen kann, falls die Nachfrage ohne Mining Lauwarm aussieht.
unl34shed
2022-09-18, 12:52:51
Ach, weil es keinen größeren Chip gegeben habe, war es also keine Verarsche einen 294mm^2 Chip als GTX680 zu verkaufen, wenn der namentliche Vorgänger mit einem 520mm^2 groß Chip bestückt war? ;D
Troyan, es gibt Leute, den geht einer bei mm² und Transistorcount ab, ich zähle nicht dazu ;)
Es ist scheiß egal, ob das ding von Nvidia GK104, Hugo oder Detlef genannt wird, es ist entweder der größte Chip der Generation oder eben nicht. Der nächste Marketingstunt wäre dann nennt alle Chips nur noch Gx100[A/B/C/..] dann bekommt man nur noch den 100er Top Chip :eek:
Edgecrusher86
2022-09-18, 12:54:39
Weil die Nachfrage unendlich war kein Grund die besser Version zu bringen wenn die 10GB für 1000€ + wegging.
Diesmal haben sie sofort Modelle die man für 800 oder 1000€ verkaufen kann, falls die Nachfrage ohne Mining Lauwarm aussieht.
Wenn ich daran denke, dass es Leute gab, die über 3090 FE UVP für eine 3080 10GB zahlten...Aua ;D
4080 12GB ist eigentlich perfekt, um die eigentliche 4070er deutlich im Preis anzuheben - dumm sind die Burschen nun nicht.
Zudem sieht es schöner in jeder Signatur aus, wenn da 4080 steht. :D
Dovregubben
2022-09-18, 12:55:05
Der Trend zu Chiplets hat bei AMD den Grund, dass man nicht das Kapital hat um genug Kapazität der aktuellsten Fertigung vorzufinanzieren.
Bei Intel liegt es daran, dass man Fabs rund um die Welt hat und mit Chiplets die Dies flexibler zusammenwürfeln kann bzw. wenn die Kapazität knapp wird die IO Dies zu TSMC auslagern kann (natürlich mit ein paar Jahren Vorlaufzeit).
Man kommt mit Chiplets auch auf mehr Chipfläche. Die größeren Prozessoren wären ohne Chiplets überhaupt nicht möglich. Auch bei Apple war das der Grund beim M1 Ultra.
Dazu kommt noch merklich weniger Verschnitt am Rand mit kleineren Chiplets.
Troyan
2022-09-18, 12:58:05
Troyan, es gibt Leute, den geht einer bei mm² und Transistorcount ab, ich zähle nicht dazu ;)
Es ist scheiß egal, ob das ding von Nvidia GK104, Hugo oder Detlef genannt wird, es ist entweder der größte Chip der Generation oder eben nicht. Der nächste Marketingstunt wäre dann nennt alle Chips nur noch Gx100[A/B/C/..] dann bekommt man nur noch den 100er Top Chip :eek:
Wenn 294mm^2 bei der GTX680 okay wären, dann sind sie es bei Lovelace genauso. Denn Fläche ist Fläche. :cool:
unl34shed
2022-09-18, 13:02:47
Wenn 294mm^2 bei der GTX680 okay wären, dann sind sie es bei Lovelace genauso. Denn Fläche ist Fläche. :cool:
Dir ist aber schon bewusst, dass es in den letzten 10 Jahren ein paar technische Weiterentwicklungen gab?
Ja, Fläche ist Fläche und wie ich schon mal schrieb, ist mir das als Kunde scheiß egal. Mich interessiert: Was kommt rein (Watt), was kommt Raus (FPS) und wie viel kostet es mich (in Relation zur Konkurrenz, auch aus dem eigenen Haus)
Tomahawk
2022-09-18, 13:04:18
Die Diskussion geht in einer falsche Richtung. Chipgröße ist einfach nur eine technische Eigenschaft des Produkts. Man darf auch nicht vergessen, dass im Laufe der Zeit die Chips viel größer geworden sind.
Für den Endkunden ist der Leistungsgewinn relevant. Egal, ob dafür ein großer oder kleiner Chip nötig ist. Wenn der Leistungsgewinn (zu) klein ausfällt, dann wird das Produkt nicht gekauft. Das weiß auch nVidia. nVidia wird auch gesehen haben, dass sich sehr große Chips für den Consumerbereich nur lohnen, wenn diese auch in nennenswerten Stückzahlen verkauft werden können. Ich stelle mir immer noch die Frage, ob der riesige TU102 (RTX 2080 Ti, Titan RTX) ein Fehler seitens nVidia war. Der Preis war immens hoch und die Verkaufszahlen eher niedrig. Volta hat man (fast) nicht in den Consumerbereich gebracht.
Troyan
2022-09-18, 13:08:46
Dir ist aber schon bewusst, dass es in den letzten 10 Jahren ein paar technische Weiterentwicklungen gab?
Ja, Fläche ist Fläche und wie ich schon mal schrieb, ist mir das als Kunde scheiß egal. Mich interessiert: Was kommt rein (Watt), was kommt Raus (FPS) und wie viel kostet es mich (in Relation zur Konkurrenz, auch aus dem eigenen Haus)
:confused:
Also es gab in den letzten Jahren technische Weiterentwicklung, die Fläche von vor 10 Jahren anders berechnen als heute? Wow. Kommt das gleich nach der technischen Errungenschaft, dass sich die Umgebung in Pfützen spiegelt?
TSMC und Samung berechnen Wafer. Und seit 300mm Wafer (2007) gibt es keine Weiterentwicklung mehr. 294mm^2 von vor 10 Jahren entsprechen exakt 294mm^2 von heute. Klingt komisch, ist aber so.
The_Invisible
2022-09-18, 13:11:31
Es gab doch 3080 10GB und eine mit 12GB die schneller war(Mehr Cuda Cores) nicht wirklich neu.
Die 12gb war aber eigentlich ein stiller Launch, da gab's net wirklich eine Vorstellung. Wenn die gleichzeitig kommen kann man das nicht mehr so machen.
basix
2022-09-18, 13:16:14
Man kommt mit Chiplets auch auf mehr Chipfläche. Die größeren Prozessoren wären ohne Chiplets überhaupt nicht möglich. Auch bei Apple war das der Grund beim M1 Ultra.
Dazu kommt noch merklich weniger Verschnitt am Rand mit kleineren Chiplets.
Schlussendlich sind Chiplets genau eines: Ökonomisch begründet, ergo Geld ist König. Das kann jetzt aber viele Gesichter haben:
- Chipkosten an sich -> Günstiger
- Time to Market / Projektrisiko -> schneller / geringer
- Liefersicherheit / Herstellungskapazität -> Risikominimierung, Mengenmaximierung
- Maximalausbau / Leistungskrone -> Mindshare, Marge
:confused:
Also es gab in den letzten Jahren technische Weiterentwicklung, die Fläche von vor 10 Jahren anders berechnen als heute? Wow. Kommt das gleich nach der technischen Errungenschaft, dass sich die Umgebung in Pfützen spiegelt?
TSMC und Samung berechnen Wafer. Und seit 300mm Wafer (2007) gibt es keine Weiterentwicklung mehr. 294mm^2 von vor 10 Jahren entsprechen exakt 294mm^2 von heute. Klingt komisch, ist aber so.
Ich stimme unl34shed aber schon zu: Mir als Kunde kann die Chipgrösse egal sein. Mich als Kunden interessieren Performance, Energieverbrauch, Features und der Preis. Die Chipgrösse ist völlig egal. Genauso kann man es auf die Breite des Speicherinterfaces übertragen: Ob 128 oder 256 bit sind egal. Solange die Performance erreicht wird und die gleiche Speicherkapazität geboten wird, ist doch alles OK.
Dass grössere Chips in neueren Nodes teuerer werden ist klar. Nur was interessiert mich das als Kunden im Detail? Das ist ein Thema der Herstellerfirmen. Das einzige was ich als Kunden bemerken werde ist, dass zwangsläufig irgendwann die Preise steigen. Finde ich das als Kunde gut? Eben nicht. Kann ich was daran ändern? Ja, keine der teueren Karten kaufen.
robbitop
2022-09-18, 13:28:13
Lustig, dass Leute behaupten, dass nVidia hier verarschen würde, wenn die einen 104 Chip als 80er Karte erhalten - also so, wie es in den letzten vier von fünf Generationen war:
Kepler: GK104 (296mm^2) -> GTX680 ($499)
Maxwell: GM204 (396mm^2) -> GTX980 ($499)
Pascal: GP104 (314mm^2) -> GTX1080 ($649)
Turing: TU104 (545mm^2!) -> RTX2080 ($699)
Erst in Refreshes gab dann den großen Chip beschnitten als erschwingliche Consumer-Karte. Und nach den aktuellen Gerüchten liegt AD104 wohl bei <350mm^2 und somit genau im Rahmen.
Hier gehts nicht um den Chipnamen sondern um das niedrige Verhältnis SPs der 80 vs topdog. Und das ist das niedrigste seit Langem.
Aber du bist einer der Wenigen, die keine Endkundensicht vertreten sondern die eines Herstellers - auch wenn sie diametral zur Endkundensicht ist. Damit kann dich hier kaum ernst nehmen.
basix
2022-09-18, 13:30:25
144 / 84 ist wirklich viel (oder auch 128 / 76 bei 4090 vs 4080).
Haben wir aber bei Kepler eigentlich bereits gehabt:
- GK104 = 1536 SPs
- GK110 = 2880 SPs -> +87.5%
Edit:
4090 -> 4080 = 128 / 76 = 1.68x
GTX Titan -> GTX 680 = 1.75x
GTX 780 -> GTX 770 = 1.5x
OgrEGT
2022-09-18, 13:32:11
144 / 84 ist wirklich viel (oder auch 128 / 76 bei 4090 vs 4080.
Haben wir aber bei Kepler eigentlich bereits gehabt:
- GK104 = 1536 SPs
- GK110 = 2880 SPs -> +87.5%
Als der GK110 rauskam wurde aus der 680 dann auch eine 770 *duckundweg*...
Super Karte...hab ich lange gehabt und war sogar von EVGA... :ugly:
robbitop
2022-09-18, 13:35:40
144 / 84 ist wirklich viel (oder auch 128 / 76 bei 4090 vs 4080.
Haben wir aber bei Kepler eigentlich bereits gehabt:
- GK104 = 1536 SPs
- GK110 = 2880 SPs -> +87.5%
4090 -> 4080 = 128 / 76 = 1.68x
GTX Titan -> GTX 680 = 1.75x
Kepler ist 10 Jahre her. Entsprechend ist man anderes Gewöhnt. Man will ja grundsätzlich nicht auf Standards zurück wenn man sich längst lange an Besseres gewöhnt hat.
In der ersten Kepler Serie gab es nicht mal einen high end chip und man hat den Mainstream Chip für Highend Geld verkauft. Das will keiner zurück.
Als der Mainstreamchip dann endlich in der 7 Serie als solcher verkauft wurde, war es keine 80 mehr.
basix
2022-09-18, 13:36:39
In der ersten Kepler Serie gab es nicht mal einen high end chip und man hat den Mainstream Chip für Highend Geld verkauft. Das will keiner zurück.
Jop, das will keiner mehr. Wait, wie war das mit GP104? :D
robbitop
2022-09-18, 13:37:12
Jop, das will keiner mehr. Wait, wie war das mit GP104? :D
Da gab es immerhin GP102 ;) Und auch die 1080 hatte eine höhere sp ratio zum topdog als die 4080 zur 90.
basix
2022-09-18, 13:38:04
Erst deutlich später. Die GTX 1080 kostete 699$ 599$ (789 Euro UVP in DE), was damals noch der High End Spot war.
Dovregubben
2022-09-18, 13:40:14
Aber du bist einer der Wenigen, die keine Endkundensicht vertreten sondern die eines Herstellers - auch wenn sie diametral zur Endkundensicht ist. Damit kann dich hier kaum ernst nehmen.
Endkundensicht ist normal: Ich hab Karte X für Preis Y. Wieviel Mehrleistung bekomme ich jetzt für das Geld, das ich bereit bin ausgeben.
Irgendwelche Verhältnisse zu Topdogs interessieren wirklich sehr wenige Menschen.
Was passiert eigentlich wenn AMD/Nvidia in einer der nächsten Generation mit Chiplets mal noch ne Klassen obendrüber für noch mehr Geld bauen? Einen Markt gibt es dafür. Gibt es dann noch mehr Gemecker, weil die 80er gegenüber Topdog viel langsamer wird?
Troyan
2022-09-18, 13:40:45
GK100 war jedoch im Sommer 2012 fertig. Titan-Supercomputer ging 2012 online. Kein Unterschied zu GP102, außer das nVidia hier die Titan drei Monate später schon veröffentlicht hatte.
Und wenn Chip-Größe egal ist, wieso behauptet dann unl34shed, dass eine angeblich 4080 12GB keine richtiger 80er Karte wäre? Woran macht man das fest? Stromverbrauch?! Mehrleistung gegenüber der schnellsten aus der letzten Generation?!
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.