Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Sardaukar.nsn
2022-09-27, 19:36:08
Jap. RTX4080 12GB entspricht einer 3090TI mit halber Bandbreite und mehr L2 Cache.
+ DLSS 3, was absolut ein game changer sein kann.
MiamiNice
2022-09-27, 19:52:48
Wenn Intel den A770 mit 400mm²@6nm + 16GB GDDR6 RAM für 329$ verkaufen kann, dann muss Intel die GPUs entweder mit riesigem Verlust verkaufen oder irgendetwas stimmt nicht in der Argumentation von Nvidia und ein paar hier anwesender das die Produktionskosten so stark gestiegen sein sollen.
Ja 6nm vs 5nm, der Chip ist aber nur ein ganz kleiner Teil der GPU, das kann also nicht die Diferenz von >500$ ausmachen...
Das ist doch das typische bla bla was alle machen. "shortage of raw materials due to covid", massiv gestiegene Produktions und Lieferkosten usw. usf. Jeder will vom Kuchen was abhaben. Im Prinzip will man die Margen weiter erhöhen.
Selbst viele Leute, die das könnten, tun das nicht, da sie alle eine "höhere Gewalt" im Nacken haben, was dann auch ab und zu ganz gut ist. ;)
Die "höhere Gewalt" sollte man nie unterschätzen. ;)
Ist bei mir absolut umgekehrt :eek:
Platos
2022-09-27, 19:55:17
Miami Nice wieder mal am angeben:tongue::biggrin:
MiamiNice
2022-09-27, 20:02:11
Man(n) kann sich mit dem Verständnis der "höheren Gewalt" profilieren? Das ist dann nicht mein Problem ;)
Platos
2022-09-27, 20:13:27
Man(n) kann sich mit dem Verständnis der "höheren Gewalt" profilieren? Das ist dann nicht mein Problem ;)
Naja, war ja auf den Porsche bezogen, nicht wahr ;)
Troyan
2022-09-27, 20:15:51
+ DLSS 3, was absolut ein game changer sein kann.
+SER für Raytracing. ;)
Aber der Vergleich mit der 3090TI wird interessant werden. Rohleistungstechnisch ist man auf ähnlichen Niveau - weniger Einheiten dafür deutlich mehr Takt.
robbitop
2022-09-27, 20:24:51
+ DLSS 3, was absolut ein game changer sein kann.
Erste Analysen der gezeigten Trailer zeigen deutliche Artefakte. Ggf sollte man erste Reviews abwarten bevor man das als Gamechanger bezeichnet. Kann einer werden aber noch ist es unklar.
Sardaukar.nsn
2022-09-27, 20:35:35
DLSS 1 war auch nicht der Hit, aber wie man die 2er Version weiterentwickelt hat fand ich schon sehr überzeugend. Bei Digital Foundry war man auch schon angetan, aber hoffentlich kommen bald echte Reviews inkl. Latenzen usw. Da gibt es schon noch offene Fragen, daher das "kann" ;)
robbitop
2022-09-27, 20:39:10
Digital Foundry hat wie letztes Mal ein Exclusive bekommen und wirken in der Richtung etwas gebiast.
Sardaukar.nsn
2022-09-27, 20:56:22
Nur alleine auf die würde ich mich auch nicht verlassen.
Der Wochenrückblick und die Themen haben mir aber zuletzt sehr gut gefallen
lqPF6WJIed8
Thunder99
2022-09-27, 20:56:43
Jap. RTX4080 12GB entspricht einer 3090TI mit halber Bandbreite und mehr L2 Cache.
Der L2 macht anscheinend noch nicht das, was er sollte um die Bandbreite entsprechend zu kompensieren, oder ist noch zu klein für die geringe Bandbreite diese zu kompensieren.
Mal Tests abwarten wie die Skalierung der Architektur bei 1080p - 4k ausschaut. RDN2 hat da ja mehr Stärke gehabt in der <4K Auflösung.
Ravenhearth
2022-09-27, 21:37:37
Wenn Intel den A770 mit 400mm²@6nm + 16GB GDDR6 RAM für 329$ verkaufen kann, dann muss Intel die GPUs entweder mit riesigem Verlust verkaufen oder irgendetwas stimmt nicht in der Argumentation von Nvidia und ein paar hier anwesender das die Produktionskosten so stark gestiegen sein sollen.
Ja 6nm vs 5nm, der Chip ist aber nur ein ganz kleiner Teil der GPU, das kann also nicht die Diferenz von >500$ ausmachen...
Laut MLID macht Intel mit der A770 8GB bei $319 Verlust, dann dürfte das auch für $329 gelten oder mit Glück +/- null. Aber Gewinn wird Intel damit nicht machen, das ist auf Dauer natürlich nicht gesund. Gibt ja schon Gerüchte, dass Intel bei Battlemage nur noch Low End-Gedöns macht.
Die beiden 4080 sind davon abgesehen trotzdem zu teuer, ausgehend von der 4090 müssten sie eigentlich $699 bzw. $999 kosten, wenn man den Preis anhand der geschätzten Produktionskosten linear skaliert. Auch die Partner haben laut MLID bei der 12GB eher mit $700-800 gerechnet.
GrimReaper85
2022-09-27, 21:51:12
Finde auch den neuen Stecker besser als 3x8PIN, aber die Belastungen aufs Material darf man nicht unterschätzen.
Wäre eine 4080 16GB auch mit 2x8PIN zu betreiben? 2x 150W + 75W sollten ja genug sein ohne OC
150W ist keine Steckerbegrenzung. Sie können das Video ab 10 Minuten starten, um mehr darüber zu erfahren.
https://www.youtube.com/watch?v=EvsPZA8CkBY&t=642s
Thunder99
2022-09-27, 22:10:40
150W ist keine Steckerbegrenzung. Sie können das Video ab 10 Minuten starten, um mehr darüber zu erfahren.
https://www.youtube.com/watch?v=EvsPZA8CkBY&t=642s
Und 8Pin ist laut offizieller Spezifikationen auf 150W festgelegt ;). Wenn die mehr durchzuführen mag das zwar gehen ist aber weg vom Standard
Ex3cut3r
2022-09-27, 22:58:18
Und 8Pin ist laut offizieller Spezifikationen auf 150W festgelegt ;). Wenn die mehr durchzuführen mag das zwar gehen ist aber weg vom Standard
Genau das. Das dürfte noch interessant werden. Wenn ich mir die Adapter Kabel bisher ansehe, sind viele mit nur 2x8Pin drin, die einen 450W PCIe 5 Stecker "ersetzen" sollen. Wie soll das gehen wenn die 2xPin nur 300W leisten können? Wenn man mehr durchführt und das konstant über einen längeren Zeitraum dürfte das Kabel schnell anfangen zu schmelzen/brennen, oder übersehe ich hier was? :confused:
why_me
2022-09-27, 23:30:26
Ob 2x8Pin oder 1x12Pin ist erst einmal egal. Bei beiden hast du 6x 12V und 6x GND. Ausgelegt sind beide stecker für genügend Strom. Der PCI Standard sieht nur beim 8Pin eine höhere Sicherheitsmarge vor.
Pro Pin:
Molex mini fit (8Pin): 9A bzw 13A als Mini-Fit Plus
Molex micro fit (12Pin): 8,5A
Bei 450W wären das 6,25A pro Pin und bei 600W wären das 8,33A pro Pin.
Der 12 Pin wird deutlich näher an seiner maximal Spec verwendet als die größeren 8Pin Stecker. Ob das wirklich so gut ist?
Das Problem sind auch nicht die Kabel, sondern die Stecker bzw der Übergangswiderstand an den Kontakten. Der ist beträgt perfekten Steckern 10milliohm laut Molex. Erst wenn die Kontakte durch stecken/ziehen bzw Biegen ausleihern erhöht sich der Widerstand und es wird mehr Hitze im Stecker erzeugt, die aufgrund der Steckergehäuses nicht gut abgeführt werden kann. Das geht dann bis zu dem Punkt, dass der Stecker schmilzt und zu einen Kurzen bekommst etc.
Die steck zyklen gibt Molex übrigens beim micro fit mit 30 und beim mini fit mit 75-100 an. Also nichts mit, das war schon immer so...
E: Wie man schön sieht, hat man früher immer schön viel Sicherheitsmarge gegeben, heute muss alles so günstig wie nötig sein und wird deshalb auf kante ausgelegt. Geht dann halt schneller kaputt, dann kauft der Kunde auch schneller neu...
Sardaukar.nsn
2022-09-27, 23:47:20
Wenn sich die Aussagen aus dem HWluxx Forum bestätigen, wird es wieder ein ungemütlicher Launch...
Hab heute Preise und Stückzahlen vom größten Hardwaredistributor bekommen. Von der 4090 bekommen sie ganze 15 Stück. Die sind aufgeteilt auf Trinity, Trinity OC und Amp Extreme Airo. Netto EK 1660 Euro für die Trinity non Oc. Sind ohne Marge 1992 Euro VK, plus Marge wohl rund 2049 Euro
Ich arbeite ja selbst beim 2t größten Hardwaredistributor, am Freitag bekomme ich Preise und Verfügbarkeiten von uns. Das Review Embargo fällt übrigens wirklich am 5. Oktober hab ich heute von unserem Nvidia Product Manager efahren
Radeonfreak
2022-09-28, 00:10:39
;(:frown:
r3ptil3
2022-09-28, 00:15:42
Also ich wage zu bezweifeln, dass jetzt noch ein Riesenandrang auf eine solch teure Karte ohne Miner stattfinden wird.
15 Stück sind natürlich nichts, aber darauf würde ich jetzt vorerst nicht viel geben.
Die Airo gefällt mir übrigens - würde ich zugreifen, wenn sie zu einem normalen Preis angeboten wird.
vinacis_vivids
2022-09-28, 01:02:46
Nvidia hat was den Top-Dog angeht an Siliziumfläche leider kontinuierlich nachgelassen:
2018 TU102: 754mm²
2020 GA102: 628mm²
2022 AD102: 608mm²
Was mich noch nervt ist das Labeling des AD104 192bit SI zu 40"80" 12GB, das suggeriert mit nur 294mm² Top-Leistung, ist aber nur untere Mittelklasse. Darüber liegen AD103 378mm² und AD102 608mm².
Nvidia sollte sich schämen für diese Marketinglüge und den überteuerten Preis von 899 USD MSRP eines 294mm² Chips ala 40"80" 12GB. Das ist ein absoluter Wucherpreis.
Mit dieser schwachen Leistung in der Mittelklasse wird Nvidia Marktanteile verlieren und AMD wird Marktanteile gewinnen. Vllt. sogar auf 30-40% mit Zielrichtung 50%.
basix
2022-09-28, 01:17:37
TU102 war ein einsamer Ausreisser nach oben ;)
2010 GF110: 520mm2
2012 GK110: 571mm2
2015 GM200: 601mm2
2016 GP102: 471mm2
2018 TU102: 754mm²
2020 GA102: 628mm²
2022 AD102: 608mm²
BlacKi
2022-09-28, 01:30:36
Wenn sich die Aussagen aus dem HWluxx Forum bestätigen, wird es wieder ein ungemütlicher Launch...
Das Review Embargo fällt übrigens wirklich am 5. Oktober hab ich heute von unserem Nvidia Product Manager efahren
wenn nv gewinne machen will, dann sollte sie besser liefern.
egal, die 4090 ist für mich eh uninteressant. die reviews hätte ich aber lieber heute als morgen. immerhin besser als der 12.10
Weltraumeule
2022-09-28, 02:09:30
Hier nochmal ausführliche Übersichten.
It is far worse than 12GB 4080 should be called 4070, It is actually a 4060ti (https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/)
Gott1337
2022-09-28, 05:35:54
Nvidia hat was den Top-Dog angeht an Siliziumfläche leider kontinuierlich nachgelassen:
2018 TU102: 754mm²
2020 GA102: 628mm²
2022 AD102: 608mm²
Was mich noch nervt ist das Labeling des AD104 192bit SI zu 40"80" 12GB, das suggeriert mit nur 294mm² Top-Leistung, ist aber nur untere Mittelklasse. Darüber liegen AD103 378mm² und AD102 608mm².
Nvidia sollte sich schämen für diese Marketinglüge und den überteuerten Preis von 899 USD MSRP eines 294mm² Chips ala 40"80" 12GB. Das ist ein absoluter Wucherpreis.
Mit dieser schwachen Leistung in der Mittelklasse wird Nvidia Marktanteile verlieren und AMD wird Marktanteile gewinnen. Vllt. sogar auf 30-40% mit Zielrichtung 50%.
und AMD von 600mm² auf 300mm² runter..
Linmoum
2022-09-28, 06:04:22
Die Fläche der MCDs würde bei einem monolithischen Die also wegfallen? Interessante Sichtweise...
Tangletingle
2022-09-28, 06:09:23
und AMD von 600mm² auf 300mm² runter..
Ähm da fehlt aber bisschen die space in der Rechnung. 300mm² haben nur die gcds.
dargo
2022-09-28, 06:09:57
Die Fläche der MCDs würde bei einem monolithischen Die also wegfallen? Interessante Sichtweise...
Nvidia ist so gut, die brauchen keine Speichercontroller und Caches. ;)
Mark3Dfx
2022-09-28, 07:09:19
Genau das. Das dürfte noch interessant werden. Wenn ich mir die Adapter Kabel bisher ansehe, sind viele mit nur 2x8Pin drin, die einen 450W PCIe 5 Stecker "ersetzen" sollen. Wie soll das gehen wenn die 2xPin nur 300W leisten können? Wenn man mehr durchführt und das konstant über einen längeren Zeitraum dürfte das Kabel schnell anfangen zu schmelzen/brennen, oder übersehe ich hier was? :confused:
Siehe hier:
12VHPWR-Stecker: Überlasteter Steckverbinder auch ohne Adapter möglich
https://www.computerbase.de/2022-09/12vhpwr-stecker-ueberlasteter-steckverbinder-auch-ohne-adapter-moeglich/
Sardaukar.nsn
2022-09-28, 07:39:17
Bei der Diskussion um die 4080 Modelle wird wohl entscheidend sein welche Leistung am Ende dabei rum kommt. Selbst die 4080 12GB kommt mit mehr TFLOPs als der ehemalige Topdog 3090 Ti daher, deutlich weniger Stromverbrauch (285 statt 450) und natürlich die neue DLSS 3 Tech. Gut das es nächste Woche hoffentlich unabhängige Benchmarks gibt.
unl34shed
2022-09-28, 08:51:40
Nein, weil die Leistung im Vergleich zum TopDog der Vorgängergeneration nicht relevant ist. Und das war sie auch noch nie*. Das Thema kommt zwar immer wieder auf um jede Preiserhöhung zu rechtfertigen (sehr auffällig seit Turing), aber es ist nicht relevant! Bei Elektronik nimmt die perf/$ stetig zu, bei der 4080 12g sind es wohl eher 110% mehr $ für 50-60% mehr Performance und alle schreien "Nvidia, tiefer und fester" ähm ich meine "Jaaaa"...
Hier wird Mittelklasse als high-end verkauft, das ganze mit DLSS3 Interpolation "verschleiert" oder warum der starke Fokus darauf? Rohrperformance scheint ja nicht so berauschend zu sein...
Das sind 400$ bzw. 500$ Karten, die für über das doppelte verkauft werden. Lass sie wegen der Inflation meiner wegen jeweils 100$ mehr kosten, aber mehr als das doppelte?
*Einzige Ausnahme wäre wohl, wenn es gar kein Fortschritt mehr gibt
Sardaukar.nsn
2022-09-28, 09:05:27
Immer nur mehr Rohleistung ist anscheinend aber auch nicht zielführend. Obwohl man das bei der 4090 mit der modernsten Fertigung, extremen Leistungsaufnahme und wohl knapp 3Ghz Takt auch noch zusätzlich versucht. Um KI in der Bildberechnung wird keine Hersteller in Zukunft herum kommen da hier die großen Sprünge möglich sind.
Die Zeiten wo es für $400-500 eine Highend Karte gab sind wohl eindeutig vorbei. Aber auch für den kompletten Unterbau, wenn ich mir aktuelle Mainboard Preise ansehe.
DrFreaK666
2022-09-28, 09:06:04
Ich lass das mal unkommentiert, da ich zu wenig Ahnung habe
EvsPZA8CkBY
Platos
2022-09-28, 09:28:45
https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/
Auch wenns nur ein Reddit-Post ist, Recht hat er trotzdem.
Die 4080 16GB ist eig. eher das, was die 4070 hätte sein sollen. Nämlich 16GB! und die Rasterleistung entsprechend passend zu einer 4070.
Und das, was die 4080 12GB ist, hätte eher einer 4060Ti sein sollen.
Man kann also sagen, dass die Preise von 500$ auf 1200$ und von 400$ auf 900$ angesteigen sind. Also weit mehr als das doppelte.
Lovelace ist eine extrem schwache Gen. Ampere war eigentlich ganz gut, nur hatten die meisten Karten extrem wenig Speicher und die Strassenpreise waren mies. Diese Gen hat nicht einmal guten Speicher für seine Preisklasse und der Perfomancezuwachs pro Dollar ist vorraussichtlich miserabel in Rasterperfomance.
Edit: Ist natürlich etwas laienhaft seine Darstellung, aber es stimmt trotzdem überein mit den Daten, die nvidia bisher geliefert hat.
Dural
2022-09-28, 10:13:09
Die Preise haben zwei Gründe:
1. 4nm
2. Ampere
Sobald Ampere ausverkauft ist, und 4nm nächstes Jahr vielleicht etwas billiger wird (was ich nicht glaube) werden die Preise schon etwas nach unten gehen.
Eventuell plant NV ja schon eine "Super" Serie für nächstes Jahr. Wobei aus ad104 und ad103 kaum mehr Leistung rauszuholen ist.
Die meisten haben so wie so eine spezielle Einstufung, das ein Chip xx104 als x800 verkauft wird ist nicht selten, sondern war eher die Regel! Das neue ist eigentlich nur der ad103 den es zuvor im Desktop Bereich gar nicht gab. Auf der 4080 16Gb läuft der aber fast voll, also hat NV mit dem vorhanden fast das maximal mögliche rausgeholt. Ich verstehe diese Diskussion nicht.
Bester Beweis dafür ist ja auch die TDP. Würde NV auf der 4080 einen ad102 verbauen um mehr Leistung zu erzielen wäre die TDP ziemlich sicher näher an den 400Watt als an den 300Watt.
Weltraumeule
2022-09-28, 10:26:25
Tja, um meine RTX 3060 zu beerben, wäre die 4080 12 GB passend oder? Also von der Rasterizer Leistung? Die brauche ich nämlich, weil jede Menge alte Spiele ohne DLSS spielen möchte.
Aber mehr als 500-600 € gebe ich prinzipiell nicht aus, das heißt wohl zwei Jahre warten bis deren Preis fällt, kann ich grad noch mit Leben :rolleyes:
Pfff für ein Mainboard werde ich weiterhin im Leben nicht mehr als so 130 € €ausgeben und für ne CPU nicht mehr als 250. Die Leistung und Ausstattung reicht mir zum Glück :tongue: Bei dem Preis-Wahnsinn mache ich nicht mit :P
Cyberfries
2022-09-28, 10:30:50
Gentlemen, a short view back to the past...
Wir schreiben das Jahr 2016, beide Grafikkartenhersteller stellen neue Produkte in einem brandneuen Fertigungsverfahren vor.
Eine Karte (RX480) ist am Limit der Stromversorgung gebaut, Berichte von massenweise zerstörten Mainboards
machen die Runde, gigantische Strafzahlungen und ein gewaltiger PR-GAU werden prophezeit.
Eine andere Karte (GTX 1080) wird aufgrund des zugrunde liegenden Chips als überteuerte Mittelklasse verrissen,
die Produktpolitik von nVidia wird als unverschämt bezeichnet, Kaufunwillen vielfach bekundet.
Immerhin war GP102 mit 314mm² deutlich kleiner als GM204 (398mm²) und bot für den dreifachen Preis (789€)
kein größeres SI (256bit) und nicht mehr Speicher (8GB) als die RX 480 für nur 256€.
Heute, 6 Jahre später werden beide Generationen von den jeweiligen Anhängern besungen,
an die 1080 erinnert niemand mehr als "überteuerte Mittelklasse", die gebotene Leistung hat überzeugt.
Die Befürchtungen zu "abgebrannten Häusern" durch die RX480 waren ebenfalls übertrieben.
Wenn heute vorgerechnet wird, dass die 4080 eigentlich keine 4080 sondern eine 4070,
nein nichtmal das, eine 4060, nein nichtmal das, eine 3360 ...
Wenn 16pin eine tickende Zeitbombe sein soll ...
... deja vu. Gönnt den Karten einen Realitätscheck in Form von Testberichten und Praxisberichten, ist nicht mehr lange hin.
tldr: Etwas Entspannung, ordentlich durchlüften, nicht alles direkt verteufeln.
(Außer der 12GB-Karte, deren Name ist ein gewaltiger Haufen Ochsendung)
BlacKi
2022-09-28, 10:36:16
Ich lass das mal unkommentiert, da ich zu wenig Ahnung habe
https://youtu.be/EvsPZA8CkBYziemlich geil, wie er alles debunked.
es zeigt mal wieder wie der anti nv zug durchs dorf getrieben wird.
mir war gleich klar, das die 30cycles spec alleine keine aussage hat. er sagt im video ganz klar, das die 6-8 pin auch nicht für mehr ausgelegt sind;D;D;D
Dovregubben
2022-09-28, 11:03:18
https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/
Solcher Unsinn kommt raus, wenn man den Topdog als Referenz nimmt.
Nvidia kann man aber halt auch nicht verteidigen, wenn sie eine 4070 als 4080 verkaufen, weil sie 20 Dollar mehr für den Chip bezahlen müssen.
Platos
2022-09-28, 11:33:54
Solcher Unsinn kommt raus, wenn man den Topdog als Referenz nimmt.
Nvidia kann man aber halt auch nicht verteidigen, wenn sie eine 4070 als 4080 verkaufen, weil sie 20 Dollar mehr für den Chip bezahlen müssen.
Ja, wie gesagt, es ist bisschen Laienhaft. Aber die Kernaussage, also dass keien der 4080 eigentlich eine 4080 sein sollte, stimmt m.M.n.
Wie gesagt: Die 4080 16GB wäre eigentlich ne 4070, maximal ne 4070Ti und die 4080 12GB eher ne 4060Ti.
Die Preise haben zwei Gründe:
1. 4nm
2. Ampere
Ich habe deinen Kommentar nicht weiter gelesen. Warum? Weil es irrelevant ist. Als Kunde interessiert mich genau 0 warum die Preise höher sind. Als Kunde interessiert auch nicht, dass der Euro höher ist. Es interessiert alles nicht.
Als Kunde interessiert nur, wie viel Leistung kriege ich pro Dollar/Euro oder eben das, was ich nutze. Aus Kundensicht zählt das. Der Rest kann ein PR-Mensch erzählen. Interessiert nicht!
Wer nun "Schuld" hat für die hohen Preise, ist doch mir als Kunde egal.
Sardaukar.nsn
2022-09-28, 11:59:01
Als Kunde interessiert nur, wie viel Leistung kriege ich pro Dollar/Euro oder eben das, was ich nutze. Aus Kundensicht zählt das. Der Rest kann ein PR-Mensch erzählen. Interessiert nicht!
Wer nun "Schuld" hat für die hohen Preise, ist doch mir als Kunde egal.
Ich stimme dir schon zu das hauptsächlich die Leistung zählt, aber was der Hersteller für einen Namen auf seine Hardware schreibt oder diese umbennent ist doch wohl ziemlich egal.
Leider ist die Inflation und die steigendenden Rohstoffkosten sehr real. Noch ist das gar nicht richtig bei uns angekommen: https://www.destatis.de/DE/Themen/Wirtschaft/Preise/Erzeugerpreisindex-gewerbliche-Produkte/_inhalt.html
Hinzu kommt das Deutschland bzw. die EU gar nichts in der Richtung produziert. Wir müssen quasi alles mit Elektronik aus dem nicht EU-Ausland importieren und da kennen die Preise nur eine Richtung. Leider.
BlacKi
2022-09-28, 12:12:31
ich verstehe nicht, das leute nur nach leistungsklasse und namen kaufen. manche for real und andere regen sich darüber auf, entweder weils zu billig ist, oder weils zu teuer ist.
wenn die 4080 zu teuer ist, dann kauf sie nicht. geh zum konkurenten oder kauf billiger. besser kannst du mit den herstellern als kunde nicht kommunizieren.
der alleinverdienende familienvater muss doch keine 4090 nach hause bringen, damit er seine kinder ernähren muss^^
Troyan
2022-09-28, 12:27:03
Außer er ist Designer. :D
Meridian12
2022-09-28, 12:31:32
der alleinverdienende familienvater muss doch keine 4090 nach hause bringen, damit er seine kinder ernähren muss^^
Nein. Muss er nicht.
Aber er darf dennoch sich äussern und sagen, dass er es eine Frechheit findet, dass NVIDIA einem verarschen will und eine 4060ti für 1100 Euro unterjubeln will.
Und wenn alle wie die Lemminge sich das Geld aus der Tasche ziehen lassen, dann gibt es die 5050 demnächst für 1500 Euro zu kaufen.
Ist doch klar, wenn NVIDIA die größte Scheisse überteuert los wird, wären sie ja selten dämlich die Preise zu senken.
Aber wenn die 4xxx Karten wie Blei in den Regalen liegen, dann sind die Ruckzuck paar hundert Euro billiger.
Chris Lux
2022-09-28, 12:32:43
Hinzu kommt das Deutschland bzw. die EU gar nichts in der Richtung produziert. Wir müssen quasi alles mit Elektronik aus dem nicht EU-Ausland importieren und da kennen die Preise nur eine Richtung. Leider.
Dazu muss man sich die Talfahrt des Euro das letzte Jahr mal ansehen. In den USA vergisst man auch, dass auf die MSRP Preise noch deren VAT/MwSt drauf kommt. Bei uns ist das schon in den Preisen am Regal dabei. Wenn ich sehe wie die Preise auch der iPhones angestiegen sind, finde ich es hier auch total nachvollziehbar.
BlacKi
2022-09-28, 12:36:09
Aber er darf dennoch sich äussern und sagen, dass er es eine Frechheit findet, dass NVIDIA einem verarschen will und eine 4060ti für 1100 Euro unterjubeln will.
https://media3.giphy.com/media/1M9fmo1WAFVK0/giphy.gif?cid=790b761105fc7b35f21f20d437922956f95cbbec3409ddc3&rid=giphy.gif
Linmoum
2022-09-28, 12:38:08
Ist in der Tat eine gute Frage, warum Nvidia das produktpolitisch so macht und einem eine eigentlich im Portfolio weiter unten beheimatete GPU für deutlich mehr Geld verkaufen will.
Wobei, die Frage lässt sich ganz einfach beantworten. Für eine GPU mit "xx80" Namen kannst du mehr verlangen als für eine, die nur xx60Ti oder xx70 heißt. Auch beim MediaMarkt-Otto, der alle sechs Jahre mal was neues will. Kundenverarsche halt, auch, wenn es Nvidia nicht kümmern wird.
BlacKi
2022-09-28, 12:40:41
nur wenn die kunden es kaufen, und wenn sie es kaufen ist es nicht zu teuer. wie gesagt, es geht nicht um nahrungsmittel.
FastAndy
2022-09-28, 13:49:20
Bez. des Steckers gibt es ein FAQ von NV. Auch wieder alles nur Panikmache in Foren oder von irgendwelchen "Experten".
Und wenn alle wie die Lemminge sich das Geld aus der Tasche ziehen lassen, dann gibt es die 5050 demnächst für 1500 Euro zu kaufen.
Ist doch klar, wenn NVIDIA die größte Scheisse überteuert los wird, wären sie ja selten dämlich die Preise zu senken.
Aber wenn die 4xxx Karten wie Blei in den Regalen liegen, dann sind die Ruckzuck paar hundert Euro billiger.
Es gab schon Grafikkarten von NV mit UVP von 2799, diese titan V oder wie sie hieß. Wurde trotzdem gekauft. Ist den meisten zu teuer, aber NV hat ihr gutes recht sowas anzubieten.
Diese "Lemmige", wie du sie herablassend nennst, haben vielleicht andere finanzielle Mittel und sind gerne bereit sich die Zeit mit einer solchen Karte zu versüßen. Es gibt so viele dinge da draußen, die teuer sind und rational betrachtet wenig Sinn machen. Nicht wenige werden aber genau deshalb gekauft, weil sie teuer sind. Zu teuer ist relativ, was für 80% hier zu teuer ist, gilt nicht unbedingt für den Rest.
nur wenn die kunden es kaufen, und wenn sie es kaufen ist es nicht zu teuer. wie gesagt, es geht nicht um nahrungsmittel.
Das sehe ich haargenauso. Kauft einfach nicht, fertig. Ihr könnt euch natürlich auch ständig darüber aufregen und auslassen. Es ändert aber nichts an der Situation.
Dovregubben
2022-09-28, 14:03:51
Wie gesagt: Die 4080 16GB wäre eigentlich ne 4070, maximal ne 4070Ti und die 4080 12GB eher ne 4060Ti.
Die 16GB wäre eine gute 4080, wenn der Preis stimmen würde. Die 12GB ist eigentlich ein deutlicher 3070 Nachfolger von Performance und Speicher her.
Wir werden aber ja sehen, was in Zukunft passiert. Nvidia kann mit dem absurden Argument jetzt nicht für immer die 30er Serie beibehalten und nur noch oben anbauen bis sich nicht mal mehr Musk ne Karte leisten kann.
Platos
2022-09-28, 14:12:41
Die 16GB wäre eine gute 4080, wenn der Preis stimmen würde. Die 12GB ist eigentlich ein deutlicher 3070 Nachfolger von Performance und Speicher her.
Wir werden aber ja sehen, was in Zukunft passiert. Nvidia kann mit dem absurden Argument jetzt nicht für immer die 30er Serie beibehalten und nur noch oben anbauen bis sich nicht mal mehr Musk ne Karte leisten kann.
Alles wäre eine gute "Name einfügen", wenn der Preis stimmt ..
dildo4u
2022-09-28, 14:37:06
Nicht vergessen es gibt Leute die davon profitieren wenn der Aktien Kurs steigt, muss also nicht nur zwangsweise blanker Fanatismus sein.
Adam D.
2022-09-28, 14:59:45
Ist in der Tat eine gute Frage, warum Nvidia das produktpolitisch so macht und einem eine eigentlich im Portfolio weiter unten beheimatete GPU für deutlich mehr Geld verkaufen will.
Wobei, die Frage lässt sich ganz einfach beantworten. Für eine GPU mit "xx80" Namen kannst du mehr verlangen als für eine, die nur xx60Ti oder xx70 heißt. Auch beim MediaMarkt-Otto, der alle sechs Jahre mal was neues will. Kundenverarsche halt, auch, wenn es Nvidia nicht kümmern wird.
Es ist halt wichtig zu bedenken, dass die Lager mit Ampere voll sind und hier nur ganz oben in der Produktpalette Anpassungen am Preis vorgenommen wurden. Es wäre ja unvorstellbar, wenn man die Preise zum Ende der Ampere-Ära in der Breite anpassen würde, dann gefährdet man ja die Marge :eek: So kann man wunderbar die neue Generation oben drüber setzen, aus 70ern 80er machen, zusätzlich die Preise erhöhen, mit den early adoptern absahnen und dann später die Preise etwas absenken, wenn sich die Lager geleert haben.
Am Ende entscheidet halt das Verhalten der Kunden und der Konkurrenz, ob NV damit durchkommt.
FastAndy
2022-09-28, 15:51:39
Stryx vorbestellbar :smile: :
https://www.notebooksbilliger.de/asus+rog+strix+geforce+rtx+4090+oc+grafikkarte+781798
Bei mir passiert nur leider nichts bei dem button.:confused:
Sardaukar.nsn
2022-09-28, 15:54:40
Der Knopf geht wohl erst am 12.10. immerhin jetzt mehr Modelle und Preise gelistet: https://www.notebooksbilliger.de/pc+hardware/grafikkarten/nvidia/geforce+rtx+4000+serie+nvidia
FastAndy
2022-09-28, 15:58:33
Ich dachte vorbestellen wäre vorher, hehe. Ich hoffe ich verpasse den moment dann nicht und die sind alle weg. würde gerne jetzt alles erledigen, um nicht auf der lauer sein zu müssen.
nalye
2022-09-28, 16:00:13
Nutzt doch die Ignorierfunktion bevor das hier wieder ausartet, danke.
FastAndy
2022-09-28, 16:23:27
Noch eine Sache bitte:
Ich will direkt ein neues Netzteil, will nicht erst später Probleme kriegen (Neffe baut mir alles um). Welches Netzteil läuft auf jeden Fall mit der 4090 (die wird noch getaktet, 600w+)? Ich frage wegen des neuen steckers. Könnte mir da jemand eines verlinken von Amazon?
Kann man hier den neuen stecker direkt verwenden:
https://www.amazon.de/Silverstone-HA2050-PT-Vollst%C3%A4ndig-modulares-Cybenetics-Platinum-ATX-Netzteil/dp/B09NVR44C1/ref=sr_1_170?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FF209RUF5NQ&keywords=netzteil&qid=1664374808&qu=eyJxc2MiOiI2LjY4IiwicXNhIjoiNi4yNSIsInFzcCI6IjYuMTYifQ%3D%3D&sprefix=netzteil%2Caps%2C93&sr=8-170
Oder hier?
https://www.amazon.de/Corsair-AX1600i-1600W-Schwarz-Netzteil/dp/B07GVVB8KL/ref=sr_1_114?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=1FF209RUF5NQ&keywords=netzteil&qid=1664374776&qu=eyJxc2MiOiI2LjY4IiwicXNhIjoiNi4yNSIsInFzcCI6IjYuMTYifQ%3D%3D&sprefix=netzteil%2Caps%2C93&sr=8-114
Oder muss man da was zukaufen noch? Ich hab leider nicht so viel Ahnung davon.
Wenn das hier fehl am platz ist, bitte verschieben. Denke aber das ist für andere auch interessant.:smile:
Sardaukar.nsn
2022-09-28, 16:28:04
@FastAndy: Die Auswahl an ATX 3.0 Netzteilen ist noch sehr gering. Verfügbar sind wohl die neuen Modelle von Thermaltake: https://geizhals.de/thermaltake-toughpower-gf3-1650w-atx-3-0-ps-tpd-1650fnfage-4-a2807726.html
ChaosTM
2022-09-28, 16:33:04
https://wccftech.com/nvidia-geforce-rtx-40-series-pcie-gen-5-power-adapters-limited-connect-disconnect-life-of-30-cycles/
NVIDIA GeForce RTX 40 Series PCIe Gen 5 Power Adapters Have a Limited Connect & Disconnect Life of 30 Cycles
Die Power Adapter schmelzen weg. Ist nicht neu. Da sollte man sich noch was überlegen..
+ wer 2k für eine Karte ausgibt kann nochmals 150 drauflegten für ein gscheites NT.
Sardaukar.nsn
2022-09-28, 16:39:28
@ChaosTM Reine Panikmache, die Molex Stecker haben seit 20+ Jahren diese 30 Cycles. Die Adapter welche den Karten beiliegen sind zwar nicht schön, werden aber auch nicht reihenweise wegschmelzen. Beste Lösung ist natürlich ein neues modulares Kabel wie Radeonfreak das ja schon von Asus bekommen hat.
MiamiNice
2022-09-28, 16:40:32
Noch eine Sache bitte:
Ich will direkt ein neues Netzteil, will nicht erst später Probleme kriegen (Neffe baut mir alles um). Welches Netzteil läuft auf jeden Fall mit der 4090 (die wird noch getaktet, 600w+)? Ich frage wegen des neuen steckers. Könnte mir da jemand eines verlinken von Amazon?
Netzteile kauft man nur noch von Seasonic. Da die dickste Serie und 1300 Watt bist auf der sicheren Seite.
Auf die hier warten:
Seasonic Vertex
https://www.pcgameshardware.de/Netzteil-Hardware-219902/News/Fuer-RTX-4000-und-RDNA-3-Seasonic-kuendigt-Vertex-ATX-30-und-PCI-E-50-an-1404074/
Tangletingle
2022-09-28, 16:42:10
@Sardaukar.nsn: Die minifit plus wie sie standardmäßig verwendet werden haben 75-100 mating cycles (tin- vs goldplatet) und es gibt auch welche mit >1000. Was willst du uns also mit 30 für einen bären aufbinden?
r3ptil3
2022-09-28, 16:48:32
Stryx vorbestellbar :smile: :
https://www.notebooksbilliger.de/asus+rog+strix+geforce+rtx+4090+oc+grafikkarte+781798
Bei mir passiert nur leider nichts bei dem button.:confused:
Also das wäre eine Frechheit...
Denke der Ansturm wird nach der künstlichen Verknappung etc., ähnlich sein wie zum Zen4 Start. Siehe Berichte auf Youtube, in den USA waren die beliebten Shops einfach praktisch leer (keine Kundschaft) zum Verkaufsstart. Vor zwei Jahren hingegen Reihen, welche weit bis außerhalb der Shops lang war.
Die Preise werden dann änhlich wie bei der RTX 3090 Ti (ja vielleicht nicht so extrem) auch schnell runtergehen.
why_me
2022-09-28, 16:52:50
@Tangetingle: Noch dazu werden die Pins deutlich stärker belastet als bei den alten PCIe Steckern.
150W am 8Pin (Max) = 4,166A pro 12V Pin
450W am 12 Pin = 6,25A Pin
600W am 12 Pin = 8,33A Pin
Das hilft auch nicht dabei, dass die Stecker länger halten. Noch dazu, wenn eine 450W GPU das Gehäuse schön aufheizt
Troyan
2022-09-28, 16:55:54
@Sardaukar.nsn: Die minifit plus wie sie standardmäßig verwendet werden haben 75-100 mating cycles (tin- vs goldplatet) und es gibt auch welche mit >1000. Was willst du uns also mit 30 für einen bären aufbinden?
Molex Minifit hat 30x: https://cdn.wccftech.com/wp-content/uploads/2022/09/Molex-Mini-Fit-Power-Connector.png
Microfit liegt bei 75+.
ChaosTM
2022-09-28, 17:11:02
30 reicht im Normalfall auch dicke..
Thunder99
2022-09-28, 17:55:01
Manche vergessen was die 80er alles war. Nämlich vom BigDog bis zum Midrage so ziemlich alles.
GF100 als 80er, GF110 als 80er
GK104 als 80er, GK110 als 80, Ti und Titan
GM104 als 80er, GM102 als 80Ti und Titan
GP104 als 80er, GP102 als 80Ti und Titan
TU104 als 80er, TU102 als 80Ti und Titan
AM104 als 70er&Ti, AM102 als 80er, Ti und 90er
AD104 als 80er 12GB, AD103 als 80er 16GB, AD102 als 90er
Also mehr oder weniger alles dabei. Mich interessiert da eher wo bleibt die Leistung bzw wie gut wird diese auf die Straße gebracht?
Das kann nur entsprechende unabhängige Tests liefern.
unl34shed
2022-09-28, 18:01:28
Manche vergessen was die 80er alles war. Nämlich vom BigDog bis zum Midrage so ziemlich alles.
GF100 als 80er, GF110 als 80er
GK104 als 80er, GK110 als 80, Ti und Titan
GM104 als 80er, GM102 als 80Ti und Titan
GP104 als 80er, GP102 als 80Ti und Titan
TU104 als 80er, TU102 als 80Ti und Titan
AM104 als 70er&Ti, AM102 als 80er, Ti und 90er
AD104 als 80er 12GB, AD103 als 80er 16GB, AD102 als 90er
Also mehr oder weniger alles dabei. Mich interessiert da eher wo bleibt die Leistung bzw wie gut wird diese auf die Straße gebracht?
Das kann nur entsprechende unabhängige Tests liefern.
Und jetzt schaust du, wie viel Leistung die 80er Karte liefern im Vergleich zum Top Chip liefern. Lässt sich in der gleichen Generation recht gut anhand der TFLOPs bestimmen. Die 4080er Karten sind mit abstand die langsamsten "80er" Karten und siedeln sich eher bei 70 und 60(Ti) an.
Was, wenn man nur mit der 4090 und nicht Full-AD102 vergleich ihnen sogar noch zu gute kommt, ist das die 4090 auch relativ stark beschnitten ist ;)
Edit:
Um es mal zu verdeutlichen:
Einordnung anhand der TFLOPs zum größten Chip.
Ich hab den 2000Super Refresh ignoriert, da schlecht dazustellen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80678&stc=1&d=1664382914
@Troyan: gibts da auch Quellen zu? Übrigens ist die Strombelastbarkeit auf Anschlag eher das Problem ;)
Sardaukar.nsn
2022-09-28, 18:31:24
30 reicht im Normalfall auch dicke..
Wie gesagt, viel Panikmache im Moment aber gibt ja Klicks. Hier wird gründlich aufgeklärt. Das Thema ab 17:00min
EvsPZA8CkBY
Ex3cut3r
2022-09-28, 18:45:17
Und wer ist der Kerl? Nvidias PR Manager? Ich wurde da abwarten bis neutrale "Leute" das getestet haben, klar will Nvidia die Panik jetzt klein spielen, die wollen diese überteuerten Karten ja auch loswerden. X-D
Meridian12
2022-09-28, 18:48:19
Bei NBB eine Karte zur UVP, eine für 2049 und Rest teurer. Mal gespannt wieviele da nach einem Monat noch gekauft werden.
Die erste Charge wird natürlich sofort weggehen von der "NeusteundBestesoforthabenmuss" Fraktion :D
Aber ob danach viele die Preise ohne Mining mitgehen?
FastAndy
2022-09-28, 18:59:13
Gut möglich dass die preise fallen. Ist ja auch normal und bez gewinnmaximierung kein unüblichers vorgehen.
@FastAndy: Die Auswahl an ATX 3.0 Netzteilen ist noch sehr gering. Verfügbar sind wohl die neuen Modelle von Thermaltake: https://geizhals.de/thermaltake-toughpower-gf3-1650w-atx-3-0-ps-tpd-1650fnfage-4-a2807726.html
Danke aber direkt zum start gibts da nichts? Ich will alles parat haben für den umbau. Ich habe ein altes 1600w corsair, das wollte ich aber lieber mal tauschen.
Was ist denn das besondere an atx 3 zu vorher? Der neue gpu stecker?
Tangletingle
2022-09-28, 19:08:31
Molex Minifit hat 30x: https://cdn.wccftech.com/wp-content/uploads/2022/09/Molex-Mini-Fit-Power-Connector.png
Microfit liegt bei 75+.
Ich schrieb explizit von minifit plus und das ist bei GPUs seit Jahren Standard. Mir ist nicht Mal bekannt, dass irgendwann was anderes als Plus verbaut worden wäre. Minifit ohne-plus ist nur mit 9A geratet und soweit ich mich erinnere waren auf GPUs immer 13A pro Pin vorgesehen.
Ihr sagt also, dass molex in seinem Werbematerial für Minifit lügt:
Select series offer up to
1,500 mating cycles with Gold
terminals; standard series
support 100 mating cycles
with Gold-plated terminals; 75
mating cycles with tin-plated
terminals
https://www.content.molex.com/dxdam/25/25cce481-dbb4-467e-ad4c-1deb2f5122cc/987651-8272.pdf
Kann euch auch gerne noch die spec sheets raus suchen.
Sardaukar.nsn
2022-09-28, 19:16:31
Bei NBB eine Karte zur UVP, eine für 2049 und Rest teurer. Mal gespannt wieviele da nach einem Monat noch gekauft werden.
Da hast du wohl die MSI übersehen: https://www.notebooksbilliger.de/msi+geforce+rtx+4090+gaming+trio+24g+grafikkarte+781551
Wenn man zu dem Kurs eine FE bekommen kann ist das aber sicher besser. Eine gute Custom wird deutlich über 2k liegen. Muss man natürlich wissen ob einem das wert ist. Aber es gibt ja auch Kunden die nach einem Jahr noch mal bei einer Refresh-Ti ordentlich auf den Tisch legen.
@Tangletingle: Spielt im Alltag keine Rolle, wird einfach funktionieren :wink:
@FastAndy: Du musst da nicht auf biegen und brechen ein neues Netzteil kaufen. Der Adapter wird reichen und ein passendes modulares Kabel ist von Corsair ja schon angekündigt, leider noch nicht lieferbar.
Tangletingle
2022-09-28, 19:18:16
@Tangletingle: Spielt im Alltag keine Rolle, wird einfach funktionieren :wink:
Ihr verbreitet müll und dann spielt es plötzlich keine Rolle mehr? Fakt ist die Belastbarkeit des neuen 12pin ist deutlich niedriger. Gründe wurden zur Genüge genannt.
Meridian12
2022-09-28, 19:20:18
Da hast du wohl die MSI übersehen: https://www.notebooksbilliger.de/msi+geforce+rtx+4090+gaming+trio+24g+grafikkarte+781551
Du hast bei mir wohl KEINE gelesen statt eine Karte zur UVP :D
Sardaukar.nsn
2022-09-28, 19:20:49
@Tangletingle: Wenn du vor dem neuen Standard Angst hast muss du das ja auch nicht kaufen.
@Meridian12: Tatsächlich ;)
prinz_valium_2
2022-09-28, 19:32:04
Manche vergessen was die 80er alles war. Nämlich vom BigDog bis zum Midrage so ziemlich alles.
GF100 als 80er, GF110 als 80er
GK104 als 80er, GK110 als 80, Ti und Titan
GM104 als 80er, GM102 als 80Ti und Titan
GP104 als 80er, GP102 als 80Ti und Titan
TU104 als 80er, TU102 als 80Ti und Titan
AM104 als 70er&Ti, AM102 als 80er, Ti und 90er
AD104 als 80er 12GB, AD103 als 80er 16GB, AD102 als 90er
Also mehr oder weniger alles dabei. Mich interessiert da eher wo bleibt die Leistung bzw wie gut wird diese auf die Straße gebracht?
Das kann nur entsprechende unabhängige Tests liefern.
Joa, das ist nicht falsch.
Aber die großen Karten kamen früher oft erst das Jahr danach, oder nur als Titan.
Also war der midrange chip trotzdem das höchste, was man kaufen konnte.
Jetzt gibt es 2 Stufen drüber.
Macht die 4090 attraktiver, aber die 4080 deutlich unattraktiver.
Nazar
2022-09-28, 19:51:46
ich verstehe nicht, das leute nur nach leistungsklasse und namen kaufen. manche for real und andere regen sich darüber auf, entweder weils zu billig ist, oder weils zu teuer ist.
wenn die 4080 zu teuer ist, dann kauf sie nicht. geh zum konkurenten oder kauf billiger. besser kannst du mit den herstellern als kunde nicht kommunizieren.
der alleinverdienende familienvater muss doch keine 4090 nach hause bringen, damit er seine kinder ernähren muss^^
Warum verweigerst du dich dem Offensichtlichen? :confused:
Man merkt, dass du gar nicht mehr argumentieren willst, sondern dich komplett dumm stellst (ich gehe mal davon aus, dass das bei dir Absicht ist, oder etwa nicht :freak:).
nVidia begeht eine Art von Betrug, weil es eine Namensbezeichnung nutzt, die suggeriert, dass das Produkt, das diesen Namen erhält, in der Tradition steht, die nächste Leistungssteigerungsform des Vorgängers zu sein!
Dem unbedarften Kunden wird das nicht sofort auffallen, dass das dieses Mal überhaupt nicht mehr zutrifft, und eigentlich eine Leistungsverschlechterung damit einhergeht (bezogen auf den Vorgänger).
Der Kunde hat das Geld und will kaufen, wird aber absichtlich dazu verleitet eine Ware zu kaufen, die eine reine Mogelpackung ist, und nicht mehr der alten Tradition folgt. Sowas kann man und sowas wurde auch schon durchaus Betrug genannt. :wink:
Der Kunde müsste also Detailwissen haben, welches selbst Profis erst umständlich in Erfahrung bringen müssen, um überhaupt eine Entscheidung über den Nichtkauf treffen zu können. Ich gehe davon aus (und nVidia auch ;)), dass das der mit Abstand größte Teil der Käufer nicht hat.
Also, warum sollte man dann, wenn man selber um die Umstände weiß, dies nicht anderen mitteilen? :confused:
Das ist doch die wichtige Frage hier!
Warum regen sich derzeit so viele Personen, die ganz offensichtlich aus dem Bereich der "Fans" von nVidia kommen, so darüber auf, dass auf diese Umstände hingewiesen wird?
Diese Frage, und die Frage, warum immer einige Accounts nur dann aktiv werden, wenn eine "Heilige Kuh" geschlachtet werden soll, sollte uns wirklich interessieren. ;)
Troyan
2022-09-28, 20:21:22
In Portal RTX ist die 4090 mit DLSS Performance in 4K 75% schneller als die 3090TI: https://youtu.be/6pV93XhiC1Y?t=860
DLSS 3 Frame Generation bringt ca. 60%. Rechnet man die weg, landet man bei den ~75%.
Tangletingle
2022-09-28, 20:23:41
nVidia begeht eine Art von Betrug, weil es eine Namensbezeichnung nutzt, die suggeriert, dass das Produkt, das diesen Namen erhält, in der Tradition steht, die nächste Leistungssteigerungsform des Vorgängers zu sein!
Um einmal den obligaten blöden Autovergleich zu bringen. Das ist als würde Porsche ne Karre mit 1.9l Diesel auflegen und sie 911 nennen. Dazu kommt noch dass er auch noch beschissen performt aber der Name passt halt besser in unsere Verkaufsstrategie.
Sardaukar.nsn
2022-09-28, 20:27:49
@Nazar&Tingeltangle: Wir sind hier alle von Nvidia bezahlte Trolle aber leider wurde unsere Verschwörung jetzt von euch aufgedeckt. Herzlichen Glückwunsch!
Tangletingle
2022-09-28, 20:32:03
Das ihr nicht mal zugeben könnt wenn ihr scheiße verzapft ist halt schlicht bezeichnend. Mir ist es doch scheiß egal was der 12 Pin kann und was nicht. Eure Darlegung zu den Minifit auf GPUs war halt schlicht Blödsinn.
Zu obigem Beitrag hätte ich evtl. ein /s packen sollen, damit selbst die dümmsten es checken.
Fakt ist nun mal, dass die 4080 das schlechteste p/l Verhältnis aller 80er Karten hat und die Leistungsdifferenz zur Klasse darüber die größte Lücke seit Einführung der 80er Modelle aufweist. Das ist schlicht nicht wegzudiskutieren.
TobiWahnKenobi
2022-09-28, 20:39:21
aaarhg.. ich geb's ja zu... ich hätte fast scheisse verzapft.. denn ich wollte wirklich ne strix vorbestellen.. *gg* gut dass das nicht ging.
PSU würde ich mir erst kaufen gehen, wenn mein 1200i partout nicht mehr will; ich mag das ding.
(..)
mfg
tobi
Tangletingle
2022-09-28, 20:42:42
aaarhg.. ich geb's ja zu... ich hätte fast scheisse verzapft.. denn ich wollte wirklich ne strix vorbestellen.. *gg* gut dass das nicht ging.
PSU würde ich mir erst kaufen gehen, wenn mein 1200i partout nicht mehr will; ich mag das ding.
(..)
mfg
tobi
Du kaufst doch eh keine 4080. Hätte zumindest erwartet, dass du uns mit benches der 4090ti beglückst und so lange wartest.
Neurosphere
2022-09-28, 21:19:53
6pV93XhiC1Y
Bei Twitter nehmen einige das Video bereits auseinander, DF geht auf einige, wohl deutlich sichtbare Qualitätsprobleme nicht näher ein.
Ich kanns bislang nicht beurteilen, habs noch nicht gesehen.
TobiWahnKenobi
2022-09-28, 21:26:09
hat was von motionflow oder zwischenbildberechnung bei fernsehern.. und das braucht ne 4000er karte, weil die alten modelle das einfach nicht rocken oder weil nvidia was exklusives als feature für die neuen karten braucht??
(..)
mfg
tobi
Neurosphere
2022-09-28, 21:27:21
https://cdn.videocardz.com/1/2022/09/SPIDEREMAN-DLSS3.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-4090-performance-showcased-in-digital-foundrys-first-look-at-dlss-3-technology
crux2005
2022-09-28, 21:31:07
https://cdn.videocardz.com/1/2022/09/SPIDEREMAN-DLSS3.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-4090-performance-showcased-in-digital-foundrys-first-look-at-dlss-3-technology
Sicher ist es nicht perfekt. Aber offline AI Renderer können es nicht besser oder schneller. NV hat 3-10ms Zeit um so ein Bild per AI zu generieren.
Topaz Cronos V3 mit dem Slowmo preset brauchte für Spiderman ~750ms auf der Ryzen 5950X CPU laut DF. Und liefert ein schlechteres Ergebnis.
why_me
2022-09-28, 21:53:44
Topaz Cronos V3 mit dem Slowmo preset brauchte für Spiderman ~750ms auf der Ryzen 5950X CPU laut DF. Und liefert ein schlechteres Ergebnis.
Wieviel TFLOPs hat eine 4090, wieviel der 5950X? ;)
crux2005
2022-09-28, 21:55:29
Wieviel TFLOPs hat eine 4090, wieviel der 5950X? ;)
Die TLFOPs müssen auch noch das Spiel rendern. :rolleyes:
basix
2022-09-28, 22:14:12
Die Optical Flow Engine hat laut Nvidia 400 TFLOPs ;)
Meridian12
2022-09-28, 23:34:04
Die 4080er gibt es ja noch nicht zu kaufen, aber was macht NVIDIA auf die Verkaufskartons drauf?
4080 16Gb und 4080 12GB?
So dass jeder Uninformierte denkt, er bekäme die gleiche Grafikkarte, nur halt mit 4GB weniger?
Jetzt kann man natürlich sagen, in der Preisspanne ist jeder Käufer darüber informiert. Aber Fakt ist, komplett unterschiedliche Grafikchips an der Speichergröße zu unterscheiden ,grenzt fast an nicht strafbaren Betrug.
crux2005
2022-09-28, 23:37:50
Jetzt kann man natürlich sagen, in der Preisspanne ist jeder Käufer darüber informiert. Aber Fakt ist, komplett unterschiedliche Grafikchips an der Speichergröße zu unterscheiden ,grenzt fast an nicht strafbaren Betrug.
https://europa.eu/youreurope/citizens/consumers/unfair-treatment/unfair-commercial-practices/index_en.htm
Viel Glück.
Laut EU Recht muss es auf dem Etikett oder der Webseite (E-Shop) genug Informationen geben damit du dich "richtig entscheiden kannst".
Troyan
2022-09-29, 00:14:00
The two versions will be clearly identified on packaging, product details, and retail so gamers and creators can easily choose the best GPU for themselves.
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/
BlacKi
2022-09-29, 00:16:35
https://cdn.videocardz.com/1/2022/09/PORTAL-FRAMETIME-1536x423.jpg
Und wer ist der Kerl? Nvidias PR Manager? Ich wurde da abwarten bis neutrale "Leute" das getestet haben, klar will Nvidia die Panik jetzt klein spielen, die wollen diese überteuerten Karten ja auch loswerden. dir ist schon klar, das professionelle sich in videos am anfang vorstellen, damit leute wie du wissen wer dort redet? aber hey, kein problem, ich helf dir diesmal aus.
https://abload.de/img/screenshot2022-09-29akyey9.png
Warum verweigerst du dich dem Offensichtlichen?
Man merkt, dass du gar nicht mehr argumentieren willst, sondern dich komplett dumm stellst (ich gehe mal davon aus, dass das bei dir Absicht ist, oder etwa nicht ).
nVidia begeht eine Art von Betrug, weil es eine Namensbezeichnung nutzt, die suggeriert, dass das Produkt, das diesen Namen erhält, in der Tradition steht, die nächste Leistungssteigerungsform des Vorgängers zu sein!
Dem unbedarften Kunden wird das nicht sofort auffallen, dass das dieses Mal überhaupt nicht mehr zutrifft, und eigentlich eine Leistungsverschlechterung damit einhergeht (bezogen auf den Vorgänger).
Der Kunde hat das Geld und will kaufen, wird aber absichtlich dazu verleitet eine Ware zu kaufen, die eine reine Mogelpackung ist, und nicht mehr der alten Tradition folgt. Sowas kann man und sowas wurde auch schon durchaus Betrug genannt.
Der Kunde müsste also Detailwissen haben, welches selbst Profis erst umständlich in Erfahrung bringen müssen, um überhaupt eine Entscheidung über den Nichtkauf treffen zu können. Ich gehe davon aus (und nVidia auch ), dass das der mit Abstand größte Teil der Käufer nicht hat.
Also, warum sollte man dann, wenn man selber um die Umstände weiß, dies nicht anderen mitteilen?
Das ist doch die wichtige Frage hier!
Warum regen sich derzeit so viele Personen, die ganz offensichtlich aus dem Bereich der "Fans" von nVidia kommen, so darüber auf, dass auf diese Umstände hingewiesen wird?
Diese Frage, und die Frage, warum immer einige Accounts nur dann aktiv werden, wenn eine "Heilige Kuh" geschlachtet werden soll, sollte uns wirklich interessieren.
ich kann dir nicht folgen, wo nv kunden verarscht. die argumente die du bringst sind an den haarenherbeigezogen. die 4080 12gb und 16gb performen ihrem preis ensprechend. eine gewisse verwirrung herrscht bei der namensverbung, 2x 4080 direkt zum start finde ich unglücklich, aber da es auch 2x 3080 modelle gab ist das ja nichts neues.
unl34shed
2022-09-29, 00:51:37
[The two versions will be clearly identified on packaging, product details, and retail so gamers and creators can easily choose the best GPU for themselves.
"Clearly identified on package" - da stehen 12 und 16GB groß sichtbar drauf und man kann sie klar unterscheiden
"product details" - Specs stehen ja auf der Nvidia Website. Auf der Verpackung steht das wenn überhaupt im Kleingedruckten, wo keiner nachschaut, sind ja beides "4080"
"in retail" - da stehen auch 12 und 16GB auf dem Karton und dem Preisschild, schon kann man sie ganz klar auseinander halten...
Nichtssagendes Marketing blabla um die Kundenverarsche schön zu reden :rolleyes:
Man hätte halt auch einfach 4070 und 4060Ti drauf schreiben können, dann wäre es für den Kunden irgendwie ersichtlicher...
E:
dir ist schon klar, das professionelle sich in videos am anfang vorstellen, damit leute wie du wissen wer dort redet? aber hey, kein problem, ich helf dir diesmal aus.
Professionell hätte man dazu gesagt, oder irgendwo geschrieben, dass er der Director of R&D für die Netzteile bei Corsair ist. Ein aus dem Marketing oder der Hausmeister arbeitet auch bei Corsair... deren Aussagen sind allerdings weniger wert.
Schade, dass er nich auf die Strombelastbarkeit eingeht und warum der Stecker so auf Kante genäht ist...
crux2005
2022-09-29, 01:05:28
"Clearly identified on package" - da stehen 12 und 16GB groß sichtbar drauf und man kann sie klar unterscheiden
"product details" - Specs stehen ja auf der Nvidia Website. Auf der Verpackung steht das wenn überhaupt im Kleingedruckten, wo keiner nachschaut, sind ja beides "4080"
"in retail" - da stehen auch 12 und 16GB auf dem Karton und dem Preisschild, schon kann man sie ganz klar auseinander halten...
Nichtssagendes Marketing blabla um die Kundenverarsche schön zu reden :rolleyes:
Man hätte halt auch einfach 4070 und 4060Ti drauf schreiben können, dann wäre es für den Kunden irgendwie ersichtlicher...
Diese Diskussion ist einfach Mühselig. Auch habe ich hier als einer der ersten (vielleicht nicht ganz der erste, lese nicht alle Beiträge) geschrieben das in der Vergangenheit x60er Karten ~50% der ALUs des top-DIE hatten.
Aber das ist einfach Kapitalismus 1x1. Wenn du etwas kaufst ohne dich zu erkunden bist du selber schuld. Nicht das ich NV in Schutz nehmen will aber so einfach ist das eben.
Es ist ersichtlich (abgesehen davon stehen oft irgendwo auf dem Karton oder Etikett auch die Anzahl der CUDA Cores) für den Kunden was er kauft. Punkt.
Meridian12
2022-09-29, 01:22:39
Diese Diskussion ist einfach Mühselig. Auch habe ich hier als einer der ersten (vielleicht nicht ganz der erste, lese nicht alle Beiträge) geschrieben das in der Vergangenheit x60er Karten ~50% der ALUs des top-DIE hatten.
Aber das ist einfach Kapitalismus 1x1. Wenn du etwas kaufst ohne dich zu erkunden bist du selber schuld. Nicht das ich NV in Schutz nehmen will aber so einfach ist das eben.
Es ist ersichtlich (abgesehen davon stehen oft irgendwo auf dem Karton oder Etikett auch die Anzahl der CUDA Cores) für den Kunden was er kauft. Punkt.
Nein,es ist schlichtweg Kundenverarschung.
Es gibt keinen,wirklich KEINEN Grund, beide Karten 4080 zu nennen.KEINEN.
Das ist eine absolute Sauerei, was NVIDIA da gemacht hat. Haetten sie 4080 light die 12 GB genannt,ok.
Aber neiun, man gibt ihnen den gleichen Namen, obwohl es sich nichtmal um denselben Grafikchip handelt.
Nein, NVIDIA verh'lt sich hier absolut asozial.
Normalerweise m[ssten die Leute die 4080 12 GB reihenweise kaufen und wegen Kundenverarschung nach dem auspacken zurueck schicken, damit NVIDIA einen Haufen gebrauchte Kundenverarschungskarten hat.
BlacKi
2022-09-29, 01:23:01
Professionell hätte man dazu gesagt, oder irgendwo geschrieben, dass er der Director of R&D für die Netzteile bei Corsair ist. Ein aus dem Marketing oder der Hausmeister arbeitet auch bei Corsair... deren Aussagen sind allerdings weniger wert.
Schade, dass er nich auf die Strombelastbarkeit eingeht und warum der Stecker so auf Kante genäht ist...
wenn er nicht für corsair, den netzteilhersteller, der richtige mann wäre, würde man ihn sicher nicht die marke präsentieren lassen.
angeblich ist er ein sehr bekannter netzteil guru, der nun für corsair arbeitet.
warum der stecker so belastet wird, wurde schon erwähnt. und das kann man sich auch denken. du kennst die super kleinen pcbs von den founders edition? wie willst du da 4x 8 pin unterbringen? wie willst du da für möglicherweiß 800w karten 5 x 8pin unterbringen? die stecker müssen nunmal kleiner werden und überwacht.
das ist ja auch nichts was sich nv ausgedacht hat, sondern nv wollte, das pci sig ppl gedanken darüber machen, wie man mehr power über den stecker bekommt. nv hat dann das übernommen was pci sig sich ausgedacht hat.
und am ende ist der 16pin stecker genauso haltbar wie der 8 pin stecker, laut spec.
https://youtu.be/EvsPZA8CkBY?t=145
Badesalz
2022-09-29, 07:28:10
warum der stecker so belastet wird, wurde schon erwähnt. und das kann man sich auch denken. du kennst die super kleinen pcbs von den founders edition? wie willst du da 4x 8 pin unterbringen? wie willst du da für möglicherweiß 800w karten 5 x 8pin unterbringen? die stecker müssen nunmal kleiner werden und überwacht.
Garnicht? Wer kann sich denn nicht vorstellen, daß außer irgendwelchen vollverstrahlten Pseudonerds das keiner daheim haben will? Keine 5x 8pin und auch keine 16pol, keine Mini-PCBs die auch keine annehmbar leise Kühlung tragen können und überhaupt keine 800W Grafikkarten.
Wenn man das im industriellen Umfeld benötigt, nimmt man SXM(2). Dann passt das. Oder OAM. Eine MI250 mit 500W TDP kommt dann mit 2x8pol bestens aus. Sowas will keiner der es braucht als senkrechte Steckkarte haben. Und wer es nicht braucht, braucht auch keine neuen Stromstecker.
Tangletingle
2022-09-29, 08:04:47
Johnny guru hat Jahre lang eines der größten Portalen betrieben das sich nur mit Netzteilen befasst hat.
Johnnyguru.com kennen aber wohl nur noch Veteranen. Seit 2021 ist die Website leider aus dem Netz verschwunden und damit ein riesiger Schatz an NT Reviews aus knapp zwei Jahrzehnt. Johnny hat die Seite aber schon bei seinem Gang in die Industrie an einen der Mods verkauft. Der hat die Domain damals leider einfach auslaufen lassen und auch die Daten nicht geteilt.
https://web.archive.org/web/2019*/www.johnnyguru.com
warum der stecker so belastet wird, wurde schon erwähnt. und das kann man sich auch denken. du kennst die super kleinen pcbs von den founders edition? wie willst du da 4x 8 pin unterbringen? wie willst du da für möglicherweiß 800w karten 5 x 8pin unterbringen? die stecker müssen nunmal kleiner werden und überwacht.
2*8pin mit anderer Pinbelegung hätten doch völlig ausgereicht. Eps ist auch nix anderes. Wer aber nicht will der wird schon seinen Grund haben.
Tangletingle
2022-09-29, 08:12:05
Dp...
wolik
2022-09-29, 08:14:41
Wie weit ATX 3.0 Spezifikation wichtig für 4090? Es gibts nur von Thermaltake ATX 3.0 spezifizierte Netzteile.
Ich habe mir Thermaltake ToughPower GF3 1350W bestellt.
https://geizhals.de/?cat=gehps&xf=360_1000%7E4174_ATX+3.0
ChaosTM
2022-09-29, 08:26:35
NV zieht diese Sachen schon seit Jahren ab und es wird gefressen. Diesmal ist man imho aber zu weit gegangen bei Karten in dieser Preisklasse. Aus Marketing Sicht aber "verständlich".
Für eine `70er hätte man diesen Preis nicht abrufen können. ;)
Wenn ich an meinen "3080"M denke - aber da wusste ich natürlich Bescheid und hab das wegen der 16GB trotzdem gefressen.
Hätte auch 3070ti heißen müssen.
Dural
2022-09-29, 09:23:54
Witzig sind ja die die meinen die 4080 12G sei eine 4060Ti oder 4070.
Es gab in der ganzen Geschichte von Nvidia keine einzige xx60Ti oder xx70 mit einem vollen xx104 Chip. Keine einzige Karte, mir fällt jedenfalls keine ein. Wenn man schon sowas sagt wäre die Bezeichnung 4070Ti sicher deutlich zutreffender, aber auch nicht wirklich sinnvoll.
Die die das sagen meinen damit doch sicher die 192Bit, die 192Bit von Ada haben aber überhaupt nichts mit einer 192Bit Karte zb. vor 5 Jahren zu tun, überhaupt nichts.
Ich finde die Namensgebung auch nicht gut gelöst, ich kann die Beweggründe von NV aber wenigstens verstehen. Wenn einer meint die armen Kunden vor grossen Fehlkäufen zu bewahren bitte nur zu. Wenn einer denkt das nur 4GB fast 400.- ausmachen, meinetwegen. :freak:
Edit:
Die Aussage es ist ja nicht mal die gleiche GPU finde ich auch recht Süss. Ich meine NV hätte ja einfach auch einen ad103 mit 7680SP und 192Bit hernehmen können, der Unterschied ist genau wo?!?
unl34shed
2022-09-29, 09:45:21
ich kann dir nicht folgen, wo nv kunden verarscht. die argumente die du bringst sind an den haarenherbeigezogen. die 4080 12gb und 16gb performen ihrem preis ensprechend. eine gewisse verwirrung herrscht bei der namensverbung, 2x 4080 direkt zum start finde ich unglücklich, aber da es auch 2x 3080 modelle gab ist das ja nichts neues.
Beide 4080 performen nicht ihrem Namen entsprechen...
- Das sind die mit Abstand teuersten 80er Karten und dabei auch mit Abstand die langsamsten (relativ zum TopTier).*
- Die 3080 12GB war ein Refresh nach über einem Jahr und der Performanceunterschied liegt vielleicht bei 5%, ähnlich den Super Karten, hier sind es 20% (--> eine ganz andere Leistungsklasse!)
- Oder als Grafik, wo sich die beiden 4080er in Relation zum TopChip zu anderen 80er Karten einordnen.*
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80678&stc=1&d=1664382914
Einordnung anhand der TFlops zum TopChip*
*Das ist sogar noch zugunsten Nvidias bei der 4000er Gen. mit 4090 als Referenz, bei den anderen mit dem FullChip, also Titan oder 80Ti/90Ti.
Mit einem Full AD102 sieht es noch schlechter aus und man kann noch mal 10 Prozentpunkte abziehen, denn selbst die 4090 ist mit nur 88% aktiven SMs relativ klein geraten (3090 hat 97% SMs, )
Witzig sind ja die die meinen die 4080 12G sei eine 4060Ti oder 4070.
Willst du wirklich behaupten, das da oben sind 80er Karten?
Tangletingle
2022-09-29, 09:52:20
Wer es als Chart nicht versteht kann es hier auch noch Mal in Textform nachlesen:
It is far worse than 12GB 4080 should be called 4070...
It is actually a 4060ti (https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/)
Dural
2022-09-29, 09:55:53
Die Tflops kannst du mit Ada kaum noch mit den Vorgänger vergleichen.
Selbst bei den NV eigenen Benchmarks kommen Flops nicht auf den Bildschirm an.
Wieso und weshalb werden erst echte Benchmarks zeigen.
ChaosTM
2022-09-29, 09:57:49
Beide 4080 performen nicht ihrem Namen entsprechen...
- Das sind die mit Abstand teuersten 80er Karten und dabei auch mit Abstand die langsamsten (relativ zum TopTier).*
- Die 3080 12GB war ein Refresh nach über einem Jahr und der Performanceunterschied liegt vielleicht bei 5%, ähnlich den Super Karten, hier sind es 20% (--> eine ganz andere Leistungsklasse!)
- Oder als Grafik, wo sich die beiden 4080er in Relation zum TopChip zu anderen 80er Karten einordnen.*
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80678&stc=1&d=1664382914
Einordnung anhand der TFlops zum TopChip*
*Das ist sogar noch zugunsten Nvidias bei der 4000er Gen. mit 4090 als Referenz, bei den anderen mit dem FullChip, also Titan oder 80Ti/90Ti.
Mit einem Full AD102 sieht es noch schlechter aus und man kann noch mal 10 Prozentpunkte abziehen, denn selbst die 4090 ist mit nur 88% aktiven SMs relativ klein geraten (3090 hat 97% SMs, )
Willst du wirklich behaupten, das da oben sind 80er Karten?
Der Shader Unterschied der 4090er zur 80er ist diesmal einfach zu groß.
Das ist bestenfalls eine 3070ti.
Aber man hat dafür noch mehr als genug Platz für eine 4080Ti/Max whatever in ein paar Monaten. Dass man sich ganz oben für den Refresh einer Titan oder TI noch Spielraum lässt versteh ich aber.
unl34shed
2022-09-29, 10:05:34
Die Tflops kannst du mit Ada kaum noch mit den Vorgänger vergleichen.
Selbst bei den NV eigenen Benchmarks kommen Flops nicht auf den Bildschirm an.
Wieso und weshalb werden erst echte Benchmarks zeigen.
Deswegen vergleicht man ja auch nur untereinander und nicht zwischen den Generationen. Wenn Ada generell nicht die Flops auf die Straße bringt ist es dann auch egal ;)
Die Relationen, wieviel Leistung vom TopChip eine entsprechend Leistungsklasse haben sollte ändert sich dadurch aber nicht oder dass es so einen Unterschied zwischen den beiden 4080er Karten gibt.
maximus_hertus
2022-09-29, 10:25:58
Wait for the Benchmarks. Dann sehen wir, was die beiden 4080er können.
Vor allem 3080 10GB vs 4080 12GB wird interessant. Da wird man wohl nichts von 2x Performance sehen.
Meridian12
2022-09-29, 10:30:03
Aber man hat dafür noch mehr als genug Platz für eine 4080Ti/Max whatever in ein paar Monaten.
Ich verrate dir jetzt schonmal den Namen. 4080 20GB :D
robbitop
2022-09-29, 10:30:59
Beide 4080 performen nicht ihrem Namen entsprechen...
- Das sind die mit Abstand teuersten 80er Karten und dabei auch mit Abstand die langsamsten (relativ zum TopTier).*
- Die 3080 12GB war ein Refresh nach über einem Jahr und der Performanceunterschied liegt vielleicht bei 5%, ähnlich den Super Karten, hier sind es 20% (--> eine ganz andere Leistungsklasse!)
- Oder als Grafik, wo sich die beiden 4080er in Relation zum TopChip zu anderen 80er Karten einordnen.*
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80678&stc=1&d=1664382914
Einordnung anhand der TFlops zum TopChip*
*Das ist sogar noch zugunsten Nvidias bei der 4000er Gen. mit 4090 als Referenz, bei den anderen mit dem FullChip, also Titan oder 80Ti/90Ti.
Mit einem Full AD102 sieht es noch schlechter aus und man kann noch mal 10 Prozentpunkte abziehen, denn selbst die 4090 ist mit nur 88% aktiven SMs relativ klein geraten (3090 hat 97% SMs, )
Willst du wirklich behaupten, das da oben sind 80er Karten?
Sehr anschaulich dargestellt. Hatte ich vor vielen Seiten ja auch schon numerisch anhand der Verhältnisse der SPs SKU/Top Dog gezeigt.
Zeigt sehr deutlich, dass die diesjährige 4080 16 GB eigentlich von der SP Menge eher eine 4070 ist und die 4080 12 GB eigentlich eine 4060 / ti ist.
Man muss nur einen höheren Namen geben und schon sind die Preise höher. Mal schauen, ob der Trick auch bei Autos funktioniert. BMW könnte den 3er in Zukunft 5er nennen und für 5er Preise verkaufen und den 1er nennen sie 3er. :D
why_me
2022-09-29, 10:33:04
Man muss nur einen höheren Namen geben und schon sind die Preise höher. Mal schauen, ob der Trick auch bei Autos funktioniert. BMW könnte den 3er in Zukunft 5er nennen und für 5er Preise verkaufen und den 1er nennen sie 3er 5er. :D
fixed that for you :biggrin:
BlacKi
2022-09-29, 10:38:38
Beide 4080 performen nicht ihrem Namen entsprechen...
- Das sind die mit Abstand teuersten 80er Karten und dabei auch mit Abstand die langsamsten (relativ zum TopTier).*
Willst du wirklich behaupten, das da oben sind 80er Karten?
ja, aber ich stelle diese einordnungen auch in frage. weil ich es generell falsch finde nach dem namen nach zu kaufen, weil man noch nie gut am namen abschätzen konnte, wie gut die karte ist. das tangiert mich halt einfach garnicht. von mir aus können sie die karte auch 5090 ti super + nennen. deshalb kauf ich trotzdem karten anhand der performance.
Badesalz
2022-09-29, 10:57:07
BMW hat schon was ähnliches. U.a. ein "320" war schon lange kein 2,5L und nannte sich trotzdem so ;) Da stimmte aber wenigstens halbwegs die Leistung zu dem früheren 2,5L.
VAG dachte sich später Motorleistungsklassen für das Heck aus. 25, 30,35,40... :freak:
In der Art macht Nvidia das jetzt wohl auch :wink: Alter Schinken (wobei sofort klar wird, daß der Autor nur aus der publizistischen Not kein "verarschen" im Titel genutzt hat :tongue:)
https://www.heise.de/meinung/Kommentar-zu-RTX-4000-Grafikkarten-Nvidia-wen-wollt-Ihr-veralbern-7273912.html
ChaosTM
2022-09-29, 11:11:42
Ich verrate dir jetzt schonmal den Namen. 4080 20GB :D
Das wäre ja praktisch "Understatement". Undenkbar.. Its Jensen!
Das muss schon eine 4080er Ti/Super/ und für die nächste Zwischengröße, Platz ist ja genug, Hyper or whatever werden. ^^
Dural
2022-09-29, 11:16:48
Der Auto Vergleich ist ja auch lustig, was kostete ein 3er vor 30 Jahren? Was kostet der 3er heute? ;)
unl34shed
2022-09-29, 11:19:33
ja, aber ich stelle diese einordnungen auch in frage. weil ich es generell falsch finde nach dem namen nach zu kaufen, weil man noch nie gut am namen abschätzen konnte, wie gut die karte ist. das tangiert mich halt einfach garnicht. von mir aus können sie die karte auch 5090 ti super + nennen. deshalb kauf ich trotzdem karten anhand der performance.
Du gehst nur von dir (oder uns Nerds) aus. Ja wir können Benchmarks lesen und die Karten anhand der Leistung einordnen, wenn aber jemand uninformiertes im Laden steht und die beiden Schachteln mit 4080 12 und 16GB vor sich sieht, hat die eine nur mehr Speicher und einen unterschiedlichen Preis. Die Leistungsklassen (Namen) sind nun mal da um die Karten Leistungsmäßig einzuordnen.
Milchmädchenrechnung:
Bei Nvidia ist für Gamer der Relevante Part 50 bis 90, also 5 Abstufungen. Die 50er Karten sollten ca. 33% der Leistung einer 90er Karte erreichen, ergo hat jede Leistungsklasse ca. 66%/4=16.5% weniger Leistung.
Ich versteh echt nicht, wie man das ignorieren oder gar schön reden kann... Das ist Kundenverarsche.
E:
Sehr anschaulich dargestellt. Hatte ich vor vielen Seiten ja auch schon numerisch anhand der Verhältnisse der SPs SKU/Top Dog gezeigt.
Zeigt sehr deutlich, dass die diesjährige 4080 16 GB eigentlich von der SP Menge eher eine 4070 ist und die 4080 12 GB eigentlich eine 4060 / ti ist.
Ich versteh nicht, warum das nicht von unseren unabhängigen Medien aufgegriffen wird.
Saugbär
2022-09-29, 11:29:09
Ich verrate dir jetzt schonmal den Namen. 4080 20GB :D
Ganz falsch: 4090 20GB:confused:
Allein der Preis rechtfertigt den Namen ja schon:freak:
Badesalz
2022-09-29, 11:30:05
Das wäre ja praktisch "Understatement". Undenkbar.. Its Jensen!
Das muss schon eine 4080er Ti/Super/ und für die nächste Zwischengröße, Platz ist ja genug, Hyper or whatever werden. ^^Warum denn keine 4085?
Der Auto Vergleich ist ja auch lustig, was kostete ein 3er vor 30 Jahren? Was kostet der 3er heute? ;)
Bezogen auf das was man heute im gleichen Job an Euronen verdient, samt der 1:2 DM Umrechnung? ;)
Soviel mehr wie die 4000er gegenüber den 3000er kosten sollen, soweit konnte ich mich dagegen und leider in der Zeit nicht steigern :usweet:
ChaosTM
2022-09-29, 11:31:35
Das geht natürlich auch. Der Fantasie sind da keine Grenzen gesetzt, solang es besser als 4080 klingt.
Sardaukar.nsn
2022-09-29, 11:34:07
Ich versteh nicht, warum das nicht von unseren unabhängigen Medien aufgegriffen wird.
Weil die Diskussion bzw. die Aufregung an den Haaren herbeigezogen ist. Steht den Herstellern doch völlig frei wie sie ihre Produkte nennen. Grob kann man sagen das die größere Zahl schneller und teurer ist als kleinere Zahl. Wenn man es genauer wissen will kann man sich ja vorm Kauf informieren. Hier wird ja getan als ob 1000€ Grafikkarten wie im Einkauf im Aldi abläuft. Und selbst da wirst du durch Änderungen der Packungsinhalte (https://www.wiwo.de/unternehmen/handel/werner-knallhart-haribo-rama-kleenex-weniger-drin-merkt-ja-eh-niemand/28603588.html#:~:text=Das%20%E2%80%9EHandelsblatt%E2%80%9C%20hat%20j%C3%BCngst%2 0ein,Kosten%20f%C3%BCr%20Rohstoffe%20und%20Verpackungsmaterial.) über den Tisch gezogen wenn du nicht selber aufpasst.
BlacKi
2022-09-29, 11:36:47
Ich versteh echt nicht, wie man das ignorieren oder gar schön reden kann... Das ist Kundenverarsche.
ich rede garnichts schön, ich finde die namensgebung auch nicht in ordnung. ich finde die 4080er karten auch nicht preislich attraktiv. die perf/€ ist nicht attraktiv, aber wenigstens nicht schlechter als bei der 4090. das ist aber kein schönreden.
wenn da draussen jedes jahr blind x080er kaufen, halte ich das für gefährlich und dumm. das ist wie jede generation blind einen neuen 5er zu kaufen, oder alle 2 jahre ein neues iphone, von daher sind die kunden es schon gewohnt verarscht zu werden. das war aber schon immer so...
die diskussion darüber ist echt müßig.
Badesalz
2022-09-29, 11:39:16
Weil die Diskussion bzw. die Aufregung an den Haaren herbeigezogen ist. Steht den Herstellern doch völlig frei wie sie ihre Produkte nennen.DAS hat er nicht bemängelt. Er hat bemängelt, daß die Journalie sich nicht die Freiheit nehmen möchte darüber frei zu berichten (außer wie oben Heise).
In welchem Kontext denn ist dabei etwas an den Haaren herbeigezogen? Hää? :confused: Was ist dein Argument nochmal? An so einigen Stellen läuft es ähnlich oder noch schlimmer ab? Und deswegen solle man bei NVidia jetzt kein Thema draus machen? Dein ernst?
ChaosTM
2022-09-29, 11:41:21
Weil die Diskussion bzw. die Aufregung an den Haaren herbeigezogen ist. Steht den Herstellern doch völlig frei wie sie ihre Produkte nennen. Grob kann man sagen das die größere Zahl schneller und teurer ist als kleinere Zahl. Wenn man es genauer wissen will kann man sich ja vorm Kauf informieren. Hier wird ja getan als ob 1000€ Grafikkarten wie im Einkauf im Aldi abläuft. Und selbst da wirst du durch Änderungen der Packungsinhalte (https://www.wiwo.de/unternehmen/handel/werner-knallhart-haribo-rama-kleenex-weniger-drin-merkt-ja-eh-niemand/28603588.html#:~:text=Das%20%E2%80%9EHandelsblatt%E2%80%9C%20hat%20j%C3%BCngst%2 0ein,Kosten%20f%C3%BCr%20Rohstoffe%20und%20Verpackungsmaterial.) über den Tisch gezogen wenn du nicht selber aufpasst.
Das schrammt auch rechtlich schon sehr nahe an arglistiger Täuschung vorbei, weil eine 10GB 4080er nicht nur punkto Speicher deutlich unterlegen ist.
Als Fanboy kann man das natürlich nicht zugeben. Das ist halt der Unterschied zwischen ebensolchen und "mündigen" Konsumenten.
NV liebt das natürlich an seinen Kunden.. ;)
Troyan
2022-09-29, 11:44:59
Solange die Produkte die beworbenen Eigenschaften haben, ist alles paletti.
Ansonsten wäre auch Dead4 Kundenverarsche, da man die Leistung aus den Reviews auch nur mit der besten Kühlung erreicht.
Badesalz
2022-09-29, 11:48:05
@Troyan
Ja find ich ok. Solange auf der Verpackung in der gleichen größe wie Takt & co., auch die technischen Eigenschaften wie PixelRate und TextureRate draufstehen, bin ich auch dafür.
why_me
2022-09-29, 11:48:53
Wie die Frage, warum es nichts von der Presse gesagt wird, mit whataboutism und einem Link zur Presse versucht wird zu kontern. ;D
ChaosTM
2022-09-29, 11:49:48
@Troyan
Ja find ich ok. Solange auf der Verpackung in der gleichen größe wie Takt & co., auch die technischen Eigenschaften wie PixelRate und TextureRate draufstehen, bin ich auch dafür.
Wenn die Shader Anzahl etc. drauf steht. ja.
und nicht unter einem * irgendwo weit unten in einer Schriftgröße, die selbst die jüngsten Augen nicht mehr lesen können
Badesalz
2022-09-29, 11:53:29
Sie können ja mitbestimmen wie die Verpackung des Partners auszusehen hat und was wie hervorgehoben wird (!)
Da mach ich mir also keine Sorgen ;)
ChaosTM
2022-09-29, 11:59:32
So was sollte eigentlich verpflichtend vorgeschrieben sein um Mogelpackungen zu verhindern. :)
Warten wir mal die Tests ab. Vielleicht boostet die kastrierte "3080"er hoch genug um das Manko (fast?) auszugleichen.
Sardaukar.nsn
2022-09-29, 12:02:49
Es wird sich halt scheinbar gerne künstlich über Nichtigkeiten wie die vermeintlich falsche Namensgebung oder diesen Stecker aufgeregt.
Neurosphere
2022-09-29, 12:08:02
Die Diskussion ist doch eh müßig. Zum einen darf Nvidia die Karten nennen wie sie wollen. Es gibt keine Vorgabe wann eine Karte eine 4070, 4080 oder Titan ist.
Hat NV hier bewusst Namen verwendet um Kunden etwas zu verkaufen was andere Erwartungen wecken würde, ebenfalls ja. Genauso wie sie die Karte 4080 genannt haben hätten sie sie 4060 nennen können, man hat sich aber bewusst für das erste entschieden.
Troyan
2022-09-29, 12:16:48
Einzig die 12GB und 16GB ist Kundenverarsche. Der Name der Karte ist, was er ist.
why_me
2022-09-29, 12:17:38
:facepalm:
Troyan
2022-09-29, 12:20:32
Kundenverarsche ist es einen Prozessor zu verkaufen, der zu Hause bei dem Käufer weniger Leistung liefert, weil derjenige sein Systeme nicht mit der besten Wasserkühlung betreibt.
Keine Kundenverarschung ist es ein Produkt mit einem Namen zu einem Preis zu verkaufen.
Das sollte eigentlich nicht schwer zu verstehen sein.
Badesalz
2022-09-29, 12:27:50
Auch ein normaler Fanboy sollte in der Lage sein zwischen Betrug und Verarsche zu unterscheiden. Sonst muss er sich noch weit tiefer unter dem erwähnten einreihen und sich Hardcore-Fanboy nennen lassen.
PS:
Ja, richtig. Diesbezüglich geht es nie nach oben, sondern immer weiter nach unten.
ChaosTM
2022-09-29, 12:38:39
Einzig die 12GB und 16GB ist Kundenverarsche. Der Name der Karte ist, was er ist.
Die 12 und 16GB sind voll ok. Das steht dick und fett drauf.
Die verarsche liegt im "Kleingedruckten". :D
Jesus...
VooDoo7mx
2022-09-29, 13:02:16
Wait for the Benchmarks. Dann sehen wir, was die beiden 4080er können.
Vor allem 3080 10GB vs 4080 12GB wird interessant. Da wird man wohl nichts von 2x Performance sehen.
Die 4080 12GiB wird wohl auf dem Performance Level einer 3080 10/12GiB sein bzw knapp darüber.
An 3080Ti/3090/3090Ti wird das Teil wohl zu knabbern haben.
Im Emndeffekt bekommt man hier eine 3080 mit besserer Energieeffizienz für mehr Geld. :ugly:
Troyan
2022-09-29, 13:11:26
Die 12 und 16GB sind voll ok. Das steht dick und fett drauf.
Die verarsche liegt im "Kleingedruckten". :D
Jesus...
Hä? Die 12GB existiert, weil sie 16GB Leistung mit 4GB weniger Speicher suggerieren soll. Das ist Kundenverarsche.
Aber auch kein Unterschied zu AMD, die eine 65W CPU zu 105W Preis verkaufen, wenn man die CPU in einem Gehäufe mit Luftkühlung nutzen will. :eek:
robbitop
2022-09-29, 13:24:17
Ich versteh nicht, warum das nicht von unseren unabhängigen Medien aufgegriffen wird.
Also ich habe es in der WAN Show von Linus Tech Tips gesehen. Dort wurde bestimmt 10 min darauf (zu Recht IMO) darauf rumgeritten.
Eine halbe Top Dog GPU ist normalerweise eine 70 und gibt es normalerweise für rund 500 USD. Jetzt ist es eine 80 (16 GB) und gibt es für 1200 USD. Umgelabelt :D
FastAndy
2022-09-29, 13:26:04
Zum einen darf Nvidia die Karten nennen wie sie wollen. Es gibt keine Vorgabe wann eine Karte eine 4070, 4080 oder Titan ist.
Eben, wer hier nun das wort "betrug" in den mund nimmt, ich weiß nicht, was ist los mit euch leute? so unzufrieden?
der neue c63 mit 4 Zylinder müsste sogesehen auch c20 AMG heißen. X-D
wie viele verträge gibt es, bei denen mit preisen geworben wird, die nur wenige monate gelten?
überall wird getrickst, das is alles gang und gäbe
deal with it :smile:
Sardaukar.nsn
2022-09-29, 13:29:02
überall wird getrickst, das is alles gang und gäbe
deal with it :smile:
Zudem gute, alte Nvidia Tradition: https://www.heise.de/newsticker/meldung/Nvidia-fuehrt-Kaeufer-der-GeForce-GTX-970-hinters-Licht-Nur-3-5-statt-4-GByte-RAM-schnell-angebunden-2528588.html
Einer der Links im Artikel führt sogar auf den Thread hier im Board.
why_me
2022-09-29, 13:36:12
Eben, wer hier nun das wort "betrug" in den mund nimmt, ich weiß nicht, was ist los mit euch leute? so unzufrieden
Wer nimmt denn hier das Wort "Betrug" in den Mund? :confused:
Badesalz
2022-09-29, 13:38:41
Also ich habe es in der WAN Show von Linus Tech Tips gesehen. Dort wurde bestimmt 10 min darauf (zu Recht IMO) darauf rumgeritten.
Eine halbe Top Dog GPU ist normalerweise eine 70 und gibt es normalerweise für rund 500 USD. Jetzt ist es eine 80 (16 GB) und gibt es für 1200 USD. Umgelabelt :DDie Mischkalkulation all der Modelle enthält diesmal eben einige weitere Parameter. U.a. die Kosten für die Lagerung der 3000er.
Nvidias gaming division im Panikmodus, ohne AMDs Beitrag. Auch mal was anderes...
@FastAndy
Bei dem 4zy. C63 bekommt man solche Daten sofort sw auf ws geboten. Das hat NULL Zusammenhang mit dem hier. Mal davon ab, daß es ein Hybrid ist und 680PS aufs Asphalt knallt. Was wir daraus also lernen ist, daß Autovergleiche zwar meist bisschen dürftig sind, man ungeachtet dessen aber auch komplett ins Klo greifen kann :uup:
Troyan
2022-09-29, 13:46:28
Zudem gute, alte Nvidia Tradition: https://www.heise.de/newsticker/meldung/Nvidia-fuehrt-Kaeufer-der-GeForce-GTX-970-hinters-Licht-Nur-3-5-statt-4-GByte-RAM-schnell-angebunden-2528588.html
Einer der Links im Artikel führt sogar auf den Thread hier im Board.
Das war doch was anderes. Entspricht AMDs Bulldozer.
Die RTX4080 12GB ist exakt das, was nVidia bewirbt.
DrFreaK666
2022-09-29, 13:57:11
Zudem gute, alte Nvidia Tradition: https://www.heise.de/newsticker/meldung/Nvidia-fuehrt-Kaeufer-der-GeForce-GTX-970-hinters-Licht-Nur-3-5-statt-4-GByte-RAM-schnell-angebunden-2528588.html
Einer der Links im Artikel führt sogar auf den Thread hier im Board.
Die GTX1060 nicht vergessen.
Die gab es auch mit 5GB und 160bit Speicheranbindung
... Die RTX4080 12GB ist exakt das, was nVidia bewirbt.
Lass die albernen CPU-Vergleiche. Fallen dir keine Grafikkarten ein?
Und du weißt ganz genau was das Problem mit den beiden RTX4080 ist. Sie unterscheiden sich nicht nur mit der Anzahl GB, das weiß der Mediamarkt-Käufer aber womöglich nicht
Ex3cut3r
2022-09-29, 14:05:21
Eben, wer hier nun das wort "betrug" in den mund nimmt, ich weiß nicht, was ist los mit euch leute? so unzufrieden?
der neue c63 mit 4 Zylinder müsste sogesehen auch c20 AMG heißen. X-D
wie viele verträge gibt es, bei denen mit preisen geworben wird, die nur wenige monate gelten?
überall wird getrickst, das is alles gang und gäbe
deal with it :smile:
Jetzt mal im ernst, wie viel Geld bekommst du von Nvidia mtl. aufs Konto? :biggrin:
just4FunTA
2022-09-29, 14:05:43
Zudem gute, alte Nvidia Tradition: https://www.heise.de/newsticker/meldung/Nvidia-fuehrt-Kaeufer-der-GeForce-GTX-970-hinters-Licht-Nur-3-5-statt-4-GByte-RAM-schnell-angebunden-2528588.html
Einer der Links im Artikel führt sogar auf den Thread hier im Board.
Ach viel krasser fand ich damals das sie einfach eine geforce 2 als geforce 4 verkauft haben. Ein Kollege hatte sich damals so eine gf4mx gekauft und hat sich gewundert warum ein spiel nicht läuft.
Er war ganz schön geschockt als er erfahren hat das die gf4 mx einfach nur eine gf2 ist.Also das war ganz klar Betrug/Täuschung des Kunden.
Dovregubben
2022-09-29, 14:23:28
Der Shader Unterschied der 4090er zur 80er ist diesmal einfach zu groß.
Was heißt zu groß? Eigentlich ist er endlich mal passend mal zum Preis. Die 4090 ist halt ein Halo-Project, das nie in einer vernünftigen Relations zum restlichen Line-up stehen muss.
Cyberfries
2022-09-29, 14:41:12
NBB listet mittlerweile ganze 2(!) 4090 zum Listenpreis, hoch gehts bis 2349€ also +21%.
Da bleibt nur das hoffen auf eine deutliche Antwort der Kaufinteressenten.
Analog zu Zen4: An Tag 1 stellenweise über Liste, seither gehts langsam bergab.
Hä? Die 12GB existiert, weil sie 16GB Leistung mit 4GB weniger Speicher suggerieren soll. Das ist Kundenverarsche.
Leute, an dem Punkt ist die Diskussion vorbei, wenn selbst Troyan das sagt...
der neue c63 mit 4 Zylinder müsste sogesehen auch c20 AMG heißen.
Es gab nie einen C63 mit 6,3l-Motor, war immer nur Werbename. Name=Hubraum gilt seit 25 Jahren nicht mehr.
4080 16GB / 4080 12GB entspräche es, wenn es einen C63 4-Sitzer mit 300ps und einen C63 5-Sitzer mit 400ps gäbe,
also eine nicht direkt zur Leistung beitragende Zahl im Namen des Produkts einen großen technischen Unterschied anzeigt.
ChaosTM
2022-09-29, 14:41:54
Früher gabs da durchaus eine vernünftige Relation zwischen Topdog und 80er.
Bis Jensen "RTX" erfand.. ;)
meine AIB 1080ti hat 750 gekostet. Die 1080er lag irgendwo zwischen 550 und 650.
Ex3cut3r
2022-09-29, 15:11:00
Früher gabs da durchaus eine vernünftige Relation zwischen Topdog und 80er.
Bis Jensen "RTX" erfand.. ;)
meine AIB 1080ti hat 750 gekostet. Die 1080er lag irgendwo zwischen 550 und 650.
Jein. Die 1080 non Ti gings anfangs auch für 750€+ weg. Erst 2017 als die Ti kam, ging der Preis Richtung 550€.
Allerdings war die Ti erheblich schneller, waren im Durchschnitt 25-35% Unterschied. Die normale 1080 hatte auch nur ein 256 Bit Interface und war nur ein 104er Chip.
Die 1070 wiederum ging anfangs auch für 450-550€ weg. Das war immens teuer als der Vorgänger GTX 970 für 320€
Ehrlich gesagt, muss man anerkennen, das auch schon Pascal massiv teuer war als Maxwell. Und das in jeder Performance Klasse.
Turing 2018 war dann nochmal deutlich teurer. Ampere hatte dann zwar billige UVPs auf dem Papier, allerdings wissen wir ja alle, dass die UVPs nur ein Marketing Trick waren, damit Leute ihre Pascals billig auf Ebay und in Foren verticken.
Jetzt mit Ada gibt es nochmal eine Steigerung wieder in jeder Performance Klasse, allerdings ohne Billig Fake UVPs.
ChaosTM
2022-09-29, 15:12:23
Das kommt hin.
Zwischen 4090er und 4080er sollte er deutlich höher ausfallen, sollte das Flagschiff ähnlich gut takten wie die Kleinere.
Sardaukar.nsn
2022-09-29, 15:19:25
NBB listet mittlerweile ganze 2(!) 4090 zum Listenpreis, hoch gehts bis 2349€ also +21%.
Da bleibt nur das hoffen auf eine deutliche Antwort der Kaufinteressenten.
Analog zu Zen4: An Tag 1 stellenweise über Liste, seither gehts langsam bergab.
Die 4090 werden vermutlich alle am 12.10. ausverkauft sein. So günstig wie zum Release wird es dann wohl lange nicht mehr.
r3ptil3
2022-09-29, 15:41:17
Der Euro-Kurs ist wirklich heftig und für Hardware-Enthusiasten der reine Horror.
Der Franken hier in der Schweiz ist mittlerweile deutlich stärker als der Euro (das erste Mal in der Geschichte), was hier auch die Hardware grundsätzlich deutlich günstiger macht (oder machen sollte).
Aber die ehemaligen "guten" Shops setzen auch hier (wie soll ich das nennen) einen Scalper-Aufschlag bereits von Haus auf drauf, sprich die RTX 4090 müsste durch die extrem starke Währung und der 12% niedrigeren Mwst. tiefer sein, ist sie aber nicht, vermutlich eher sogar noch teurer als in DE.
Trotzdem gibt's aber für Enthusiasten sowieso nur eine Option: RTX 4090.
RTX 4080 16Gb ist viel zu schwach gegenüber der 4090 und vom 12Gb sollte man sowieso nicht reden.
Wenn die 4090 mind. 60% (ohne DLSS) über der RTX 3090 Ti liegt und der Verbrauch nicht weit über 400W geht, dann kann es noch einigermaßen interessant werden.
Rampage 2
2022-09-29, 15:43:09
Labern wir jetzt ernsthaft seit zig Seiten (JEDE Seite enthält 50 Postings...) darüber, dass Nvidia (wieder mal) Kundenverarsche betreibt:facepalm::upicard:
Dass Nvidia mit jeder neuen Generation immer frecher wird, ist doch nichts Neues. Und NV wird immer frecher werden - so frech, wie sie es sich erlauben können. (= so lange, wie es der Kunde mitträgt/bis NV den Bogen endgültig überspannt)
Meine Fresse, ich würde hier gerne andere Aspekte von Lovelace diskutieren - z.B. über die architekturellen Veränderungen/Verbesserungen ggü. Ampere. Dann kann man auch bessere Vorhersagen über die letztendliche Leistung (Realleistung in Spielen) treffen... ;)
R2
FastAndy
2022-09-29, 15:49:09
Vielleicht könnte man ja die threads separieren? Preisdiskussionen könnte man doch zB verlagern?
Hier gibt es sicher einige für die das nicht interessiert.
DrFreaK666
2022-09-29, 15:50:47
Das ist ein Speku-Thread. Wenn es Reviews gibt, dann habt ihr eure Daten
r3ptil3
2022-09-29, 16:13:59
https://i.ibb.co/zGdMWyj/image.png
Letztes BIOS-Update für die neuen ASUS X670E Boards.
Man beachte Punkt 3.
Radeonfreak
2022-09-29, 16:22:28
Ich hoffe man braucht kein neues Bios um eine 4090 zum laufen zu bekommen?
:eek::frown:
DrFreaK666
2022-09-29, 16:24:36
was stimmt denn mit der Kompatibilität nicht?
Exxtreme
2022-09-29, 16:31:46
ASUS ist da extrem vage was solche Beschreibungen angeht. :cool: Womöglich Crashes oder WHEA-Fehler oder die Karte bootete gar nicht.
Ex3cut3r
2022-09-29, 16:40:45
Ich hoffe man braucht kein neues Bios um eine 4090 zum laufen zu bekommen?
:eek::frown:
Wirst du mit dem Zen 2 in 1440p nicht sowieso sehr oft CPU limitiert sein?
Radeonfreak
2022-09-29, 16:43:51
Möglich.
Aber wohl kaum in den Spielen die ich so spiele. Und der Prozzi ist schneller als man denkt.
Und ich brauch bloß 60fps.
Aber im Moment habe ich ein GPU Limit, da muss ich auf jeden Fall ansetzen.
r3ptil3
2022-09-29, 16:47:19
Ich hoffe man braucht kein neues Bios um eine 4090 zum laufen zu bekommen?
:eek::frown:
Haha, ich kann mich noch an den 3DMark Thread erinnern und weiss wieso du nicht updaten willst. 😅
Betrifft aber vielleicht nur die X670E Boards aufgrund PCIe 5.0.
Badesalz
2022-09-29, 16:50:43
Meine Fresse, ich würde hier gerne andere Aspekte von Lovelace diskutieren - z.B. über die architekturellen Veränderungen/Verbesserungen ggü. Ampere.Erhebliche Änderungen:
1. In der RT-Leistung. Das wird alles in 2k wohl durchweg spielbar. Wesentlich schneller also.
2. Größte Änderung beim Thema TBPs :wink:
3. Unter glücklichsten umständen könnte es bei den kleinreren Modellen Boost bis 3Ghz geben.
4. Rasterising auf dem 2000->3000er Niveau (wenn beide ohne DLSS).
Sinnige, folgerichtige Schritte, aber da gibt es nichts aufregendes erstmal. Die technolgischen Meilenstein sind aktuell nicht bei den Grakas zu holen.
robbitop
2022-09-29, 16:52:58
Ach viel krasser fand ich damals das sie einfach eine geforce 2 als geforce 4 verkauft haben. Ein Kollege hatte sich damals so eine gf4mx gekauft und hat sich gewundert warum ein spiel nicht läuft.
Er war ganz schön geschockt als er erfahren hat das die gf4 mx einfach nur eine gf2 ist.Also das war ganz klar Betrug/Täuschung des Kunden.
Ganz stimmen tut das aber auch nicht. Geforce 2 war NV10, Geforce 4MX war NV17/18. Deutlich höherer Takt und immerhin die Lightspeed Memory Architecture aus der Geforce 4 (Z-Buffer Kompression, Hirarchial Z etc) und Support für Multisampling Anti-Aliasing.
Was fehlt sind nach DX8 Standard programmierbare Pixel und Vertexshader. Aber das ändert an deiner Grundaussage nichts. Das waren damals die Kernelemente ab der Geforce 3 und es gab ein Geforce 4 Modell was in der Hinsicht auf dem Stand von 2 Jahren davor war.
Radeonfreak
2022-09-29, 16:55:24
Haha, ich kann mich noch an den 3DMark Thread erinnern und weiss wieso du nicht updaten willst. 😅
Betrifft aber vielleicht nur die X670E Boards aufgrund PCIe 5.0.
Jupp. :wink:
Na hoffe ich doch mal.
Mein Gesicht wenn man eine 2k € Karte in den Slot einschiebt, anstöpselt und alles bleibt dunkel möchte hier keiner sehen.
M4xw0lf
2022-09-29, 17:02:48
del
Nazar
2022-09-29, 20:09:48
Solange die Produkte die beworbenen Eigenschaften haben, ist alles paletti.
Ansonsten wäre auch Dead4 Kundenverarsche, da man die Leistung aus den Reviews auch nur mit der besten Kühlung erreicht.
Aber darum geht es doch.
Die "Fans" selber behaupten, dass keine Möglichkeit gibt, die Produkte über die Kernfeatures mit den veralteten Produkten zu vergleichen. Es wurde aber aufgezeigt, dass es sehr wohl eine Möglichkeit gibt, indem man die Leistungsdifferenzen der alten Produkte untereinander, mit denen der neuen Produkte untereinander ins Verhältnis setzt.
Das ist derzeit die einzige Möglichkeit, diese Produkte unterschieden und einordnen zu können.
Selbst wenn irgendwo auf der Verpackung der 4080 16 GB und 4080 12 GB irgendwo die CUDA Kerne aufzählt, wird es dem Kunden überhaupt nichts bringen, weil er diese Leistungsdifferenz gar nicht einzuschätzen weiß.
Das Erste, was der Kunde sieht, es sind beide 4080, kein TI wie >>>üblich<<< bei nVidia zur Einordnung welches das "bessere" Produkt ist.
Der Kunde muss Fachwissen mitbringen, um den Preisunterschied !!nicht!! alleine an den 4GB mehr oder weniger an VRAM ausmachen zu können.
Zumal er auch noch wissen muss, dass die höhere Taktrate, welche auf der Verpackung der 4080 12 GB hierbei eigentlich schlechter und nicht besser bedeutet.
Das alles ist nVidia auch bekannt!
Würde nVidia ernsthaft an die Kunden als "Kunden" denken, und auch wissen, dass diese "Kunden" ihrem alten Namensschema zur Einanordnung von Leistung folgen, um ein Branding und die darin gelernte Aussage zu nutzen, dann würden sie nicht nur 4080 16GB und 4080 12GB auf den Karton drucken, wohl wissend, dass es mindestens noch eine 4090 16GB (aka 4080 real) geben wird (ich vermute, um Prozessen aus dem Weg gehen zu können, wird nV das tunlichst vermeiden und es wird noch eine 4090 20GB (aka 4080Ti und eine 4090 16GB (aka 4080) geben).
Der Kunde verlässt sich also auf nVidias alte Prägungen, dass sich bei nVidia Leistungsunterschiede im Wesentlichen mit "Ti" oder "nicht Ti" ausmachen lassen. Ebenso wird sich nVidia auf eben dasselbe verlassen und hoffen, dass die "doofen" Kunden eine vollkommen überteuerte 4060Ti oder 4070 kaufen werden.
Ich vermute, dass wir mindestens für die Lovelace-Generation, damit der Betrug von nV nicht zu offensichtlich wird, nicht mehr Ti auf den GPU Kartons lesen werden können. :wink:
Thunder99
2022-09-29, 20:11:07
Jupp. :wink:
Na hoffe ich doch mal.
Mein Gesicht wenn man eine 2k € Karte in den Slot einschiebt, anstöpselt und alles bleibt dunkel möchte hier keiner sehen.
Naja, deine SIG sagt nicht aus, dass du ein Zen 4 hast ;D :weg:
Die "schwache" 4080 16GB ist wohl dem geschuldet, damit es noch ein Refresh geben kann mit 84SM und mehr TDP/Takt :confused:
Wann sollten die Reviews online gehen?
Radeonfreak
2022-09-29, 20:12:10
Vermute mal am 5ten.
Exxtreme
2022-09-29, 20:15:53
Ich vermute, dass wir mindestens für die Lovelace-Generation, damit der Betrug von nV nicht zu offensichtlich wird, nicht mehr Ti auf den GPU Kartons lesen werden können. :wink:
Naja, Betrug würde ich das nicht nennen. Denn Betrug ist es erst dann wenn ein Produkt die zugesicherten Eigenschaften nicht erfüllt. Wobei ich sicherlich die absicht dahinter vermute, dass Leute ein Produkt kaufen sollen, welches sie eigentlich nicht so erwarten. Ansonsten kann ja jemand dagegen klagen. Dann werden Gerichte entscheiden ob das Betrug ist oder nicht.
Sardaukar.nsn
2022-09-29, 20:33:13
Man hat doch von der ersten Vorstellung an klar gemacht das es die 12GB Version (dunkelgrün) eine andere Perfomance hat. Das ist keinem entgangen und wurde auch nicht verschleiert.
https://www.notebookcheck.com/fileadmin/_processed_/1/a/csm_geforce_rtx_40_series_gaming_performance_1b72dbfc9f.png
ChaosTM
2022-09-29, 20:35:04
Schon, aber es sollte auch auf der Packung stehen. Diese 4080er ist keine 4080er..
Und.: den Unterschied zwischen der 80er und 90er glaub ich keine Sekunde, sorry.
add.: und der dumme Graph mit "x" Angaben anstatt % Werten..
Badesalz
2022-09-29, 20:38:35
Ich dachte wir haben uns auf Verarsche geeinigt? Muss man sowas auf 3DC überhaupt unbedingt rechtskonform benennen? Verarschte fühlen sich anschliessend eben oft betrogen...
Rechtlich ist da aber oft wenig zu machen. Dafür hat nicht nur Nvidia eine entsprechende Abteilung um sowas rechtssicher zu gestalten.
unl34shed
2022-09-29, 20:48:03
Man hat doch von der ersten Vorstellung an klar gemacht das es die 12GB Version (dunkelgrün) eine andere Perfomance hat. Das ist keinem entgangen und wurde auch nicht verschleiert.
Richtig und die Info hat natürlich jeder, der sich irgendwo im Laden eine Grafikkarte aus dem Regal nimmt? Nein haben sie nicht. Das wird nicht im Shop neben den Grafikkarten hängen oder auf die Box gedruckt werden. Da steht 16GB und 12GB und beides sind 4080, also für den DAU gleichwertig. Ist es so schwer über den Tellerrand zu schauen? :confused:
Und bevor jetzt kommt: "Aber man kann ja Reviews vor dem Kauf anschauen!!!111". Da es keine 12GB FE gibt bezweifle ich aktuell sehr stark, dass es Launchbenchmarks zur 12GB Version geben wird und man bei schnellen Googeln erstmal mit 4090 und 4080 16GB Reviews überschwemmt wird. Was bestimmt nicht von Nvidia beabsichtigt ist...
crux2005
2022-09-29, 20:49:00
Schon, aber es sollte auch auf der Packung stehen. Diese 4080er ist keine 4080er..
Und.: den Unterschied zwischen der 80er und 90er glaub ich keine Sekunde, sorry.
add.: und der dumme Graph mit "x" Angaben anstatt % Werten..
NV entscheidet was eine 4090 oder eben 4080 ist. Nicht du. ;)
ChaosTM
2022-09-29, 20:49:17
Wie das wirklich ausgeht, werden die Tests zeigen. Wenn die "kleine" richtig gut boosted, könnte der Unterschied überschaubar sein
@ Crux - natürlich nicht :)
r3ptil3
2022-09-29, 21:23:10
So habe ich mir das vorgestellt.
https://cdn.wccftech.com/wp-content/uploads/2022/09/NVIDIA-GeForce-RTX-4090-Custom-Graphics-Cards-Listed-at-Newegg-US.png
Sardaukar.nsn
2022-09-29, 21:33:51
...die Info hat natürlich jeder, der sich irgendwo im Laden eine Grafikkarte aus dem Regal nimmt? Ist es so schwer über den Tellerrand zu schauen? :confused:
Man sollte eigentlich nicht von sich und seiner Sippe auf die Allgemeinheit schließen.
Aber mal ernsthaft, welchen dummen Bonzen nimmst du denn gerade in Schutz der sich komplett uninformiert eine 1000$ Grafikkarte, wie einen ALDI Joghurt in den Einkaufswagen legt?
unl34shed
2022-09-29, 22:04:55
Jetzt feiern wir auch noch Nvidia als Robin Hood, weil das Multi-Milliarden Dollar Unternehmen dem dummen uninformierten Bonzen das Geld aus der Tasche zieht... :facepalm:
Mal ehrlich kann man nicht verstehen, dass es bei sowas ums Prinzip geht? Wir alle sind potentielle Kunden und werden hier Gen after Gen verarscht. Das auch noch mit den bescheuertsten Ausreden zu verteidigen und gut zu heißen... welchen Nutzen habt ihr bitte davon? Das hat doch echt was vom Stockholmsyndrom... :confused:
PS: Warum muss man eigentlich immer gleich persönlich angreifen, gehen die Argumente aus? Waren eigentlich ja noch nie da... :rolleyes:
DrFreaK666
2022-09-29, 23:32:58
Man hat doch von der ersten Vorstellung an klar gemacht das es die 12GB Version (dunkelgrün) eine andere Perfomance hat. Das ist keinem entgangen und wurde auch nicht verschleiert.
https://www.notebookcheck.com/fileadmin/_processed_/1/a/csm_geforce_rtx_40_series_gaming_performance_1b72dbfc9f.png
Uns ist es nicht entgangen. Meinem Nachbar über mir aber sicherlich schon
mr coffee
2022-09-29, 23:40:19
Wie viele drauf reinfallen ist doch erst mal egal. Es geht doch hier um die Intention von nVidia, und der kann man doch sicherlich nichts Gutes abgewinnen.
Badesalz
2022-09-30, 06:32:05
Uns ist es nicht entgangen. Meinem Nachbar über mir aber sicherlich schonDu willst über das reale Leben mit den jemandem aus einem Forum durch seine Filterblase reden. Rate mal wie erfolgreich sowas sein kann...
Du kannst noch 25 Beiträge dazu schreiben. Der wird sich immernoch winden wie der König der Aals.
Blase
2022-09-30, 09:16:15
Wie viele drauf reinfallen ist doch erst mal egal. Es geht doch hier um die Intention von nVidia, und der kann man doch sicherlich nichts Gutes abgewinnen.
Genauso ist es!
MfG Blase
MiamiNice
2022-09-30, 10:17:46
Deutsche Mentalität par excellence :facepalm:
:popcorn:
Sardaukar.nsn
2022-09-30, 10:49:54
Das neue Corsair Kabel ist schon mal gelistet. Leider noch kein Händler, aber folgt wohl bald: https://geizhals.de/corsair-psu-cable-type-4-600w-pcie-5-0-12vhpwr-cp-8920284-a2818819.html
https://gzhls.at/i/88/19/2818819-l0.jpg
Badesalz
2022-09-30, 10:58:04
Sieht mal richtig schick aus. Bald wird man das innere des DaddelPCs nicht von einem Industrieschaltschrank unterscheiden können.
Platos
2022-09-30, 11:03:54
Deutsche Mentalität par excellence :facepalm:
:popcorn:
Und deine Mentalität ist was? Je teurer desto besser, weil man sich damit besser profilieren kann?
Meridian12
2022-09-30, 11:10:30
Eigentlich ist die 4090 aktuell mindestens 1000 Euro zu billig.
NVIDIA müsste die ganzen Leute,die jeden Preis zahlen für das neuste von NVIDIA, ordentlich ausnehmen im ersten Monat. Danach kann man die Preise auf Normalpreis ruhig senken :D
dildo4u
2022-09-30, 11:33:54
Preis passt NV ging von Mining Stückzahlen aus es sollte genug GPUs geben, die 4090 ist ja auch weit weg von den 18k Cores die der Chip maximal hat.
The_Invisible
2022-09-30, 11:35:16
@Meridian12
Genauso wie man Neuwagenkäufer ausnimmt (außer eventuell Dacia), einmal starten und die Kiste ist ein paar 1000er weniger wert, die Leute kaufen trotzdem ; )
Die Preisdiskussion ist echt müßig, könnte man genauso führen warum LG 25k für seinen 97" OLED nimmt wenn der 83er nur 8k kostet, Highend ist immer teuer.
Sardaukar.nsn
2022-09-30, 11:40:21
@The_Invisible: Da stimme ich auf jeden Fall zu. Was aber bei diesem Launch schon etwas seltsam ist, die xx90er Karte hat scheinbar das beste Preis/Leistungsverhältnis :rolleyes:
Meridian12
2022-09-30, 11:58:14
@Meridian12
Genauso wie man Neuwagenkäufer ausnimmt (außer eventuell Dacia), einmal starten und die Kiste ist ein paar 1000er weniger wert, die Leute kaufen trotzdem ; )
Ganz schlechter Vergleich. Der Neuwagen ist nach der Zulassung (Kauf ist zweitrangig wenn nicht zugelassen für den Wiederverkauf) nunmal ein Gebrauchtwagen. Der neue Besitzer ist Zweitbesitzer.
Das ist genauso relevant wie bei Grafikkarten,wenn die ausreichend verfügbar sind.
Bei limitierten hochpreisigen Autos ist es zB auch egal, ob Zweitbesitzer oder nicht.Wenn die Nachfrage massiv höher ist als das Angebot,kann der Erstbesitzer sogar mehr geld bekommen als er bezahlt hat.
Im Gegensatz dazu wirst du für eine 08/15 NVIDIA 3060 für 400 Euro nach dem auspacken und einbauen auch keine 400 Euro mehr bekommen. Sondern mit Glück 350 Euro.
Fragman
2022-09-30, 12:42:41
@Meridian12
Genauso wie man Neuwagenkäufer ausnimmt (außer eventuell Dacia), einmal starten und die Kiste ist ein paar 1000er weniger wert, die Leute kaufen trotzdem ; )
Die Preisdiskussion ist echt müßig, könnte man genauso führen warum LG 25k für seinen 97" OLED nimmt wenn der 83er nur 8k kostet, Highend ist immer teuer.
Naja, um es mal provokativ auszudrücken, die 4090 ist nicht das High End wie beim TV Vergleich. Das wäre dann eher der Vollausbau. Die 4090 ist hier das 83-er Model, die 97 Zoll Version kommt erst noch, dann als Titan. Die Preise dafür könnten dann leicht Richtung 3500 Euro gehen.
Aber macht eh keinen Sinn drüber zu reden da dank Ampere die Preise verzerrt sind. Das haben wir im TV Bereich ja so nicht. ok, genug getrollt... :D
The_Invisible
2022-09-30, 13:39:34
Mir gings da jetzt hauptsächlich um die Kaufgewohnheiten und das Auto ist das beste Beispiel dafür das Leute gerne "Geld verbrennen" für gewisse Produkte, die Autohersteller könnten die Karren nämlich auch viel günstiger anbieten ; )
>2k ist aber auch mir zu viel und ich hoffe das es mehr Leute so sehen weil dann wird der Preis eh fallen müssen, ich gönne es aber jeden der sich so eine Karte zulegt und warte auf deren Berichte
FastAndy
2022-09-30, 13:44:35
Korrekt. Zumal das für viele ein hobby ist und da schauen viele nicht so aufs geld. NV ist sich dessen bewusst. :)
Sardaukar.nsn
2022-09-30, 13:54:46
Equippr hat jetzt auch gelistet https://www.equippr.de/computer-elektronik/pc-komponenten/grafikkarten/nvidia-geforce-rtx/?p=1&o=8&n=120&f=116953
Proshop mit 15+ Strix am Lager, klingt schon mal vernünftig: https://www.proshop.de/Grafikkarte/ASUS-GeForce-RTX-4090-ROG-STRIX-OC-24GB-GDDR6X-RAM-Grafikkarte/3106488
Meridian12
2022-09-30, 13:59:09
Was kann die Asus für 520 Euro mehr als andere Karten zur UVP?
FastAndy
2022-09-30, 14:00:34
Da kann man aber auch nicht vorbestellen. meint ihr die shops stellen um 0 uhr schon um? wobei ich wenig lust habe länger aufzubleiben wegen pc krempel.
Exxtreme
2022-09-30, 14:01:30
Was kann die Asus für 520 Euro mehr als andere Karten zur UVP?
Das steht ASUS auf der Schachtel. ;D
Wahrscheinlich wieder so ein OC-Modell.
Sardaukar.nsn
2022-09-30, 14:05:01
Da kann man aber auch nicht vorbestellen. meint ihr die shops stellen um 0 uhr schon um? wobei ich wenig lust habe länger aufzubleiben wegen pc krempel.
Ich befürchte nicht, las überall was mit 12.10. ab 15 Uhr. Schade ich würde auch gerne ohne Stress was verbindlich vorbestellen.
@Meridian12: Jetzt wo es mit EVGA keinen Mitbewerber mehr ganz oben gibt, kann Asus wohl die Preise nehmen.
Meridian12
2022-09-30, 14:10:57
OC Modell heisst dann, dass die Karte 600 Watt verbrät und dadurch höhergetaktet wird :D
Ex3cut3r
2022-09-30, 14:49:23
Das Corsair Dingens Kabel sieht ja echt mächtig aus, scheint auch biegsamer zu sein, als die Konkurrenz. Interessant.
Frage mich echt, wie viele hier wieder mal enttäuscht sein werden, weil entweder das Kabel für ihr NT ausverkauft ist, und/oder die 1000 FEs zur UVP wieder innerhalb 3 Minuten Wegsein werden. Wenn man Pech hat, sind auch relativ schnell die Customs für 200-500€ Aufpreis ausverkauft. Am besten die Arbeit schwänzen, bzw. krank melden damit man in Ruhe bestellen kann.
BiG OnE
2022-09-30, 14:52:42
Das neue Corsair Kabel ist schon mal gelistet. Leider noch kein Händler, aber folgt wohl bald: https://geizhals.de/corsair-psu-cable-type-4-600w-pcie-5-0-12vhpwr-cp-8920284-a2818819.html[/URL]
Vielen Dank für die Info!
unl34shed
2022-09-30, 14:58:25
Das Corsair Dingens Kabel sieht ja echt mächtig aus, scheint auch biegsamer zu sein, als die Konkurrenz. Interessant.
Das ist doch gerendert
FastAndy
2022-09-30, 15:14:08
weiß man schon den maximal erlaubten verbrauch der strix?
Das ist doch gerendertdas sind dann die selbsternannten dlss profis:biggrin:
Ex3cut3r
2022-09-30, 15:20:23
:rolleyes:
Natürlich ist es gerendert. Trotzdem ist es ja gebogen auf dem Bild. Das soll mit anderen Adapter/Kabeln problematisch sein. Wenn Corsair das im Werbebild so anpreist, gehe ich davon aus, dass es widerstandsfähiger ist, als andere Kabel der Konkurrenz. Kann aber natürlich alles nur Marketing sein.
r3ptil3
2022-09-30, 15:23:16
weiß man schon den maximal erlaubten verbrauch der strix?
Gegenfrage: Ist das bei 450W default noch relevant?
Glaube kaum, dass jemand bewusst da noch am Default-Powerlimit + 20% draufhauen möchte.
FastAndy
2022-09-30, 15:24:28
Gegenfrage: Ist das bei 450W default noch relevant?wie meinst denn das? ich will sie komplett offen betreiben. denke nicht das nur 450w da reichen.
Troyan
2022-09-30, 15:25:13
nVidia gibt offiziell bis zu 660W frei - siehe Founders Edition. Sollten also für alle Karten auch offen sein, wenn man 600W per Kabel zuführt. Bei 450W (3x8PIN) sind es dann eben wahrscheinlich nur was um die 525W.
Sardaukar.nsn
2022-09-30, 15:26:30
weiß man schon den maximal erlaubten verbrauch der strix?
660 Watt
600 vom neuen Stecker und den Rest vom PCIE Slot. Für 3 Ghz wird man mit 450W wohl nicht auskommen.
Der Sweetspot dürfte aber sicher darunter liegen.
r3ptil3
2022-09-30, 15:29:54
wie meinst denn das? ich will sie komplett offen betreiben. denke nicht das nur 450w da reichen.
Ich meine wer sich 600-700W avg. Verbrauch in einem Büro/Gaming-Raum ernsthaft antun will?
FastAndy
2022-09-30, 15:35:15
660 klingen schon gut:smile:
dem kabeldrama schenke ich weder glauben noch beachtung, nur panikmache für clicks:smile:
meint ihr du funders ist besser als die strix? glaube ich irgendwie nicht, die ist ja schon viel günstiger
Deisi
2022-09-30, 15:38:57
Ich meine wer sich 600-700W avg. Verbrauch in einem Büro/Gaming-Raum ernsthaft antun will?
Dann hat der Mora endlich mal zu tun :biggrin:
Sardaukar.nsn
2022-09-30, 15:44:52
Also wenn du eine FE zur UVP bekommen kannst, ist das sicher die beste Wahl. Das Design ist schon top und die wird auch den besten Werterhalt haben. Ansonsten sind die Chips und die Leistungsaufnahme ja gleich, da wird Asus nicht zaubern können. Vielleicht ein paar °C kühler, aber das macht den Braten auch nicht fett.
Wichtig wird wohl das Gehäuse. Da gibt es mega unterschiede. CB hatte dazu einen ganz spannenden Artikel: https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/
@Deisi so ist es ;)
r3ptil3
2022-09-30, 15:51:47
@Sardaukar.nsn
Eine Strix 3090 bspw. kühlt auf einem anderen Level wie die FE.
Hinzu kommen minderwertige Wärmeleitpads auf der FE und eben (wenn man's braucht) eingeschränktes OC/PL.
Ich würde auf jeden Fall eine Strix vorziehen.
In Sachen Werterhalt steht eine ASUS Strix sowieso sehr gut da und geht auch jetzt zu höheren Preisen gebraucht weg, als eine FE.
Sardaukar.nsn
2022-09-30, 15:56:18
Ich bin gespannt wie es ausgeht. Bei den Pads hat man hoffentlich gelernt, aber der aktuelle DDR6x soll ja auch nicht mehr so heiß werden und Chips auf der Rückseite gibt es auch nicht mehr. Diese Hybrid-Blower Design der FE ist eigentlich ganz gut.
Meridian12
2022-09-30, 15:59:55
Dürfen die Grafikkartenhersteller eigentlich Grafikkarten ohne Lüfter anbieten??
Weil alle Waküuser brauchen die teuren Lüfter nicht.
Das wäre doch mal war, ne nakische GPU,die dann entsprechend kurz sein kann.
Eine extrem kurze mit Lüfter wurde ja hier schonmal gezeigt.Aber keine Ahnung ob das eine Offizielle Karte ist.
r3ptil3
2022-09-30, 16:02:19
Dürfen die Grafikkartenhersteller eigentlich Grafikkarten ohne Lüfter anbieten??
Weil alle Waküuser brauchen die teuren Lüfter nicht.
Das Problem dabei dürfte sein: Die Anzahl der Custom-Wakü-User liegt wohl nur in DE bei nicht mal 50 Leuten für eine RTX 4090.
Sardaukar.nsn
2022-09-30, 16:40:57
Ich werde diese Generation keinen Luftkühler mitkaufen der dann eh nur nutzlos im Schrank liegt. Garantie ist ja auch immer so eine Sache. Nachdem EVGA weg ist erlaubt eigentlich niemand mehr den Umbau. Sicher wird das oft geduldet aber in der Preisklasse wo wir inzwischen sind mag ich so Bastelbuden eigentlich nicht mehr. Zum Glück gibt es wohl zum Launch oder nicht viel später fertige Karten mit zwei 1/4 Zoll Wasseranschlüssen. https://videocardz.net/inno3d-geforce-rtx-4090-24gb-ichill-frostbite
Gigabyte Waterforce wurde auch schon angekündigt, vielleicht kommt auch noch eine MSI Sea Hawk.
wolik
2022-09-30, 17:49:36
Das Corsair Dingens Kabel sieht ja echt mächtig aus, scheint auch biegsamer zu sein, als die Konkurrenz. Interessant.
Frage mich echt, wie viele hier wieder mal enttäuscht sein werden, weil entweder das Kabel für ihr NT ausverkauft ist, und/oder die 1000 FEs zur UVP wieder innerhalb 3 Minuten Wegsein werden. Wenn man Pech hat, sind auch relativ schnell die Customs für 200-500€ Aufpreis ausverkauft. Am besten die Arbeit schwänzen, bzw. krank melden damit man in Ruhe bestellen kann.
Am 12.10 um wieviel Uhr geht Verkauf los?
Sardaukar.nsn
2022-09-30, 17:53:44
15 Uhr
ChaosTM
2022-09-30, 17:57:54
Wenn ich mir eine 90er reinschrauben sollten, dann wird das eine AIW..
Radeonfreak
2022-09-30, 18:11:04
In Ruhe vorbestellen wär schon schön.
why_me
2022-09-30, 18:20:24
Natürlich ist es gerendert. Trotzdem ist es ja gebogen auf dem Bild. Das soll mit anderen Adapter/Kabeln problematisch sein. Wenn Corsair das im Werbebild so anpreist, gehe ich davon aus, dass es widerstandsfähiger ist, als andere Kabel der Konkurrenz. Kann aber natürlich alles nur Marketing sein.
Naja, die Kabel werden so gerendert, weil ein langer schwarzer Strich halt wirklich beschissen aussehen würde. Durch das Verhältnis Länge des Kabels zu größe der Stecker müsste man so weit raus zoomen, dass man die Stecker nicht mehr erkennen kann und es würden alle Adapterkabel gleich aussehen (Schwarzer Strich)
Meridian12
2022-09-30, 18:21:53
Also wenn du eine FE zur UVP bekommen kannst, ist das sicher die beste Wahl. Das Design ist schon top und die wird auch den besten Werterhalt haben. Ansonsten sind die Chips und die Leistungsaufnahme ja gleich, da wird Asus nicht zaubern können. Vielleicht ein paar °C kühler, aber das macht den Braten auch nicht fett.
@Deisi so ist es ;)
Warte mal einen Monat. Dann haben sich die "MUSSICHHABENZUJEDEMPREIS" Leute eingedeckt und dann dürfte es sehr ruhig werden bei der 4090.
Die Zahl der 2000 Euro Kartenkäufer ist nämlich,sehr sehr gering.
Das war bei den Mining Leuten damals wurscht,weil die ja zum Geld verdienen da war.
Wenn da keine künstliche Knappheit erzeugt wird von NVIDIA,dass sie nur wenige 4090 ausliefern, dürfte nach 1 Monate die erste Karte schon für 1850 Euro zu haben sein (Spekulation natürlich)
=Floi=
2022-09-30, 18:22:14
Intel verkauft 8gb vram für 20$ netto.
Ist euch das aufgefallen?
Ex3cut3r
2022-09-30, 18:45:45
Intel verkauft 8gb vram für 20$ netto.
Ist euch das aufgefallen?
Wir reden hier von Nvidia, die dir eine 4080 12GB aka 4070 für mindestens 1100€ andrehen wollen.
Sardaukar.nsn
2022-09-30, 18:48:33
@Meridian12: Wäre natürlich aus Kundensicht gut und wünschenswert. Vielen ist aber noch die Situation vor zwei Jahren vor Auge. Da war man froh überhaupt was abbekommen zu haben. Wer jetzt früh dabei ist, hat zwei Jahre Ruhe. Mining gibt es jetzt nicht mehr so ausgeprägt, dafür haben wir aber eine extreme Inflation. Wenn die so weiter geht sind die 2000€ von heute in zwei Jahren nur noch ~1600€ Kaufkraft wert. Auch blöd.
Den Intel Launch heute in der Mittelklasse halte ich erstmal für ein aus Kundensicht sehr gutes Signal.
Troyan
2022-09-30, 18:50:14
Intel verkauft 8gb vram für 20$ netto.
Ist euch das aufgefallen?
3060 hatte 12 GB für $329.
ChaosTM
2022-09-30, 18:51:30
Intel`s 3060er Klasse GPUs schauen recht gut aus, ja - wenn man die DX10 Leistung/Konsistenz noch etwas besser in den griff kriegt.
Von ADA/Linda`s Midrange Karten wissen wir leider noch nix bzw. wenig.
DrFreaK666
2022-09-30, 18:53:54
3060 hatte 12 GB für $329.
Was kosten die denn aktuell in den USA?
Troyan
2022-09-30, 19:00:14
Kein Plan. Wenn Intel die 19% Mehrwertsteuer mitnimmt, kostet die 770 bei uns mit 8GB soviel wie die 3060...
unl34shed
2022-09-30, 19:01:53
Wir reden hier von Nvidia, die dir eine 4080 12GB aka 4070 für mindestens 1100€ andrehen wollen.
Nein, das ist die 4060Ti, die 4070 ist das 16GB Modell für 1500€
siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13122313#post13122313
Rampage 2
2022-09-30, 19:06:55
Was kann die Asus für 520 Euro mehr als andere Karten zur UVP?
Würde ich auch gerne wissen - nach dem Wegfall von EVGA habe ich die Wahl zwischen ASUS, Gigabyte und MSI (Zotac kommt mir wahrscheinlich nie wieder ins Haus). Mit starkem Fokus auf ASUS. (auch wegen Aura-Sync...)
Können ASUS- oder Gigabyte-GPUs mit dem Arschbrenner umgehen? :confused: (Ich hatte bis jetzt immer Precision X1 benutzt - jetzt auch für meine EVGA 3080 Ti:))
R2
why_me
2022-09-30, 19:07:53
Was kosten die denn aktuell in den USA?
Gehen bei Newegg bei 369$ los, schnell richtung 380-400
https://www.newegg.com/p/pl?N=100007709%20601361654%204814&Order=1
Radeonfreak
2022-09-30, 19:08:26
Können ASUS- oder Gigabyte-GPUs mit dem Arschbrenner umgehen? :confused: (Ich hatte bis jetzt immer Precision X1 benutzt - jetzt auch für meine EVGA 3080 Ti:):
R2
Das hat doch mit dem Hersteller nix zu tun. Der Chip ist doch der selbe. :confused:
Rampage 2
2022-09-30, 19:21:05
Ja, aber jeder Vendor hat seine eigene Hardware- oder Software-Features und RGB-Ansteuerung, von denen die meisten oder zumindest einige dann auch (nur?) von der entsprechenden Software (ASUS = "GPU Tweak" & "Aura-Sync", Gigabyte = "Aorus Engine"/"Xtreme Engine", Zotac = "Spectra", MSI = "Afterburner" a.k.a. "Arschbrenner") angesteuert werden können...? Oder ist die RGB- und Lüftersteuerung beim Arschbrenner vereinheitlicht? :|
Will sagen: Ich will, dass bei meiner GPU die Hardware und die Software voll aufeinander abgestimmt sind, bzw. zueinander "passen". ;) (also volle Unterstützung der Vendor-spezifischen Features)
R2
TobiWahnKenobi
2022-09-30, 19:39:27
wusste gar nicht dass der afterburner überhaupt irgendwas mit rgb anfangen kann. ich steuere mein rgb über icue.
(..)
mfg
tobi
DrFreaK666
2022-09-30, 20:16:21
Gehen bei Newegg bei 369$ los, schnell richtung 380-400
https://www.newegg.com/p/pl?N=100007709%20601361654%204814&Order=1
Das hab ich auch gesehen. Bei uns geht es ab 388€ los
crux2005
2022-10-01, 05:05:40
4070 = 10GB AD104 card, ~85-90% Leistung der 4080 12GB laut MLID ;D
mindestens ~700 USD Preis (also 840€ in EU)
Schnäppchen - Schnäppchen - Schnäppchen :D
https://pics.computerbase.de/1/0/5/1/9/5-8c748eedb342e8c4/1-2160.e03611e5.png
https://pics.computerbase.de/1/0/5/1/9/5-8c748eedb342e8c4/2-2160.aab61200.png
PicLinks bei CB ausgeliehen.:smile:
Sardaukar.nsn
2022-10-01, 09:17:24
https://i.imgur.com/xP6w7oU.jpg
Troyan
2022-10-01, 10:37:49
Jetzt werden die Leaks kommen - hier Geekbench: https://browser.geekbench.com/v5/compute/5596410
Tests reichen von Gleichstand bis 2x mehr Leistung.
OgrEGT
2022-10-01, 10:52:46
https://videocardz.com/newz/geforce-rtx-4090-is-60-faster-than-rtx-3090-ti-in-geekbench-cuda-test
Hier steht was von +60% zur 3090ti...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.