PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Arroganz oder Berechnung?


aths
2025-04-07, 21:17:33
Oder fehlende Konkurrenz?

Wenn ich mich entsinne, gabs bei der 900-er Serie den 970-Skandal, eine Graka die angeblich ein 256-Bit-Speicherinterface hat, tatsächlich aber nur 224 Bits pro Takt übertragen konnte. Oder alternativ 32 Bit, aber nicht beides gleichzeitig. Die 1000-er Serie war dann gut, einige Freunde haben heute noch einen Laptop mit einer mobilen 1650 und zocken ihre Games. 2000-er wurde mit dem Super-Refresh interessant, die 3000-er war ein schönes Upgrade, die 4000-er eher ein Sidegrade das überwiegend mit verbessertem Upsampling lockte und Frame Generation bot, damit Fake-Frames in Benchmark-Ergebnisse einfließen können. Die 4090 erwies sich als teure, aber insgesamt unfassbar starke Karte.

Jetzt bei der 5000-er gibt es ein Mini-Update. Der Launch lief bescheiden gut. Großes Event mit viel Trara, dann keine Verfügbarkeit, Scalper-Preise, 5090-Stromstecker brennen weiterhin ab weil die sehr teure Grafikkarte nicht messen kann wie viel Strom über jede Leitung geht. Kostet so ein Modul fünf oder zehn Euro? Egal, man spart. Einigen GPUs fehlen ROPs, Laptop-Hersteller dürfen alle ihre bereits verpackten Lappis noch mal auspacken und nachtesten. Während Nvidia sagt, mobile 5000-er hätten das ROP-Problem nicht. Auch der Nvidia-Chef erzählt Grütze, 5070 habe angeblich 4090-Performance. Weil er auf einen Benchmark verweist wo mal nicht der VRAM limitiert und das neue Multi-Frame-Generation aktiv ist, also Fake-Fake-Frames mit in die Benchmarks gezählt werden.

Für PhysX fällt der 32-Bit-Support weg.

Teilweise erscheinen die aktuellen Treiber instabil, ausgerechnet bei aktivierter Frame-Generation.

Lars Weinand sitzt bei Gamestar und, naja, macht nicht die beste Figur. Er weiß offenbar nicht wie der Endkundenhandel funktioniert, fragt was native Performance sei und wo man damit hinwolle, und angesprochen auf den 5000-er Launch sagt er, wörtlich, "hat eigentlich alles sehr gut funktioniert".

Stimmt das vielleicht sogar, also aus Nvidia-Sicht?

Nvidia hat immerhin Zeit, mal wieder eine 70-er Ti zu launchen mit 16 GB RAM und schiebt eine 70-er ohne Ti mit 12 GB hinterher. Offenbar ist der Gedanke, zu hoffen dass weniger informierte Käufer bei 5070 (wie schon bei 4070) die Ti-Reviews im Kopf haben und sich günstig die Nicht-Ti kaufen, die erst mal schon schnell genug ist, aber mit ihren 12 GB VRAM eine geplante Obsoleszenz eingebaut hat. Für solche Ideen, da geben sie sich Mühe. Aber GPUs auf vollständige ROP-Ausstattung testen? Nicht wichtig.

Kann ja sein dass sie sich auf ihre AI-Beschleunigung konzentrieren, da absahnen und die Gaming-Schiene nur noch mit minimalem Budget bedienen. Der Einsteiger-Gaming-Markt wird leider gar nicht mehr mit aktuellen Nvidia-GPUs versorgt. Im Highend-Bereich gehts preislich nach oben und zieht dann auch schön den Performance- und Mainstream-Bereich nach oben. Wird ja auch gekauft. Gemeckert, ja, aber dann gekauft. Dies maximal auszunutzen ist gerade der Sinn eines börsennotierten Unternehmens. Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen. Auch damit, mit MFG unsinnige "Benchmarks" zu nutzten, fast so wie damals als Geforce-3-Quincunx-Multisampling-Blurring gegen Geforce-2-4x-Supersampling verglichen wurde um dann zu faseln, dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

Raff
2025-04-07, 21:19:29
Für PhysX fällt der 32-Bit-Support weg.

Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht. *seine 4090 streichelt*

MfG
Raff

Rooter
2025-04-07, 21:42:30
Arroganz oder Berechnung? Imho beides. Wenn man Marktführer ist, kann man sich halt vieles herausnehmen.

https://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-vs-Radeon-RX-480-performance-1.jpg

X-D
MfG
Rooter

crux2005
2025-04-07, 21:52:39
[x] beides.

Meanwhile, Jensen im NV HQ "who did this to me?" :mad: *angryface no space*

aths
2025-04-07, 22:26:36
Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht. *seine 4090 streichelt*

MfG
Raff
Danke für die Präzisierung, Raff, hatte das bisher nur für PhysX mitbekommen.

4090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.

Arroganz oder Berechnung? Imho beides. Wenn man Marktführer ist, kann man sich halt vieles herausnehmen.

https://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-vs-Radeon-RX-480-performance-1.jpg

X-D
MfG
Rooter
Ah, ein Balkendiagramm das nicht bei Null beginnt. Ich war mal im gleichen Raum als jemand (nicht der Chef) von Nvidia sagte, das würde man nicht mehr tun. Ist lange her.

[x] beides.

Meanwhile, Jensen im NV HQ "who did this to me?" :mad: *angryface no space*
Jensen Huang habe ich genau ein mal live reden gesehen, 2004. Da hatte er noch schwarze Haare und verteidigte dass die GeForce auf 32-Bit-Berechnung setzt (statt 24 Bit wie ATI) und er schon an 64 Bit denkt und nachsetzte "Sue me!" Also schon leicht crazy, aber nicht so cringe wie seit einigen Jahren.

ianm
2025-04-07, 23:12:38
Denke auch alle drei Gründe. Wollte zum ersten Mal einen wirklichen High End PC haben, bis auf die GPU ist das auch so. Aber diese Generation lasse ich getrost aus. Gäbe es noch 4090er zum "normalen" Preis, hätte ich sowas gekauft.

Der Fokus geht nun auf alte PC Titel im Backlog und ab und an ein WoW Abo, dafür reicht es massig. Interessantes Neues gibt es für mich im PC Bereich aber nicht wirklich, außer vielleicht Crimson Desert.
Daher ging das Geld nun an Nintendo und in Zukunft vermehrt in den Konsolenbereich. Auch da verdient Nvidia mit, allgemein scheint es denen seit Jahren zu gut zu gehen.

Fliwatut
2025-04-07, 23:16:55
Ich tippe auf "Gamers? I don't give a damn shit". Mit AI wird die Kohle gemacht.

Lawmachine79
2025-04-07, 23:40:13
Danke für die Präzisierung, Raff, hatte das bisher nur für PhysX mitbekommen.

4090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.


Die 4090 ist im Grafikkartenolymp auf einer Stufe mit der 9800 Pro und der 8800GTX.

Generell kann ich das, was Du schreibst, nur teilweise nachvollziehen, denke aber gleichwohl, dass Du Recht hast. Wer nur Highendkarten kauft, wird von NVidia "belohnt". Ich hatte die 3090, 4090, 5090 und von jeder Karte war ich bisher absolut begeistert. Bei der 5090 kann man kaum glauben, dass das Consumertechnik sein soll (und ist es bei dem Preis wohl auch nicht mehr ;)), die Karte ist ein absolut krasses Technikmonster, AMD ist gar nicht mehr im gleichen Produktmarkt unterwegs, das ist wie 911 gegen solides Rennrad. Unter diesem Gesichtspunkt schreibst Du "Unsinn".

Dieser Gesichtspunkt stimmt aber nur für absolutes Highend. Die letzte gute Nichthighendkarte von NVidia dürfte mit viel gutem Willen die 3080 direkt zum Marktstart gewesen sein. Und das ist ja auch gewollt, das viel beschriebene "Upselling": das eine Highendmodell ist megageiles "Habenwill"-Zeug, wer mit dem Zweitbesten zufrieden ist (oder zufrieden sein will) hat direkt nur noch knapp die Hälfte der Performance (oder so ca. 60%) und darunter ist die Abstufung dann wieder super fein. Früher gab es so eine Art "90/10"-Regel, für die letzten 10% Performance muss man nochmal richtig hinblättern. Heute sind es die letzten 40-50%.

Das tut mir leid für die "junge Generation", als ich 20-25 war gab es eine Geforce Ti4200 oder davor eine Voodoo 3 3500, solche "Bang for the Buck"-Karten gibt es nicht mehr. Da ist der Zugang zu PC Gaming schwerer geworden.

ABER auch hier gibt es eine andere Seite: es gibt soviele geile Spiele und Spiele sehen mittlerweile auf mittleren und niedrigen Settings RICHTIG gut aus. Also, wenn man nicht in die "Habenwill"-Konsumfalle tappt, ist die Situation verschmerzbar.

Gouvernator
2025-04-08, 00:13:00
Der Fakt das Endkunden in großem Stil sich selber andere Speicherchips anlöten wollen, zeigt doch den wahren Ausmaß der Arroganz? Was NV abzieht ist doch schon grenzwertig kriminell. AMD übrigens genau so ---> 24Gb zu 9070XT 16Gb Downgrade. Die haben deswegen sogar den 8K Trend zur Grabe getragen, um ja kein Speicher zu verbauen, damit ihr KI Geschäft nicht zusammenbricht.
Das jetzt auch ihre Driver Scheiße sind, liegt ebenfalls am KI Geschäft. Für das was sie im Newsletter im Industrie Bereich anpreisen, müsste eigentlich jeder verfügbarer Praktikant aus dem Gaming zu den Robotern eingeteilt werden.

aths
2025-04-08, 00:27:19
Die 4090 ist im Grafikkartenolymp auf einer Stufe mit der 9800 Pro und der 8800GTX.
Japp. Hatte vorhin schon geschrieben wie skeptisch ich anfänglich war, aber die Fakten sind klar, bei der 4090 hatte ich mich geirrt. Das war ein Sprung. Teuer, aber mit Dampf.

5090: Deren Speicherbandbreite ist absurd, vielleicht irre ich mich auch heute und die 5090 geht als GPU ein in die Geschichte, die richtig lange brauchbar war. Das sind allerdings jeweils Preisbereiche, in denen kaum jemand was kauft.

5060 Ti: Wird es auch als 8-GB-Version geben. 5070: Weiterhin nur 12 GB und je nach Benchmark nur auf Niveau einer 4070 Super. 5080: Schon ganz nett, aber 80-er hieß mal: Kurz vor absolutem Highend. Ist aktuell aber eine ungefähr halbierte 5090. Von 60 zu 80, genau, eine sehr feine Abstufung und kein Modell ist ein rundes Paket. Hoffentlich gibt es eine 5050 mit 8 GB RAM von der dann aber bitte keine 5050 mit 6 GB nachgeschoben wird. (Wenn, dann bitte 5040 nennen und ich werde die Karte feiern.)

Aktuell zocke ich überwiegend Anno 1404. Sieht gut aus und braucht keine moderne GPU. Baldur's Gate 3? Läuft in 1080p auf meinem M2 Macbook Air mit den richtigen Einstellungen noch, da kommt es mir auf die Story an (wird mich der blonde Vampir beißen?) und nicht auf perfekte Grafik.

Dennoch: Beim 5000-er Launch ging richtig viel schief, nach der bereits nicht glänzenden 4000-er Serie (mit Ausnahme der 4090) ein Refresh, der nochmals peinlicher ist (abgesehen von der 5090 die mit 32 ultraschnellen GB VRAM kommt). Nvidia nimmt den Mund voll, der Chef feiert die 5070 als hätte sie die Leistung einer 4090, und dann noch die weiteren Patzer. Vielleicht sogar der schlimmste Launch für Nvidia-GPUs bisher. Gut ich bin Techniker und kein Marketing-Guru, ich hätte einfach gesagt: Leute hört zu, 5000-er wird nicht der Megaknaller aber wir basteln weiter an AI-Funktionien, es gibt mehr Speicherbandbreite so dass die Karten mit zukünftigen CPUs, die mehr Daten liefern, bessser zurechtkommen. Ihr kauft doch sowieso nur noch Geforce, bei dem Level heute kann man nicht mal eben einen krassen Performance-Sprung hinlegen, aber es hat ja noch nicht jeder Gamer eine 4000-er GPU. Wer 3000-er oder älteres hat für den haben wir mit der 5000-er ein ordentliches Angebot.

PHuV
2025-04-08, 00:28:16
090 hielt ich damals für eine dämliche Karte, viel zu teuer und so und nicht mal Ti. Eine 40-er-Serie-Level GTX 980, dachte ich. Später sah ich ein, nicht nur krasses Upgrade zur Vorgängerin 3090, auch generell eine ausgewogene Highend-Karte.

Das spricht jetzt aber nicht gerade für Deine Experise in diesem Bereich, oder? Sorry, da solltest Du bitte tatsächlich mal den roten 3D-Guru streichen.

Man sollte doch immer anhand von Fakten urteilen, und sich nicht von "Gefühlen" leiten lassen. Und Fakt ist, die 4090 war mit den Daten und zum Release hin ein Knaller (und ist es an sich nach wie vor auch noch, bis auf den Preis). Zum Rest sage ich lieber nichts, sorry Aths, Du hast in meinen Augen schon in vielen Bereichen eigentlich den Anschluß verloren, was Dich meiner Meinung nach irgendwie glaubwürdig oder lesenswert macht, daher spare ich mir lieber die Kritik.

x-force
2025-04-08, 00:34:53
Oder fehlende Konkurrenz?

Wenn ich mich entsinne, gabs bei der 900-er Serie den 970-Skandal, eine Graka die angeblich ein 256-Bit-Speicherinterface hat, tatsächlich aber nur 224 Bits pro Takt übertragen konnte. Oder alternativ 32 Bit, aber nicht beides gleichzeitig.

so war es, die screenshots von aufkrawall und mir gingen durch die foren und news.

die 4000-er eher ein Sidegrade das überwiegend mit verbessertem Upsampling lockte und Frame Generation bot, damit Fake-Frames in Benchmark-Ergebnisse einfließen können.

du unterschätzt dlss und (multi)frame gen. jensen hyped es natürlich, aber es ist keine als gold getarnte scheiße.

hast du das mal live gesehen und damit rumgespielt?


Jetzt bei der 5000-er gibt es ein Mini-Update.

die 5000er serie wird ihre performance erst im laufe der zeit zeigen. ich prognostiziere, dass der abstand zur 4000er sich im laufe der zeit verdoppelt.


Leider scheint Nvidia inzwischen so groß, mit nun wirklich allem durchzukommen.

volle zustimmung, das sind nunmal die folgen eines quasi monopols.
damit hast du auch die antwort auf die frage: berechnung


Auch damit, mit MFG unsinnige "Benchmarks" zu nutzten, fast so wie damals als Geforce-3-Quincunx-Multisampling-Blurring gegen Geforce-2-4x-Supersampling verglichen wurde um dann zu faseln, dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

nochmal: hast du damit schon selbst gespielt?
ich war, bevor ich es selbst getestet hatte, mindestens so skeptisch wie du.

->ja, man kann artefakte erkennen, ja man kann unter umständen den input lag bei zu niedriger base fps spüren, aber trotzdem wird das bild fast 4x so flüssig, wenngleich 4x nur mit über >=240hz refresh sinn macht.

edit:
auch wenn du es wahrscheinlich schon oft geöhrt hast:
deine artikel zu af,aa und co damals sind mir noch immer in positiver erinnerung, du hast eine art grundstein gelegt ;)

PHuV
2025-04-08, 00:38:02
hast du das mal live gesehen und damit rumgespielt?
:

nochmal: hast du damit schon selbst gespielt?

Und genau darin liegt doch das Problem, aths spekuliert viel und rät ohne konkrete Erfahrungs ins Blaue hinein, sorry, warum soll man das dann ernst nehmen? Blinder mit Farben und so...
Japp. Hatte vorhin schon geschrieben wie skeptisch ich anfänglich war, aber die Fakten sind klar, bei der 4090 hatte ich mich geirrt. Das war ein Sprung. Teuer, aber mit Dampf.

Und genau das ist mein Kritikpunkt an Dich. Ich habe überhaupt nichts gegen Irren, das passiert jedem, wenn nicht genug Infos da sind und man spekulieren muß. Aber Du hast Dich an der Stelle mehr oder minder bewußt für eine Sichtweise aufgrund des Preises entschieden, und sorry, das ist in allen Belangen unseriös, egal wie Du das jetzt hier für Dich rechtfertigen oder hinlegen möchte. Du wolltst etwas, entgegen der Fakten, darin negativ sehen. Natürlich kann man Nvidia aufgrund einigen Gebahrens negativ eingestellt sein, da kann man nichts objektiv schönreden. Aber man sollte auch nicht unnötig etwas schlechtreden, oder die Technik falsch bewerten, nur weil die Attitüde der Herstellers nicht paßt.
Für CUDA generell (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=621288). Gefühlt ist Blackwell in jeder Hinsicht ein Downgrade, wenn man von MFG absieht.
Warum? DP 2.1, 4:2:2 Video Encoding, 32GB schnellere VRAM, was für VR beschleunigt, bessere und mehr Tensor Cores. Man braucht sich doch nur mal an die Tatsachen zu halten, zu was dann die Gefühle? :confused: Gerade Du bist doch nahe am Geschehen und weißt es doch besser?

Daher, ich hab ja nichts gegen eine gute kontroverse Diskussion, aber wenn jetzt jeder hier nur seine Gefühle und Eindrücke mitteilt, die absolut subjektiv sind, kommen wir hier 0 weiter, und die Diskussion driftet ins Absurde ab.

Und für einen hochkomplexen Vorgang "Arroganz" zu verwenden, halte ich aus vielen Gründen für falsch. Man glaubt immer aus seiner kleinen Perspektive, daß da irgendwo ein großer Mann ist, der dann alles steuert und regelt, so wie es da unten so rauskommt. Ich behaupte mal aufgrund meiner konkreten Erfahrungen im IT-Bereich, daß es weder mit Arroganz noch mit Berechnung zu tun hat, sondern daß es zig Abteilungen gibt, die da versuchen, etwas wirtschaftlich wie gewinnbringend auf dem Markt zu werfen, und man sich aufgrund der Marktmasse und noch aktuell sicheren Weltmarktposition anders fokussiert und dadurch vielfach schlichtweg verzettelt. Kann man so bei allen IT-Giganten unserer Zeit doch gut beobachten.

BlacKi
2025-04-08, 00:49:42
Ich tippe auf "Gamers? I don't give a damn shit". Mit AI wird die Kohle gemacht.
ich verstehe nicht ganz, wie man das anders sehen kann. arroganz gehört doch zum geschäft wenn man produkte verkaufen will. das macht doch jeder hersteller.

der vorwurf von arroganz irritiert mich hier.

es ist der schlechteste launch aus kundensicht so oder so, das marketing versucht einfach zu retten was zu retten ist. dass das bei manchen aufstößt wundert mich nicht, aber auch die versuche seitens nvidia wundern mich nicht.

aths
2025-04-08, 00:59:38
Das spricht jetzt aber nicht gerade für Deine Experise in diesem Bereich, oder? Sorry, da solltest Du bitte tatsächlich mal den roten 3D-Guru streichen.

Man sollte doch immer anhand von Fakten urteilen, und sich nicht von "Gefühlen" leiten lassen. Und Fakt ist, die 4090 war mit den Daten und zum Release hin ein Knaller (und ist es an sich nach wie vor auch noch, bis auf den Preis). Zum Rest sage ich lieber nichts, sorry Aths, Du hast in meinen Augen schon in vielen Bereichen eigentlich den Anschluß verloren, was Dich meiner Meinung nach irgendwie glaubwürdig oder lesenswert macht, daher spare ich mir lieber die Kritik.
Die 4090 war ein teures, stromhungriges Monster in meiner Erinnerung. Soweit ich das sehe, blieb es eine Karte für Liebhaber oder Reiche. Die 8800 GTX oder zuvor Radeon 9800, wie Lawmachine als Vergleich anführt, waren im Vergleich fast schon Mainstream-Karten. Die 4090 hat Maßstäbe gesetzt, vor allem für Reviewer aber bei Privatkudnen eher nur für eine Handvoll Enthusiasten. Technisch herausragend, klar. In der Gamingwelt als tatsächlich genutzte Karte zum Zocken? Scheint mir eher ein Einhorn.

Auch ein Fail beim 5000-er Launch: Nvidia gibt damit an, in den ersten Wochen mehr verkauft zu haben als beim 4000-er Start. Klar, da gab es längere Zeit nur die 4090, die sich kaum jemand kaufte. Bei den 5000-ern, wenn auch nur in so geringen Stückzahlen dass die Scalper sich eine goldene Nase verdienen, auch 5080-er und 5070 Ti. Meine Sicht ist sicherlich voreingenommen, Nvidia lebt anscheinend in einer kompletten Welt der Marketing-Überstunden-Folien.


du unterschätzt dlss und (multi)frame gen. jensen hyped es natürlich, aber es ist keine als gold getarnte scheiße.

hast du das mal live gesehen und damit rumgespielt?
Bisher nicht, nur Reviews gesehen die Eingabelatenz gemessen haben. Ganz ehrlich mich interessieren da nicht die Benchmarks wo 80 fps aufgeblasen werden, da ist das Spiel schon gut spielbar und ob 80 oder 240 fps, das ohnehin schon gute Gefühl kann nur noch ein bisschen besser werden. Weiß nicht ob ein RTX-4000-er Gamer findet, dafür auf eine 5000-er gehen zu müssen. Die Frage wären Spiele mit Settings die deutlich geringere native Frameraten bringen.

PHuV
2025-04-08, 01:09:01
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.

Aber die GPUs verkaufen sich. Und für Nvidia ist Gaming einfach nur noch ein Nebengeschäft, was sich beiläufig noch rechnet. Daß die Produktion einer 5080 mit einem UVP von 1169 € auf absolute Kante genäht ist, hat vermutlich viele, wie mich auch, überrascht.

Wenn sich etwas verkauft, trotz aller Kritik, wo ist die Motivation, dann noch etwas zu verbessern? Wie sagte es mal ein Freund von mir, als ich mit ihm über Windows Anfang der 90er diskutiere, und wie schlecht das OS eigentlich im Vergleich zu anderen ist. "Warum ein gutes Produkt machen, wenn sich das schlechte genauso gut verkauft!". Damit ist eigentlich alles gesagt. Und solange guter Gewinn erwirtschaftet wird, gibt es keinen Grund, es anders zu machen. Traurig, aber wahr. Wie ich oben sagte, man kann diesen Trend bei ALLEN Teckunternehmen sehen, daß ist nicht nur alleine Nvidia, alle US-Unternehmen, auch die Europäischen. Sobald man eine Marktmacht hat, spielt man sie aus, meistens zu Ungunsten der zahlenden Kunden, die kaum Alternativen haben.

Das wird sich erst ändern, wenn der Wind sich für eine Firma dreht, und man gewaltig Anteile am Markt verliert. AI wird noch weiter wachsen und bestimmt noch locker 4-10 Jahre so anhalten, vorsichtig geschätzt.

Daher glaube ich erst daran, daß sich bei Nvidia in der Führungsriege was tut, wenn es, so wie heute bei Intel, fast zu spät ist, und Jensen abtreten muß.

x-force
2025-04-08, 01:11:25
Bisher nicht, nur Reviews gesehen die Eingabelatenz gemessen haben. Ganz ehrlich mich interessieren da nicht die Benchmarks wo 80 fps aufgeblasen werden, da ist das Spiel schon gut spielbar und ob 80 oder 240 fps, das ohnehin schon gute Gefühl kann nur noch ein bisschen besser werden. Weiß nicht ob ein 4000-er Gamer findet, dafür auf eine 5000-er gehen zu müssen.

wie viel hz hat dein monitor?

ich freue mich ziemlich darüber bei cyberpunk auf 1440p mit 3x mfg von 50fps auf 140fps zu kommen, fühlt sich nicht wirklich schlechter als 2x an, was in ~90fps resultiert und sieht auf einem 180hz va wesentlich flüssiger aus.
man stellt einfach den dlls factor so ein, dass die base framerate passt und macht es mit mfg so flüssig es die refreshrate erlaubt.

diese beiden features dlss und mfg alleine sind locker auf dem level von pathtracing, was den einfluß auf die bildqualität angeht und ermöglichen es eigentlich erst pathtracing überhaupt zu nutzen.

PHuV
2025-04-08, 01:17:49
Die 4090 war ein teures, stromhungriges Monster in meiner Erinnerung.
Ok, Du erlaubst Dir also Urteile von etwas, was Du nicht selbst besessen hattest, keinen eigene Tests machen konntest, geschweige denn Dir irgendwie ein Bild machen konntest. Und die Tests hast Du anscheinend auch nicht so richtig genau gelesen und studiert, oder?
Soweit ich das sehe, blieb es eine Karte für Liebhaber oder Reiche. Die 8800 GTX oder zuvor Radeon 9800, wie Lawmachine als Vergleich anführt, waren im Vergleich fast schon Mainstream-Karten. Die 4090 hat Maßstäbe gesetzt, vor allem für Reviewer aber bei Privatkudnen eher nur für eine Handvoll Enthusiasten.
Du hast dann auch nicht mal hier das Forum verfolgt, oder, wo sehr viele sich eine 4090 anschafften, oder? Bei PCGH lag bei einer Umfage die 4090 mit 21% im Besitz, was keine kleine Zahl ist. Das ist deutlich mehr als eine Handvoll.
Update, sogar über 22,25% von 782 Teilnehmer:
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfragen-Q2-1444427/
23.59% bei 907 Teilnehmer
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-GPU-VRAM-1452581/
Später beim Release der RX 9070/XT 10,89% bei 1432 Teilnehmer
https://www.pcgameshardware.de/Umfrage-Thema-136900/News/Community-Umfrage-1468526/
Bei CB das gleiche, 9,6 % mit 5.709 Teilnehmer.
https://www.computerbase.de/news/grafikkarten/gaming-grafikkarten-welche-gpu-habt-ihr-verbaut-und-was-darf-die-verbrauchen.92069/
und hier im 3D-Center gabs bestimmt auch mal eine Umfrage dazu.
Technisch herausragend, klar. In der Gamingwelt als tatsächlich genutzte Karte zum Zocken? Scheint mir eher ein Einhorn.
Sorry aths, das ist in meinen Augen nur schlampig. Willst Du jetzt hier nur unnötig provozieren oder wie? Wie lange bist Du denn hier schon ernsthaft nicht mehr dabei, daß Du zu so einem fahrlässigen und falschen Schluß kommst? Das ist nicht mehr peinlich, daß ist meiner Meinung nach schon erschütternd. :eek:

aths
2025-04-08, 01:27:09
Und genau das ist mein Kritikpunkt an Dich. Ich habe überhaupt nichts gegen Irren, das passiert jedem, wenn nicht genug Infos da sind und man spekulieren muß. Aber Du hast Dich an der Stelle mehr oder minder bewußt für eine Sichtweise aufgrund des Preises entschieden, und sorry, das ist in allen Belangen unseriös, egal wie Du das jetzt hier für Dich rechtfertigen oder hinlegen möchte. Du wolltst etwas, entgegen der Fakten, darin negativ sehen. Natürlich kann man Nvidia aufgrund einigen Gebahrens negativ eingestellt sein, da kann man nichts objektiv schönreden. Aber man sollte auch nicht unnötig etwas schlechtreden, oder die Technik falsch bewerten, nur weil die Attitüde der Herstellers nicht paßt.Man sollte auch nicht voreilig relativieren und mit großen Techgiganten sowie Käufern deren teuersten Produkten zu nachsichtig sein.

Im Weiteren schreibst du, wenn ich das richtig lese, über Komplexität bei großen Konzernen, und dass man sinngemäß nicht immer bösartigen Vorsatz annehmen sollte. Ich sag mal so, am Ende kommen trotzdem verbraucherfeindliche Strategien raus. Warum werde ich für ein Posting kritisiert während du einen milliardenschweren Konzern, bei dem Experten Überstunden schieben um ihr Marketing noch ein bisschen für sie vorteilhafter zu machen, gerade so ohne nach aktueller Gesetzeslage strafbar zu sein, schonst?

Warum ist kritikwürdig wenn meine Sichtweise vom Preis beeinflusst wird? Ja die 4090 war, und ist auch heute noch, eine technische Glanzleistung. Vorgestellt im Oktober 2022, eine Endverbraucher-GPU die nur Nvidia jetzt selbst übertreffen konnte. Chip-Entwickler wie AMD oder Intel kommen auch heute nicht mal in die Nähe. Zweieinhalb JAHRE später. Rede hier nur von der Rohleistung, nicht mal von den On-Top-Funktionen wie DLSS. Nur war das Ding so teuer dass sie auf dem Hardwaremarkt für die allermeisten Gamer in der Frage ob man so eine Grafikkarte kauft, keine Rolle spielte. Die 4090 sieht man aus dieser Perspektive als Kauf für CPU-Reviewer um ein GPU-Limit möglichst auszuschließen, sowie für einige gut betuchte Gamer die dringend in 4K zocken müssen.

Ok, Du erlaubst Dir also Urteile von etwas, was Du nicht selbst besessen hattest, keinen eigene Tests machen konntest, geschweige denn Dir irgendwie ein Bild machen konntest. Und die Tests hast Du anscheinend auch nicht so richtig genau gelesen und studiert, oder?

Du hast dann auch nicht mal hier das Forum verfolgt, oder, wo sehr viele sich eine 4090 anschafften, oder? Bei PCGH lag bei einer Umfage die 4090 mit 21% im Besitz, was keine kleine Zahl ist. Das ist deutlich mehr als eine Handvoll.
Japp, ich habe auch Meinungen über Grakas die ich nicht selbst besitze. Habe eine etwas seltsame Art zu posten aber möchte nicht unntötig provizieren. Die Umfragen, weißt du welche Graka in der letzten Stream-Survey (März 2025) die weit verbreiteste war? RTX 3060.

Ganz genau.

aths
2025-04-08, 01:58:41
wie viel hz hat dein monitor?

ich freue mich ziemlich darüber bei cyberpunk auf 1440p mit 3x mfg von 50fps auf 140fps zu kommen, fühlt sich nicht wirklich schlechter als 2x an, was in ~90fps resultiert und sieht auf einem 180hz va wesentlich flüssiger aus.
man stellt einfach den dlls factor so ein, dass die base framerate passt und macht es mit mfg so flüssig es die refreshrate erlaubt.

diese beiden features dlss und mfg alleine sind locker auf dem level von pathtracing, was den einfluß auf die bildqualität angeht und ermöglichen es eigentlich erst pathtracing überhaupt zu nutzen.
165 Hz auf dem Aorus-Laptop (absurd!), 144 Hz am Desktop, hier den LG-1440p-Monitor aber auf 120 Hz gestellt (damit 60-fps-Youtube-Videos nicht mikroruckeln). Hab eine Asus 4070 Super momentan, Powertarget von 220 auf 154 Watt gesenkt weil ich diesen PC auf leise Luftkühlung optimiert habe.

Hatte kurz Witcher 3 noch mal angefangen (dann fehlte leider die Zeit um wieder in die Story zu kommen), das war bei 120 fps (Settings nicht max, nur mid-high) ziemlich geil.

Zockst du mit Cyberpunk mit Controller?

PHuV
2025-04-08, 02:05:52
Man sollte auch nicht voreilig relativieren und mit großen Techgiganten sowie Käufern deren teuersten Produkten zu nachsichtig sein.
Woraus erweckt sich bei Dir ein Eindruck, daß ich relativiere oder nachsichtig sei? Ich kann - falls gewünscht - Dir das alles darlegen und beweisen und Dir Quellen liefern.

Im Weiteren schreibst du, wenn ich das richtig lese, über Komplexität bei großen Konzernen, und dass man sinngemäß nicht immer bösartigen Vorsatz annehmen sollte. Ich sag mal so, am Ende kommen trotzdem verbraucherfeindliche Strategien raus.
Es kommt auf die Perspektive an. Verbraucherfeindlichkeit bei einem Luxusprodukt ist ebenso keine objektive Wertung, es wird keiner gezwungen, GPUs zu kaufen, oder seine Freizeit mit Spielen zu verplempern.
Was interessiert Dich als CEO, Manager etc. da oben der Verbraucher, wenn er Dir Deine Ware trotzdem abkauft? Du gehst hier aus meiner Sicht mit einer vollkommen falschen Sichtweise ran, um überhaupt das Geschehnis zu kritisieren als vermeidlicher "3D-Guru".
Warum werde ich für ein Posting kritisiert während du einen milliardenschweren Konzern, bei dem Experten Überstunden schieben um ihr Marketing noch ein bisschen für sie vorteilhafter zu machen, gerade so ohne nach aktueller Gesetzeslage strafbar zu sein, schonst?
Du wirst von mir kritisiert,

weil Du neben Dir einen Titel mit 3DCenter Crew & 3D-Guru stehen hast, was eine gewisse "Experise" suggeriert, Du aber offensichtlich nicht hast
das was Du da schreibst, sorry, in vielerlei Hinsicht rein aus dem Bauch raus geschrieben wurde
Du erschreckend große Mängel in Wissen und Fakten aufweist, und mit Fehleinschätzungen und Fehlurteilen um Dich wirfst, daß es in meinen Augen nur noch peinlich ist. Du kennst nicht mal ungefähr die Zahlen selbst hier im Forum, suggerierst aber mit Deinem Titel, daß Du im Namen des Forum schreibst.
Noch erschreckender, durch einfaches normales Mitlesen, was Du anscheinend offensichtlich nicht getan hast, hättest Du die Lücken und mangelndes Wissen ganz einfach auffüllen können, und dann hättest Du eigentlich von Anfang an mitbekommen müssen, daß die 4090 technisch eine gute GPU ist. Es hätte zu Deiner Fehleinschätzung meines Erachtens gar nicht kommen dürfen. Sprich, Du bist eigentlich schon weit von dem Thema entfernt, daß Du Dir überhaupt ein Urteil erlauben könntest.

Und wo schone ich was? Wo sage ich, daß Nvidia fehlerfrei sei? Wenn Du mal hier normal mitlesen würdest, wüßtest Du, daß ich genau das nicht tue. Nur überrascht mich das Verhalten von Nvidia überhaupt nicht, weil das schon zigmal an vielen Gebieten anders vorkam, Microsoft, Oracle, Apple, SAP, nur um mal die Großen zu nennen. Oder heute erst gesehen, nicht auf IT bezogen, Wallraff mit dem Skandal um Kaufland mit den Hygieneproblemen, während der Besitzer der Schwarzgruppe Milliarden scheffelt.

Warum ist kritikwürdig wenn meine Sichtweise vom Preis beeinflusst wird?

Du siehst das wirklich nicht? :eek::confused::rolleyes:
Und genau deshalb finde ich, schon seit Jahren, viele Deine Reviews, die Du hier so schreibst, mangelhaft wie schlecht. Und so wie Du schreibst, glaubst Du noch, wie toll Du das machst.
Negative Erwartungshaltung schaltet bei Dir einen Filter an, und Du hast doch selbst gemerkt, wohin dieser Filter führt. Und dann bist Du ernsthaft überrascht, wie und warum Du Dich geirrt hast?

Und man muß IMMER trennen, Technik von Usabilität, Performance, Leistung und Preis, um wirklich objektiv darzustellen und zu schreiben, besonders in Reviews, sonst taugen sie nichts. Von Gefühlen kann man sich nichts kaufen.

Ja die 4090 war, und ist auch heute noch, eine technische Glanzleistung. Vorgestellt im Oktober 2022, eine Endverbraucher-GPU die nur Nvidia jetzt selbst übertreffen konnte. Chip-Entwickler wie AMD oder Intel kommen auch heute nicht mal in die Nähe. Zweieinhalb JAHRE später. Rede hier nur von der Rohleistung, nicht mal von den On-Top-Funktionen wie DLSS.
Richtig, und das kann man erst mal so objektiv wie möglich betrachten und stehen lassen.

Nur war das Ding so teuer dass sie auf dem Hardwaremarkt für die allermeisten Gamer in der Frage ob man so eine Grafikkarte kauft, keine Rolle spielte.
Das ist doch wieder eine ganz andere Diskussion, die in der technischen Leistung doch erst mal keine Rolle spielt. Du hast eben nicht verstanden, daß die 3090, 4090 und jetzt 5090 das ist, was vorher "Titan" war, nur eben ohne Vollausbau. Wurde ja ausgiebig von Nvidia schlauerweise ab Maxwell ausgetestet, ob sich hier einen Markt findet, und ja, er fand sich.

Und hättest Du das Release damals verfolgt, hättest Du sehen müssen, wie viele sich hier die 4090 zulegten. Ja, natürlich eine Minderheit, aber mich hatte es ehrlich gesagt auch überrascht, wie viele sich trotz des hohen Preises rasch, alleine hier im 3D-Center, eine 4090 kauften.

Die 4090 sieht man aus dieser Perspektive als Kauf für CPU-Reviewer um ein GPU-Limit möglichst auszuschließen, sowie für einige gut betuchte Gamer die dringend in 4K zocken müssen.
Das ist eine mögliche Perspektive, aber nicht die alleinige.
Japp, ich habe auch Meinungen über Grakas die ich nicht selbst besitze.
Kannst Du ja gerne haben, so viel Du willst, solange Du die Meinung für Dich behältst. Richtig mitreden kannst Du erst, wenn Du sie auch mal bei Dir selbst live und ohne Hetze in Aktion erleben kannst.
Habe eine etwas seltsame Art zu posten aber möchte nicht unntötig provizieren.

Das ist jetzt bitte nicht böse oder anfeindend gemeint: Aber mir kommts ehrlich gesagt oftmals sehr abgehoben und weltfremd vor.

Die Umfragen, weißt du welche Graka in der letzten Stream-Survey (März 2025) die weit verbreiteste war? RTX 3060.

Ganz genau.
Ich hab nur die 3060 TI FE hier, die zuerst im Anwendungsrechner war, dann von meinem Sohn als SpieleGPU für Spiderman genutzt wurde, und mir dann prima half, meine 4090 lose Zeit zu überbrücken. Aber ich kann mitreden. ;) Siehste, meine größte Fehleinschätzung der letzten Jahre war definitiv, Lederjacke zu glauben, daß eine 5070 eine 4090 schlägt, und die Dummheit, die 4090 zu verkaufen. Ich irre mich auch. ;) Nur konnte ich es nicht abschätzen, weil ich mich auf die Erfahrungen verließ, daß damals eine 4080 schneller war als eine 3090, oder eine 3070 eine 2080TI schlug.

Badesalz
2025-04-08, 06:40:46
5090: Deren Speicherbandbreite ist absurd, vielleicht irre ich mich auch heute und die 5090 geht als GPU ein in die Geschichte, die richtig lange brauchbar war.Die Multi Flame Generation könnte das verhindern :tongue:

edit:
Letzter Beitrag :uconf3: Fanboys on fire :uup: 95% des Inhalts beschäftigt sich ohne sonstige Inhalte nur mit der Person. Der Highend eines klischeehaften Paradebeispiels des stumpfen Flames. Besser gehts nicht.

Du hast eben nicht verstanden, daß die 3090, 4090 und jetzt 5090 das ist, was vorher "Titan" war
Und da wo es hätte was werden können, kam nur Blödsinn. "Die 3090 ist keine Titan":
https://www.reddit.com/r/nvidia/comments/iovn4f/the_3090_is_not_a_titan_replacement_and_here_is/

Zephyroth
2025-04-08, 08:29:42
NVidia baut inzwischen eben AI-Chips, die sie versucht mit Features wie DLSS & MFG an die Gamer zu bringen...

Grüße,
Zeph

Badesalz
2025-04-08, 08:35:22
@Zephyroth
AMD möchte dem anscheinend folgen. Aus RDNA + CDNA wird UDNA. Nach RDNA5 wars das wohl auch bei denen.

Wenn ich CP77 + Mods + Pathtracing sehe, sehe ich das aber entspannt :rolleyes: Was uns immer zu schaffen machte, sobald es schnell genug war, war das lechzen nach mind. dem gleichen, in einer höheren Auflösung. Wobei mehr Kantenschärfe wieder mehr Flimmern bedeutete. usw. usw. Das hat wieder und wieder die Resourcen aufgefressen.

Mit UWQHD und 4k ist das Thema aber nahezu beendet. Nur VR treibt das noch bisschen an. Sonst wars das weitgehend.

Leonidas
2025-04-08, 08:42:15
.... dass die Geforce 3 damit bei gleicher Qualität sieben mal so schnell wäre. Paar Dullis kaufen dann schon, und diese lesen sowieso kein 3DCenter.

Wie sich die Zeiten manchmal gleichen ;)

Aber ein was hat sich geändert: Seinerzeit hat auch die Presse voll an den Lippen von NV gehangen und haben den Mist mit GF2 vs GF3 teilweise mitgetragen. Heuer nun hat kaum jemand FG in seine regulären Benchmarks einfließen lassen. Teilweise natürlich, weil man mit nur 4 FG-Titeln keinen Staat machen kann. NV ist nachlässig geworden selbst bei diesen Dingen.

PHuV
2025-04-08, 09:03:08
Mir ist noch folgendes eingefallen:
Was an sich auch noch von Dir @aths und vermutlich auch vielen anderen vollkommen verkannt wurde, daß die GPUs x090er GPUs ab Ampere eigentlich semiprofessionelle Workstationkarten sind, mit denen man auch spielen kann. Ich hatte es ja bereits vorher angedeutet, daß der Vollausbau mit den Titans ab Turing eigentlich dafür gedacht war. Das fing ungefähr mit der Titan V Volta mit 12GB HBM2 VRAM (https://www.nvidia.com/de-at/titan/titan-v/) an, Gaming GPU war hier High-End die 1080 TI. Das liest man auch so in vielen Test wie hier:

https://www.computerbase.de/artikel/grafikkarten/mifcom-miniboss-titan-v-test.63516/
Wie schnell ist Nvidias Volta-GPU auf der Titan V in Spielen, Compute und Mining?
:
Jetzt hat die Redaktion die 3.100 Euro teure Grafikkarte im 9.999 Euro teuren Mifcom miniBOSS Core i9-7980XE getestet
:
Die Nvidia Titan V ist keine GeForce, was zur Folge hat, dass Nvidia sie nicht als Muster verteilt. Aus diesem Grund und weil der Preis mit 3.100 Euro selbst für absolute Enthusiasten unter den Spielern astronomisch hoch liegt, hatte ComputerBase bisher auf einen ausführlichen Blick auf diese Grafikkarte mit Volta-GPU verzichtet.
:
Die Titan V basiert auf der eigentlich für professionelle Einsatzzwecke gedachten GV100-GPU und ist trotz 12-nm-Fertigung mit 815 mm² und 21,1 Milliarden Transistoren schier riesig.

https://www.pcgameshardware.de/Titan-V-Grafikkarte-267012/
Die Titan V gehört zur Volta-Generation von Nvidia, die im Jahr 2017 auf den Markt kam. Die für Spieler sehr teure Grafikkarte ist eher für den Profibereich ausgelegt und wird von Nvidia direkt als Referenzdesign verkauft.
Aber am deutlichsten kann man an dem Nachfolger, der Titan RTX "Gold" mit Turing erkennen. Die RTX 2080 Ti war noch eine für Gaming gedachte GPU, die Titan Gold wurde von Nvidia als Workstation GPU mit 24GB (wieder mit DDR6) VRAM beworben (https://www.nvidia.com/de-at/titan/titan-rtx/), und sie war auch arschteuer, aber mit 2700 € hat sie weniger gekostet also die Titan V davor.

https://www.pcgameshardware.de/Titan-RTX-Grafikkarte-268109/News/Laut-weiterem-Review-fuer-Gamer-nicht-sinnvoll-1272120/
Die neue Titan RTX von Nvidia richtet sich zwar offiziell schon nicht an Gamer, doch aufgrund der selbst zu einer Geforce RTX 2080 Ti verbesserten Spezifikationen ist die Leistung der Grafikkarte auch unter Spielen interessant. In einem neuen ausführlichen Review von Gamers Nexus zeigt sich aber, dass die Titan RTX für Gamer kein sinnvoller Kauf wäre.
https://www.computerbase.de/artikel/grafikkarten/geforce-titan-rtx-mifcom-test.66931/
Nvidias Titan-Grafikkarten richtet sich nach ihrem auch für enthusiastische Spieler interessanten Auftakt im Jahr 2013 heute an so genannte Prosumer

Und wo sehen wir die Titans ab Ampere als Vollausbau? Nirgends. Weil Nvidia nicht blöd ist, und sie nicht im niedrigen Prosumer-Bereich verbrät, sondern sie landen alle durchweg in den Profi-GPUs, die ab 8000 € und mehr verkauft werden. Und die 90er-Reihen sind - wie oben bereits erwähnt - eigentlich alles Prosumer GPUs, oder wie ich sage, Workstation-GPUs, mit denen man auch spielen kann. Sie ersetzen quasi die bisherigen Titans in diesem Bereich, und die Titan RTX war die letzte davon. Und wenn man sich dann so die Preise anschaut, haben sie sich seit Volta V eigentlich so gar nicht verändert, bis auf die Tatsache, daß die 3090 wie die 4090 wie eigentlich auch die 5090 per UVP dafür "günstiger" waren. Mit der x090er Reiher wird der genau dieser in der Mitte liegende Bereich gut bedient, und die Gaming-GPUs sind an sich nach wie vor die x080-GPUs und darunter, jedoch steigenden saftigen Aufpreisen.

Nochmals klar gesagt, ich habe hier NICHT meine Meinung kundgetan, sondern nur das wiedergegeben, was sich oben in den Quellen nachlesen läßt, und was sich eigentlich so ab ca. 2018 mit dem Mining Boom abzeichnete. Wenn man an sich aufmerksam die diversen Presseberichte laß, auch vieles im nicht deutschen Bereichen und auf englisch, war der Trend doch klar erkenn und abzeichenbar, und ich habe, damit es nicht zu fett hier wird, nur mal PCGH und CB als Referenzen genommen, da in den anderen Artikeln der Tenor an sich der gleiche ist.
NV ist nachlässig geworden selbst bei diesen Dingen.
Oder der Fokus bzw. Prioritäten hat sich geändert.

Badesalz
2025-04-08, 10:10:37
Es gibt keinen Vollausbau mehr. Von einigem gibts bisschen mehr, aber damit man nicht über 600W kommt musste man die Shader zurückfahren (RTX Pro 6000).

BlacKi
2025-04-08, 10:35:21
Es gibt keinen Vollausbau mehr. Von einigem gibts bisschen mehr, aber damit man nicht über 600W kommt musste man die Shader zurückfahren (RTX Pro 6000).
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.


ich glaube eher, das man für den vollausbau eher die profi karten kaufen soll. upselling auf der letzten stufe.

Badesalz
2025-04-08, 10:40:09
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.Ja. Trotzdem hat die rtx pro 6000 wohl weniger shader als die 5090. Könnte es sein, daß es grundlos ist? :freak: Wenn man hier den Schwerpunkt ggf. wegen HPWR verschieben musste, dann gibt es immernoch keinen Vollausbau, weil halt HPWR limitiert.

Oder halt das doch gefundene letzte Quäntchen vom gesunden Menschenverstand...

edit:
Hat aths überhaupt sich so auf "Vollausbau" und Titan fokusiert? Ich frag mich welche Art von Entgegnung auf seine Thesen das F...oy-Gelaber oben sein soll :|

PHuV
2025-04-08, 10:53:17
so funktioniert das nicht. der verbrauch wird zu 100% über den takt geregelt. und zu 0% über die shader.
Es war an sich doch schon immer so, daß die Pro-Karten in der höchsten Ausbaustufe in Takt und in Stromleistung gedrosselt waren.
ich glaube eher, das man für den vollausbau eher die profi karten kaufen soll. upselling auf der letzten stufe.
Sehe ich auch so, da ja seit Turing keine Vollausbau-GPU mehr für den Con- bzw. Prosumer Markt mehr verfügbar ist, sondern nur noch ausschließlich in den Pro-GPUs in der höchsten Stufe mit entsprechend mehr RAM über HBM kaufbar ist.

Cubitus
2025-04-08, 11:01:34
Ich will den Thread jetzt nicht komplett sprengen, aber nur so viel dazu: PC-Hardware war früher einfach unfassbar teuer – gerade am Anfang.
Als Schüler konnte ich mir das schlichtweg nicht leisten. Deshalb bin ich auf meinen Amiga 1200 ausgewichen – ein absolut geniales Teil damals. Den hab ich mir mit Zeitungsaustragen und ein bisschen Geld zu Weihnachten oder zum Geburtstag zusammengespart.

Dann gab's aber auch mal eine Zeit, in der PCs tatsächlich halbwegs erschwinglich wurden.
Rund um die Ära des ersten Pentiums wurden 486er DX2-Prozessoren regelrecht verramscht. Danke an die Computerbörse in Ulm – das war Gold wert! Klar, Hardware war immer noch nicht billig, aber man konnte sich als Schüler mit Nebenjobs zumindest etwas Vernünftiges leisten.

Und dann die goldenen Bastelzeiten:
Da konntest du mit etwas Glück ein BIOS flashen und aus einer Radeon Pro eine XT machen
– wie genial war das bitte? Selbst Nvidia war damals noch nicht ganz so frech bei den Preisen. Richtig abgedreht wurde es erst später – mit der Titan-Serie fing das Ganze an, seltsam zu werden.

Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.

Und Tastaturen... da scheint der Trend zu sein: Entweder geölt vom japanischen Tastatur-Meister, der seit 50 Jahren nichts anderes macht – oder gleich 1.000 Euro für ein Selbstbaukit. Seriously?

CPUs? Der AMD 9800X3D ist ne geile CPU, keine Frage – aber am Ende ist’s ein 8-Kerner für 500 Euro.
Und dann die größte Abzocke aktuell: Lüfter und AiOs. Ganz vorne mit dabei: Lian Li, Corsair und Co. Sobald da RGB und Daisy-Chaining draufsteht, kostet’s das Zehnfache.
Als ob der Zusammenbau in irgendeiner asiatischen Fabrik mehr als ein paar Cent kostet...

Die einzigen Lichtblicke sind Noctua und Arctic. Die stecken echt viel in Entwicklung und verlangen faire Preise – da bekommt man solide Technik für gutes Geld. So sollte es eigentlich sein.

Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz. Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.

Badesalz
2025-04-08, 11:08:23
Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.Nobel. Nobel geht die Welt zu Grunde.

Dir entgeht aber irgendwie auch der große Plan.

PHuV
2025-04-08, 11:11:32
Ich kann Dir allem nur zustimmen.

Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz.

Und genau das ist das Muster, dem alle folgen. Nimm ein Intel, was sich jahrelang auf seinem Status ausgeruht hast, bis es jetzt zum Knall kam, und AMD für Consumer wie auch für den Probereich bessere CPUs liefert. Und man muß doch nur mal die IT-Geschichte seit den 80ern verfolgen, Marktmacht ist nicht unbedingt auch ein Segen.

Atari Marktmacht in Konsolen -> heute verschwunden
Commodore Marktmacht Homecomputer -> heute verschwunden
Motorola (damals besser als Intel) -> verschwunden
Von NEC, DEC, Sun, Novell fange ich erst mal gar nicht an
IBM kann sich auch nur noch durch die Großrechner im Bankenbereich aus den 60ern bis heute halten
3dfx brauche ich wohl weiter nicht erwähnen


Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.
Das ist zu begrüßen. Aber das wird nicht ausreichen, wenn sie im KI Umfeld nicht entsprechend nachliefern. Oder sie beschränken sich auf den Gaming Markt, und hoffen, daß sie weiter bei Xbox, Playstation und Co. die Hoflieferanten bleiben.

Wenn man sich nur mal Atari, Commodore und 3dfx heranzieht, und deren Firmenhistorie mit Geschehnissen genauer studiert, sieht man immer das gleiche Muster:

Markt erobert
Nachfolgeprodukt wird zu schnell und unvollständig auf den Markt geworfen
Konkurrenz ist schneller und besser wie stärker
Markt und Entwicklung wird vom Management nicht erkannt
Untergang, weil Kosten und Komplexität stark unterschätzt werden

Von Arroganz oder Berechnung als einzelnen menschlichen Charakterzug kann man hier eigentlich nicht sprechen. Eher von der Arroganz einzelner Führungspersönlichkeiten, die aber man eher als blinde und überforderte Ignoranz einordnen kann.

Die Strategie von Nvidia, und das muß man nach wie vor bewundernd trotz all der miesen Dinge anerkennen, ist hier pures Kalkül. Binden der Kunden an ein System durch Cuda, AI, DLSS usw., das sich eben nicht so einfach beliebig ersetzen läßt, gekoppelt mit starker Leistung, wie sie auch immer erzielt wird. Genau den Fehler haben die exemplarisch oben genannten gemacht, sie waren schnell ersetzbar, und daher sind sie entsprechend schnell bei Fehlschlägen verschwunden. Dadurch, daß es Nvidia hier geschickter gemacht hat, können sie Fehlschläge in dem für sich heute kleineren Gamingbereich und auch im Pro Bereich mangels Alternative besser verdauen.

Ob man das jetzt auch "Berechnung" gleichsetzen kann, lasse ich mal dahingestellt.

YeahBuoy!
2025-04-08, 11:33:07
Nobel. Nobel geht die Welt zu Grunde.

Dir entgeht aber irgendwie auch der große Plan.

Ich war leider nicht auf der letzten Illuminatensitzung weil meine Robe in der Wäsche war, hatten wir uns jetzt für Knechtschaft des stinkenden Pöbels durch sinnbefreites Upselling oder blinden Markenfanatismus entschieden? ;)

Wegen meiner kann Jensen scheißen gehen, und mit ihm alle Enabler die die Situation seit Jahren schön reden. Ich hatte mal echt für eine Picosekunde Hoffnung das Intel sich langsam von unten an die Fat cats ran arbeiten kann, aber gibt wohl keinen Aufstand im Schlaraffenland.

@Cubitus: Jup, kann das weitestgehend unterschreiben. Die Pandemie war der große Showcase was Leute mit zuviel Freizeit und liquiden Mitteln willens sind zu bezahlen. Oder welche innovativen Kundengruppen man plötzlich identifizieren und besser abmelken konnte, Stichwort "Prosumer". Nicht das es nicht schon vorher knickerige Kunden gegeben hätte die einfach Consumer GPUs genommen und dann für semiprofessionelle Zwecke, nur eben ohne offiziellen Treibersupport, missbraucht haben.

Bei Peripherie find ichs noch am krassesten wo für Eingabegeräte teils Preise für eine Entrylevel GPU aufgerufen werden. Nein, die Sensoren, Switche, das bisschen Plastik und die 3 LEDs rechtfertigen keine dreistelligen Preise für Mäuse.

BlacKi
2025-04-08, 11:34:27
Und Nvidia? Die machen halt Nvidia-Dinge.
Deren Technik ist top – wenn sie denn funktioniert. Nur: Sie wollen Kappa für AI haben, und TSMC kommt mit der Fertigung nicht hinterher.
Alles wird komplexer, klar – aber Nvidia hat eben aktuell keine echte Konkurrenz. Umso schöner, dass AMD in der Mittelklasse wirklich aktuell was Gutes liefert.
ja, eigentlich sind doch nur die fanboys oder die mit zuviel geld sauer, denn so hat die konkurenz wenigstens noch luft zum atmen.

wenn fsr4 noch etwas besser wird und wesentlich mehr verbreitung findet, dann sind die rdna4 karten super. und in 2 jahren gibts wohl wieder enthusiast gpus. auch wenn die steigerungen nichtmehr denen von früher entsprechen.

redpanther
2025-04-08, 11:59:02
Passt hier vielleicht gut rein, bin über diese Leseprobe gestolpert,
eine Bio von Huang:
https://www.amazon.de/dp/3593520583?tag=spektrumde-21&linkCode=osi&th=1&psc=1

Das Buch habe ich nicht, aber die Leseprobe gibt einem vielleicht einen Eindruck, wie Huang Tickt. Die Leseprobe erzählt sein Leben bis er Anfang 20 ist, praktisch bis zur Gründung NVidias.
Wenn das alles wirklich so passiert ist, eine Filmreife Geschichte.

Zephyroth
2025-04-08, 11:59:32
Und Tastaturen... da scheint der Trend zu sein: Entweder geölt vom japanischen Tastatur-Meister, der seit 50 Jahren nichts anderes macht – oder gleich 1.000 Euro für ein Selbstbaukit. Seriously?

Na ja, ne gute Tastatur ist schon ne Bank, wenn du jeden Tag damit arbeitest... Auch ich hab' eine 150€-Tastatur mit mechanischen Cherry-Switches und würd' nicht mehr darauf verzichten...


Seit der Pandemie haben alle Hersteller irgendwie den Verstand verloren. Beispiel Mainboards:
Früher warst du mit 220 Euro schon im High-End-Bereich unterwegs, gerade bei MSI mit der MEG-Serie. Heute kriegst du für 200 Euro mit Glück ein mittelklassiges Board. Netzteile? Früher waren 200–250 Euro High-End – jetzt geht’s bei 600 Euro erst los.

Bei den Mainboards kann ich's sogar teilweise verstehen. Was da inzwischen drauf ist, vorallem was die VRM's so leisten müssen, das ist schon feine Schaltungstechnik, die früher so einfach nicht notwendig war. Heute hockt ja sogar die SSD schon mit am Mainboard, manchmal sogar zwei...

Aber Netzteile? What? Mein Corsair mit 750W war bei 150€. Keine Ahnung ob das als HighEnd gilt. Es ist halt ein 80plus Gold Netzteil, das leise ist. Passt schon. Was soll da jetzt noch dazu kommen, dass man auf 600€ kommt? Nichtmal 1500W-Netzteile müssen so teuer sein.

Es sei denn das 80+ Gold bezieht sich auf's Kabelmaterial und nicht auf den Wirkungsgrad.

Grüße,
Zeph

Badesalz
2025-04-08, 12:02:21
Ich war leider nicht auf der letzten Illuminatensitzung weil meine Robe in der Wäsche war, hatten wir uns jetzt für Knechtschaft des stinkenden Pöbels durch sinnbefreites Upselling oder blinden Markenfanatismus entschieden? ;)Top :tongue:

Wir haben uns entschieden, daß die "Betirebskosten" so bis ins Unerträgliche getrieben werden sollen, daß der angefixte Pöbel dann freiwillig nach und nach in die Cloud wechselt. Hat gleich mehrere Vorteile.

Erstmal saugen wir sie soweit leer bis auch die letzten langsam anfangen aufzugeben. Bis dahin haben wir die Technologien soweit, daß sie ihr ganzes Ökosystem auch in der Cloud fahren können. Denen wird das schon irgendwann auffallen, daß es sinn ergibt, weil während ihr Netzwerk daheim mit 1Gbit und bestensfalls 2.5Gbit läuft (das bremsen wir aj schon entsprechen ab, seit etlichen Jahren), sie nach draußen mit 10Gbit PON (XGS) verbunden sind. Und 25GPON läuft eigentlich auch schon jetzt. Das wird dafür reichen.

D.h. wir entfernen dadurch all diese mittlerweile lästige Hardware aus dem Heimischen wo keine Sau weiß was sie damit veranstalten (Hacker und ähh... Pädophile) und übernehmen die Aufsicht. Und natürlich den Schutz :tongue:

Sie brauchen nur den Zugang. Den Router also und die "Station" die das darstellen kann was wir in der next gen Ausbaustufe von Cloud-Gaming (GeForce NOW als Beispiel für die ersten Anläufe).
Der Pöbel braucht dann nur noch die Eingbegeräte und ggf. VR-Headsets.

Auch den kompletten Rest an Anwendungsfällen holen wir damit natürlich mit uns rein. Das ist ja auch der eigentliche Sinn dahinter. Gaming ist nur Beiwerk.
Es ist eh schon fast alles an Diensten da.

Und wenn sie zahlenmäßig zu >75% lock-in sind und kaum noch jemand eine eigene richtige HW haben will oder sich leisten kann, DANN schauen wir wie wir die Preise für die jährliche Nutzung optimieren und je nach Anwendungsfall staffeln können.

Wir haben also konstant was zu melken UND endlich wieder die gesamte Kontrolle darüber. Wie es schon vom Anfang an angedacht war, mit Rechenzentrum und Terminal. Bevor IBM mit PS/2 den größten Mist gebaut hat und Compaq es dann auch noch gleich komplett ausarten lies. So finanzieren sie das einfach selbst, unsere endlich zurückgewonnene Kontrolle. Tabletts mit anklickbarer Tasta als Testlauf lief auch schon garnicht so schlecht an. Gemach.

Die Auswertung funktioniert bei der Masse zwar nicht mehr mit klassischen Mitteln, aber die AI-Crawler kriegen das schon hin. Bis zu Präkognition hin. Keine Sorge.

Lawmachine79
2025-04-08, 12:10:03
Das Geheule über NVidia kann ich nicht nachvollziehen. Unternehmen haben keine Persönlichkeit wie "fair" oder "Abzocker" oder was auch immer man an charakterlichen Eigenschaftszuschreibungen zuordnen will. Unternehmen gehorchen Gesetzen des Marktes. Und da gibt es nur zwei Eigenschaften: Gewinner und Verlierer. Und solange NVidia Gewinner ist, werden sie weiter Gewinnerdinge machen (teures Zeug verkaufen, Zorn auf sich ziehen) und solange AMD Loser ist, werden sie weiter Loserdinge machen (billiges Zeug verkaufen, Underdogbonus in der öffentlichen Wahrnehmung). Hatten wir doch alles schon tausendmal.

Man kann sich nicht über NVidias Produktpolitik aufregen ohne sich über AMDs schlechte Produkte aufzuregen (gilt natürlich nur für Grakas; AMDs CPUs sind geiler Scheiss).

Badesalz
2025-04-08, 12:15:48
@Law
Den Mischmasch bringst du da jetzt aber selbst rein ;)
Was sind denn Unternehmen und was die s.g. Firmenkultur? Ob das alles auf Menschen basiert? Die Gesetze welchen sie gehorchen, sind keine Naturgesetze. Das sind Gesetzte die auf menschlichen Verhaltensweisen basieren.

Nvidia will Gewinner sein... Ok. Was ist denn dieser Nvidia? Ein Haufen Gegenstände?

PHuV
2025-04-08, 12:34:19
Das Geheule über NVidia kann ich nicht nachvollziehen. Unternehmen haben keine Persönlichkeit wie "fair" oder "Abzocker" oder was auch immer man an charakterlichen Eigenschaftszuschreibungen zuordnen will. Unternehmen gehorchen Gesetzen des Marktes. Und da gibt es nur zwei Eigenschaften: Gewinner und Verlierer.
Richtig, und so wie Nvidia gingen und gehen bisher alle Teckfirmen vor.

Zitat aus dem oben genannten Buch:

The Thinking Machine: Jensen Huang, Nvidia und der begehrteste Mikrochip der Welt, Seite 10:
Huang denkt nicht wie ein Geschäftsmann, sondern wie ein Ingenieur. Er zerlegt schwierige Konzepte in einfache Prinzipien, die er anschließend auf wirksame Lösungen anwendet. »Ich tue, was ich kann, um nicht vom Markt verdrängt zu werden«, erklärte er mir bei unserem Frühstück bei Denny’s. »Ich tue alles, um nicht zu scheitern.«
Weiter erwähnt werden Jensens Selbstzweifel und seine Angst, seine Angestellten im Stich zu lassen oder seine Familie zu entehren.


Man kann sich nicht über NVidias Produktpolitik aufregen ohne sich über AMDs schlechte Produkte aufzuregen (gilt natürlich nur für Grakas; AMDs CPUs sind geiler Scheiss).
Na ja, schlecht sind sie nicht, immerhin steuert AMD wieder auf 20% Marktanteil, siehe
https://www.3dcenter.org/abbildung/grafikkarten-kaeufe-der-computerbase-leser-bis-mitte-maerz-2025
https://www.heise.de/news/AMD-und-Intel-knoepfen-Nvidia-Marktanteile-ab-10306867.html

In der Biographie wird übrigens erwähnt, daß er seinen den 20ern bei AMD arbeitete. :tongue:

x-force
2025-04-08, 12:43:10
Keine Ahnung ob das als HighEnd gilt. Es ist halt ein 80plus Gold Netzteil, das leise ist.

ne, darüber gibts noch platin und titan. ein 1500w titan liegt bei 400€

165 Hz auf dem Aorus-Laptop (absurd!), 144 Hz am Desktop, hier den LG-1440p-Monitor aber auf 120 Hz gestellt (damit 60-fps-Youtube-Videos nicht mikroruckeln). Hab eine Asus 4070 Super momentan, Powertarget von 220 auf 154 Watt gesenkt weil ich diesen PC auf leise Luftkühlung optimiert habe.

Zockst du mit Cyberpunk mit Controller?

ich spiele cyberpunk mit einer 46gramm 8000hz maus.

und du zockst tatsächlich mit nativer auflösung ohne dlss, ohne fg und damit zwangsläufig stark reduzierten details, damit es überhaupt ansatzweise läuft?

Badesalz
2025-04-08, 13:31:06
Wir werden hier jetzt nicht Jensens Biographie Stück für Stück durcharbeiten :confused: ODER? Was ist das wieder für ein neuer Blödsinn. Und noch ein Zitat und noch ein Zitat... Junge... Lasst uns mal ein Baal-Schrein bauen :uking:
ich spiele cyberpunk mit einer 46gramm 8000hz maus.Die brauchst du dann auch :usweet: Normal kommt es auf zig ms an. Bei deinem Lag gehts um jede mögliche µs die man erwischen sollte ;)

Zephyroth
2025-04-08, 14:01:27
ne, darüber gibts noch platin und titan. ein 1500w titan liegt bei 400€

Weis ich. Macht immerhin bei 24/7 Volllast 180€ Ersparnis im Jahr. Also könnte sich schon rentieren, aber wer außer professionellen Minern hat so eine Rig mit >1000W 24/7 am laufen? Aber für 3h Gamen am Tag rentiert sich Platinum/Titanum wohl kaum. Hab' auch überlegt, aber die Preise sind absurd und für den Einsatz absolut nicht nötig. Zumindest aus technischer Sicht. Die Spiele laufen damit nicht schneller, schöner oder besser.

Grüße,
Zeph

YeahBuoy!
2025-04-08, 14:14:41
Falls Jensen mal einen Assistent á la Mr Smithers braucht, da könnte das 3DC durchaus mal Kontaktdaten austauschen. Da Konzerne nicht meine Freunde sind könnt ihr gerne weiter mit "Winner, Winner, Winner..:" stöhnenden Circle Jerk vorm Jensen Starschnitt weitermachen, ich bin raus.

Halten wir fest: NV tut das was sie machen weil sie es können. AMD tut das in einer runterskalierten Form ebenso. Intel würde gerne, ist aber derzeit auf unfreiwilliger Entwöhnung. Mangelnde Konkurrenz, Gründe erstmal nachrangig, und daher bequeme Oligopole sind hier der entscheidende Faktor. Marketing, dazu zähle ich auch die "Pressearbeit" einiger Influenzer / Youtuber / Webseiten, sorgt für Blue Balls und FOMO bei der leidlich solventen Käuferschaft. Ach ja, und da wären noch Scalper, manche würde diese "Menschen" nennen, die sich ihren von Mund- und Schweißgeruch dominierten Alltag beim Zigarettenstopfen auf dem Wohnzimmertisch damit versüßen teure Hardware in grammatikalisch fragwürdigen Anzeigen wieder unters Volk zu bringen. Die gehören als erstes an die Wand gestellt wenn die Revolution kommt.

x-force
2025-04-08, 14:16:38
um den bogen mal etwas weiter zu spannen, thema berechnung:

ist noch jemandem aufgefallen, dass nvidia ab der 1000er serie angefangen hat die ströme im hintergrund zu limitieren?
gleichzeitig fing das dynamische takten an. ein takt bei einer spannung in jedem szenario gabs nicht mehr. ein bios musste auf einmal signiert sein.
nv beherrscht den chip durch simulationen und berechnungen mittlerweile so gut, dass sie jederzeit den kompletten chip kontrollieren, das hat zu enormen effizienzgewinnen geführt.
das ist vergleichbar mit amds cpu entwicklung.
-> "siliziumlotto" gibt es nicht mehr, da nv für jeden einzelnen chip weiß welcher takt bei welcher spannung und gegebener auslastung stabile ergebnisse liefert und den herstellern über bios signierung alles diktiert.

ein beispiel aus der praxis:

cp2077 3250mhz bei 1,04v, perf_reason powerlimit, obwohl der voltage slider auf +100 steht, also 1,07v erlaubt sind und der verbrauch stabil bei 320w von erlaubten 350w liegt.

Weis ich. Macht immerhin bei 24/7 Volllast 180€ Ersparnis im Jahr. Also könnte sich schon rentieren, aber wer außer professionellen Minern hat so eine Rig mit >1000W 24/7 am laufen?

titan ist meiner beobachtung nach relativ gesehen vor allem im idle bereich effizienter.
hast du dir mal vergleiche bei 50-100w, oder 5% auslastung angesehen?

Zephyroth
2025-04-08, 14:29:59
titan ist meiner beobachtung nach relativ gesehen vor allem im idle bereich effizienter.
hast du dir mal vergleiche bei 50-100w, oder 5% auslastung angesehen?

Wieder richtig. Aber bei 100W, was machen da 10W schon aus? 30€ im Jahr.

Grüße,
Zeph

][immy
2025-04-08, 14:39:09
Das ist doch bei Nvidia nichts neues. Da gab es immer schon die Tendenz den Kunden aktiv zu veräppeln. Der Erfolg gibt ihnen ja leider recht. Das war schon zu 3dfx Zeiten nicht anders, aber zumindest gab es da noch keine absichtlichen technischen Probleme wie abbrennende Stromverbindungen (absichtlich unterstelle ich hier mal weil eindeutig Sparmaßnahme, niemand der einen Funken Ahnung von Elektrotechnik hat, würde auf die Idee kommen so etwas ohne Schutz zu verbauen).

Mag vom amerikanischen Unternehmertum stammen, Intel kommt ja auch aus der Ecke und ist kein deut besser.

AMD musste sich hingegen immer deutlich mehr bemühen, selbst als sie die schnelleren Produkte hatten. Ggfs sind sie daher bislang nicht so extrem abgedriftet und arrogant. Aber halt, weil sie es müssen.

x-force
2025-04-08, 14:41:49
Wieder richtig. Aber bei 100W, was machen da 10W schon aus? 30€ im Jahr.

Grüße,
Zeph

bei garantiezeiten von 10 jahren kann man gerne 5 jahre betriebszeit ansetzen.
von gold auf titan kostet aber keine 150€

Badesalz
2025-04-08, 17:19:40
@][immy
War erfreut deinen Beitrag zuu lesen. Das hätte nämlich was mit dem Topic zu tun...
Bei dir zwar nicht ungewöhnlich, aber einie Kadetten haben lesbar Probleme mit sowas.

Falls Jensen mal einen Assistent á la Mr Smithers braucht, da könnte das 3DC durchaus mal Kontaktdaten austauschenFalls er Minimi sucht verwies ich ihn direkt an den Edelfan hier.

Halten wir fest:
Unwichtig. Ich scripte dir die komplette letzte Zusammenkunft und du ignorierst es. Nachdem du danach gefragt hast... Was geht denn bei dir? :usad:

PHuV
2025-04-08, 21:57:34
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

x-force
2025-04-08, 23:38:34
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

also beschreibt es individuelle gründe, weshalb man in machtpositionen überproportional viele psychopathische persönlichkeiten findet?

Colin MacLaren
2025-04-09, 05:32:12
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D

Die klassischen Beispiele für den pösen, völlig moralbefreiten Großkonzern sind für mich Disney und Nintendo ;D. Das ist nicht auf die USA beschränkt.

Für mich ist das alles nachvollziehbar. Die Kohle liegt bei Workstation und AI (und vorher bei den Minern), das Gamersegment bedient man nur, weil man hier Marktdurchdringung hat und den Marktanteil so halbwegs halten möchte. Falls der AI-Boom mal abflaut, hat man somit ein zweites Standbein, um den Laden am Laufen zu halten. Das ist eine strategische Entscheidung, kurzfristig wäre wohl mehr Kohle drin, wenn man das Gamingsegment komplett aufgibt.

Dass wir dann halt zweite Geige spielen, verwundert mich nicht. Dennoch ist NVIDIA immer noch recht schnell darin, Updates zu liefern und Bugs zu fixen. Ich erinnere mich immer noch dran, wie ich einen Nischenbug gemeldet hatte (bei Turing-Laptops ruckelt GSync bei angeschlossenem externen Monitor) und der Bug stand daraufhin in den Releasenotes und war zwei Treiberversionen später gefixt. Am Ende entscheidet der Markt. Wenn AMD jetzt eine 9080XT herausgehauen hätte, mit 600W und doppeltem Chip und RAM der 9070XT, für 1.600 EUR, dann hätte ich die gekauft.

mironicus
2025-04-09, 08:07:37
Falls der AI-Boom mal abflaut

Damit rechne ich persönlich nicht, doch für NVidia kann es bedrohlich werden, wenn die großen Player wie Google und Microsoft eigene Hardware entwickeln, um unabhängiger von NVidia zu werden.

Badesalz
2025-04-09, 08:16:14
Wenn AMD jetzt eine 9080XT herausgehauen hätte, mit 600W und doppeltem Chip und RAM der 9070XT, für 1.600 EUR, dann hätte ich die gekauft.Das ist aber nicht das Vieh was am meisten Mist macht.

BlacKi
2025-04-09, 08:36:23
Das ist aber nicht das Vieh was am meisten Mist macht.
enthusiast modelle verkaufen auch andere karten. es ist teil des marketshare und damit stärkt es den ruf und die akzeptanz schwächerer modelle und verbreitung von techniken wie zb. fsr.

stell dir mal vor, es gäbe n31 nicht. keine 7900gre, keine 7900xt, keine 7900xtx.

diese modelle haben amd durch diesen schwere jahre getragen, auch wenn sie vl mitschuld daran haben. ich glaub aber eher das es die fixierung auf das chiplet design war, nicht die existenz großer modelle.

Badesalz
2025-04-09, 09:30:57
enthusiast modelle verkaufen auch andere karten.Wenn die Preislagen sich halten wird das zu urban legend der vergangenen Zeiten :wink: RDNA4 hat keinen Flaggschif und die 9070XT verkauft sich besser als AMDs optimistischeren Schätzungen vorauszusagen versuchten. Die non-XT dagegen könnte man demgegenüber schon fast als Flop betiteln.
Es scheint also, ein Zugpferd ist nicht zwingend. Genauso wie der 9800X3D keinen 9950X3D braucht.

Die Leute schauen nach der P/L und den Tests (auch ggf. der anderer Nutzer, nicht nur der PR-Journalie). Informationszeitalter und so...

Das Thema Flaggschiffe sind ein opportunistisches u-boot aus der jeweiligen Nerd-Blase :wink: welcher der Nerd-Blase real nutzt. Die erzählen immer allen wie wichtig diese sind, weil sie selbst nur diese haben wollen. Der Nachschub sollte also erhalten bleiben und die Hersteller sollten ja auf keine anderen Ideen komme :) Vollausbau-blah.
Das Fußvolk interessiert sich bestenfalls bedingt dafür, falls es sich nicht nur vollquatschen lässt. Letztendlich schaut man einfach nur wieviel man für sein Geld bekommt.

Ein ähnliches u-boot aus der gleichen Ecke ist daher auch das Gefuchtel mit der Effizienz. Es nützt nichts, daß es ggf. im obersten Regal z.B. die meisten FPS pro 100€ gibt. the more you buy, the more you save :uup: Am Ende steht halt der Absolutpreis, das Loch in der Kasse, was man aufbringen muss. Das bestimmt die Schreibweise beim P/L. Normalo - P/L, Nerd - P/L.

es ist teil des marketshare und damit stärkt es den ruf Perfekt :wink: Sehe oben :up:

Lawmachine79
2025-04-09, 10:04:22
Wenn die Preislagen sich halten wird das zu urban legend der vergangenen Zeiten :wink: RDNA4 hat keinen Flaggschif und die 9070XT verkauft sich besser als AMDs optimistischeren Schätzungen vorauszusagen versuchten. Die non-XT dagegen könnte man demgegenüber schon fast als Flop betiteln.
Es scheint also, ein Zugpferd ist nicht zwingend. Genauso wie der 9800X3D keinen 9950X3D braucht.


Der 9800X3D ist die schnellste Gaming-CPU, zusammen mit dem 9950X3D. Von daher passt der Vergleich nicht.

Badesalz
2025-04-09, 10:29:34
@Law
Ah so. Ja dann :wink:

PHuV
2025-04-09, 11:47:52
also beschreibt es individuelle gründe, weshalb man in machtpositionen überproportional viele psychopathische persönlichkeiten findet?
Er verhält sich wie einer, soll aber laut Beschreibungen menschlich ganz ok sein. Einer hats mal so formuliert, daß er zu einem Monster werden muß, um im Business bestehen zu können.

Morgenlicht
2025-04-09, 11:52:39
Mit Blackwell sind doch viele neue Dinge eingeführt:

https://i.ibb.co/MWktbgB/youtube-c7-PAr-TVAYEA-1322.gif
https://i.ibb.co/MWktbgB/youtube-c7-PAr-TVAYEA-1322.gif (https://ibb.co/qXYczDJ)


• RTX Mega Geometry
• RTX Texture Filtering
• RTX Texture Streaming
• RTX Volumetrics
• RTX Neural Materials
• RTX Hair
• RTX Skin
• RTX Neural Texture Compression
• AI Body Motion
• RTX Neural Faces
• DLSS Multi Frame Generation
• Cosmos Visual Understanding Models
• Nemotron Small Language Models


Quelle :
• NVIDIA Game Developer: GDC 2025 | Advances in RTX - Full Session Replay > https://www.youtube.com/watch?v=c7PArTVAYEA
- Zeit : 08:00
- Zeit : 13:00
- Zeit : 13:22

downforze
2025-04-09, 12:01:35
Damit rechne ich persönlich nicht, doch für NVidia kann es bedrohlich werden, wenn die großen Player wie Google und Microsoft eigene Hardware entwickeln, um unabhängiger von NVidia zu werden.
Wenige wissen, dass der absurde KI-Umsatz von Nvidia nur durch 6 Großkunden kommt (Amazon, GO.ogle, ...). Und diese Großkunden entwickeln eigene KI-Lösungen. Der Umsatz von Nvidia wird mittelfristigseinen Peak erreichen. Dazu kommt, dass auch China eigene Lösungen entwickelt und den Markt fluten wird.

GPU-Sparte: Was Nvidia da macht, war taktisch schlau. Sie haben ganz viele eigene Technologien entwickelt, die in Spielen implementiert sind. Damit ist der Kunde geneigt auch eine Nachfolgekarte mit eher geringem Fortschritt zu akzeptieren, um nicht den Zugriff auf diese exklusiven Technologien zu verlieren. Mache den Kunden abhängig von dir.

downforze
2025-04-09, 12:09:13
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.

Aber die GPUs verkaufen sich. Und für Nvidia ist Gaming einfach nur noch ein Nebengeschäft, was sich beiläufig noch rechnet. Daß die Produktion einer 5080 mit einem UVP von 1169 € auf absolute Kante genäht ist, hat vermutlich viele, wie mich auch, überrascht.

Die 3080 Ti hing der 3090 bedeutend weniger (quasi gar nicht) hinterher wie die 4080 der 4090 und die 5080 der 5090. Und die 3080 ohne Ti war gerade mal 10-15% hinter der 3090.
Bei einem Reingewinn von über 60% kann mir auch niemand erzählen, dass die 5080 auf Kante genäht ist. Sie ist maßlos überteuert.

PHuV
2025-04-09, 14:01:01
Bei einem Reingewinn von über 60% kann mir auch niemand erzählen, dass die 5080 auf Kante genäht ist. Sie ist maßlos überteuert.
Ich bezog mich dabei auf das hier, falls Dir das entgangen ist oder Du es noch nicht kennst:
PCGH - Geforce RTX 5080: UVP soll wegen hoher Kosten "sehr schwierig" sein (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/News/UVP-wegen-hoher-Kosten-sehr-schwierig-1468510/)

Rabiata
2025-04-09, 16:01:10
Bei den Mainboards kann ich's sogar teilweise verstehen. Was da inzwischen drauf ist, vorallem was die VRM's so leisten müssen, das ist schon feine Schaltungstechnik, die früher so einfach nicht notwendig war. Heute hockt ja sogar die SSD schon mit am Mainboard, manchmal sogar zwei...

Es scheint auch keiner mehr für nötig zu halten, separate Produkte für die "kleinen" Modelle mit 65W TDP herauszubringen. Ich hab gerade mal auf Geizhals die billigsten AM-5 Modelle von drei verschiedenen Herstellern gecheckt. Alle haben auch die 170W-Säufer in der Kompatibilitätsliste. Natürlich geht das dann nicht mehr so billig.

Top :tongue:

Wir haben uns entschieden, daß die "Betirebskosten" so bis ins Unerträgliche getrieben werden sollen, daß der angefixte Pöbel dann freiwillig nach und nach in die Cloud wechselt. Hat gleich mehrere Vorteile.

Erstmal saugen wir sie soweit leer bis auch die letzten langsam anfangen aufzugeben. Bis dahin haben wir die Technologien soweit, daß sie ihr ganzes Ökosystem auch in der Cloud fahren können. Denen wird das schon irgendwann auffallen, daß es sinn ergibt, weil während ihr Netzwerk daheim mit 1Gbit und bestensfalls 2.5Gbit läuft (das bremsen wir aj schon entsprechen ab, seit etlichen Jahren), sie nach draußen mit 10Gbit PON (XGS) verbunden sind. Und 25GPON läuft eigentlich auch schon jetzt. Das wird dafür reichen.

D.h. wir entfernen dadurch all diese mittlerweile lästige Hardware aus dem Heimischen wo keine Sau weiß was sie damit veranstalten (Hacker und ähh... Pädophile) und übernehmen die Aufsicht. Und natürlich den Schutz :tongue:

Sie brauchen nur den Zugang. Den Router also und die "Station" die das darstellen kann was wir in der next gen Ausbaustufe von Cloud-Gaming (GeForce NOW als Beispiel für die ersten Anläufe).
Der Pöbel braucht dann nur noch die Eingbegeräte und ggf. VR-Headsets.

Auch den kompletten Rest an Anwendungsfällen holen wir damit natürlich mit uns rein. Das ist ja auch der eigentliche Sinn dahinter. Gaming ist nur Beiwerk.
Es ist eh schon fast alles an Diensten da.

Und wenn sie zahlenmäßig zu >75% lock-in sind und kaum noch jemand eine eigene richtige HW haben will oder sich leisten kann, DANN schauen wir wie wir die Preise für die jährliche Nutzung optimieren und je nach Anwendungsfall staffeln können.

Das funktioniert an mehreren Stellen nur mit dummen Kunden (wovon es leider zu viele gibt).

1) Die Betriebskosten für den Kunden sind nur kurzfristig geringer. Microsoft 365 Single kostet zum Beispiel 99,00 €/Jahr, und einen Rechner zuhause braucht es immer noch.
Auch ein schwaches Rechnermodell kommt locker mit Office aller Art klar. Das "dumme Terminal" aus der Großrechnerzeit hat heute keinen wesentlichen Kostenvorteil mehr. Schlimmstenfalls ist der Aufpreis um statt des dummen Terminals einen "richtigen" Rechner zu haben, der LibreOffice kann, eine Jahresgebühr von Microsoft 365.

Für eine Spiele-Cloud bietet sich GeForce Now an, aber da sagt die Beschreibung schon, daß die Gratisversion nicht viel taugt: Werbung und maximal eine Stunde am Stück. Für einen Premium-Account fallen mindestens 110,- Euro im Jahr an. Ob es sich lohnt hängt wohl vom Spiel ab: Die Bildqualität ist laut Reviews nicht schlecht, schnelle Shooter sind von der Latenz her gehandicapt.
Hier drängt sich tatsächlich noch die Frage auf, ob man sich die Kosten für die eigene Hardware leisten mag. Die Antwort erscheint mir nicht eindeutig.

Dienste wie E-Mail lasten die Server nur schwach aus. E-Mail wird üblicherweise nur ein paar mal am Tag abgerufen. Da gibt es seit Jahrzehnten werbefinanzierte Gratisangebote, das ist kein neuer Trend.

2) Netzwerkbandbreite: Gibt es beispielsweise bei der Telekom bis zu 1000Gbit/s, was im LAN längst Standard ist. Kostet nach der 6-monatigen Anfixphase 70 Euro im Monat. 10Gbit PON wird mit Sicherheit noch um einiges teurer.
Extern mehr Bandbreite zu buchen als im Heimnetz ist auch unsinnig, dann stauen sich die Daten auf dem Weg vom PC zum Glasfasermodem.

3) ALLE Anwendungsfälle rein holen? Viel Glück. Sarkasmus beabsichtigt.


Ein ähnliches u-boot aus der gleichen Ecke ist daher auch das Gefuchtel mit der Effizienz. Es nützt nichts, daß es ggf. im obersten Regal z.B. die meisten FPS pro 100€ gibt. the more you buy, the more you save :uup: Am Ende steht halt der Absolutpreis, das Loch in der Kasse, was man aufbringen muss. Das bestimmt die Schreibweise beim P/L. Normalo - P/L, Nerd - P/L.

Perfekt :wink: Sehe oben :up:
Das mit der Effizienz liegt auch an den Kunden. Da gebe ich Dir völlig recht. Persönlich bin ich zufrieden damit, wenn der Hersteller eine offiziell unterstütze Möglichkeit bietet, das Powertarget deutlich herunterzusetzen. AMD hat das schon seit einiger Zeit bei Ryzen, und jetzt werden auch -30% in der RX 9000- Serie geboten (laut einem Artikel zu dem ich die URL nicht mehr weiß). Das kostet nur um die 10% Performance und hat sogar den Vorteil, daß die Kühllösung für die verringerte Wärmeabfuhr letztlich überdimensioniert ist. Da können die Lüfter langsamer und leiser laufen.

Edit: Kaum habe ich diesen Post zu Ende geschrieben, kommen die News des 8. April rein. Da hat tatsächlich Computerbase eine 9070 XT mit 70% des regulären PT getestet. Kostet gerade mal 8% an Performance.

Badesalz
2025-04-09, 17:46:10
Ich bezog mich dabei auf das hier, falls Dir das entgangen ist oder Du es noch nicht kennst:
PCGH - Geforce RTX 5080: UVP soll wegen hoher Kosten "sehr schwierig" sein (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/News/UVP-wegen-hoher-Kosten-sehr-schwierig-1468510/)DAS MEINT ER DOCH :|

"Ein Boardpartner, der für den Test kein Grafikkartenexemplar bereitstellen konnte, soll mitgeteilt haben, dass 80 Prozent der Kosten einer Grafikkarte mit Hinblick auf die UVP des Herstellers allein auf die GPU und den Grafikspeicher entfallen. Laut Videocardz sei hier erwähnenswert, dass Nvidia diese Komponenten oft in Paketen verkauft."

UVP vorgeben, dann die IHS beim Einkauf blankziehen :whistle: Dann mal einen dicken Haufen auf die Biographie :uclap:

@Rabiata
Was meinst du warum sie WLAN so unerbittlich peitschen? 2.5Gbit am Repeater ist schon zu lahm für Wifi 7. 1Gbit war es das für Wifi 6. "Love is in the Air"...

Den Rest, betrachtest du vom Stand heute. Das wird noch ;) Vor allem wenn HW astronomisch teuer und teurer wird... Gemach.

Rabiata
2025-04-09, 19:11:01
Den Rest, betrachtest du vom Stand heute. Das wird noch ;) Vor allem wenn HW astronomisch teuer und teurer wird... Gemach.
Wenn Du nicht darauf bestehst, alle zwei Jahre eine Leistungssteigerung zum selben Preis haben zu müssen, sieht das viel freundlicher aus. Als AMDler geh ich mal von der RX 7600 rückwärts und suche in jeder Generation möglichst attraktive Modelle. MSRP (Wikipedia), Straßenpreis falls noch verfügbar und Performance im 3DCenter Performance Chart sollten ähnlich sein falls möglich. Modelle mit gutem P/L bevorzugt.

RX 7600: 1330%, MSRP bei Launch $269 USD, aktueller Straßenpreis bei Geizhals um die 260 Euro

RX 6600: 1050%, MSRP bei Launch $329 USD, aktueller Straßenpreis bei Geizhals um die 230 Euro
Die schnelleren Varianten wie 6650XT werden von der RX 7600 in Preis und Leistung geschlagen => nicht mehr relevant.

RX 5700: 1060%, MSRP bei Launch $349 USD, Straßenpreis: praktisch ausgestorben und nicht mehr relevant

RX Vega: Das beste P/L unter den Vegas hatte die Vega56 mit 840% und MSRP bei Launch $399 USD

Polaris war preiswert aber auch deutlich schwächer. Die RX570 mit 520% und MSRP bei Launch $169 USD ist in der Performance eine halbe RX 6600. P/L im Rückblick nicht schlecht, die hätte ich wahrscheinlich gekauft wenn mir meine alte HD 7850 zu dem Zeitpunkt nicht mehr gereicht hätte.

Noch weiter zurück lande ich bei der R9 390: 540% mit MSRP bei Launch $329. Damit sind wir im Jahr 2015, weiter zurück ist wohl nicht nötig.

Armaq
2025-04-09, 19:39:15
Wenige wissen, dass der absurde KI-Umsatz von Nvidia nur durch 6 Großkunden kommt (Amazon, GO.ogle, ...). Und diese Großkunden entwickeln eigene KI-Lösungen. Der Umsatz von Nvidia wird mittelfristigseinen Peak erreichen. Dazu kommt, dass auch China eigene Lösungen entwickelt und den Markt fluten wird.

GPU-Sparte: Was Nvidia da macht, war taktisch schlau. Sie haben ganz viele eigene Technologien entwickelt, die in Spielen implementiert sind. Damit ist der Kunde geneigt auch eine Nachfolgekarte mit eher geringem Fortschritt zu akzeptieren, um nicht den Zugriff auf diese exklusiven Technologien zu verlieren. Mache den Kunden abhängig von dir.
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.

Badesalz
2025-04-09, 20:29:05
Ihr müsst unterscheiden zwischen dem Lernen und dem das Gelernte anwenden (ihr kennt die Fachbegriffe :wink: )
Es scheint für wenigstens eine dieser Sachen kauft auch Facebook & Co. bei NV wie auch bei AMD massig ein.

Und es ist auch wirklich so, daß nur die 6 containerweise das Zeug einkaufen. "Großkonzerne" nur palettenweise. Und imho alle außer den 6 werden nicht erst 2032 satt sein. Nach der Leistungsrunde wir dann noch die Effizienzrunde stattfinden. Wenn es reicht und das neuere zwar nur 10% schneller ist, dafür aber pro Einheit 60% weniger Saft zieht, dann ist auch das ein Anreiz.

@Rabiata
Ja. Ja... Das stimmt alles. Du wirst sehen, daß da irgendwas kommt was das ganze Zeug obsolet zu machen versucht. Du denkst nicht groß genug ;) und bist noch in heute gefangen.

Rabiata
2025-04-09, 22:46:42
@Rabiata
Ja. Ja... Das stimmt alles. Du wirst sehen, daß da irgendwas kommt was das ganze Zeug obsolet zu machen versucht. Du denkst nicht groß genug ;) und bist noch in heute gefangen.
Das "irgendwas" müßte schon eine größere Überraschung sein, und die lassen sich nicht so leicht vorhersagen :wink:. Nicht einmal aus welcher Ecke sie kommen werden.
Am ehesten könnte ich mir noch vorstellen, daß sich KI schneller und "besser" entwickelt als wir im Moment denken. Das würde dann in der Praxis wohl eine Cloud-Geschichte werden, wegen des großen Bedarfs an Rechenleistung. Die C't hat mal mit DeepSeek und Destillaten auf verschiedenen Qualitätsstufen herumexperimentiert. Das volle 671 Miliarden-Parameter Modell ist ziemlich eindrucksvoll, aber braucht einen Server den sich wohl die wenigsten zu Hause hinstellen wollen.

PHuV
2025-04-09, 22:58:13
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.
Richtig, und wir warten auch schon lange auf unsere H100 (!!) GPUs, die vor über einem Jahr geordert wurden. Und ich hatte von anderen in gleicher Lage ähnliches gehört.

PHuV
2025-04-09, 23:00:54
Die C't hat mal mit DeepSeek und Destillaten auf verschiedenen Qualitätsstufen herumexperimentiert. Das volle 671 Miliarden-Parameter Modell ist ziemlich eindrucksvoll, aber braucht einen Server den sich wohl die wenigsten zu Hause hinstellen wollen.
Eine ältere Epyc-Maschine, die 1,5 TB RAM hatte, und er hatte davon 709 GByte RAM benötigt für das DeepSeek-R1-KI Modell. Aber flott war das nicht.
Heise - DeepSeek unzensiert (und lokal) (https://www.heise.de/news/DeepSeek-unzensiert-und-lokal-10283345.html)
Also zwei AMD-Epyc-9754 CPUs mit jeweils 128 Kernen und, wie gesagt, 1,5 TB DDR5-Speicher mit 4800 Megatransfers pro Sekunde (DDR5-4800).
A8N3zKUJ0yE
RAM RAM RAM ist das Problem. Und jetzt, wo der Budenzauber mit den USA so richtig losgeht, wirds noch verrückter mit den Bedarfen, weil nun alle aus der Cloud raus wollen.

Badesalz
2025-04-10, 06:51:02
@Rabiata
So wird das sein. Aus der Ecke game content (KI) wird das zuerst kommen.

RAM RAM RAM ist das Problem. Und jetzt, Und jetzt, mal wieder eine Schüppe OT drauf?

Boah nervt das

Rabiata
2025-04-11, 11:04:19
@Rabiata
So wird das sein. Aus der Ecke game content (KI) wird das zuerst kommen.
Bei der "Innovationsbereitschaft" der großen Spiele-Publisher bin ich da skeptisch. Es gibt eine eher kleine Firma, die ein interessantes Projekt für intelligentere NPCs hat: "GoodAI" von Keen Software, den Machern von Space Engineers. Aber ob da genügend aufspringen um den Markt umzukrempeln?

robbitop
2025-04-11, 11:22:28
Es liefen doch auch die Launches davor, seit Ampere, diplomatisch formuliert, nicht gut. 3090 Top, aber zu teuer, alle GPUs darunter für die meisten nicht gut genug. 4090 genau das gleiche, mit 5090 wiederholt sich das ganze und wird sogar noch schlechter.
Theoretisch* war Ampere die letzte wirklich gute und faire Generation. Die 3080 hatte ~80% der Performance der 3090 für 699 USD! Und das mit dem GA102. Super breite GPU und und super breites SI.
Jetzt bekommst du für 699 eine 4070 mit 205 Chip. Super kleiner Chip und popeliges SI.
Die 3080 für 699 USD* war das schon fast eine Anomalie aus Perf/W Sicht. Nützte nur kaum jemanden was, weil sie zu dem Preis nicht mal annähernd verfügbar war. Und seit Ada gibt es die Narrative dass die teuren Nodes usw Schuld an den hohen Preisen sind - was nur ein Bruchteil der Preissteigerung ausmacht. Nvidias Gewinne sind in's Astronomische geschossen und das ist die Hauptursache. Gamer's Nexus hatte neulich ein Video was zeigt, dass pro SKU Gruppe der Anteil der SMs gemessen am Top Dog richtig nach unten gesackt ist und dass man im Prinzip eine SKU Klasse kleiner bekommt als der Name (und der Preis) sagt. Die Investoren freuts.
Ich hab neulich meine 5070ti auseinander gebaut (für Wakü Umbau) und es ist Wahnsinn, was man heute für fast 1000 EUR nur bekommt. Eine super kleine GPU, wenig Speicher (nur 16 GB), wenig TDP, kleines anämisches Board. Im Prinzip ist das eine Geforce MX (Blackwell) für knappe 1000 EUR X-D
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht.


*(wenn man die GPUs zu UVP hätte! - daran war nicht nur Covid schuld - auch 2020 gab es von MLID schon leaks zu fake msrps für Ampere die auch ohne Covid zu überhöhten Straßenpreisen geführt hätten - aber weit weniger als durch Covid wahrscheinlich. Eher so 100-200 EUR)

Badesalz
2025-04-11, 11:42:53
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht. Und egal, ob die Liste noch 10 oder 100 Positionen hätte, @Deppen, endlich mal merken, daß TSMC da immer den letzten Platz belegen würde.

Ihr nervt mich mit dem hirngewaschenen Gaga schon seit Monaten.

x-force
2025-04-11, 11:47:33
Und egal, ob die Liste noch 10 oder 100 Positionen hätte, @Deppen, endlich mal merken, daß TSMC da immer der letzten Platz belegen würde.

was willst du damit sagen?

tsmc hat seit jahren die beste fertigung.

Badesalz
2025-04-11, 13:04:35
was willst du damit sagen?:| Dem Kontrext entsprechend. robi hat doch erwähnt warum das alles so überteurt ist. RICHTIG? :rolleyes:

Ich meinte damit also die Deppen die seit der RT40 die Preisgestaltung bei Grakas TSMC mit in die Schuhe schieben wollen.
tsmc hat seit jahren die beste fertigung.Danke für die Info :uking:

aths
2025-04-12, 23:50:24
@aths, lies mal das Buch, es ist wirklich erhellend und unterhaltsam, und wird vermutlich Dir einiges verständlich machen, warum Nvidia so agiert, wie sie es jetzt tun. Im Endeffekt - wenn man es bös sagen will - sind die Nvidia Entscheider genauso Schweinepriester wie bei Microsoft damals, um die einseitige Marktherrschaft zu erringen. Keine Moral, kein Codex, gnadenlose Dominanz wird mit allen Mitteln angestrebt, die besten gegenseitig abgeworben, mit fiesen Tricks gearbeitet, um die Konkurrenz schlecht dastehen zu lassen oder sogar aufzukaufen usw. Business as usual mit Hauen und Stecken auf allen Ebenen. Das Lied von Feuer und Eis ist ein Scheißdreck dagegen. ;D
Ganz ehrlich, ich lästere über den 5000-er Launch ab und dann kommst du, sinngemäß "aber die sehr teure 5090 ist ja dann doch gut". Ja, ist sie. Darum geht es in diesem Posting nicht so wirklich. Jetzt tust du als ob andere nicht wissen wie der Konkurrenzhase läuft, obwohl das im originalen Posting bereits enthalten war. Darum ging es allerdings auch nicht so richtig.

aths
2025-04-12, 23:52:59
Theoretisch* war Ampere die letzte wirklich gute und faire Generation. Die 3080 hatte ~80% der Performance der 3090 für 699 USD! Und das mit dem GA102. Super breite GPU und und super breites SI.
Jetzt bekommst du für 699 eine 4070 mit 205 Chip. Super kleiner Chip und popeliges SI.
Die 3080 für 699 USD* war das schon fast eine Anomalie aus Perf/W Sicht. Nützte nur kaum jemanden was, weil sie zu dem Preis nicht mal annähernd verfügbar war. Und seit Ada gibt es die Narrative dass die teuren Nodes usw Schuld an den hohen Preisen sind - was nur ein Bruchteil der Preissteigerung ausmacht. Nvidias Gewinne sind in's Astronomische geschossen und das ist die Hauptursache. Gamer's Nexus hatte neulich ein Video was zeigt, dass pro SKU Gruppe der Anteil der SMs gemessen am Top Dog richtig nach unten gesackt ist und dass man im Prinzip eine SKU Klasse kleiner bekommt als der Name (und der Preis) sagt. Die Investoren freuts.
Ich hab neulich meine 5070ti auseinander gebaut (für Wakü Umbau) und es ist Wahnsinn, was man heute für fast 1000 EUR nur bekommt. Eine super kleine GPU, wenig Speicher (nur 16 GB), wenig TDP, kleines anämisches Board. Im Prinzip ist das eine Geforce MX (Blackwell) für knappe 1000 EUR X-D
Aber Schuld daran ist lange Zeit fehlender Wettbewerb und der AI Boom der für astronomische Margen weg geht.


*(wenn man die GPUs zu UVP hätte! - daran war nicht nur Covid schuld - auch 2020 gab es von MLID schon leaks zu fake msrps für Ampere die auch ohne Covid zu überhöhten Straßenpreisen geführt hätten - aber weit weniger als durch Covid wahrscheinlich. Eher so 100-200 EUR)
Genau. Der Mainstream-Bereich ziemlich fein abgestuft, dazu RAM-Ausstattung welche dafür sorgt dass man bald aufrüsten darf.

Rabiata
2025-04-13, 15:48:44
Genau. Der Mainstream-Bereich ziemlich fein abgestuft, dazu RAM-Ausstattung welche dafür sorgt dass man bald aufrüsten darf.
Das vereinfacht sich schnell, wenn der Kunde 12 GB VRAM zur Mindestausstattung erklärt. Dann bleibt voraussichtlich genau eine 5060-Variante bei Nvidia und eine 9060-Variante bei AMD.

x-force
2025-04-17, 11:33:45
Ich meinte damit also die Deppen die seit der RT40 die Preisgestaltung bei Grakas TSMC mit in die Schuhe schieben wollen.

unschuldig sind sie definitiv nicht:
Unterm Strich hat TSMC das erste Quartal 2025 mit einem Gewinn in Höhe von 361,56 Milliarden NT$ und somit mit einem Plus von 60,3 Prozent abgeschlossen.

aths
2025-04-19, 03:19:22
Interessant, kann ich nicht bestätigen. Jeder Datacenter Betreiber kauft die Dinger wie warme Semmeln und ich arbeite mit einigen zusammen. Dazu kommt jeder Großkonzern, denn die haben ja viele DC (auch wenn viel in der Cloud läuft). Also leider stimmt das nicht und Amazon und Google haben eigene Chips, Facebook ebenso. Der Umsatzspread bei nvidia ist viel größer.
kann ich insofern bestätigen als dass ich von kleineren Projekten weiß, wo Nvidia-GPUs für lokale Large-Language-Modelle genutzt werden. Und ganz ehrlich, eigentlich ging das bei der 8800 GTX schon irgendwie los, dank Unified Shader, dass massiv parallele Datenverarbeitung bezahlbar wurde.

Sogar Raytraying, ein Professor der Universität des Saarlandes erzählte mir, auf dieser GPU würde Raytracing etwa 10x so viele Rechenzyklen kosten wie auf einer (damaligen) CPU und dennoch 2 bis 8 mal so schnell sein, dank der vielen parallelen Rechenwerke. Raytracing auf einer 8800 GTX, in geringer Auflösung natürlich.

PHuV
2025-04-19, 21:51:31
Ganz ehrlich, ich lästere über den 5000-er Launch ab und dann kommst du, sinngemäß "aber die sehr teure 5090 ist ja dann doch gut". Ja, ist sie. Darum geht es in diesem Posting nicht so wirklich. Jetzt tust du als ob andere nicht wissen wie der Konkurrenzhase läuft, obwohl das im originalen Posting bereits enthalten war. Darum ging es allerdings auch nicht so richtig.
Genau das macht das diskutieren mit Dir so schwierig wie teilweise sinnlos. Du springst hin und her, und das was Du da von mir zitierst, paßt überhaupt nicht zur Antwort. :confused:

Ablästern bringt ja auch nur was, wenn man wenigstens etwas auf einem aktuellen Wissens- und Sachstand ist...

Ex3cut3r
2025-04-19, 22:24:06
Verstehe echt nicht was so ein Thread zum x-ten mal soll? Abstänkern, ja schön und gut. Wird aber nichts ändern. Eine 5070 Ti hat 16GB VRAM, man kann damit in 4K + DLSS Q-P sehr gut zocken und auch RT anschalten bei Bedarf. Außerdem FG x4 parat für 850€ absolut fair diesmal, dürfte für die meisten selbst hier absolut ausreichend sein.

Irgendwann ist auch mal gut. Ansonsten gibt es auch andere Sachen als GPUs und zocken.

PHuV
2025-04-19, 22:28:38
Irgendwann ist auch mal gut. Ansonsten gibt es auch andere Sachen als GPUs und zocken.
You're so fucking right, good fight, good night.
VdQjz9H-J7k

aths
2025-04-20, 00:29:55
Genau das macht das diskutieren mit Dir so schwierig wie teilweise sinnlos. Du springst hin und her, und das was Du da von mir zitierst, paßt überhaupt nicht zur Antwort. :confused:

Ablästern bringt ja auch nur was, wenn man wenigstens etwas auf einem aktuellen Wissens- und Sachstand ist...
Deine Antworten enthalten, so wie ich das sehe, viel "ich gönne mir einfach das Spitzenmodell und rede mir die Lage schön." Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.

Sardaukar.nsn
2025-04-20, 02:47:53
...Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.

Die anderen 50er GPUs sind ja zum Teil auch sehr gut. Daher ist ja jetzt, 3 Monate nach Launch, scheinbar die Mehrheit hier im 3DC auf Blackwell gewechselt. Die Kinderkranheiten sind weitestgehend ausgemerzt, Verfügbarkeit ist da, Preise sinken. Ich denke zum Herbst bzw. Weihnachtsgeschäft wird es noch mal einen richtigen Schub geben. Insbesondere 5070ti und 5080 sind doch fürs Gaming mega runde Grafikkarten.

aths
2025-04-20, 03:52:47
Die anderen 50er GPUs sind ja zum Teil auch sehr gut. Daher ist ja jetzt, 3 Monate nach Launch, scheinbar die Mehrheit hier im 3DC auf Blackwell gewechselt. Die Kinderkranheiten sind weitestgehend ausgemerzt, Verfügbarkeit ist da, Preise sinken. Ich denke zum Herbst bzw. Weihnachtsgeschäft wird es noch mal einen richtigen Schub geben. Insbesondere 5070ti und 5080 sind doch fürs Gaming mega runde Grafikkarten.
Ich denke nicht dass du denkst, dass >50% der 3DCenter-User aktuell eine 50-er RTX haben.

Sardaukar.nsn
2025-04-20, 09:36:24
Ich denke nicht dass du denkst, dass >50% der 3DCenter-User aktuell eine 50-er RTX haben.

Irgendwelche Karteileichen sicher nicht, aber von den 50 aktivsten Mitgliedern mit halbwegs aktueller Hardware könnte das schon passen. Bis zum Jahresende wird es sicher soweit sein.

Kakarot
2025-04-20, 14:55:38
Mit etwas „Glück“ haben 50 % der aktiven User eine nVidia Karte, davon könnten wiederum 50 % zum Ende des Jahres eine der Blackwell Modelle im Rechner haben.
Also bestenfalls kommt man auf 25 %.

Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.
Ich empfand den Grund für das Abrauchen der 5090er als die peinlichste Nummer bei dem Launchdesaster.
Du hast es in deinem Eingangspost treffend zusammengefasst.

aufkrawall
2025-04-20, 15:14:08
dass die 5090 ziemlich gut ist.
Die Karte ist nicht gut, "nur", mit 4090 weggedacht, mit Abstand die schnellste.
Aber trotzdem inkonsistente Performance (Nvidia-RT hui, UE5 Lumen 4k DLSS Performance pfui), schlechte Treiber und schlechtes P/L-Verhältnis.
FG ist weiterhin Hit & Miss, muss man eigentlich ausklammern (bei Radeon btw. auch).

Dural
2025-04-20, 17:29:54
lustige kommentare...

ich werde mir nächste woche eine zweite 5080 holen und die 9070xt ersetzten die dann in den schrank wandern darf.

blackwell ist eine macht, ausser preis und die gleiche fertigung. Eine der überzeugendste gpu architekturen die es jemals gab.

selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...

ich kann mich noch gut an die 2000 serie erinnern, das geschrei war ähnlich zu heute: zu teuer, zu wenig leistung etc... schon damals habe ich gesagt das die gpus eine revolution ist und die zukunft der gpus darstellt, als vorallem die armen amd boys noch geschrien haben RT braucht es nicht...

Wenn ich da nur an meine 6900xt denke... einer der grössten fehlkäufe in meinem leben, das ding ist nur noch schrott. Aber hauptsache 16gb... war damals beim eint oder anderen der kaufgrund schlecht hin, manch mal habe ich das gefühl auf der welt leben zu 90% nur noch gehirnlose.

NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc

Ex3cut3r
2025-04-20, 17:33:52
Naja, also bitte. Eine 9070 XT ist durchaus solide. Das AMD nicht konstant abliefert, ja daran haben Sie eine Mitschuld.

Aber RDNA 2 war nicht so schlecht, wie von dir dargestellt. Ich habe aber auch keinen Sinn gesehen, mir eine Karte für das gleiche Geld zu holen, wenn DLSS und RT 5x besser waren bei der RTX 3080 12 GB vs 6800XT z.B.

gedi
2025-04-20, 17:46:00
lustige kommentare...

ich werde mir nächste woche eine zweite 5080 holen und die 9070xt ersetzten die dann in den schrank wandern darf.

blackwell ist eine macht, ausser preis und die gleiche fertigung. Eine der überzeugendste gpu architekturen die es jemals gab.

selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...

ich kann mich noch gut an die 2000 serie erinnern, das geschrei war ähnlich zu heute: zu teuer, zu wenig leistung etc... schon damals habe ich gesagt das die gpus eine revolution ist und die zukunft der gpus darstellt, als vorallem die armen amd boys noch geschrien haben RT braucht es nicht...

Wenn ich da nur an meine 6900xt denke... einer der grössten fehlkäufe in meinem leben, das ding ist nur noch schrott. Aber hauptsache 16gb... war damals beim eint oder anderen der kaufgrund schlecht hin, manch mal habe ich das gefühl auf der welt leben zu 90% nur noch gehirnlose.

NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc

Selten etwas dümmeres gelesen. Kein nennenswerter Vorsprung zu Ada, bei gleicher Wattage, Treiber zum Vergessen, PCIe5-Bug, ...

PHuV
2025-04-20, 17:59:29
Deine Antworten enthalten, so wie ich das sehe, viel "ich gönne mir einfach das Spitzenmodell und rede mir die Lage schön."
Dann liest Du sehr subjektiv und selektiv. :rolleyes: Nur mal so, falls es Dir entgangen sein sollte, es sollte eigentlich nach bald 20 Jahren hier im Forum bekannt sein, daß ich schon immer und grundsätzlich (mit Ausnahmen) zum Spitzenmodell greife (egal ob damals 3dfx, oder auch mal AMD, oder eben Nvidia. Da muß ich mir gar nichts schönreden, ich folge nur meiner Gewohnheit. ¯\_(ツ)_/¯

Frag mal lieber Dich als "vermeidlicher" 3D-Guru, wann Du das letzte Mal ein Spitzenmodell in der Hand hattest? Du bist in meinen Augen aktuell davon soweit weg wie jetzt Scholz von der Kanzlerschaft.
Dass Nvidia den Launch der 50-er Serie multipel verkackt hat, kann man aber nicht damit wegreden mit der Beobachtung, dass die 5090 ziemlich gut ist.
Aber nochmals, Du hast 0 Neues in Deiner Eröffnung gebracht. Wo ist jetzt bitte irgend was in Deinem Anfangsstatement anders, besser, neuer, erkenntnisreicher, was wir hier und anderswo nicht schon besser und vernünftiger formuliert lesen konnten?

Selten etwas dümmeres gelesen. Kein nennenswerter Vorsprung zu Ada, bei gleicher Wattage, Treiber zum Vergessen, PCIe5-Bug, ...
Das hört sich eher nach Hater als sachlich an. Er liegt doch mit allen Aussagen grundsätzlich richtig:
selten gab es grafikkarten die sie rund waren wie die 5000 serie: bandbreite, verbrauch, overclocking, techlevel, software.

schon nur was die ue5 techdemo abliefert ist der wahnsinn. Ohne NV wäre PC gaming schon längst tot, NV bringt PC gaming vorwärts. AMD zieht seit über 10 jahren immer nur nach, und das in der regel ziemlich schlecht. schon nur wie lange die für halbwegs brauchbare RT performence gebraucht haben...
:
NV liefert ab, und das kostet halt. Und alle verdienen da ja auch mit, es ist ja nicht nur NV die mehr einnehmen: produzenten, herstellung, vertieb etc
Ohne Nvidia kein RT, keine Tensor Cores, keine DLSS, kein MFR, von damals G-Sync fange ich gar nicht erst an, wo AMD ungefähr 18 Monate brauchte, bis sie was adequates lieferten, 3D-Vision (was heute perfekt für VR wäre), SLI (leider verschwunden). Da war immer Nvidia schneller, und AMD kam dann später mit Ähnlichem.

Ebenso betont, natürlich ist vieles im Argen, und beileibe nicht perfekt, da hatten wir schon besserer Launches und Hardware. Aber die glühenden 12VHPWR-Stecker sind seid Ada bekannt, wenn man es nicht ganz richtig steckt. Der letzte Nachweis, daß bei korrekter Steckung und mit entsprechendem Leitungsbetrieb das Ding verglüht, ist bisher meines Wissens nicht erbracht worden. Das heißt jetzt aber nicht im Umkehrschluß, daß ich den Stecker damit schönrede oder gar gut finde.

@aths
Und Du bist nun mal anscheinend immer noch einer der letzten, die bis jetzt noch nicht begriffen haben, was genau Sache hier ist:
Spitzenmodelle mit mehr RAM wie die x090er Serie sind hybride Lösungen: Semiprofessionelle GPUs, die für den Zwischenschritt Workstation wie Gaming geschaffen wurde. Sie sind eher mehr Workstation GPUs, mit denen man auch spielen kann (was mit den Quadros vorher nicht so einfach ging). Und alles andere darunter sind dann ebenso einerseits Workstation wie Gaming, bis dann in die Richtung nur Gaming. Und genauso ist dann die Preisgestaltung geworden.

Ich wiederhole es nochmal gerne für Dich als "3D-Guru": Der klassische Gaming Markt für Nvidia ist seit über einem Jahrzehnt tot, es gibt seitdem nur noch diese Hybridlösung, die vorher mit den Titans ausgelotet wurden.

Daher nochmals, wenn Du, anstatt nur zu mosern, mal endlich lesen würdest, wüßtest Du, wie die Strategie bei Nvidia ist, und Du würdest endlich das große Ganze erkennen, was Nvidia hier denkt und plant. Ob das jetzt gut ist, sinnvoll oder nicht, das kommentiere ich nicht, das soll jeder selbst für sich bewerten und entscheiden. Aber Dich nur in "Kleinigkeiten" und Details auf unteren Ebenen verlieren, bringt Dich hier 0 weiter, und macht Deine Kritik vollkommen nichtig wie sinnlos. Ein Blinder, der von Farben sprechen will...

Nochmals klar betont, ob das alles gut, schön, toll sonstwas ist, ist Auslegungssache. Konträr zum Gebashe, Nvidia ist nach wie vor erfolgreich. Komischer Widerspruch, oder nicht? Nichtsdestotrotz liefern die Blackwell Modelle sehr wohl einen gewissen Gegenwert. Ob der sich aber für jeden so lohnt oder rechnet, ist nochmal eine ganz andere Frage.

RoughNeck
2025-04-20, 19:00:29
DLSS und CO stößt auch in FPS Regionen vor die damals Multi GPU Lösungen vorbehalten waren.
Kann mich noch erinnern an mein erstes SLI Setup bestehend aus zwei 7800 GTX 256BM Karten.
Heute kann sowas eine GPU liefern und wenn alles gut dabei funktioniert schaut es nicht nur besser als nativ aus, aus läuft auch super.

Klar ist aktuell einiges nicht wie gewohnt von Nvidia, dennoch bleibt für mich Nvidia die Nr.1
AMD hat aufgeholt und die 9070 / 9070 XT Karten sind aktuell auch gut, dennoch zockt meine Frau seit sie meine 4090 geerbt deutlich mehr als vorher mit der 7900 XTX. Ich merke aber auch dass ich seit etwa 2 Jahren im Freundes & Bekanntenkreis deutlich mehr Rechner bauen darf welche auf AMD GPU setzen, ICH persönlich kann mich mit AMD und deren Treibern nicht anfreunden.

PHuV
2025-04-21, 00:30:22
Es ist und bleibt Technik, die immer komplexer wie komplizierter wird.

Ich bin eher aufgrund meiner Erfahrungen in der IT zu dem Schluß gekommen, daß je größer die Sache wird, umso weniger blicken die Leute da durch. Wir schaffen es gerade mal so, die Sache einigermaßen so zu beherrschen, daß der ganze Mist läuft. Man hat an vielen Stellen in der IT an sich den Überblick verloren. Daher sehe ich die meisten Probleme weder in Arroganz oder Berechnung, sondern es ist wohl vielfach den Leuten über den Kopf gewachsen. Und bei mangelnder Konkurrenz, ja, kann man sich eben auf seinem Stand ausruhen, weil die Leute ja doch kaufen, egal was man macht.

Im großen und ganzen läuft das doch alles. Wir haben nach wie vor eine Steigerung der Leistung, und einen Totalausfall einer ganzen Produktlinie gibts so auch nicht.