PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 11. März 2025


Leonidas
2025-03-12, 08:37:03
Link zur News:
https://www.3dcenter.org/news/news-des-11-maerz-2025

Grafikspachtel
2025-03-12, 10:12:09
News
Wiederholung:

Gast
2025-03-12, 10:57:04
Ich weise nochmal auf chinesisches Neujahr hin. Den Zeitraum muss man von der Spanne für Aufbau von Lagerbestand abziehen.

Leonidas
2025-03-12, 11:03:17
Wiederholung:

Gefixt :)

Iscaran
2025-03-12, 12:23:14
Um so irritierender ist erneut, dass AMD die augenscheinlich gute Ausgangslage der RDNA4-Architektur nicht für HighEnd-Beschleuniger nutzt. Ein Navi 48 auf sagen wir 250 Watt sollte nahezu die Performance der Radeon RX 9070 XT bieten, damit schneller als die GeForce RTX 5070 bei gleicher TDP sein. Ein verdoppelter Grafikchip mit somit 128 Shader-Clustern könnte maximal bis zu einer TDP von 500 Watt reichen, würde eventuell +60-70% schneller als die Radeon RX 9070 XT sein und somit vielleicht nicht ganz das Niveau der GeForcer RTX 5090 erreichen, aber gerade mit seinen Salvage-Varianten genüßlich im Preisfeld von 1000-1500 Euro wuchern und dort nVidias (viel langsamerer) GeForce RTX 5080 das Wasser gehörig abgraben.

Ziemlich wilde Spekulation. Ich finde daran nichts irritierend. AMD will vielleicht einfach keine consumer GPUs mit >>300 W loslassen.
Finde ich eigentlich gut und richtig. Den 3DC-Enthusiasten-Markt wo man zwingend eine RTX 5090 besitzen muss kann AMD gern nVidia überlassen.

Leonidas
2025-03-12, 12:29:16
Es ging aber nicht um die 5090 - sondern um die 5080 samt Zwischenraum zur 5090. Dort hätte man durchaus Geld verdienen können mit einer guten Lösung.

Iscaran
2025-03-12, 12:33:18
Nur wenn man >> 300 W geht...

Das hat man bislang AFAIK nur einmal mit der 7900 XTX überhaupt gemacht.

Dino-Fossil
2025-03-12, 14:01:49
Hätte man ja nicht mal verdoppeln müssen. Ein 96CU Chip hätte die 5080 vermutlich auch schon hinter sich gelassen und wäre günstiger als ein 128CU Chip, der die 5090 trotzdem nicht ganz erreicht.

maximus_hertus
2025-03-12, 14:13:56
Nur wenn man >> 300 W geht...

Das hat man bislang AFAIK nur einmal mit der 7900 XTX überhaupt gemacht.


Ich denke mal, dass die 300W nicht DER Grund sind, warum es keinen größeren Chip als N48 gibt.

Auch wenn es Dualkarten sind, aber z.B. die 295X2 hatte afair eine TDP im Bereich von 500W.


Wahrscheinlich sind es 2 Dinge, die AMD davon abgehalten haben:
- zu wenig Zeit um nach dem Abbruch von Big RDNA4 eine andere größere Lösung zu entwickeln (reine Speku meinerseits)
- man hat nicht die Situation vorhersehen können, in dem nVidia nicht dominiert (massive Launchprobleme, Verfügbarkeiten, nur sehr geringer fps Zuwachs bei RTX 5000, etc.)


Dann bleibt noch die Frage, ob die Enthusiasten (der über 1000 USD Markt) so euphorisch auf RDNA4 reagieren würden? Wenn man Kohle hat, dann kann man direkt noch den nächsten Schritt zur 5090 gehen + nVidia "Bonus".

Im (deutlich) über 1000 USD Bereich spielt der finanzielle Aspekt nicht mehr die ganz große Rolle, so dass AMD hier nicht so sehr mit besseren Preisen punkten könnte. Hier zählen dann vor allem Performance, Features, Treiber, "Image", etc.

basix
2025-03-12, 14:54:50
Hätte man ja nicht mal verdoppeln müssen. Ein 96CU Chip hätte die 5080 vermutlich auch schon hinter sich gelassen und wäre günstiger als ein 128CU Chip, der die 5090 trotzdem nicht ganz erreicht.

96CU mit 256bit und 24GByte GDDR7 (32Gbps / 3Gbit) bei ~350W wäre eine schöne Karte ;) Die hätte auch gegen eine 5080 (Super) noch gut Bestand, selbst bei RT. Nur bei PT wäre man hinten dran.

Davon noch einen Salvage des Chips mit 80/84 CU und 21 GByte.

Aber ich denke nicht, dass wir sowas von RDNA4 noch sehen werden.

Gast
2025-03-12, 15:42:59
Die Grafik ist halt ein kompletter Schwachsinn, da auf dem 3dCenter PerformanceIndex basierend.

Da dieser Performancemesswerte von unzähligen Quellen miteinander verrechnet, die Verbrauchsmessungen aber einerseits in deutlich geringerer Anzahl vorhanden sind, und vor allem auch keinen Bezug zur damit gemessenen Performance haben kommt eben irgendwas raus aber sicher nicht ein valider Effizienzwert.

Bei Grafikkarten die dauerhaft am Powerlimit hängen, mag damit die Fehlerquote noch einigermaßen gering sein, bei Grafikkarten deren Verbrauch sich aber von Anwendung zu Anwendung unterscheidet kommt nur Schwachsinn raus.

Mittlerweile gibt es glücklicherweise genügend Quellen die Effizienzwerte korrekt ermitteln, in denen nur Leistungs- und Leistungsaufnahmewerte der selben Messung miteinander verrechnet werden, wodurch ein valides Ergebnis zustande kommt.

Iscaran
2025-03-12, 15:54:14
Wie gesagt ich denke AMD geht auch einfach nicht über 1.000 € und ich finde das an sich gut.

Soll nVidia diese Positionen besetzen, da können Sie ihren Fans das Geld aus der Tasche ziehen. Diese Klientel würde sowies um keinen Preis der Welt eine AMD GPU kaufen. Dazu muss sich erst die Mentalität der Kunden ändern...das dauert.

Gast
2025-03-12, 17:30:54
Wenn das weltweite Marktverhältnis zwischen AMD und nVidia bei nur 20:80 steht, dann sind ein Drittel des nVidia-Absatzes für AMD bereits mehr als eine Absatzverdopplung

20:80 Marktverhältniss ist doch inklusive Notebook, oder? Im Notebook spielt AMD aber kaum eine Rolle, also muss im Desktop der AMD-Anteil größer sein. Dann muss man noch OEM-Desktop und Desktop-Retail unterscheiden. Die Grafikkarten, um die es hier in der CB-Umfrage geht, sind rein Desktop-Retail-Karten und auch nicht Weltweit, sondern nur in Deutschland. In Deutschland, im Retailhandel steht AMD bei den Marktanteilen viel besser da, also muss AMD gar nicht seine Liefermenge verdoppeln um den Ausfall von Nvidia im deutschen Retailhandel auszugleichen.

Gast
2025-03-12, 17:56:06
Die Grafik ist halt ein kompletter Schwachsinn, da auf dem 3dCenter PerformanceIndex basierend.

Da dieser Performancemesswerte von unzähligen Quellen miteinander verrechnet, die Verbrauchsmessungen aber einerseits in deutlich geringerer Anzahl vorhanden sind, und vor allem auch keinen Bezug zur damit gemessenen Performance haben kommt eben irgendwas raus aber sicher nicht ein valider Effizienzwert.

Bei Grafikkarten die dauerhaft am Powerlimit hängen, mag damit die Fehlerquote noch einigermaßen gering sein, bei Grafikkarten deren Verbrauch sich aber von Anwendung zu Anwendung unterscheidet kommt nur Schwachsinn raus.

Mittlerweile gibt es glücklicherweise genügend Quellen die Effizienzwerte korrekt ermitteln, in denen nur Leistungs- und Leistungsaufnahmewerte der selben Messung miteinander verrechnet werden, wodurch ein valides Ergebnis zustande kommt.

Für ne grobe Einordnung reicht es, jeder Punkt im Diagramm mittelt ja auch über mehrere Modelle und die Effizienzunterschiede sind bekanntermaßen erheblich.

Gast
2025-03-12, 18:09:02
Ich finde die RTX 5090 mit den 500W zu viel des Guten. Von daher brauche ich von AMD auch keinen Gegenspieler. Auch keinen, der irgendwo zwischen 5090 und 5080 liegt, also einen potentiellen 5080TI-Gegner. Es würde reichen im Jahr 2026 in 3nm einen entsprechenden Chip mit GDDR7 am 256bit-Interface zu bringen.

Was die Leute 2025 wirklich haben wollen, sind 300 Euro Grafikkarten mit mehr als 8 GB Speicher..

(Da hat Intel zunächst geliefert, es stellte sich dann aber raus, dass man eine potente CPU braucht um diese 300 Euro-Grafikkarte ohne Leistungsverlust betreiben zu können.)

Leonidas
2025-03-12, 18:34:30
20:80 Marktverhältniss ist doch inklusive Notebook, oder?.

Nein, nur Desktop. Inkl. Notebooks ist es sicherlich eher 10/90.

MadManniMan
2025-03-12, 20:35:47
Ich finde die RTX 5090 mit den 500W zu viel des Guten.

Agree. Ich sitze hier neben einem 5800X3D mit einer undervolteten 4070 und es ist schon grenzwertig - mir ein Rätsel, wie es Leute mit nicht 300- sondern 1000-W-Maschinen dauerhaft aushalten.

Bevor's nicht einen großen Effizienzschub gibt, bleib' ich bei Ada.

Stechpalme
2025-03-12, 23:22:19
Wie gesagt ich denke AMD geht auch einfach nicht über 1.000 € und ich finde das an sich gut.


Wenn AMD könnte, würde sie. Das High End Segment hat höhere Margen und eine sehr sehr große Käuferschaft auch abseits von Gamern. Aber sie können aktuell nicht. Woran das liegen mag..... gibt viele Gründe.
Aber die 9070 Reihe ist ein guter Wurf, keine Frage. Fand den Test der vermeidlichen 9070 XTX bei PCGH ganz interessant. Auch wenn das mit der Brechstange war, aber RDNA4 zeigt deutlich, dass man mithalten kann. Schauen wir mal, ob man diesen Trend mit der nächsten Generation weiter fortführen kann. Bei den CPUs haben sie es ja auch mit Ryzen geschafft. Jede GEN wurde besser und besser.

Torf
2025-03-12, 23:35:48
96CU mit 256bit und 24GByte GDDR7 (32Gbps / 3Gbit) bei ~350W wäre eine schöne Karte ;) Die hätte auch gegen eine 5080 (Super) noch gut Bestand, selbst bei RT. Nur bei PT wäre man hinten dran.

Davon noch einen Salvage des Chips mit 80/84 CU und 21 GByte.

Aber ich denke nicht, dass wir sowas von RDNA4 noch sehen werden.

An solche Steigerung glaube ich nicht. Im Verhältnis zur 9070 ergibt sich bei einer 26% höherer Rohleistung der XT nur ca 13% Vorteil.
Ich bin mir sicher da passt die Auslastung nicht. Entweder Speicherbandbreite oder Infinity $. Und beides verbreiten kostet auch wieder zusätzlichen Strombedarf.

G3cko
2025-03-12, 23:45:40
RDNA liegt in den letzten zügen. UDNA steht vor der Tür und wird die Architektur der nächsten Jahre. Wer will und braucht da einen 5090 Kontrahenten?

Badesalz
2025-03-13, 06:18:19
Es ging aber nicht um die 5090 - sondern um die 5080 samt Zwischenraum zur 5090. Dort hätte man durchaus Geld verdienen können mit einer guten Lösung.Wieviel der 12,x% des Anteils der 5080 hätte AMD ihr abknüpfen können? Wie schwankend ist die Kundschaft ab diesem Preissegment? Schätze ich nicht wohl genauso wie AMD leider für nicht nennenswert hoch ein.

Leonidas
2025-03-13, 08:02:19
Du hast insgesamt Recht mit Deiner schon vorher geäußerten Argumentation, dass in diesem Segment das, was RDNA4 derzeit gut hinbekommt (P/L), eher weniger zählt. Man kann überlegen, ob vielleicht noch eine Karte fett mitten zwischen 5080 & 5090 etwas bringt. Aber ein Kontrahent zur 5090 wird selbst wenn alles ähnlich ist wie bei 9070 nicht zünden. In dieser Sphäre geht es dann nicht um gleichwertiges P/L, weil Preis dort keine Rolle mehr spielt.

Iscaran
2025-03-13, 08:47:36
Was die Leute 2025 wirklich haben wollen, sind 300 Euro Grafikkarten mit mehr als 8 GB Speicher.
+1

Immortal
2025-03-29, 02:43:33
Link zur News:
https://www.3dcenter.org/news/news-des-11-maerz-2025
Der Artikel ist schon etwas her, aber ihr wurdet im japanischen Gear Tune zitiert: "Auf Basis der Grafik, in der 3DCenter (Deutschland) die Umfrage der Computerbase analysiert hat, stellt sich die Verkaufssituation wie folgt dar." :-)
ComputerBaseの調査結果を分析したドイツの3DCenterによるグラフでは、以下のような購入状況が明らかになっている
https://geartune.games/%e3%80%90%e6%9c%97%e5%a0%b1%e3%80%91amd-radeon-rx-9070%e3%82%b7%e3%83%aa%e3%83%bc%e3%82%ba%e3%81%8c%e5%bf%ab%e9%80%b2%e6%92%83-%e7%99%ba%e5%a3%b21%e9%80%b1%e9%96%93%e3%81%a7rtx-50%e3%82%b7/

Leonidas
2025-03-29, 03:02:28
:up:
Danke für den Hinweis.