Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
Langlay
2022-12-14, 19:50:59
Und womit vergleichst Du den einzigen seiner Art dann?
Mit der Erwartungshaltung und den Simulationen ?
dargo
2022-12-14, 20:05:18
davidzo und Konsorten
Ihr liegt da falsch. Das komplette Produktportfolio von AMD basiert auf N5. Die werden viel Kapazitäten haben.
AMD hat die Kapazitäten gebucht, als Mining noch im Gange war. Ich seh das auch so, dass die die CPU-Produktion notgedrungen etwas gedrosselt haben (Marktsituation und RPL) um die Preise hoch zu halten und alles Übrige in GPUs wandert.
Wat?
https://www.computerbase.de/2022-11/zen-4-cpus-massive-preissenkungen-bei-amd-ryzen-7000/
Olliver
2022-12-14, 20:32:54
Jetzt wo die 7900xtx Herstellerdesigns bis 3200 takten, sollte der Bugkeks doch gegessen sein, oder?
Der_Korken
2022-12-14, 22:06:35
Jetzt wo die 7900xtx Herstellerdesigns bis 3200 takten, sollte der Bugkeks doch gegessen sein, oder?
Eigentlich nicht. Das Verhalten bei OC ist nach wie vor etwas komisch. Die Customs gehen deutlich besser als die Referenz ohne offensichtlichen Grund. Und das Teil säuft selbst bei 0,8x Volt wie ein Loch. Im Vergleich zu N21 würde man meinen, dass N31 bestenfalls in 6nm gefertigt ist so gering wie der Effizienzgewinn ist. Ob es ein "kleiner" Bug ist, der durch einen Refresh "mal eben" gefixt wird, ist völlig offen, aber dass der Chip sich nicht so verhält wie AMD das geplant hatte, ist für mich eindeutig. Mein Tipp wäre, dass die 3,0-3,2Ghz geplant waren aber bei max. 300-330W. Da wäre man bei den angepeilten +50% Perf/W.
MSABK
2022-12-14, 22:22:10
Chiplets ist halt was neues, würde mich nicht überraschen wenn sie nicht wieder weg von Chiplets gehen falls es nicht besser wird.
Complicated
2022-12-14, 22:28:53
Mit der Erwartungshaltung und den Simulationen ?Die scheinen das zeitgleiche N32-Chiplet als gute Idee ausgespuckt zu haben. Du siehst schon, dass der Zeitpunkt der Entscheidung nicht nach N31-Release liegt.
Langlay
2022-12-14, 22:42:26
Die scheinen das zeitgleiche N32-Chiplet als gute Idee ausgespuckt zu haben. Du siehst schon, dass der Zeitpunkt der Entscheidung nicht nach N31-Release liegt.
Was jetzt wahrscheinlicher ist. Das AMD 2 Testballone zur Serienfertigung bringt um "Scaling" zu testen, oder das die Kosten von Chiplets im Vergleich zum Monolithisch jetzt schon auf einem ähnlichen Niveau sind ?
Darüber können wir jetzt die nächsten 5 Seiten spekulieren ohne Informationsgewinn.
Und von zeitgleich würde ich jetzt auch nicht sprechen. 1. ist er noch nicht gelauncht und wir haben noch nichtmal einen Releasedate und 2. soll er ja laut Gerüchten auch soviel Jünger sein das der angebliche Navi31 Bug dort schon gefixt ist. Auch das klingt für mich nicht zeitgleich.
iamthebear
2022-12-14, 22:44:58
Die Customs gehen besser, da sie mehr TDP haben und somit mehr Spannung geben können. Die Kurven sind ziemlich ident.
Die 7900 XTX ist eben eine 500W Karte, die künstlich runter gedrosselt wurde. Das wurde auch schon lange geleaked, dass die saugen ohne Ende nur dachten damals alle, dass:
.) Das ein riesiges Dual GCD Konstrukt ist, das selbst Full AD102 schlägt
.) Nvidia mit 600W+ noch viel schlimmer ist
Wäre Navi31 ein ernsthafter AD102 Konkurrent (d.h. 7900 XTX vs. Full AD102, 7900 XT vs. 4090), dann wäre das auch kein Problem, wenn die 7900 XTX 450W zieht. Aber bei einem 4080 Konkurrenten ist das doch etwas unangebracht.
Mit Chiplets hat das relativ wenig zu tun. Wenn die 0.4pJ/Bit vs. 0.1pJ/Bit on die stimmen, dann sind das bei 5TB/s gerade einmal 12W zusätzlich. Das ist jetzt nicht das große Drama.
Die Verlustleistung ist wohl eher eine Folge von den Verdichtungsaktionen im GCD bzw. dem Versuch auf hohe Taktraten zu gehen.
Nightspider
2022-12-14, 22:49:13
Zumal das Cache so groß ist, das man sich noch leistungsintensivere Zugriffe auf den VRAM spart.
Der Chiplet-Cache wird nicht weit vom Nullsummenspiel entfernt sein.
Complicated
2022-12-14, 22:53:51
Was jetzt wahrscheinlicher ist. Das AMD 2 Testballone zur Serienfertigung bringt um "Scaling" zu testen, oder das die Kosten von Chiplets im Vergleich zum Monolithisch jetzt schon auf einem ähnlichen Niveau sind ?Ich spekuliere nichts, lediglich Deine "wie sinnlos" Äusserung ist nicht fundiert, da Du die Zielsetzung eben nicht kennst und welche anderen Dimensionen die Entscheidung für 2 GCDs hatte.
Langlay
2022-12-14, 22:56:08
Ich spekuliere nichts, lediglich Deine "wie sinnlos" Äusserung ist nicht fundiert, da Du die Zielsetzung eben nicht kennst und welche anderen Dimensionen die Entscheidung für 2 GCDs hatte.
Du spekulierst also nicht, du weißt also einfach das ich unrecht hab, aha. Gute Argumentation, da kann ich nichts mehr zu sagen.
Das es wirtschaftlich war 2 GCDs zubringen ist ja auch total an den Haaren herbeigezogen. Wo würden wir den hinkommen wenn Firmen Produkte verkaufen um Geld zu verdienen und nicht um die Welt besser zu machen. OH WAIT ...
w0mbat
2022-12-14, 23:09:52
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich funktioniert der shader prefetch nicht.
Nakai
2022-12-14, 23:16:09
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich ist funktioniert der shader prefetch nicht.
Irgendwas ist da kaputt.
Seien es die Treiber, die nicht gut genug sind, um die Dual-Issue FP32-SPs auszulasten oder es ist wirklich die HW. Das Ding kann definitiv die Taktraten erreichen, aber säuft dabei wie ein Loch. Sorry, aber die 15% bessere Perf/Watt sind wirklich mies.
bbott
2022-12-14, 23:33:13
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich ist funktioniert der shader prefetch nicht.
Wie groß wäre der Performance impact/ Verlust?
Wie wäre der Bug beweißbar, oder reicht schon der Code aus dem Treiber(?)?
horn 12
2022-12-14, 23:37:39
@Nakai
Und dann denkst kommt zeitnah ein Refresh
Frühling 2023 oder oder doch erst Herbst 2023
Exxtreme
2022-12-14, 23:42:24
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich funktioniert der shader prefetch nicht.
https://cgit.freedesktop.org/mesa/mesa/tree/src/amd/llvm/ac_llvm_util.c
"CHIP_GFX1100" ist anscheinend eine APU. Betrifft die normalen Grafikkarten wohl nicht.
Edit, im CB meint auch einer, dass das eine APU ist:
https://www.computerbase.de/forum/threads/radeon-rx-7900-xtx-xt-im-test-amd-rdna-3-gegen-nvidia-geforce-rtx-4000-ada-lovelace.2119102/page-129#post-27643161
w0mbat
2022-12-14, 23:52:53
GFX1100 ist Navi31
Iscaran
2022-12-15, 00:16:25
Die 7900 XTX ist eben eine 500W Karte, die künstlich runter gedrosselt wurde.
Das passt dann aber so ganz und gar nicht zur total unerwartet schlechten "ineffizienz" der N31 Chips.
Drosselt man eine hochgezüchtet Karte, würde man doch in der Regel eher "besser" in P/W als noch schlechter.
Es sei denn der "Sweetspot" der GPU liegt bei 500 W.
Dann möchte ich aber echt mal einen SCALING Test sehen, denn wenn 500 der Sweetspot ist, müsste das eigentlich
1.) linear runter gehen, wenn man die Leistung drosselt
UND
2.) >500W nochmal drastisch einbrechen bei P/W.
Wenn schon, dann ist das eine 200 W Karte die man auf 355 W hochgeprügelt hat, weil...?
Gott1337
2022-12-15, 00:58:16
Was wurde eigentlich aus deiner "RTX4080 in TW3 30% schneller als 7900XTX"?
Ist ja hervorragend gealtert :ugly:
Im Vergleich zu früher hat AMD mehr Geschäftsbereiche
wurden wohl über 100% in ULTRA RT, aber wieder witzig
horn 12
2022-12-15, 01:01:29
Die Customs XTX der Großen Hersteller konkurrieren ja knapp bis mit der 4090 FE so wie es scheint!
arcanum
2022-12-15, 01:04:54
Mit 150w mehr Verbrauch auf jeden Fall.
BlacKi
2022-12-15, 01:11:07
Das passt dann aber so ganz und gar nicht zur total unerwartet schlechten "ineffizienz" der N31 Chips.
Drosselt man eine hochgezüchtet Karte, würde man doch in der Regel eher "besser" in P/W als noch schlechter.
Es sei denn der "Sweetspot" der GPU liegt bei 500 W.
Dann möchte ich aber echt mal einen SCALING Test sehen, denn wenn 500 der Sweetspot ist, müsste das eigentlich
1.) linear runter gehen, wenn man die Leistung drosselt
UND
2.) >500W nochmal drastisch einbrechen bei P/W.
Wenn schon, dann ist das eine 200 W Karte die man auf 355 W hochgeprügelt hat, weil...?der grund warum die leute auf die idee kommen das 500w sweetspot sein soll liegt darin das ein angepasstes UV mit losem powerlimit besser funktioniert als stock.
das ist aber nicht der sweetspot.
Nightspider
2022-12-15, 02:42:22
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich funktioniert der shader prefetch nicht.
Also killed zumindest einer der Fehler die IPC von N31, sofern das stimmt.
Was schätzt ihr, in welchem Bereich die Performance dadurch gebremst wird?
Kann es sein, das der enorm schnelle Cache das Prefetch Problem soweit "abmildert", das man deswegen N31 noch verkaufen konnte, weil es keine totale Katastrophe dadurch geworden ist?
Natürlich müsste man erstmal wissen an welchen Stellen das Prefetching nicht läuft. Da hab ich aber zu wenig Ahnung von.
Wenn AMD N31 gefixed herausbringen sollte und diese Karte 20% schneller sein würde, dann würden AMD die Karten auch für 1200-1300 Euro aus den Händen gerissen werden (zumindest in der aktuellen Situation).
Dann wären 500W Custom Bolliden mit nochmals 10% mehr Takt auch attraktiver für die Enthusiasten und man könnte damit sogar oft vor einer 4090 landen, bei Rasterisierung.
Ich habs schon mal erwähnt aber noch besser würde ich es natürlich finden, wenn AMD Ende 2023 ein größeres GCD mit gefixter RDNA3+ Version bringen würde. :ulol:
Was gestackte MCDs betrifft, so scheint immernoch keiner Ahnung zu haben ob die jemals geplant waren oder die MCDs die TSVs für Stacking besitzen. :|
Gott1337
2022-12-15, 03:19:03
Also killed zumindest einer der Fehler die IPC von N31, sofern das stimmt.
Was schätzt ihr, in welchem Bereich die Performance dadurch gebremst wird?
Kann es sein, das der enorm schnelle Cache das Prefetch Problem soweit "abmildert", das man deswegen N31 noch verkaufen konnte, weil es keine totale Katastrophe dadurch geworden ist?
Natürlich müsste man erstmal wissen an welchen Stellen das Prefetching nicht läuft. Da hab ich aber zu wenig Ahnung von.
Wenn AMD N31 gefixed herausbringen sollte und diese Karte 20% schneller sein würde, dann würden AMD die Karten auch für 1200-1300 Euro aus den Händen gerissen werden (zumindest in der aktuellen Situation).
Dann wären 500W Custom Bolliden mit nochmals 10% mehr Takt auch attraktiver für die Enthusiasten und man könnte damit sogar oft vor einer 4090 landen, bei Rasterisierung.
Ich habs schon mal erwähnt aber noch besser würde ich es natürlich finden, wenn AMD Ende 2023 ein größeres GCD mit gefixter RDNA3+ Version bringen würde. :ulol:
Was gestackte MCDs betrifft, so scheint immernoch keiner Ahnung zu haben ob die jemals geplant waren oder die MCDs die TSVs für Stacking besitzen. :|
soll doch wenn, nur für die APU gelten
w0mbat
2022-12-15, 09:26:40
soll doch wenn, nur für die APU gelten
Woher hast du diese Info? Es wird ja speziell GFX1100 erwähnt, was Navi31 ist.
Tangletingle
2022-12-15, 09:35:49
Kann man für rdna2 den shader prefetch deaktivieren um den Performanceimpact zu sehen?
Olliver
2022-12-15, 10:02:13
Die kolportierte 2700Mhz Mauer existierte wohl nur bei clickbate leakern.
Wenn man überlegt, das die 5nm Fertigung für AMD einen schlechteren Wirkungsgrad hat als die "4nm" für nvidia, chiplets Effizienz kosten und das rdna 3 Design vielleicht mehr Leckströme als erhofft, erklärt sich das saufen auch ohne Hardware Bug.
Bei der 3090ti kosteten 200Mhz zur FE locker 100 Watt und da war der Bug ein Feature.
Loeschzwerg
2022-12-15, 10:19:34
Kann man für rdna2 den shader prefetch deaktivieren um den Performanceimpact zu sehen?
Alte News, aber evtl. ein kleiner Anhaltspunkt:
https://www.phoronix.com/news/RADV-Shader-Prefetch (Thx @ Zer0Strat für den Fund)
---
Vielleicht für den ein oder anderen interessant, bezüglich Stepping, Takt und allgemein IPC: https://twitter.com/davidbepo/status/1603145507488014336
Ich könnt mir vorstellen, dass es sich angesichts dieses doch eher schwereren Fehlers einen Metalspin der A0 auf A1 nicht gelohnt hat, da eine neue Revision (B0) nötig ist. Damit hat AMD das, was man schon hatte, so einfach auf den Markt gebracht und die 6k-Serie einfach nach oben ergänzt und den teuren N21 ersetzt. Ich könnt mit vorstellen, dass ein einfacher Metalspin beim A0 schon 200MHz Mehrtakt bringen würde. Das ist jetzt natürlich nicht der Fall, daher die niedrigen Taktraten. Wäre jedenfalls ne Erklärung.
Und das fehlende Prefetching würde mMn auch das doch sehr unausgewogene Leistungsverhalten ggü. den 6k-Chips erklären. Also warten wir mal auf das 2.H 23, wenn dann eine Bx zu erwarten ist. Mal sehen, wie sich das Ganze auch auf RT auswirkt.
AffenJack
2022-12-15, 10:29:45
Dass das Ding die Ziele in einem Bereich nicht erreicht kann ich mir ja noch vorstellen. Aber jetzt soll Takt, Designbugs etc alles zusammen kommen? Chips werden heutzutage aufwändig simuliert. Das ganze klingt mir langsam zuviel des Guten als Rechtfertigung der "Leaker", wieso ihre Angaben alle komplett daneben lagen. Bugs haben Chips ja auch öfter, aber wenn es gravierend für die Performance wäre, hätte man es wahrscheinlich versucht zu fixen.
Ich bin sehr gespannt, wie sich N32 und N33 verhalten.
Nene, das ist ganz einfach: Das ist schlichtweg bis zum Tape Out nicht aufgefallen, das kann einfach passieren. Danach hat man das festgestellt. Und dann musste man sich entscheiden, verschieben wir den kompletten Launch um ein halbes Jahr oder schiebt man eine Zwischengeneration ein. Und da der Chip ansonsten gut funktionierte und meinetwegen 90% des möglichen Taktes erreichte - und sich die Frage stellte, wie machen wir unsere bezahlten N5-Kontingente voll - hat man sich für letzteres entschieden. Hat natürlich den Vorteil, dass man die B-Revision auch richtig durchoptimieren kann mit 1 oder 2 Metalspins (und auch N32 und N33). Wenn das Teil dann kommt, ist das das, was maximal machbar ist mit RDNA3.
Und dass der Takt fast immer noch mal nachoptimiert wird, ist auch nichts neues. Die meisten GPUs releasen als A1 oder A2.
Nur die APUs sind bei AMD oft A0, aber die sind technisch ja auch meist nicht die Speerspitze. Bei CPUs hingegen rechnet man eine Revision ein, Zen4 brauchte IIRC sogar 2, deswegen war der auch so spät.
Loeschzwerg
2022-12-15, 10:50:46
Nene, das ist ganz einfach: Das ist schlichtweg bis zum Tape Out nicht aufgefallen, das kann einfach passieren. Danach hat man das festgestellt.
Die Frage wäre nun wie das alles zeitlich einzuordnen ist. Wann ist es aufgefallen und wäre noch eine weitere Revision drin gewesen? Edit: So wie du es in deinem Beitrag noch ergänzt hast, genau.
MSABK
2022-12-15, 11:06:10
Werden N32 und N33 auch Chiplets nutzen?
nordic_pegasus
2022-12-15, 11:13:37
Werden N32 und N33 auch Chiplets nutzen?
Navi32 soll Chiplet sein, wieder 5nm/6nm, 1 GCD + max. 4 MCD
Navi33 soll monolitisch sein in 6nm
Neurosphere
2022-12-15, 11:23:45
Nene, das ist ganz einfach: Das ist schlichtweg bis zum Tape Out nicht aufgefallen, das kann einfach passieren. Danach hat man das festgestellt. Und dann musste man sich entscheiden, verschieben wir den kompletten Launch um ein halbes Jahr oder schiebt man eine Zwischengeneration ein. Und da der Chip ansonsten gut funktionierte und meinetwegen 90% des möglichen Taktes erreichte - und sich die Frage stellte, wie machen wir unsere bezahlten N5-Kontingente voll - hat man sich für letzteres entschieden. Hat natürlich den Vorteil, dass man die B-Revision auch richtig durchoptimieren kann mit 1 oder 2 Metalspins (und auch N32 und N33). Wenn das Teil dann kommt, ist das das, was maximal machbar ist mit RDNA3.
Und dass der Takt fast immer noch mal nachoptimiert wird, ist auch nichts neues. Die meisten GPUs releasen als A1 oder A2.
Nur die APUs sind bei AMD oft A0, aber die sind technisch ja auch meist nicht die Speerspitze. Bei CPUs hingegen rechnet man eine Revision ein, Zen4 brauchte IIRC sogar 2, deswegen war der auch so spät.
Die Frage dabei ist, wie AMD das ganze nun angeht.
Wäre in diesem Fall ja nicht unmöglich das N32 ohne Bugs und mit besserem Takt/Saufverhalten den derzeitigen N31 so nahe kommt das man sagen kann gleichwertig. EInzig das SI dürfte da einen Strich durch machen, aber das dürfte je nach Anwendung/Game mal mehr mal weniger sein.
Da wäre es fast schon besser man bringt in Q2 den N32 als 7850 oder gleich 8800 und schiebt den überarbeiteten N31 als 7950/8900 gleich hinterher.
N33, keine Ahnung...
Also ich würd N32 und N33 auch 1/2 Jahr verschieben und beide noch mal nachoptimieren. Wenn das geschafft ist, würd ich beide Chips zuerst im Notebook-Segment launchen, da sie dort als Ergänzung zu Pheonix Point gebraucht werden.
Es wird bis dahin reichen das jetzige Portfolio um eine 7800XT zu ergänzen (N31+16GB), sobald N21 abverkauft ist und die kleineren Modelle (N22 und N23) in N7 einfach weiter zu produzieren. N7 ist sehr billig z.Zt., weil es mehr Angebot als Nachfrage gibt, für AMD wäre also eine Verlängerung der Produkte sinnvoll, auch wenn die Preise noch weiter runter müssen.
Ich fänd es sinnvoll alle 3 Chips dann gleichzeitig als 8k-Serie im Herbst oder so zu launchen.
OpenVMSwartoll
2022-12-15, 12:23:42
Hieße aber, NV die Flanke so lange offen zu lassen.
Fraglich ist, wie lange potenzielle Fehler bekannt sind, wie schwierig zu fixen.
Wie lange dann die Evaluierung dauert. Je schneller man ein korrigiertes Produkt am Markt hat, desto weniger lang kann die Konkurrenz agieren.
Das ist eh gelaufen, ob man N32 jetzt bringt oder nicht ist da egal. Die 7k-Serie ist durch das fragwürdige Naming abgefrühstückt und AMD selbst sieht die 7k-Serie als Ergänzung zur 6k-Serie - die 7900XT ersetzt die 6900XT und die 7900XTX ist darüber angesiedelt. Die 7800XT wird die 6800(XT) ersetzen.
Es ist halt schlauer aus meiner Sicht die billigen N7-Produkte am Markt zu lassen, als jetzt die neuen, teureren Chips zu verheizen. Die schlechte Marktlage tut ihr übriges.
davidzo
2022-12-15, 12:31:42
davidzo und Konsorten
Ihr liegt da falsch. Das komplette Produktportfolio von AMD basiert auf N5. Die werden viel Kapazitäten haben.
AMD hat die Kapazitäten gebucht, als Mining noch im Gange war. Ich seh das auch so, dass die die CPU-Produktion notgedrungen etwas gedrosselt haben (Marktsituation und RPL) um die Preise hoch zu halten und alles Übrige in GPUs wandert.
Nicht wirklich. AMD setzt für 2022 noch mehr auf 6nm, während Nvidia mit Hopper und Lovelace zu 100% auf 5nm gegangen ist. Für 2022 hat Lisa für 6.5Mrd $ 5nm Kapazitäten bei TSMC reserviert. Das müssen sich Datacenter und Client Sparte teilen. Nvidia hat im gleichen Zeitraum angeblich für 10Mrd gebucht.
Nächstes Jahr soll AMD Nvidia zwar überholen, zumal Apple wegfällt und dort der Datacenter richtig fahrt aufnimmt und die Mobile Client CPUs in 5nm/4nm vom band laufen. Aber für dieses Jahr würde ich tippen dass nivida vorne liegt, und das fast nur mit GPUs, also ohne CPUs, FPGAs, etc. die AMD noch im Programm hat.
CPU Produktion drosseln, davon träumst du. Der Consumermarkt schwächelt vielleicht, aber dank der Chipletstrategie ist das für AMD egal. Im Moment wird AMD jede 5nm Datacenter CPU die man herstellen kann aus den Händen gerissen. Selbst wenn AMD Ryzen 7000 canceln und nur noch Epycs bauen würde das nicht reichen um die riesige Lücke im Markt zu füllen welche die erneute Verzögerung von Sapphire Rapids hinterlassen hat. Die Kunden die nicht schon früher wegen der Liefersituation von SR abgesprungen sind, sehen nun dass SR vielleicht mit Milan konkurrenzfähig gewesen wäre, aber definitiv nicht mehr mit Genoa. SR ist tot und das weiß Intel auch, geht deswegen bei den Desktop-DIEs in die Vollen mit einem sehr konkurenzfähigen, nahezu günstigen Lineup.
Eher wird man die GPU-Produktion drosseln da der mining-boom vorüber ist. Der Datacenter boom für AMD beginnt gerade erst. Da liegen gerade 70% des Marktes brach dank SR - Reif zur Übernahme.
Datacenter CPUs sind ein Bruchteil der Consumervarianten.
dildo4u
2022-12-15, 12:49:37
Vor allem die großen Firmen sind deutlich besser dran eigene ARM Chip zu beauftragen wenn sie eh überlegen von Intel weg zu kommen.
(Apple, Amazon und MS)
Wenn man groß genug ist eigene Software zu schreiben hat AMD kein Vorteile durch die x86 Lizenz.
Maestrox
2022-12-15, 12:58:32
Habe meine MBA 7900XTX soeben erhalten. Und bei BF2042 spuckt wattman und HWINFO folgendes aus, wegen Taktraten.
davidzo
2022-12-15, 13:04:56
Datacenter CPUs sind ein Bruchteil der Consumervarianten.
:freak: Lol, es ist natürlich total hilfreich wenn man die üblichen bullshit-Statistiken nimmt die nach Stückzahlen gehen. In denen hat Intel auch noch über 80Prozent Marktanteil.
Klar, wenn ne 50$ netbook CPU 1:1 wie eine 10k$ Datacenter CPU zählt, dann ist der Consumermarkt viel größer ;D
Du musst bei solchen Statistiken natürlich nach Corecount gehen. Ein Epyc Genoa entspricht vom Silicon 12x Consumer CPUs. Und ja, der Datacenter markt für AMD ist damit erheblich größer als der Consumer Desktop CPU Markt. Wie gesagt, Intels Marktanteil im Datecenter war bisher nach Corecount, bzw. shipped Square-Silicon um die 70%. Der wird aktuell nicht bedient, also kann AMD aktuell seine Marktanteile mal eben verdoppeln wenn man lieferfähig wäre.
TAM-Vergleich aus der Lisa Su Folie vom AMD Financial Analyst Day '22:
16Bn$ Gaming
29Bn$ Embedded
40Bn$ PCs
50Bn$ Datacenter (in 5 Jahren sogar 125Bn$)
Und von diesen 50Milliarden will man jetzt das größte Stück vom Kuchen übernehmen. Von 2020 nach 2021 hat sich der Anteil von Datacenter an AMDs Umsatz von 16% auf 25% vergrößert, mit Lisas Ansage dass es auch in 2022 und 23 so weiter geht.
Außerdem musst du den Consumer mobile Markt vom 6.9Bn$ "PC-Geschäftsbereich" abziehen, Desktop ist kaum die Hälfte und war damit in 2021 schon kleiner als der Datacenter Markt (3.9Bn$). In 2022 wird Datacenter größer sein als CPU Consumer Mobile+Desktop zusammen und wohl ebenfalls größer als die Gamingsparte mit PC gaming + Konsolen.
Einen Moment, bei der Produktion, und hier ging es um Produktion, ist die Stückzahl der produzierten CCDs relevant, nichts anderes. Klar sind auf Epics mehr CCDs als auch Consumer, aber nicht 12x, das ist Blödsinn. Die meisten, die verkauft werden, haben haben deutlich weniger CCDs. Erschwerend hinzu kommt, dass das auch nicht die guten CCDs sind, da ein sehr großer Anteil bis zum Erbrechen gesalvaged werden können. Datacenter hat deutlich weniger Stückzahl als Consumer-Ware, daher kann man den Preis des Consumer-Marktes durch Verringerung der Stückzahl kontrollieren, während die Epics unberührt bleiben. Dann verliert man halt Marktanteil, aber vermeidet einen Preisrutsch im Consumer-Bereich. Epics werden halt soviele produziert, wie man braucht, das ist ja kein Problem, da es quantitativ und qualitativ viel geringere Mengen sind. Deswegen wird AMD auf gar keinen Fall auf Teufel komm raus N5-CPUs produzieren.
davidzo
2022-12-15, 13:38:52
Einen Moment, bei der Produktion, und hier ging es um Produktion, ist die Stückzahl der produzierten CCDs relevant, nichts anderes. Klar sind auf Epics mehr CCDs als auch Consumer, aber nicht 12x, das ist Blödsinn. Die meisten, die verkauft werden, haben haben deutlich weniger CCDs. Erschwerend hinzu kommt, dass das auch nicht die guten CCDs sind, da ein sehr großer Anteil bis zum Erbrechen gesalvaged werden können. Datacenter hat deutlich weniger Stückzahl als Consumer-Ware, daher kann man den Preis des Consumer-Marktes durch Verringerung der Stückzahl kontrollieren, während die Epics unberührt bleiben. Dann verliert man halt Marktanteil, aber vermeidet einen Preisrutsch im Consumer-Bereich. Epics werden halt soviele produziert, wie man braucht, das ist ja kein Problem, da es quantitativ und qualitativ viel geringere Mengen sind. Deswegen wird AMD auf gar keinen Fall auf Teufel komm raus N5-CPUs produzieren.
Wie gesagt, Stückzahl ist Schnurzpiepenegal, es geht um Corecount, bzw. CCD count.
Du hast wohl recht dass die sweetspot CPUs bei Epycs eher auf dem 8+1 Package basieren als auf dem 12+1, aber dann sind es immer noch 8 CCDs für einen Epyc 9354P der mit seinen 32C diesmal die meistverkaufte CPU werden und den 28C 7453 und 24C 77443P beerben könnte.
Der 9354 kommt auf einen preis pro CDD von 330$, also durchaus vergleichbar mit dem 7600x. Und das ist der Retail channel-preis den eh niemand bezahlt. Die riesigen Rabatte die Konzerne und Hyperscaler üblicherweise bekommen muss man da noch draufschlagen.
Du siehst hier also dass Datacenter wohl bereits 2021-22 ähnliche viele CCDs verkauft haben muss wie im Desktop (btw, von Milan gab es glaube ich eh nur das 8x CCD package).
Und Salvages sind bei AMD rein zur Produktsegmentierung, nicht etwa weil die Yields es nicht her geben. Bei so einem kleinen DIE wird der Yield ohnehin an die 95% sein und auch im Consumer gibts mit dem 7600x und kommenden 7600 genügend Raum um solche CCDs zu verwenden.
Das ist aber alles Erbsenzählerei. Der wesentliche Faktor ist dass Sapphire Rapids einem Totalausfall gleicht und daher mal eben 3x mehr Epycs gebraucht werden als AMDs Prognose von 2021. Das sind deutlich mehr CCDs als man im Consumer Desktop jemals unterbringen könnte.
Der Consumer Desktop Markt ist winzig. Mobile bzw. APUs sind eh der größere Teil des Consumer Markts.
Digidi
2022-12-15, 13:44:38
Habe meine MBA 7900XTX soeben erhalten. Und bei BF2042 spuckt wattman und HWINFO folgendes aus, wegen Taktraten.
@Maestrox
Könntest du bitte mal diesen Benchmark bei dir Laufen lassen? Wäre wirklich an den Werrten interessiert!
Die Dateien in der Zipfile entpacken, dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0
Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
P.s Bitte die Werte aus dem Anzeigefenster wählen und nicht aus dem DOS Fenster. Die 5 Modie stellt man auch oben rechts im Anzeigefenster um.
Zipfile is hier ganz unten zu finden: https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/
Maestrox
2022-12-15, 15:57:19
@Maestrox
Könntest du bitte mal diesen Benchmark bei dir Laufen lassen? Wäre wirklich an den Werrten interessiert!
Die Dateien in der Zipfile entpacken, dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0
Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
P.s Bitte die Werte aus dem Anzeigefenster wählen und nicht aus dem DOS Fenster. Die 5 Modie stellt man auch oben rechts im Anzeigefenster um.
Zipfile is hier ganz unten zu finden: https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/
Habs jetzt mit deinen parametern gestartet bekommen und die 5 modis durchgetestet. Richtig so?
Digidi
2022-12-15, 16:16:28
Vielen Vielen Dank. Hab die Werte mal hier reinkopiert. Irgend was stimmt nicht bie Multi Draw Indirect. Hier sollte ja der Beschleuniger kommen der es 2,3x besser macht. Man ist hier besser geworden aber nicht viel besser. Bei den Compute Shader kann man sehen, das das Problem wohl daran liegt, dass es wohl nicht für Workgroup size 64 programmiert wurde. Das ist alles sehr durchwachsen. Bei der alten Pipline hat sich fast nichts geändert. Kannst du noch sagen bei welchem Takt das lief? War im Hintergrund irgendein programmm vieleicht geöffnet?
Habs jetzt mit deinen parametern gestartet bekommen und die 5 modis durchgetestet. Richtig so?
robbitop
2022-12-15, 16:33:41
Die wave size entscheidet der Shadercompiler (im Treiber) - nicht das Programm.
Digidi
2022-12-15, 16:34:56
Die wave size entscheidet der Shadercompiler (im Treiber) - nicht das Programm.
Wieso verliert dann ein Simpler polygonen Test beim Shader Rastern so viel Leistung? Wo sind da die mehr Shader? 7900XTX hat mehr Shader und trotzdem kommt da nichts dabei rum. Auch MultiDrawIndirect ist seltsam, das sollte 2,3x mal so schnell sein, ist aber nur leicht schneller.
Maestrox
2022-12-15, 16:35:50
Leider nicht geguckt, aber die Karte wurde nicht sehr warm ~60° laut Pumpendisplay. Ich kann evt später heute Nacht nochmal den Takt checken, sonst leider erst Samstag. Immer so wenn man ein neues Spielzeug hat, keine Zeit :). Die Karte läuft bei mir nur auf PCIe 3.0 als Info.
robbitop
2022-12-15, 16:40:46
Wieso verliert dann ein Simpler polygonen Test beim Shader Rastern so viel Leistung? Wo sind da die mehr Shader? 7900XTX hat mehr Shader und trotzdem kommt da nichts dabei rum....
Ich kenne den Test nicht. Aber was haben Polygone und Rastern mit Shaderdurchsatz zu tun?
Unabhängig davon vermute ich, dass diese Neuerung in den FPUs noch einiges Potenzial im Shadercompiler vermuten lässt. Das braucht sicher eine gewisse Zeit eh man das ausgeschöpft hat. Shadercompiler war zumindest lange nicht gerade AMDs Stärke. Sony und MS haben zur Xbone/PS4 Zeiten laut Entwicklern deutlich bessere Shadercompiler für GCN gehabt als AMD selbst.
Complicated
2022-12-15, 16:43:14
Also ich denke, dass AMD dieses Feature nicht benötigt, so wie Nvidia:
https://docs.nvidia.com/gameworks/content/gameworkslibrary/graphicssamples/opengl_samples/multidrawindirectsample.htm
The MultiDrawIndirect sample shows how to use core OpenGL 4.4 behavior, along with several extensions to minimize driver-related CPU overhead. Modern applications frequently run into bottlenecks regarding the sheer number of draw calls needed per frame. In order to reduce this overhead, a set of core features and extensions referred to as "Approaching Zero Driver Overhead" ("AZDO") were developed to process multiple draw commands, using vertex and index data sourced from arbitrary buffers in a single function call. If your scene is bottlenecked by draw calls and contains a large number of similar models, then you should look at whether the MultiDrawIndirect extensions can be of use. This is a much more generally applicable method than strict instancing.
Das Draw Call Problem musste Nvidia so lösen, wegen deren Optimierungen.
Digidi
2022-12-15, 16:44:40
Ich kenne den Test nicht. Aber was haben Polygone und Rastern mit Shaderdurchsatz zu tun?
Unabhängig davon vermute ich, dass diese Neuerung in den FPUs noch einiges Potenzial im Shadercompiler vermuten lässt. Das braucht sicher eine gewisse Zeit eh man das ausgeschöpft hat. Shadercompiler war zumindest lange nicht gerade AMDs Stärke. Sony und MS haben zur Xbone/PS4 Zeiten laut Entwicklern deutlich bessere Shadercompiler für GCN gehabt als AMD selbst.
In dem Benchmark wird der Rasterizer über die Shader praktisch Emuliert. Deshalb sollte das rein von der Shader Leistung abhängen.
Troyan
2022-12-15, 16:44:49
Also ich denke, dass AMD dieses Feature nicht benötigt, so wie Nvidia:
https://docs.nvidia.com/gameworks/content/gameworkslibrary/graphicssamples/opengl_samples/multidrawindirectsample.htm
Das Draw Call Problem musste Nvidia so lösen, wegen deren Optimierungen.
Du hast weiterhin keine Ahnung von dem, was du hier schreibst. Draw Call ist ein Problem von APIs und nicht von Hardware.
Complicated
2022-12-15, 16:46:48
Oh man wenn Du den Kontext nicht verstehst, dann frag nach und Du bekommst Quellen.
Deine Ahnungslosigkeit anderen zu unterstellen ist der typische Dunning-Kruger.
AMD uses Hardware scheduling since GCN and Nvidia uses software scheduling since Kepler. DX11 has "semi" multi-threading support utilizing DX11 Command lists. In a game that hasn't been optimized well for multithreading a lot of the game logic is being executed on Core 1 (main thread). This is also the Core that handles all the draw calls (unless you use DX11 Command lists). If the work load wasn't spread out on other cores than Core 1 this would introduce a CPU bottleneck since the CPU wouldn't be able to process the draw calls fast enough to the GPU. When the DX11 Command lists are used some of the draw call processing can be distributed among the other CPU Cores removing some of the CPU bottleneck. However a hardware scheduler like the one used in GCN based GPUs a constant stream of Command lists can't be handled efficiently. In DX12 or Vulkan (or the graphics API used in Playstation 4) this isn't a problem because the draw call processing can be properly multi threaded without the use of large command lists.
Ein Bench für Software, die der AMD Treiber nicht braucht, da es in Hardware abgedeckt ist.
Digidi
2022-12-15, 16:49:34
Kann das jemand mit der 7900xtx mal testen was dann hier rauskommt. Der Test ist etwas Raler
Bitte wenns geht mit den Einstellungen von Niall testen, das wir das zuer 4090 vergleichen können. Er hatte eine Auflösung von 1600x900
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318
Jemand Interesse noch einen weiteren Benchmark ruchzuführen? Mal sehen ob die 4090 4.000.000 Asteoriden rändern kann. Werr das noch auf die Spitze heben kann verwendet LOD Bias 6 (noch mehr Polygonen). Wäre auch hier mal interessant was besser läuft. Vulkan oder DX12 ? Mesh Shader oder Compute Shader.
Zur Info. Bei Vulkan funktioniert bei Show nicht wenn man Sensor und Info auswählt. Nutzt am besten die Settings unten.
https://gravitymark.tellusim.com/
Achtung die Meldung im Hintergrund darf man nicht schließen sonst geht der Benchmark nicht.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318
Loeschzwerg
2022-12-15, 17:23:21
@Digidi: Falls von Interesse, ich habe dir Arc A770 LE Ergebnisse mit der jeweils anliegenden Taktfrequenz angehängt.
Berniyh
2022-12-15, 18:00:25
Sony und MS haben zur Xbone/PS4 Zeiten laut Entwicklern deutlich bessere Shadercompiler für GCN gehabt als AMD selbst.
Unter Linux gibt es mit ACO von Valve auch einen schnelleren Shadercompiler als der auf llvm basierende von AMD.
(Für Vulkan, um genau zu sein. Da aber unter Linux fast alles unter Vulkan läuft, insbesodere auch das ganze DX Zeug, ist das der relevante Fall.)
Auf die Frage, warum AMD denn überhaupt noch den llvm Ansatz verfolgt antwortete einer der AMD Entwickler, dass sie halt etwas brauchen das auf allen Plattformen läuft und ACO ist halt spezifisch für PC Gaming unter Linux.
Evtl. haben Sony und MS ja deshalb auch bessere Shadercompiler entwickeln können, weil sie es nur auf ihre Plattformen zugeschnitten haben.
robbitop
2022-12-15, 19:11:42
Ist trotzdem traurig, dass der eigentliche IHV beim Shadercompiler deutlich schlechter als Externe war (und ggf noch sind?).
Digidi
2022-12-15, 19:36:09
Ist trotzdem traurig, dass der eigentliche IHV beim Shadercompiler deutlich schlechter als Externe war (und ggf noch sind?).
Ist der Shader Compiler in Hardare eingebettet oder Software?
robbitop
2022-12-15, 20:18:26
Software. Ist Teil des Treibers.
Locuza
2022-12-15, 21:26:08
Alte News, aber evtl. ein kleiner Anhaltspunkt:
https://www.phoronix.com/news/RADV-Shader-Prefetch (Thx @ Zer0Strat für den Fund)
---
Vielleicht für den ein oder anderen interessant, bezüglich Stepping, Takt und allgemein IPC: https://twitter.com/davidbepo/status/1603145507488014336
Meiner Interpretation nach klingt das wie beschränktes Software-Prefetching, möglich unter allen GPUs.
Von Hardware-Shader-Prefetching hat AMD seit GCN4/Polaris gesprochen.
https://twitter.com/Locuza_/status/1457599408808337411
https://twitter.com/Locuza_/status/1457600508122869763
Damals habe ich nur Code für RDNA1 (GFX10) und Aldeberan (CDNA2) gesehen, mit 3 bzw. 16 Cache Lines die vorab geholt werden konnten.
Möglicherweise kann dies teilweise zu größeren Vorteilen führen, als die RADV-Implementierung.
Die wave size entscheidet der Shadercompiler (im Treiber) - nicht das Programm.
Mittlerweile kann man das bei DX12 spezifizieren (vermutlich auch in Vulkan), der Benchmark-Code wird aber vermutlich keinen Gebrauch von so etwas machen.
https://microsoft.github.io/DirectX-Specs/d3d/HLSL_SM_6_6_WaveSize.html
Wieso verliert dann ein Simpler polygonen Test beim Shader Rastern so viel Leistung? Wo sind da die mehr Shader? 7900XTX hat mehr Shader und trotzdem kommt da nichts dabei rum. Auch MultiDrawIndirect ist seltsam, das sollte 2,3x mal so schnell sein, ist aber nur leicht schneller.
Möglich das der MDI-Accelerator ein extra HW-Block ist und erst entsprechend unterstützt werden muss und aktuelle Treiber die Ausführung nach wie vor über den klassischen Command-Processor durchführen.
Auf der anderen Seite muss man auch wissen was genau limitiert, nur weil MDI-Commands 2.3x so schnell dispatched werden können, heißt das nicht das der ganze Rest der Anwendung, wie das Shading selber, auch um 2,3x schneller abläuft.
Also ich denke, dass AMD dieses Feature nicht benötigt, so wie Nvidia:
https://docs.nvidia.com/gameworks/content/gameworkslibrary/graphicssamples/opengl_samples/multidrawindirectsample.htm
Das Draw Call Problem musste Nvidia so lösen, wegen deren Optimierungen.
Oh man wenn Du den Kontext nicht verstehst, dann frag nach und Du bekommst Quellen.
Deine Ahnungslosigkeit anderen zu unterstellen ist der typische Dunning-Kruger.
Ein Bench für Software, die der AMD Treiber nicht braucht, da es in Hardware abgedeckt ist.
Hier vermischt man alles Mögliche, die Enkodierung der Instruktionen, Abhängigkeitsüberprüfungen auf SIMD-Ebene, die Ausführung von API-Befehlsschlangen und mehr.
Das Ganze kam iirc dank Anandtech und NerdTechGasm zu Stande, dank kruder Einsortierung und Interpretation.
Kepler hat Hardwarelogik entfernt, die sich darum gekümmert hat Warp & Registerabhängigkeiten zu überprüfen und der Software-Compiler enkodiert diese Information vorab.
Aber nach wie vor musste die Hardware Scheduling-Aufgaben für Textur und Ladeoperationen durchführen, ebenso welcher Warp als nächstes ausgeführt werden sollte:
We also looked for opportunities to optimize the power in the SMX warp scheduler logic. For example,
both Kepler and Fermi schedulers contain similar hardware units to handle the scheduling function,
including:
a) Register scoreboarding for long latency operations (texture and load)
b) Inter-warp scheduling decisions (e.g., pick the best warp to go next among eligible candidates)
c) Thread block level scheduling (e.g., the GigaThread engine)
However, Fermi’s scheduler also contains a complex hardware stage to prevent data hazards in the
math datapath itself. A multi-port register scoreboard keeps track of any registers that are not yet ready
with valid data, and a dependency checker block analyzes register usage across a multitude of fully
decoded warp instructions against the scoreboard, to determine which are eligible to issue.
For Kepler, we recognized that this information is deterministic (the math pipeline latencies are not
variable), and therefore it is possible for the compiler to determine up front when instructions will be
ready to issue, and provide this information in the instruction itself. This allowed us to replace several
complex and power-expensive blocks with a simple hardware block that extracts the pre-determined
latency information and uses it to mask out warps from eligibility at the inter-warp scheduler stage.
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/tesla-product-literature/NVIDIA-Kepler-GK110-GK210-Architecture-Whitepaper.pdf
Bei GCN gab es weder Hardware- noch Softwarescheduling an der Stelle, denn das Ausführungsmodell von GCN hat grundlegend keine Abhängigkeiten dort gehabt.
Es ist bei GCN nicht möglich mehrere Wavefronts gleichzeitig in einer SIMD-Pipeline zu haben, eine Wavefront ist 4 Takte aktiv und dann kommt die Nächste, da gibt es keine Abhängigkeiten zu überprüfen und richtig zu schedulen.
Das ganze Software/Hardwarescheduling-Zeug wurde dann sehr allgemein und unspezifisch gehalten und schließlich mit unterschiedlichen Ausführungsaspekten von DX11 und DX12 in Bezug auf Async Compute und den Driver-Overhead vermischt.
Es gibt nichts an GCN was die Unterstützung von DX11 multithreaded Command-List support verhindert oder erschwert, was übrigens entgegen der Argumention DX12/Vulkan beweist.
GCN hat Hardwarescheduler, welche sich explizit um Compute Queue Scheduling kümmern können, Warteschlangen voll mit Compute Command-Lists, aber eben nur um Compute Queues.
Das haben allerdings mehrere DX12 Titel zu Beginn, und teilweise auch jetzt, gar nicht ausgenutzt und alle Command Lists in eine 3D-Queue gesteckt, die Generierung der Command Buffer über mehrere CPU-Threads funktioniert aber trotzdem wunderbar.
Nvidia hat an der Stelle ebenso wenig Probleme bei DX11 oder DX12, wenn mal ein CPU-Overhead auffällt vs. Radeons, dann nicht wegen dem SW-Encoding der Instruktionsabhängigkeiten.
Bei Async Compute konnte man bis mindestens Pascal nicht so flexibel 3D- und Compute-Queues auf einer Compute Unit (SM) laufen lassen, wie bei GCN, sondern musste das vorab reservieren.
Bei Maxwell ging das nur über eine statische Vorabreservierung, weswegen dort nie dedizierte Compute-Queues unterstützt wurden, bei Pascal war es dann möglich das dynamisch von der Hardware zu verwalten.
Bei Turing kamen weitere Verbesserungen dazu, beim "SW-Scheduling" (Instruktionsabhängigkeiten) hat sich aber prinzipiell (abseits von einem veränderten Encoding-Schema) nie was verändert.
Bei RDNA1&2 kommt an der Stelle aber Hardware zum Einsatz, denn anders als GCN kann RDNA mehrere Wavefronts gleichzeitig in der Pipeline haben.
Eine neue Wavefront kann jeden Takt eingeschleust werden und benötigt insgesamt 5 Takte.
Es ist eine Pipelined-Architektur, wie bei Nvidia, und kann im Optimalfall jeden Takt die Ergebnisse einer Wavefront ausspucken.
Mit RDNA3 hat AMD mehr Software-Scheduling umgesetzt, mit prinzipiell der gleichen Motivation wie damals bei Nvidia ab Kepler oder Intel mit Xe/Gen12, HW-Logik entfernen, Transistoren sparen, Energie sparen, scheinbar auch das Timing verbessern und höhere Frequenzen erreichen.
Spoiler, die (CPU) DX12-Performance leidet nicht darunter ;)
https://abload.de/img/wgp-sw-schedulinghufo7.jpg
Bei Multi-Draw-Indirect geht es darum die GPU-Ausführung unabhängiger von der CPU zu machen, indem die erforderlichen Argumente für die Draw-Call-Ausführung von der GPU selber erstellt werden, anstatt die CPU wieder anzufragen und sich die Performance zu verhunzen.
Erneut hat das nichts mit "Software/Hardwareschuduling" auf Seiten der Instruktionen zu tun.
Bei der Draw-Call-Ausführung gibt es viele Stellen, die zu einem Flaschenhals werden können.
Unter DX11 und dem älterem Kernel-/Usermode Treibermodell gab es viele Checks pro Draw-Call und die meisten Dinge davon konnten auch nur auf einem Thread ausgeführt werden, dass hat dann dazu geführt das Single-Thread-Performance King war und man schnell die CPUs knechten konnte, wenn man die Draw-Call-Zahl erhöht hat.
Egal ob direkte oder indirekte Draw-Calls, die GPU muss diese Befehle auch verarbeiten und es wurde von Oxide Games erwähnt das der Command-Processor der GPU zum Flaschenhals werden kann (Anno GCN2).
Bei RDNA3 taktet nun das ganze Frontend höher (Neben dem CP, wohl auch die restliche FF 3D HW?) und AMD spricht davon das Multi-Draw-Indirect bis zu 2.3x schneller ausgeführt werden kann.
Wäre es nicht nötig gewesen, hätte es AMD nicht verbessert, GPU-Driven-Rendering ist aber mehr und mehr die Zukunft.
Digidi
2022-12-15, 22:40:46
From Locuza:
Möglich das der MDI-Accelerator ein extra HW-Block ist und erst entsprechend unterstützt werden muss und aktuelle Treiber die Ausführung nach wie vor über den klassischen Command-Processor durchführen.
Auf der anderen Seite muss man auch wissen was genau limitiert, nur weil MDI-Commands 2.3x so schnell dispatched werden können, heißt das nicht das der ganze Rest der Anwendung, wie das Shading selber, auch um 2,3x schneller abläuft.
Kommt der befehl für MultiDrawInstance nicht aus DX12? Sollte der dann nicht automatisch über die Hardware ausgeführt werden?
Der angemerkte Test ist ein Reinder Polygonen test Ohne Schader aufwand....
Locuza
2022-12-15, 23:25:45
Ja, der der Befehl ist ein API-Konstrukt (DX12 oder Vulkan), aber wie das konkret auf die Hardware umgesetzt wird ist offen.
Man kann viele Dinge über mehrere Wege auf der Hardware lösen, mit Vor- und Nachteilen.
Deswegen der Einwurf, dass der Treiber möglicherweise noch nicht dafür vorbereitet ist, man sieht auch an den miesen Mesh-Shader-Ergebnissen, relativ zu RDNA2, dass da scheinbar mehrere Dinge noch nicht richtig funzen.
Die Shader berechnen Billionen von Dreiecken pro Sekunde, die FF 3D Hardware rastert das, außer beim Compute Test, wo auch das die Shader machen.
Edit: Die Ergebnisse sehen mir alle etwas all-over-the-place aus, wo ich nicht sagen kann, ob es eine nennenswerte Shader-Last gibt oder das beim klassischem Raster-Vorgang an der Fixen Geometry Hardware liegt.
Die Unterschiede zwischen GCN5, RDNA1 und RDNA2 passen alle nicht so ganz zu den theoretischen Unterschieden, erschwerend kommt hinzu, dass RDNA1 und 2 doppelt so schnell Triangle Culling betreiben können, wobei das bei RDNA1 anscheinend auch nicht so oft vorkommt, wie bei RDNA2, also keine Ahnung von meiner Seite her.
Digidi
2022-12-16, 15:05:12
@Locuza
"Shader" sind Universelle Einheiten, aber sie Zerlegen nicht Polygonen in Pixel. Das macht das Frontend mit dem Rasterizer. Da aber die "Shader" Universell sind, kann man diese auch zum Rastern benutzen.
In dem Benchmark den ich Geteilt habe, wird das Rastern einmal über das Frontend und einmal über die Shader abgewickelt. Bei beiden sollte es signifikante Vortschritte geben.
Aber bei beiden passiert nichts. Da ist wohl mehr falsch in dem Chip als nur das FrontEnd.
reaperrr
2022-12-17, 13:59:34
In dem Benchmark den ich Geteilt habe, wird das Rastern einmal über das Frontend und einmal über die Shader abgewickelt. Bei beiden sollte es signifikante Vortschritte geben.
Aber bei beiden passiert nichts. Da ist wohl mehr falsch in dem Chip als nur das FrontEnd.
Erinnert mich dunkel an Hawaii. Zum Launch der 290er kam von den versprochenen Tesselation-Verbesserungen ggü. Tahiti in der Praxis fast nix an, erst zum 390er Refresh waren die Treiber so weit.
Können natürlich bei RDNA3 auch Hardware-Bugs sein, aber bei so viel, was sich an der uArch geändert hat, würde es mich nicht wundern, wenn zumindest die Hälfte der "verschwundenen" Performance einfach das Ergebnis unfertiger Treiber ist.
AFAIK war die Tesselationsleistung auch eher ein DX11-Problem, oder? Bei DX12-Games läuft Tesselation auch auf Hawaiis gut IIRC. Meist gibt es zwischen Hawaii und Polaris keine großen Performanceunterschiede unter DX12 (klar, Treiber ist EOL seit Mai), außer, dass Polaris etliche W weniger verballert.
Achill
2022-12-17, 15:18:59
AFAIK war die Tesselationsleistung auch eher ein DX11-Problem, oder? Bei DX12-Games läuft Tesselation auch auf Hawaiis gut IIRC. Meist gibt es zwischen Hawaii und Polaris keine großen Performanceunterschiede unter DX12 (klar, Treiber ist EOL seit Mai), außer, dass Polaris etliche W weniger verballert.
Nein es ist ein HW Problem, um die Zeit der 390er Karten rum kam die Einstellung im Treiber hinzu womit man die Problematik entschärfen konnte. Das Problem bei DX11 war eher, dass der Einsatz eines bestimmten SDKs einer bestimmten Firma mit max. Tess bei AMD deutlich schlechter lief. Dabei war m.W. schon unter DX11 es eigentlich möglich, die Tess. von der Distanz abhängig zu machen, sprich weiter entfernte Objekte mit weniger Tess. rendern zu lassen.
Was aus der Vergangenheit dazu: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10842818#post10842818
Btw ist dies das gleiche mit RT und NV ... genau die gleiche Strategie.
https://twitter.com/Kepler_L2/status/1603146626067046401
Angeblich funktioniert der shader prefetch nicht.
AMD hat das dementiert.
The code in question controls an experimental function which was not targeted for inclusion in these products and will not be enabled in this generation of product. This is a common industry practice to include experimental features to enable exploration and tuning for deployment in a future product generation." — AMD Spokesperson to Tom's Hardware.
https://www.tomshardware.com/news/amd-addresses-controversy-rdna-3-shader-pre-fetching-works-fine?utm_medium=social&utm_campaign=socialflow&utm_source=twitter.com
w0mbat
2022-12-17, 21:10:37
Jupp, hab ich auch gelesen.
Gott1337
2022-12-17, 21:34:51
Btw ist dies das gleiche mit RT und NV ... genau die gleiche Strategie.
Eine Schlussfolgerung auf die man nur kommt, wenn man absolut Null Ahnung hat... Als ob hier unnötig viele Rays benutzt werden, eher noch viel zu wenig. Lass den Quatsch mal sein, das bringt nix unnötig zu provozieren und dann noch so krass falsch zu liegen.
Neurosphere
2022-12-17, 23:14:36
Hmm....
https://pbs.twimg.com/media/FkIDbGrXEAcG9Pe?format=png&name=360x360
https://pbs.twimg.com/media/FkNEuedXkAEvjjy?format=png&name=small
Dazu fehlen aber noch jegliche Hintergrundinfos, außer das es wohl XTX waren.
TheGood
2022-12-18, 00:10:19
Eine Schlussfolgerung auf die man nur kommt, wenn man absolut Null Ahnung hat... Als ob hier unnötig viele Rays benutzt werden, eher noch viel zu wenig. Lass den Quatsch mal sein, das bringt nix unnötig zu provozieren und dann noch so krass falsch zu liegen.
Teil eins ist nicht unwahr, und Teil 2. Es macht halt wenig Sinn ewig viele Strahlen zu nutzen, wenn man dadurch so gut wie nichts gewinnt und die HArdware sowieso zu langsam ist.
Sinnvoll wäre es es bewusst zu reduzieren mit minimalen Einbußen, aber genau das lassen ja die FF HW einheiten nicht zu, da man zu stark auf einen lösungsweg beschränkt ist... (zumindest so mein Verständnis, was auch erst Entwickler auf Twitte von sich gegeben haben)
Gott1337
2022-12-18, 07:31:06
Teil eins ist nicht unwahr, und Teil 2. Es macht halt wenig Sinn ewig viele Strahlen zu nutzen, wenn man dadurch so gut wie nichts gewinnt und die HArdware sowieso zu langsam ist.
Sinnvoll wäre es es bewusst zu reduzieren mit minimalen Einbußen, aber genau das lassen ja die FF HW einheiten nicht zu, da man zu stark auf einen lösungsweg beschränkt ist... (zumindest so mein Verständnis, was auch erst Entwickler auf Twitte von sich gegeben haben)
bs, unnötige Rays gibts hier noch gar nicht, sieht man doch an den ganzen fehlern beim GI, es muss alles durch den denoiser gejagt werden und dann noch über mehrere frames verteilt werden. Die Leistung ist da, nur eben nicht bei AMD...
"Wir" sparen und schon secondary usw bounces und du redest von unnötigen rays, dann meckern die Leute aber das alles perfekt spiegelt xD tja roughness brauch eben viele bounces.
Warum werden auf Konsolen wohl viele RT effekte weggelassen, deiner Meinung nach wegen Nvidia... lächerliche Argumentation
TheGood
2022-12-18, 09:23:19
bs, unnötige Rays gibts hier noch gar nicht, sieht man doch an den ganzen fehlern beim GI, es muss alles durch den denoiser gejagt werden und dann noch über mehrere frames verteilt werden. Die Leistung ist da, nur eben nicht bei AMD...
"Wir" sparen und schon secondary usw bounces und du redest von unnötigen rays, dann meckern die Leute aber das alles perfekt spiegelt xD tja roughness brauch eben viele bounces.
Warum werden auf Konsolen wohl viele RT effekte weggelassen, deiner Meinung nach wegen Nvidia... lächerliche Argumentation
Weil Denoisern weniger Leistung als rays kosten und der Effekt am ähnlich ist...
Meckern tun nur Leute wie du die das spiel nicht spielen und dagegen spiegelungen suchen und schatten die nicht perfekt sind anstatt das spiel zu spielen. lächerliche Argumentation...
Du läufst wahrscheinlich auch durch die echte Welt und geilst dich an den Schatten und spiegelung in dieser auf. , dabei nimmt man die gar nicht wirklich war, weils in 90% der Fälle irrelevant ist oder sogar nervig...
dargo
2022-12-18, 09:49:07
Eine Schlussfolgerung auf die man nur kommt, wenn man absolut Null Ahnung hat... Als ob hier unnötig viele Rays benutzt werden, eher noch viel zu wenig.
Also kommen die IHVs viele Jahre zu früh mit dem RT-Bullshit an, richtig? Insbesondere Nvidia. Ich sag nur Turing 2018. :ulol:
bs, unnötige Rays gibts hier noch gar nicht, sieht man doch an den ganzen fehlern beim GI, es muss alles durch den denoiser gejagt werden und dann noch über mehrere frames verteilt werden. Die Leistung ist da, nur eben nicht bei AMD allem <RTX 4090...
:lol:
fixed for you
robbitop
2022-12-18, 10:09:55
Naja irgendwann muss man halt anfangen. Und egal wann - wenn etwas richtig fies Transistoren und Leistung kostet ist der hit bezogen auf die baseline immer gleich. Henne - ei.
Ich finde es für die Evolution der 3D Grafik super - aber noch sind wir (im notwendigen) Pionierstadium. Wobei man dank modernem upsampling und Reduktion der Settings ja auch auf kleineren Karten schon ein wenig davon erleben kann.
Die Anzahl der Rays reicht meiner Meinung nach trotz denoiser nicht aus - ist aber nötig da man sonst jegliche Hardware niederzwingt. Ich finde Spiegelungen sehen nich sehr sehr unsauber / niedrig aufgelöst aus.
Also kommen die IHVs viele Jahre zu früh mit dem RT-Bullshit an, richtig? Insbesondere Nvidia. nein, es ist eher gängig.
Erste hardware rasterizer waren nicht nur super buggy, sondern auch langsammer als software. (Das argument war "aber dann ist die CPU frei für andere Dinge" was BS war wenn 90% der Zeit fürs Rastern drauf ging)
Erste Bumpmapping GPUs (durch register combiner) brach ein wenn du Fullscreen Bumpmapping gesehen hast.
Erste Vertexshader waren weit langsammer als TnL hardware, deswegen hatten GPUs lange Zeit beides.
etc.
Aber der Wechsel ist nie ein Fingerschnippen. Es braucht Jahre und eine 2080Ti ist keine 3dfx VooDoo, sondern eher S3. Aber irgendwo muss es ja anfangen, das kann das Marketing aber nicht sagen sonst failt es.
Ich finde es gut, dass nach all dem Crap mit Tesselation-, Geometry-Shader usw. endlich etwas da ist was actually nützlich werden könnte. In ein paar Generationen haben wir dann keine Rasterizer, weil die GPUs das über RT emulieren und RT wird dank Spielen von heute Standard.
robbitop
2022-12-18, 10:53:08
Ich glaube es wäre keine schlaue Wahl alles zu Raytracen. Sowohl rasterizing als auch raytracing haben ihre Stärken und Schwächen. Raszerizing kann viele Dinge viel schneller, einfacher und billiger. Es wäre sinnlos das wegzugeben. Hybridrendering so zu nutzen, dass jeweils die Stärken genutzt werden macht am allermeisten Sinn.
Ich glaube es wäre keine schlaue Wahl alles zu Raytracen. Sowohl rasterizing als auch raytracing haben ihre Stärken und Schwächen. Raszerizing kann viele Dinge viel schneller, einfacher und billiger. Es wäre sinnlos das wegzugeben. Hybridrendering so zu nutzen, dass jeweils die Stärken genutzt werden macht am allermeisten Sinn.Ich meinte nicht das Verfahren, sondern die Hardware. Rasterisierung ist nur eine spezialisierte Ray-Tri intersection. Wenn du genug Ray-Tri Intersectors hast, kannst du dir dedizierete Rasterizer-Transistoren ersparen. (Klar brauchst du dann noch Binning, aber das macht ja jede moderene GPU.)
iamthebear
2022-12-18, 11:33:49
Hmm....
https://pbs.twimg.com/media/FkIDbGrXEAcG9Pe?format=png&name=360x360
https://pbs.twimg.com/media/FkNEuedXkAEvjjy?format=png&name=small
Dazu fehlen aber noch jegliche Hintergrundinfos, außer das es wohl XTX waren.
Ich denke, dass dies keine Gaming Workloads waren sondern spezielle Compute Workloads:
a) Die nur einen kleinen Teil der GPU genutzt haben, der mehr Takt verträgt
b) Wo der Verbrauch niedrig genug ist, dass man mit der Spannung voll hochfahren kann
c) Die Temperaturen niedriger waren wodurch die Chip auch mehr Takt verträgt
Wir wissen auch nicht wie die Kühlung war. Selbst wenn es Luft war denke ich, dass zumindest das Fenster auf war und somit die Umgebung etwas kühler
Anscheinend gibt es auch Probleme mit der Hotspot Temperatur:
https://pbs.twimg.com/media/FkHX0Y7XwAQucBc?format=jpg&name=4096x4096
Man beachte die relativ niedrige GPU Temperatur. D
Das scheint ein weiter verbreitetes Problem zu sein:
https://www.reddit.com/r/AMDHelp/comments/zlfe04/7900_xtx_hot_spot_temp/
Wenn es 109 Grad sind, dann liegt es nahe, dass die GPU schon deswegen throttled und es zu Performanceeinbrüchen kommt egal ob nur der Sensor defekt ist oder es tatsächlich ein lokaler Hotspot ist.
robbitop
2022-12-18, 11:35:52
Ich meinte nicht das Verfahren, sondern die Hardware. Rasterisierung ist nur eine spezialisierte Ray-Tri intersection. Wenn du genug Ray-Tri Intersectors hast, kannst du dir dedizierete Rasterizer-Transistoren ersparen. (Klar brauchst du dann noch Binning, aber das macht ja jede moderene GPU.)
Auch das wäre aus Transistorsicht ineffizienter IMO.
robbitop
2022-12-18, 11:37:04
Ich denke, dass dies keine Gaming Workloads waren sondern spezielle Compute Workloads:
a) Die nur einen kleinen Teil der GPU genutzt haben, der mehr Takt verträgt
b) Wo der Verbrauch niedrig genug ist, dass man mit der Spannung voll hochfahren kann
c) Die Temperaturen niedriger waren wodurch die Chip auch mehr Takt verträgt
Wir wissen auch nicht wie die Kühlung war. Selbst wenn es Luft war denke ich, dass zumindest das Fenster auf war und somit die Umgebung etwas kühler
Zumindest gibt es Custom Karten (siehe TPU review) die 3,2 GHz packen und entsprechend performen.
Auch das wäre aus Transistorsicht ineffizienter IMO.
So wie Vertexshader aus Transistorsicht ineffizienter als TnL sind, aber irgendwann hast du trotzdem ausreichend generische Leistung um die spezialisierten Transistoren einsparen zu können.
robbitop
2022-12-18, 11:54:59
Nur weil es eine Analogie gibt heißt es nicht, dass die Aussage stimmt. ;)
Vertexshader sind pro Transistor sicherlich teurer als die alte FF TnL Unit. Wirde aber notwendig weil man frei programmierbare VS wollte.
Und genau das sehe ich aber für den rasterizer nicht zwangsweise. FF HW ist solange es bei dem festgelegten Funktionsumfang bleibt immer effizienter als GP. Solange sich beim rasterizen selbst nichts großartig ändert sehe ich auch nicht warum sich das Paradigma ändern sollte.
Exxtreme
2022-12-18, 12:10:08
So wie Vertexshader aus Transistorsicht ineffizienter als TnL sind, aber irgendwann hast du trotzdem ausreichend generische Leistung um die spezialisierten Transistoren einsparen zu können.
Programmierbare Einheiten sind immer viel ineffizienter als spezialisierte Hardware. Und zwar auch was den Stromverbrauch angeht. Und ich glaube, daran krankt AMDs Lösung große Teile von RT über die Shader-ALUs zu machen. Das braucht nicht nur viel Transistoren sondern zieht auch viel Strom aufgrund dieser Ineffizienz. Vorteil ist aber wiederum: relativ wenig ungenutzte Transistoren da man programmierbare Einheiten für sehr viele Dinge benutzen kann.
robbitop
2022-12-18, 12:18:56
Ja bei RT wird AMD nicht wettbewerbsfähig sein können ohne mehr in HW zu gießen.
basix
2022-12-18, 12:20:49
Hmm....
https://pbs.twimg.com/media/FkIDbGrXEAcG9Pe?format=png&name=360x360
https://pbs.twimg.com/media/FkNEuedXkAEvjjy?format=png&name=small
Dazu fehlen aber noch jegliche Hintergrundinfos, außer das es wohl XTX waren.
4 GHz? :D
Anscheined klappt das in Blender oder anderen Tasks mit eher geringer Auslastung. Siehe B3D Forum
Nur weil es eine Analogie gibt heißt es nicht, dass die Aussage stimmt. ;)
Vertexshader sind pro Transistor sicherlich teurer als die alte FF TnL Unit. Wirde aber notwendig weil man frei programmierbare VS wollte.
Und genau das sehe ich aber für den rasterizer nicht zwangsweise. FF HW ist solange es bei dem festgelegten Funktionsumfang bleibt immer effizienter als GP. Solange sich beim rasterizen selbst nichts großartig ändert sehe ich auch nicht warum sich das Paradigma ändern sollte.
Klar ist dedizierte Hardware effizienter wenn die Wahl da ist wofür Transistoren verwendet werden.
Aber ich sprach von der Situation, dass wenn es äquivalente Leistung schon gibt, die Transistoren für spezialisierte Hardware eingespart werden (bzw. verwendet werden wo sie noch mehr Leistung bringen).
robbitop
2022-12-18, 12:54:37
Die Einheiten werden aber bereits für andere Sachen benötigt. Wenn das zusätzlich gemacht werden soll auf einer HW die ineffienter dafür ist wird die Energieeffizienz sinken und man wird ggf mehr davon brauchen was auch Transistoreffizienz kostet.
Achill
2022-12-18, 13:03:01
Programmierbare Einheiten sind immer viel ineffizienter als spezialisierte Hardware. Und zwar auch was den Stromverbrauch angeht. Und ich glaube, daran krankt AMDs Lösung große Teile von RT über die Shader-ALUs zu machen. Das braucht nicht nur viel Transistoren sondern zieht auch viel Strom aufgrund dieser Ineffizienz. Vorteil ist aber wiederum: relativ wenig ungenutzte Transistoren da man programmierbare Einheiten für sehr viele Dinge benutzen kann.
Die Frage ist doch wie immer, wie viel ist viel mehr .. 1/10/100% - wir wissen es nicht und es ist müßig darüber zu spekulieren. Bei AMD/Intel/NV sitzen hunderte von klugen Köpfen und es wird mit Sicherheit sehr viele Bedingungen für bestimmte Entscheidungen geben in die wir einfach kein Einblick haben.
--
Ja bei RT wird AMD nicht wettbewerbsfähig sein können ohne mehr in HW zu gießen.
Mal etwas direkter, es ist immer interessant wie man das so alles wissen kann (oder was man eben so nicht weiß). AMD ist ja nur eine Butze mit 5 Leuten und die es erst seit einen Jahr am Markt gibt ...
Bzgl. RT liegt man 2 Jahre zurück (wenn man nicht Demos aus der Feder von NV als Referenz nimmt) und SW hat man sich jetzt ggf. auf ~1/2 Jahr bzgl. DLSS/FG ran gekämpft (unter der Annahme das FG dann auch im 1HJ 2023 kommt). Generell sollte man dann immer im Hinterkopf behalten, dass es mit Sicherheit Patente bei HW-RT gibt von AMD/Intel/NV und wenn, dann kann man nicht die "gleichen Wege" beschreiten sondern muss eigene Lösungen finden (imho) die mit den anderen Teilen der eigenen Architektur/Technik funktionieren.
robbitop
2022-12-18, 13:08:56
Amdere Designphilosophie und unterschätzt, wie sich die Bedeutung davon entwickelt. Man vergisst schnell, dass es 5 Jahre dauert vom Entwicklungsstart einer uarch bis zum release eines Serienproduktes. Da kann man sich bei solchen Dingen auch mal schnell verschätzen.
Glaub ich nicht, dass sich da jemand verschätzt hat. Man entwickelt eben eine Lösung, für die man sich selbst das Optimum verspricht. AMD hat das eben so gelöst und man hat damit die AD102 (letztendlich mit allen Optimierungen, die da noch kommen) übertroffen. Du brauchst evtl. Hardware, aber dabei ist NVs Weg nicht der einzige.
Wir werden sehen, wohin sich die Software mit UE5 und anderen entwickeln werden. MMn wird immer gerne Cyberpunk und TW3 herangezogen als Leuchtturmprojekt, aber man darf eben nicht vergessen, dass sich CD-Project Red sehr stark an NV orientiert. Wenn da jetzt ein anderer technischer Unterbau hinzukommt, kann das eine andere Wirkung haben. NVs Weg war jetzt sicherlich der lukrativere, aber die größere Integration und die damit verbundene Entwicklungsarbeit von AMD kann sich immer noch auszahlen. Man kann es halt nicht wissen, man sieht nur das, was man jetzt sieht und das ist bei den meisten durch Cyberpunk gefärbt.
Exxtreme
2022-12-18, 13:13:35
Die Frage ist doch wie immer, wie viel ist viel mehr .. 1/10/100% - wir wissen es nicht und es ist müßig darüber zu spekulieren. Bei AMD/Intel/NV sitzen hunderte von klugen Köpfen und es wird mit Sicherheit sehr viele Bedingungen für bestimmte Entscheidungen geben in die wir einfach kein Einblick haben.
Man kann das schon hochrechnen. Wie hoch müsste man Navi 31 takten damit dieser an die RT-Leistung einer RTX 4080 kommen würde? Und wieviel Strom würde der dann ziehen? :) Also ich schätze, 600 W und mehr.
robbitop
2022-12-18, 13:14:49
In RT hat man nichtmal AD103 übertroffen. Ich würde mich nicht wundern wenn man nicht mal AD104 in heavy rt Titeln (wo RT Leistung limitiert) besiegt. Es gibt natürlich Titel mit wenig RT Last wo die RT Pipeline einfach nicht limitiert.
War also offenbar die falsche Lösung was völlig offensichtlich ist wenn einem klar ist wie viel billiger und schneller FF HW grundsätzlich ist.
Ich würde mich null wundern, wenn AMD mittelfristig da auch umschwenkt.
Intel und IMGTec kamen unabhängig voneinander auch zu dem gleichen Schluss. ;)
In RT hat man nichtmal AD103 übertroffen. Ich würde mich nicht wundern wenn man nicht mal AD104 in heavy rt Titeln (wo RT Leistung limitiert) besiegt. Es gibt natürlich Titel mit wenig RT Last wo die RT Pipeline einfach nicht limitiert.
War also offenbar die falsche Lösung was völlig offensichtlich ist wenn einem klar ist wie viel billiger und schneller FF HW grundsätzlich ist.
Ich würde mich null wundern, wenn AMD mittelfristig da auch umschwenkt.
Intel und IMGTec kamen unabhängig voneinander auch zu dem gleichen Schluss. ;)
Das heißt trotzdem nicht, dass das auch der richtige Schluss ist ;). Ich würd jetzt auch keine 7900 kaufen, wenn ich RT will, aber ich bin trotzdem vorsichtig, was solche Schlussfolgerungen angeht.
robbitop
2022-12-18, 13:18:20
Wir sprechen uns zu RDNA4 wieder ;)
Exxtreme
2022-12-18, 13:18:32
Amdere Designphilosophie und unterschätzt, wie sich die Bedeutung davon entwickelt. Man vergisst schnell, dass es 5 Jahre dauert vom Entwicklungsstart einer uarch bis zum release eines Serienproduktes. Da kann man sich bei solchen Dingen auch mal schnell verschätzen.
Also ich sehe immer noch keine große Bedeutung von RT, ausser innerhalb der 3DC-Blase natürlich. Wenn man sich anschaut wieviele RT-Titel es gibt und das dann auf die Anzahl der Titel hochrechnet, die im gleichen Zeitraum für den PC veröffentlicht wurden dann kommt man wohl kaum an die 0,5%. RT ist immer noch eine komplette Nische. Dürfte ähnlich nischenhaft sein wie VR. Und dass AMD aurf sowas die Hardware nicht ausrichtet ist für mich schlüssig.
robbitop
2022-12-18, 13:22:23
Es sind immerhin schon 100 Spiele und es werden immer mehr. Und es ist sogar bereits mit der 3060 also einer high volumen/ midrange sku nutzbar (mit dlss und reduzierten Details).
Es nimmt in den Reviews immer mehr Bedeutung ein. Selbst Spiele auf den aktuellen Konsolen nutzen es in reduzierter Form. Es ist ja auch auf Navi 2x nutzbar aber halt langsamer. Das wird immer weiter zunehmen.
Ich würde sagen, dass 2020 zum N21 launch RT noch sehr Nische war. Aber die Bedeutung hat schon stark zugenommen in 2022. Würde AMD glauben dass es Nische wäre hätte man nicht entsprechende (auch wirksame) Optimierungen bei N31 eingebaut. Es ist noch kein ultra wichtiges Thema aber es wächst und wächst und es wirkt sich bereits in Reviews aus. Das wird man sich mit rdna4 in 2024 nicht mehr geben. IMO.
Wir sprechen uns zu RDNA4 wieder ;)
Jo, welcher garantiert nicht aussieht wie ein Ada, was RT angeht ;).
Also ich sehe immer noch keine große Bedeutung von RT, ausser innerhalb der 3DC-Blase natürlich. Wenn man sich anschaut wieviele RT-Titel es gibt und das dann auf die Anzahl der Titel hochrechnet, die im gleichen Zeitraum für den PC veröffentlicht wurden dann kommt man wohl kaum an die 0,5%. RT ist immer noch eine komplette Nische. Dürfte ähnlich nischenhaft sein wie VR. Und dass AMD aurf sowas die Hardware nicht ausrichtet ist für mich schlüssig.
Vor allem ist RT ne Nische für die oberen 10000. Weil ernsthaft nutzen werden das auch nur die, die entsprechende High-End-Hardware haben. Mit ner 3070 oder 3060 wird kaum jemand RT ernsthaft nutzen.
robbitop
2022-12-18, 13:28:08
Lol „garantiert“. Man kann „IMO“ oder „wahrscheinlich“ sagen aber „garantiert“ ist lächerlich weil es 100% Zuversicht vermittelt die niemand von uns haben kann weil er die uArch nicht kennt.
Ich würde darauf (auch meinetwegen 100€) wetten, dass wir entweder FF HW sehen oder einen weiteren lose in RT heavy titeln (normiert auf Transistorzahl). Es ist einfach ein Axiom dass sich nicht ungehen lässt. Es gibt keine effizientere Lösung für nichts mit GP HW.
AffenJack
2022-12-18, 13:30:37
Bzgl. RT liegt man 2 Jahre zurück (wenn man nicht Demos aus der Feder von NV als Referenz nimmt) und SW hat man sich jetzt ggf. auf ~1/2 Jahr bzgl. DLSS/FG ran gekämpft (unter der Annahme das FG dann auch im 1HJ 2023 kommt). Generell sollte man dann immer im Hinterkopf behalten, dass es mit Sicherheit Patente bei HW-RT gibt von AMD/Intel/NV und wenn, dann kann man nicht die "gleichen Wege" beschreiten sondern muss eigene Lösungen finden (imho) die mit den anderen Teilen der eigenen Architektur/Technik funktionieren.
Die 2 Jahre sind bei RT eher optimistisch gesehen, denn AMD kann nur mit Ampere mithalten, weil die Shadingleistung die langsamere RT Leistung kompensiert und man dadurch zusammen auf Ampere Niveau landet. Betrachtet man nur den RT Anteil, dürfte man eher auf Turingniveau liegen und Featuremäßig ja sogar darunter.
Es ist ja auch nicht nur Nv, auch Intels Implementierung ist deutlich stärker und fortgeschrittener. Im Moment kann man sich durch die Marktmacht dank der Konsolen noch dagegen stemmen und mit eigenen "RT-Titeln", bei denen man qualitativ besseres RT blockiert. Ist aber die Frage, ob das noch funktioniert wenn Entwickler die Last-Gen Konsolen fallen lassen und Intel mit Battlemage nächstes Jahr konkurrenzfähiger wird. Gegen beide Rivalen wird das schwierig.
Also ich sehe immer noch keine große Bedeutung von RT, ausser innerhalb der 3DC-Blase natürlich. Wenn man sich anschaut wieviele RT-Titel es gibt und das dann auf die Anzahl der Titel hochrechnet, die im gleichen Zeitraum für den PC veröffentlicht wurden dann kommt man wohl kaum an die 0,5%. RT ist immer noch eine komplette Nische. Dürfte ähnlich nischenhaft sein wie VR. Und dass AMD aurf sowas die Hardware nicht ausrichtet ist für mich schlüssig.
Der Anteil der Titel in denen du ne RDNA3 benötigst, liegt dann aber auch nur bei 1% und ist ebenso ne komplette Nische. Wenn dann musst du schon grafisch anspruchsvollere Titel wählen und da dürftest du mittlerweile bei ~30% mit RT landen.
robbitop
2022-12-18, 13:33:52
Intel wird mittelfristig keine Bedrohung. Relativ ist der drop in RT Leistung geringer aber die Absolutleistung ist nicht so doll und die gesamtheitliche Effizienz pro Transistor. Man ist mit der GesamtHW und den Treibern einfach nich zu weit weg. Und angeblich soll es mittelfristig nur midrange Chips geben bei Intel.
Der untere Absatz ist ein sehr gutes Argument. :)
DrFreaK666
2022-12-18, 13:35:52
...
Wir werden sehen, wohin sich die Software mit UE5 und anderen entwickeln werden...
Dass Epic und NV zusammen kuscheln, ist aber schon seit UE2 so.
Hoffen wir dass Epic auch für AMD und Intel optimiert
Lol „garantiert“. Man kann „IMO“ oder „wahrscheinlich“ sagen aber „garantiert“ ist lächerlich weil es 100% Zuversicht vermittelt die niemand von uns haben kann weil er die uArch nicht kennt.
Ich würde darauf (auch meinetwegen 100€) wetten, dass wir entweder FF HW sehen oder einen weiteren lose in RT heavy titeln (normiert auf Transistorzahl). Es ist einfach ein Axiom dass sich nicht ungehen lässt. Es gibt keine effizientere Lösung für nichts mit GP HW.
Na wenn du das meinst, wie können ja wetten :D. Also ich wette, dass die RT-Implementation wieder völlig anders aussieht als NVs bisherige.
Aber mal im Ernst, du verrennst dich hier grad total. Natürlich macht AMD ne andere Lösung in den RDNA-Chips, da das ja auch ne andere Architektur ist. Das ergibt doch überhaupt keinen Sinn, wenn die jetzt NV einfach kopieren würden :D.
Dass Epic und NV zusammen kuscheln, ist aber schon seit UE2 so.
Hoffen wir dass Epic auch für AMD und Intel optimiert
Dinge ändern sich. Und auch AMD hat seine halbe Präsentation auf der UE5 aufgebaut, falls du dich erinnerst. Das wird schon sehr gut laufen.
Intel wird mittelfristig keine Bedrohung. Relativ ist der drop in RT Leistung geringer aber die Absolutleistung ist nicht so doll und die gesamtheitliche Effizienz pro Transistor. Man ist mit der GesamtHW und den Treibern einfach nich zu weit weg. Und angeblich soll es mittelfristig nur midrange Chips geben bei Intel.
Der untere Absatz ist ein sehr gutes Argument. :)
Und schon wieder so ne Weisheit. Du weisst also schon, wie Battlemage aussehen wird. Na dann schieß mal los, wir warten :D.
robbitop
2022-12-18, 13:39:10
Vor allem ist RT ne Nische für die oberen 10000. Weil ernsthaft nutzen werden das auch nur die, die entsprechende High-End-Hardware haben. Mit ner 3070 oder 3060 wird kaum jemand RT ernsthaft nutzen.
Frag mal aufkrawall und es gab hier noch etliche andere die RT mit einer 3060 nutzen. Mit DLSS und reduzierten Settings ist das oft möglich. Das gilt auch für Navi 2x aber wahrscheinlich braucht man dort 1 Tier höher.
Auch die PS5 und Xbox Series X nutzen oft RT. In gewissen Dosen ist es auch abseits Highend absolut nutzbar und bringt grafische Vorteile. Die Spiegelungen sehen so viel besser aus. Oder gute GI sieht gerade in Räumen richtig gut aus.
robbitop
2022-12-18, 13:41:57
Na wenn du das meinst, wie können ja wetten :D. Also ich wette, dass die RT-Implementation wieder völlig anders aussieht als NVs bisherige.
Aber mal im Ernst, du verrennst dich hier grad total. Natürlich macht AMD ne andere Lösung in den RDNA-Chips, da das ja auch ne andere Architektur ist. Das ergibt doch überhaupt keinen Sinn, wenn die jetzt NV einfach kopieren würden :D.
Genau deshalb habe ich es ja auch anders formuliert - du musst nur genauer lesen bevor du postest: weil es in der Diskussion um FF HW vs GP HW ging. Ich wette nicht, dass AMD die uArch kopiert sondern, dass RDNA4 entweder FF HW für RT verbaut oder in RT heavy Anwendungen verliert (transistornormiert).
Frag mal aufkrawall und es gab hier noch etliche andere die RT mit einer 3060 nutzen. Mit DLSS und reduzierten Settings ist das oft möglich. Das gilt auch für Navi 2x aber wahrscheinlich braucht man dort 1 Tier höher.
Auch die PS5 und Xbox Series X nutzen oft RT. In gewissen Dosen ist es auch abseits Highend absolut nutzbar und bringt grafische Vorteile. Die Spiegelungen sehen so viel besser aus. Oder gute GI sieht gerade in Räumen richtig gut aus.
Jo aber nur beschränkt, was auch sinnvoll zu nutzen ist, wie Umgebungsverdeckung und globale Beleuchtung. Mach ich ja ähnlich. Aber das sind trotzdem eher Hardwarebegeisterte. Der Normalnutzer nutzt die Presets des Herstellers und das ist RTX-> aus.
Genau deshalb habe ich es ja auch anders formuliert - du musst nur genauer lesen bevor du postest: weil es in der Diskussion um FF HW vs GP HW ging. Ich wette nicht, dass AMD die uArch kopiert sondern, dass RDNA4 entweder FF HW für RT verbaut oder in RT heavy Anwendungen verliert (transistornormiert).
Das sag ich ja auch, klar wirds Hardware geben. Nur wird es auch da wieder Überraschungen geben.
robbitop
2022-12-18, 13:51:33
Und schon wieder so ne Weisheit. Du weisst also schon, wie Battlemage aussehen wird. Na dann schieß mal los, wir warten :D.
Ich schätze es ein - von „wissen“ hat niemand was gesagt. Du bist der jenige der sich so ausdrückt (ich sag nur „garantiert“). ;)
Warum ich das so einschätze: man schaue sich ARC an. Das ist immerhin 2nd Gen. (und man vergesse nicht, dass sie seit Jahrzehnten 3D HW bauen) Und DG2 ist nicht die erste Gen. Es ist wie der Name sagt die 2. Gen. DG1 war die erste.
Ich sage auch nicht, dass sie keine Fortschritte machen aber der Abstand/Rückstand - besonders pro Transistor - ist ao eklatant, dass es IMO nicht sehr wahrscheinlich ist, dass Battlemage auf einmal komplett auf Augenhöhe (pro Transistor) mithalten kann AMD und Nvidia entwickeln ja auch weiter. Und gerade GPU IP ist extrem komplex und voll von IP Hürden und gerade bei Treibern profitiert man enorm davon wenn man schon jahrelang spielespezifische Optimierungen hat. Ich würde es wahrscheinlich halten, dass man den Abstand verkürzt aber nicht eliminiert.
Es ist zwar nicht offiziell bestätigt aber die Leaker sind sich alle einig, dass Battlemage keine high end SKU bekommen wird. Das wird seine Gründe haben. ;)
Garantiert ist nichts im Speku Thread aber basierend auf entsprechenden Indizien kann man schon sinnvoll abschätzen was wahrscheinlich oder auch nicht ist.
robbitop
2022-12-18, 13:53:31
Jo aber nur beschränkt, was auch sinnvoll zu nutzen ist, wie Umgebungsverdeckung und globale Beleuchtung. Mach ich ja ähnlich. Aber das sind trotzdem eher Hardwarebegeisterte. Der Normalnutzer nutzt die Presets des Herstellers und das ist RTX-> aus.
Möglich. Aber es hat auch keiner behauptet, dass RT eine omnipotente Bedeutung hat sondern eine steigende/wachsende Bedeutung.
Das sag ich ja auch, klar wirds Hardware geben. Nur wird es auch da wieder Überraschungen geben.
Dann sind wir d‘accord :)
Neurosphere
2022-12-18, 14:09:26
Ich frage mich ob man nicht Synergieeffekte mit Xilinxe nutzen könnte und sowas als FPGA lösen kann. Gerade bei MCM würde sich sowas ja auch anbieten. Ja, ist seeeehr weit hergeholt, aber so würde man das ganze am Effektivsten nutzen.
Mir fehlt da das Wissen um das zu bewerten, aber extra RT Einheiten die nur bei Bedarf existieren wäre ja erstmal ein guter Schritt. Liegt dedizierte HW brach frist sie halt erstmal nur Fläche und Transistoren.
robbitop
2022-12-18, 14:12:42
Das muss im SM/CU liegen aufgrund Bandbreiten/Latenzanforderungen. RT ist nicht irgendein extra was man auslagern kann. Genau wie TMUs oder ROPs. FPGAs wären aucj nicht unbedingt der effizienteste Weg für ein Serienprodukt.
Aber Xlinix hat so viel mehr zu bisten als FPGA HW. Und ich bin mir sicher, dass AMD mehr auf ihre IP zugreifen wird. :)
AffenJack
2022-12-18, 14:30:22
Es ist zwar nicht offiziell bestätigt aber die Leaker sind sich alle einig, dass Battlemage keine high end SKU bekommen wird. Das wird seine Gründe haben. ;)
Ja, genau die gleichen Leaker, die sich einig waren, dass RDNA3 die 4090 platt macht. ;D
robbitop
2022-12-18, 14:32:50
Es sind sich aber alle einig. Auch die die viel öfter richtig lagen als falsch. Nochmal: es ist ein Spekulationsunterforum da muss man mit dem „arbeiten“ was man hat. Man kann natürlich auch einfach alles anzweifeln aber dann gibt es halt null zu spekulieren. Also wer keine Lust zu spekulieren hat für den gibt es reichlich andere Unterforen ;)
Linmoum
2022-12-18, 14:40:31
Ja, genau die gleichen Leaker, die sich einig waren, dass RDNA3 die 4090 platt macht. ;DNaja, mit (fast) 4GHz wäre man jedenfalls abseits von RT nicht mehr hinter einer 4090. ;)
Auch wenn der Takt natürlich immer höher ist, je geringer die Last ist, aber mir kann keiner sagen, dass dieses riesige Defizit zwischen Gaming Workloads und 4GHz abseits davon normal ist.
Wahrscheinlich hätte man den hohen Takt auch gerne dort gehabt, wo er gebraucht wird, um konkurrieren zu können, aber aus irgendeinem Grund scheint das nicht zu funktionieren. Selbst Customs mit nicht begrenztem PL scheinen ja irgendwo bei "nur" 3-3.2GHz rauszukommen in Spielen.
Nach den initialen Launch-Reviews kann man ja mittlerweile festhalten, dass die Leaker mit ihren "deutlich über 3GHz" und "almost 4GHz" alle recht hatten. Problem an derselben Sache ist halt nur, dass das in Spielen nicht möglich ist.
AffenJack
2022-12-18, 14:48:23
Es sind sich aber alle einig. Auch die die viel öfter richtig lagen als falsch. Nochmal: es ist ein Spekulationsunterforum da muss man mit dem „arbeiten“ was man hat. Man kann natürlich auch einfach alles anzweifeln aber dann gibt es halt null zu spekulieren. Also wer keine Lust zu spekulieren hat für den gibt es reichlich andere Unterforen ;)
Gut, Raja hat selbst gesagt, er sieht den Fokus bei 225W TDP und knapp drüber. Sieht man das so, dann passen die Aussagen prinzipiell auch. Allerdings ist Midrange bei 250W für über 500€ noch immer etwas schwierig in meinen Kopf zu kriegen. :freak:
robbitop
2022-12-18, 14:50:47
Das sehe ich auch so. Die aktuellen Preise sind eine Frechheit. Deshalb verweigere ich so lange neue GPUs und kaufe 2nd hand. Damit verdient dann kein IHV Geld. Gerade für 650€ eine 3080 bekommen inkl Fullcover block der ja auch nochmal 150€ gekostet hätte. Das ist halbwegs okays Preis/Leistung.
AffenJack
2022-12-18, 14:56:56
Bei mir wird es eher der Wettkampf N22 vs AD104 Salvage in der 4070. Ich möchte eigentlich nicht mehr als 250W Verbrauch und ~600€. Mal gucken, was es In Q2 da so gibt.
Ist generell gerade wieder sehr still geworden um N22, N23.
dargo
2022-12-18, 15:07:59
N32/N33 wenn schon bitte. ;)
Das sehe ich auch so. Die aktuellen Preise sind eine Frechheit. Deshalb verweigere ich so lange neue GPUs und kaufe 2nd hand. Damit verdient dann kein IHV Geld.
Guter Witz. ;D Der Verkäufer deiner 3080 hat sich garantiert mit einer neuen 4080/4090 eingedeckt. ;)
robbitop
2022-12-18, 15:10:12
Die er sowieso gekauft hätte. ;)
Ex3cut3r
2022-12-18, 15:12:27
Naja, gebrauche HW ist immer so ne Sache, kann auch schneller kaputt gehen, als gedacht. (Was ich keinem Wünsche) Für 650€ hätte man aber auch eine 6800XT neu bekommen können.
robbitop
2022-12-18, 15:19:50
Ja aber kein DLSS und langsames RT.
Dass gebrauchte HW schneller kaputt geht hab ich noch nicht in relevanter Form gesehen. Meine letztes System lief 8 Jahre ohne Probleme bis ich dann upgegradet hab.
Thunder99
2022-12-18, 15:21:34
Ich Stelle mich da lieber darauf ein, dass die neue Preisstruktur das neue Normal sein wird. Da ist eine Karte über 1000€ zwar schmerzhaft aber durch eine längere Nutzung ggf vertretbar. Gut finde ich das nicht aber was für eine Wahl hat man außer Second Hand und Konsole? Kleinere Karten haben oftmals wieder den Beigeschmack, dass sie weniger lange heben (VRAM/Geschwindigkeit).
5 Jahre mit einer 1080Ti und ich brauche derzeit immer noch keine neue Karte.
AMD ist immer derzeit interessanter als Nvidia da wieder wenn es um die Key Features geht ausreichend bis sehr gut ist. RT ist nicht alles obwohl es immer wichtiger wird.
Karte muss halt wieder reifen, beim Kunden...
dargo
2022-12-18, 15:25:00
Langfristig gräbt sich der PC eh das eigene Grab mit zu hohen Hardwarepreisen.
M4xw0lf
2022-12-18, 15:26:05
Das sehe ich auch so. Die aktuellen Preise sind eine Frechheit. Deshalb verweigere ich so lange neue GPUs und kaufe 2nd hand. Damit verdient dann kein IHV Geld. Gerade für 650€ eine 3080 bekommen inkl Fullcover block der ja auch nochmal 150€ gekostet hätte. Das ist halbwegs okays Preis/Leistung.
Halte ich jetzt schon seit Jahren so. Meine letzten zwei GPUs sind aus zweiter Hand. Meine Grenze liegt auch bei <500€, da bekommt man auf dem ersten Markt ja nur noch bessere Briefbeschwerer. :freak:
robbitop
2022-12-18, 15:32:30
Ich finde es bezeichnend, dass Linus Sebastian (als mehrfacher youtube tech Millionär der HW sowieso umsonst bekommt) sich öffentlich commitet hat Ada Lovelace zu boykottieren. Einfach weil die Preise anti consumer sind.
AffenJack
2022-12-18, 15:33:30
Ich Stelle mich da lieber darauf ein, dass die neue Preisstruktur das neue Normal sein wird. Da ist eine Karte über 1000€ zwar schmerzhaft aber durch eine längere Nutzung ggf vertretbar. Gut finde ich das nicht aber was für eine Wahl hat man außer Second Hand und Konsole? Kleinere Karten haben oftmals wieder den Beigeschmack, dass sie weniger lange heben (VRAM/Geschwindigkeit).
5 Jahre mit einer 1080Ti und ich brauche derzeit immer noch keine neue Karte.
Jepp, das ist anzunehmen, auch weil die Produktionskosten durch neue Nodes nur teurer werden. Im Endeffekt wird es noch nicht mal soviel teurer, wenn man bedenkt wieviel man für die alten Karten noch bekommt. Meine 1070 hab ich nach 2 Jahren für den gleichen Preis verkauft, den ich nun für meine 2070 nach 4 Jahren kriege. 100€ Wertverlust pro Jahr damals und nun ebenso, falls ich ne 4070 für 650€ kriege. Die Zyklen werden einfach länger.
Langfristig gräbt sich der PC eh das eigene Grab mit zu hohen Hardwarepreisen.
Ja, die Einstiegskosten sind einfach das Problem. Wie oben geschrieben, ist der Werverfall und Upgrades noch nicht mal soviel schlimmer, da längere Zyklen. Aber erstmal einzusteigen wird immer schwieriger.
Troyan
2022-12-18, 15:37:08
Ich finde es bezeichnend, dass Linus Sebastian (als mehrfacher youtube tech Millionär der HW sowieso umsonst bekommt) sich öffentlich commitet hat Ada Lovelace zu boykottieren. Einfach weil die Preise anti consumer sind.
Cool. Was kauft er dann sonst so? Die chinesischen GPUs? :confused:
BTW: Die meisten Hersteller bieten 3 bis 4 Jahre Garantie an. Macht Gebrauchtkäufe heute also für viele wesentlich sinnvoller, wenn nach zwei Jahren die neue GPU Generation kommt.
dargo
2022-12-18, 15:45:35
Ja, die Einstiegskosten sind einfach das Problem.
Eher bei Nvidia. ;) So eine RX 6600 ab 265€ finde ich recht preiswert. Ich bin schon gespannt ob NV bei Ada es überhaupt unter 400€ schafft. :D
Cool. Was kauft er dann sonst so? Die chinesischen GPUs? :confused:
RX 7900XTX
TBJ-vo6Ri9c
Ex3cut3r
2022-12-18, 16:00:27
Ja aber kein DLSS und langsames RT.
Dass gebrauchte HW schneller kaputt geht hab ich noch nicht in relevanter Form gesehen. Meine letztes System lief 8 Jahre ohne Probleme bis ich dann upgegradet hab.
Sollte kein Vorwurf sein, sorry, wenn es so rüberkam. Ich hätte es jedenfalls anders gemacht. Aber das kann natürlich jeder so machen, wie er möchte.
robbitop
2022-12-18, 16:01:15
Cool. Was kauft er dann sonst so? Die chinesischen GPUs? :confused:
BTW: Die meisten Hersteller bieten 3 bis 4 Jahre Garantie an. Macht Gebrauchtkäufe heute also für viele wesentlich sinnvoller, wenn nach zwei Jahren die neue GPU Generation kommt.
AMD ist eine Option. Genauso US Amerikanisch wie Nvidia. ;)
Sollte kein Vorwurf sein, sorry, wenn es so rüberkam. Ich hätte es jedenfalls anders gemacht.
Alles gut - habe ich nicht als Vorwurf aufgefasst. Hab mir jetzt erstmalig DLSS 2.4.x und 2.5 anschauen können und muss sagen dass es schon im Schnitt besser funktioniert. Und bei kleineren Presets sowieso. Will ich nicht mehr missen. Und Control sieht auch fantastisch aus mit RT und läuft sogar recht flott. Sind für mich persönlich 2 zu starke Argumente. :)
Nightspider
2022-12-18, 17:23:04
Frage: AMD muss für RDNA3 in N4 ja eh Tools erstellen, für die APUs.
Wie viel Aufwand wäre es für AMD, wenn sie geplant hätten ein besseres GCD in N4 Ende 2023 in Form einer schnelleren Grafikkarte zu releasen?
Imo hätte so eine .5 Generation den Vorteil, das man Nvidia in vielen Hinsichten ziemlich leicht schlagen könnte, bei einem besseren P/L-Verhältnis.
Dadürch würde dann das Image auch erstarken. Da würden eventuell sogar ein paar Nvidia Kunden wechseln, wenn die .5 Generation schneller wäre in vielen Hinsichten, als NVs Topmodell.
So könnte AMD die Krone wenigstens ein Jahr lang tragen.
robbitop
2022-12-18, 17:29:28
Ist halt ein neues Tapeout mit neuen Masken. Das kostet nochmal richtig Geld. Das muss dann auch richtig was bringen. Oder aber N4 ist kompatibel zu N5P wie damals GF 14 nm zu 12 nm - da brauchte es keine neuen Masken und es gab eine bessere f/V curve.
Optional könnten sie ja auch eine größere SKU in der Pipeline haben. Ausgehend von 300 mm2 ist noch viel Luft nach oben. Mit MCD stacking würde 384 bit sogar reichen.
Aber erstmal muss die Performance konsistenter werden -> ran am den shadercompiler. :)
Tesseract
2022-12-18, 17:53:51
Cool. Was kauft er dann sonst so? Die chinesischen GPUs? :confused:
linus ist selbst kein wirklicher gamer und in diesem kontext muss man seine aussagen sehen. wenn der aus irgendeinem egotrip heraus zum boykott aufruft betrifft ihn das selbst nicht wirklich.
robbitop
2022-12-18, 18:05:24
linus ist selbst kein wirklicher gamer und in diesem kontext muss man seine aussagen sehen. wenn der aus irgendeinem egotrip heraus zum boykott aufruft betrifft ihn das selbst nicht wirklich.
Er zockt nicht 24/7 aber zocken ist ihm so wichtig wie vielen anderen auch die Job und Kids haben aber zocken lieben. Du schaust offenbar seine Videos nicht. Er streamt mind 1x pro Woche (die letzten Wochen Star Citizen). Er zockt VR mind 1x pro Woche und spielt regelmäßig mit seinen 3 Kids - die haben nen LAN Keller.
Wenn du die WAN Show schauen würdest, wüsstest du wie sehr er anti consumer Kram hasst und wir sehr er die Preise bei Ada kritisiert. Damit liegt er aus Endkundensicht nicht falsch. IMO ist das kein Egotrip. In den WAN shows teilt er viel von seinen Denkprozessen wie er sein Unternehmen aufbaut und eas er gut und schlecht findet. Bei anti Consumer Kram sind sie eigentlich sehr konsequent. Und auf mich wirkt er überhaupt nicht wie jemand der Egotrips nötig hat. Er ist eher selbstkritisch und schaut viel auf feedback aus der community.
IMO sehr oberflächlich wie du das einschätzt ohne die Fakten im Detail zu kennen.
Tesseract
2022-12-18, 18:18:01
das war seine eigene aussage vor ein paar jahren in einem seiner videos, nicht meine, und er hat sich in den letzten jahren definitiv radikalisiert. sieht man recht gut an der rucksack-kontroverse vor kurzem wo luke der vernünftige war wärend er auf stur geschalten hat. bei linus ist das schon länger eher egotrip als innere überzeugung. besitzen des besitzens willen tut er viel.
robbitop
2022-12-18, 19:05:28
Sorry du schaust sie WAN shows nicht regelmäßig genug offenbar. Das sehe ich schon an der Aussage. Er hat das unschlau formuliert aber sinnvoll klargestellt was er meint. Ja er tritt manchmal ins Fettnäpfchen- aber wenn er erklärt was er meint ist es immer schlüssig. Es ist eine live show - das ist ohne word smithing und da kann man sich schonmal unglücklich ausdrücken.
Das kann man natürlich umgehen wenn man nie kontrovers ist - aber das ist dann auch fade.
Ich schaue/höre jede Einzelne und sage dir du liegst falsch mit dem Vorwurf des „Egotrip“. Das ist einfach ein Vorwurf der nicht stimmt.
Dafür sind sie wirklich viel zu konsistent wenn es um Anti consumer angeht.
Ich finde es schwach, ohne konkrete Fakten zu dem speziellen Thema (was du benannt hast waren andere Themen) jemanden zu vorzuverurteilen. Welche konkreten Belege gibt es, dass bei diesem Thema das ein „Egotrip“ ist?
Er bekennt sich zu seiner Ansicht dass Dinge die Anti Consumer sind unschön sind und hat damit auch „skin in the game“.
Tesseract
2022-12-18, 19:59:41
das ist keine vorverurteilung sondern eine charaktereinschätzung zwischen den zeilen. ich kann dir das nicht "beweisen" aber mein bauchgefühl sagt mir diese empfehlung stand bereits fest bevor er die 7900XTX überhaupt in den händen hatte und dieses fazit ist nicht das resultat eines meinungsbildungsprozesses sondern eines meinungsrechfertigungsprozesses. kannst du natürlich anders sehen.
dass bei diesem Thema das ein „Egotrip“ ist?
nicht nur bei diesem thema, genau deswegen habe ich den rucksack als anderes völlig themenfremdes beispiel angeführt.
robbitop
2022-12-18, 20:18:46
Ja und da hast du den wichtigsten Teil der Debatte nicht mitbekommen. Da hab ich dann abgewunken. Wenn man nicht alle Fakten kennt, kann mam schnell falsch liegen und sollte man das lieber sein lassen. Diese „Meinung“ basiert anscheinend massiv auf der übergekochten Debatte die völlig missverstanden wurde. So entstehen schnell falsche Vorurteile.
Als jemand der all diese Debatten genau verfolgt hat kann ich dir nur sagen, dass deine Einschätzung nicht zutrifft. Er ist kein Egomane - im Gegenteil. Er ist extrem aufmerksam und bedacht in seinen Entscheidungen - teilt seine Gedankenprozesse und nimmt Feedback wenn es zutrifft auch super ernst. Aber ab und an tritt er ins Fettnäpfchen in den Live shows und wird dann auch gern missverstanden. Er ist alles andere als perfekt aber ein Egomane ist er IMO nicht.
Wenn man sich anschaut wie er sein Unternehmen aufbaut und wie er mit seinen Mitarbeitern umgeht und auch sie mit ihm umgehen kann ich das überhaupt nicht bestätigen. Und wenn er wirklich falsch lag (was oft genug vorkommt) nimmt er das in der wan show zurück und rückt die Dinge gerade.
Ich konsumiere bspw den Content nicht wegen der Tiefe. Die ist oft nicht so toll - es gibt deutlich besseren Content in der Hinsicht. Aber wie er Dinge aufzieht und sein Unternehmen aufbaut, seine Ideen und die Communityinteraction sind extrem interessant. Ich mag gutes Unternehmertum und thoughtness. Das meiste dazu gibts in den wan shows.
Ich denke übrigens auch dass er die Entscheidung ohne zu wissem wie n31 aussieht getroffen hat. Und darum ging es auch nie. Sondern einfach um‘s Prinzip und „skin in the game“. Bzw „practice what you preach“. Und er hat seit >10 Jahren immer eine Geforce gehabt weil meistens die schnellste/stabilste Karte.
Ich sehe auch nirgends wo es etwas Negatives sein soll, Anti-Consumer Initiativen/Sachverhalte zu verurteilen. Sich dann noch selbst zu committen ist dann noch konsequenter.
Tesseract
2022-12-18, 21:30:54
ich habe weder behauptet er sei ein egomane noch dass er das irgendwie an seinen mitarbeitern ausleben würde. linus ist - und war schon immer - jemand der sich schnell mal eine meinung bildet ohne wirklich in die tiefe gegangen zu sein und das hatte in der vergangenheit schon oft genug negative folgen, z.B. knapp einem vollständigen datenverlust der gesamten firma entgangen. was jetzt aber (verhältnismäßig) neu ist ist die reichweite die ihn in meinen augen noch unreflektierter und sturer gemacht als als davor, und "skin in the game" hat er sowieso keines weil jederzeit zugang zu jeder gegenwärtigen und zukünftigen karte ohne rücksicht auf kosten, nutzungsdauer bei einem - nennen wir es mal vorsichtig wenn dir das lieber ist - sehr individuellem nutzungsprofil.
Ich sehe auch nirgends wo es etwas Negatives sein soll, Anti-Consumer Initiativen/Sachverhalte zu verurteilen.
der momentane zustand des grafikkartenmarktes ist in erster linie eine folge des - über jahre hinweg - mangelnden innovations- und investitionswillens seitens AMD. nvidias preisgestaltung ist ein symptom, keine ursache. aktionismus gegen symptome sehe ich durchaus als kritikwürdig, die helfen weder kurzfristig dem user noch langfristig dem markt.
ich finde es übrigens lustig von dir zu erfahren was ich kenne, nicht kenne und wie ich zu meiner meinung gefunden haben soll. ;D
Complicated
2022-12-18, 21:36:12
der momentane zustand des grafikkartenmarktes ist in erster linie eine folge des - über jahre hinweg - mangelnden innovations- und investitionswillens seitens AMD.
Also diesen Unfug öffentlich zu schreiben, erfordert echt Eier.
Digidi
2022-12-18, 21:42:52
der momentane zustand des grafikkartenmarktes ist in erster linie eine folge des - über jahre hinweg - mangelnden innovations- und investitionswillens seitens AMD. nvidias preisgestaltung ist ein symptom, keine ursache. aktionismus gegen symptome sehe ich durchaus als kritikwürdig, die helfen weder kurzfristig dem user noch langfristig dem markt.
Das ist auf so vielen Ebenen einfach nur Falsch! Es muss heißen es ist in erster Linie Schuld der Verbraucher die Unfähig sind ein Qasi-Monopol zu zerschlagen. AMD liefert gute Produkte aber wenn man halt immer wieder zu Nvidia greift dann wird Nvidia immer der gewinner bleiben. Entwicklung von GPUs kostet sehr sehr viel Geld und meistens ist derjenige der Gewinner der die meiste Kohle hat. Nvidia hat so viele Kohle und kann Gute Leute von AMD , Intel und anderen Mitbewerbern einfach abwerben. Für AMD ist das nicht so einfach. Die haben ein sehr enges Budget zumal sie auch noch den CPU Markt bedienen müssen. Wenn wir etwas ändern wollen, dann müssen mehr zu AMD greifen, sonst wird sich in den nächsten Jahre nichts ändern.
Tesseract
Hm, schaun wir mal: Ja ok, für GCN nach Hawaii kann man das vllt. konstatieren. Aber woher sollte das Geld auch kommen? Dann kam RDNA. Ab hier kann man defintiv nicht mehr von einem Innovationsstau sprechen. Nur weil AMD RT nicht soviel Aufmerksamkeit schenkt? Da kann man natürlich die beleidigte Leberwurst spielen und mit dem Finger darauf zeigen, aber ich halte das ja durchaus für Absicht, was da passiert. AMD aber die Schuld für die hohen Preise geben ist bescheuert. Du kannst nur dem die Schuld geben, der 80% des Marktes kontrolliert...
Digidi
kommt darauf an, was man will. Es geht hier ja nur um zu hohe Preise. In dem Fall gibts eine einfache Lösung: Nicht kaufen! Wenn ihr nicht kauft, kommen die Preise runter, so einfach ist das.
Digidi
2022-12-18, 22:12:08
Nein es geht auch darum was man kauft. Will man einen echten Konkurrenten haben muss man den aufbauen. Ich liebe es auch beim essen, alle wollen Tierwohl haben aber wenn mal Fleisch mit Tierwohllabel daliegt bleibt es liegen weil es etwas teurer ist...
Nein, du kannst nicht erwarten, dass Kunden das "schlechtere" Produkt kaufen. Den Vorwurf könnte man machen, wenn AMD gleiche Leistung liefern würde und alle trotzdem Geforce kaufen.
Digidi
2022-12-18, 22:26:20
Nein, du kannst nicht erwarten, dass Kunden das "schlechtere" Produkt kaufen. Den Vorwurf könnte man machen, wenn AMD gleiche Leistung liefern würde und alle trotzdem Geforce kaufen.
Doch man kann den Vorwurf machen bei einem Quasi Monopol muss man auch manchmal etwas kaufen was nicht so der Hit ist. Man kann doch mit der 7900XTX ordentlich spielen oder nicht? Ist halt nicht der König!
Nein, du kannst nicht erwarten, dass Kunden das "schlechtere" Produkt kaufen. Den Vorwurf könnte man machen, wenn AMD gleiche Leistung liefern würde und alle trotzdem Geforce kaufen.
Naja wenn man auf das Preis-Leistungs-Verhältnis schaut dann steht das in der Regel auf AMDs Seite. Wenn das Preisverhältnis zwar besser ist aber die grundsätzliche Leistung nicht reicht (Bulldozer für manche z.B.) ok, aber so ist es ja nicht. Die 970 damals wurde gekauft ohne Ende und da hatte AMD die definitiv deutlich besseren Gegenspieler. Nvidia ist mittlerweile wie ein Appleprodukt. Ich kaufe bewusst AMD solange sie nicht deutlich schlechter sind aus genau dem Grund das ich das Verhältnis was seit langem im Markt herrscht nicht gut finde und auch weil ich Innovationen gerne belohne auch wenn sie sich manchmal nicht sofort auszahlen. Das gilt auch für den offenen Ansatz dem AMD fährt und da ist es erstmal egal aus welchen Gründen das geschieht. Bin immernoch erstaunt wie ein nach wie vor kleiner Player auf so vielen Feldern erfolgreich agiert bzw. es geschafft hat wieder erfolgreich zu werden.
Nachtrag:
Die technischen Diskussionen lese ich hier übrigens seit Jahren extrem gerne auch wenn ich nichts dazu beitragen kann.
Linmoum
2022-12-18, 22:44:45
Doch man kann den Vorwurf machen bei einem Quasi Monopol muss man auch manchmal etwas kaufen was nicht so der Hit ist.Bulldozer hat auch niemand aus Mitleid gekauft. Warum auch?
Gut, bei GPUs ist AMD natürlich längst nicht so abgeschlagen, wie es damals gegenüber Intel der Fall war (wobei, so abgeschlagen wie bei RT war Bulldozer in Spielen damals nicht...), aber auch mit RDNA3 ist AMDs Pro-Argument leider, mal wieder, nur der Preis. Wie man sieht, funktioniert das für AMD aber nicht. Auch nicht im Massenmarkt, sonst würden die Marktanteile anders aussehen.
AMD braucht im DIY-Markt Argumente die nicht den Preis betreffen. Performance, Effizienz, Ökosystem inkls. Software. Bis auf gleichwertige Raster-Pertormance ist man aber leider überall klar schlechter. Und das ist halt ein entscheidender Grund, warum man anders kauft.
Digidi
2022-12-18, 23:04:49
Du verstehst die Logik nicht wie will man Ohne Geld jemanden überholen? Wir als Verbraucher müssen Konkurrenten aufbauen, das heißt auch erst einmal das etwas schlechter Produkt zu kaufen um eine Konkurrenz überhaupt erst mal zu ermöglichen.
Naja bei RDNA2 wurde das ja alles erfüllt und nur für die 3090 gab es keinen Gegenspieler.
6950XT vs. 3080 oder 3080TI z.B.. Die Verkäufe sprechen da eine andere Sprache. Ich glaube AMD bräuchte ein Produkt wie die 4090, aber damit meine ich den Abstand zum Konkurrenten. Diese Investition will bzw. kann AMD aber scheinbar nicht tätigen und noch dazu lässt Nvidia diese Flanke nicht offen wie man an der Chipgröße und TDP sieht und das können sie sich wiederum auch nicht leisten da ihr Produktfeld deutlich kleiner ist. Ich hoffe AMD verliert die Konsolendeals bei der PS6 nicht denn dann könnte es sein das die aus dem HighEnd aussteigen und nur noch das machen was für CPUs notwendig ist. Es hat sich die letzten 10 Jahre gezeigt das AMD trotz zum Teil leicht besserer Produkte deutlich weniger gekauft wird. Ich hatte die Hoffnung das sie mit dem Chipletansatz sowas wie ihr 4090 Projekt auf die Bein stellen würden und egal auf welchen Balken man schaut (ob wichtig oder nicht) es keinen Diskussionen gibt wer das schnellere und bessere Produkt hat. Vielleicht kommt das ja noch. Ich hoffe es zumindest um auch in 10 Jahren noch interessante Tests zu lesen wo es einen Schlagabtausch und Innovationen gibt. Core i7 die Sechste hat mir da gereicht und brauche ich nicht mehr.
Nachtrag: Wenn Nvidia jetzt da stehen würde wo AMD steht könnte man die Firmen in meinem Text jeweils tauschen. Das jetzige Verhältnis ist jedenfalls ungesund und das gilt unabhängig der Firmennamen.
Daredevil
2022-12-19, 05:09:39
Bulldozer hat auch niemand aus Mitleid gekauft. Warum auch?
Na sicher doch. Schon seit der Radeon 7500 kaufen Leute ATI/AMD aus Mitleid bzw. aus Liebe zum Underdog und das ist imho auch völlig okay, da es meist das geleistet hat, was der "Monopolist" geboten hat, nur zu einem niedrigeren Preis. Die 9800pro und A64 war dann natürlich Königsklasse und hat die Karten krass gedreht.
Grundsätzlich war die Technik von AMD die letzten Jahre im GPU Bereich aber immer "schlechter", was aber durch den Preis ausgeglichen wird, das gleiche passiert gerade bei RDNA3. Jeder Gamer freut sich doch, wenn er 50% weniger zahlt und nur 20% weniger Performance hat, da denkt man, ma hätte das System beschissen. :D
AMD hat aber seit Äonen von Jahren immer das Image des Sparbrötchens und dieses bekommen sie nur durch Hardware weg, welche innovativ ist, wie z.B. Zen4 bzw. der X3D Technologie, RDNA3 ist der Grundbaustein imho um Nvidia in den nächsten Jahren die Hölle heiß zu machen, dieses Jahr ist das aber noch nicht der Fall, trotzdem ist das eine ordentliche Evolution.
Die Gefahr ist nur immer groß, wenn nicht durchgängig abgeliefert wird in dem Fall durch z.B. den immens hohen Verbrauch.
Ein Sparbrötchen muss schmecken wie das Original, wenn es das nicht tut, kauft das am Ende auch kaum einer.
Du verstehst die Logik nicht wie will man Ohne Geld jemanden überholen? Wir als Verbraucher müssen Konkurrenten aufbauen, das heißt auch erst einmal das etwas schlechter Produkt zu kaufen um eine Konkurrenz überhaupt erst mal zu ermöglichen.
Dann solltest du Macs kaufen, denn der Stromverbrauch und die Technologie von Intel, Nvidia und AMD sind aus dem Aspekt der Effektivität grausam schlecht.
Ein kompletter Mac Studio mit 20 CPU Kernen, 64GB RAM, und 64 GPU Kernen verbraucht im Idle 1/8 von dem, was eine 7900XTX bei Youtube verbraucht und 1/3 von dem, was eine 4090 versäuft.
Man fördert Technik Entwicklung nicht, indem man schlechte Hardware blind kauft, sondern andere Hersteller motiviert, mehr zu machen, weil man die modernste Technik kauft.
Wenn AMD zu früh vom "Wir bieten die beste P/L" Image wechselst auf "Wir haben schlechtere Hardware, wollen jetzt aber auch mal Geld verdienen" sind die AMD Fanboys so schnell weg, wie sie gekommen sind.
Intel setzt sich mit ihren GPUs in genau den Markt, den AMD eigentlich perfekt bedienen müsste. Was tut AMD aber? Bringt 1000$+ Karten raus.
Nun stehen sie zwischen Intel, die P/L König werden wollen mit ihren eigenen Labs und Nvidia, die die "Rolex" Klasse bedient. Nicht Fisch, nicht Fleisch. Das ist echt schwierig.
prinz_valium_2
2022-12-19, 07:54:40
https://www.youtube.com/watch?v=-KvkVumbgvw
Das erklärt dann auch, warum in manchen synthetischen Benchmarks 4GHz Frontend Clock möglich ist. Schade, dass es da keine Leistung gibt.
Ich frage mich aber nun wirklich, ob die Karte mit 600 Watt wirklich massig performance auf die Straße bringen könnte.
Tangletingle
2022-12-19, 09:20:34
https://www.youtube.com/watch?v=-KvkVumbgvw
Das erklärt dann auch, warum in manchen synthetischen Benchmarks 4GHz Frontend Clock möglich ist. Schade, dass es da keine Leistung gibt.
Ich frage mich aber nun wirklich, ob die Karte mit 600 Watt wirklich massig performance auf die Straße bringen könnte.
Würde schon diskutiert und zeigt einfach Mal wieder dass jey manchmal keine Ahnung hat von dem was er macht. Die Karte läuft ins Powerlimit und drosselt dann halt den Speicher um bei gleichem Verbrauch den GPU-Takt hoch zu halten.
Das ist aber auch ein Unsinn, niemand kauft ne Grafikkarte aus Mitleid :freak:. Wer sowas behauptet hat einfach den Schuss nicht gehört.
Jemand, der BD oder ne 390 gekauft hat damals hat das getan, weil er offen war für das Produkt und der Preis gestimmt hat. Viele NV-Käufer würden ne Radeon nicht mal mit der Kneifzange anfassen, das ist das eigentliche Problem. Der Vergleich mit dem Apple-Produkt ist gar nicht so schlecht.
Aber ich denke schon, dass viele Geforce-Käufer jetzt oder in jüngerer Vergangenheit einfach wegen der finanziellen Exzesse von NV doch mal ne Radeon probiert haben und - oh Wunder - das geht ja auch. Die 3080 mit ihren 10GB war die ganze Zeit ein schlechter Witz, was den Preis angeht.
prinz_valium_2
2022-12-19, 10:21:06
Würde schon diskutiert und zeigt einfach Mal wieder dass jey manchmal keine Ahnung hat von dem was er macht. Die Karte läuft ins Powerlimit und drosselt dann halt den Speicher um bei gleichem Verbrauch den GPU-Takt hoch zu halten.
Genau das sagt er doch?
BlacKi
2022-12-19, 10:35:25
Genau das sagt er doch?es geht um den minimaltakt. du darfst den nicht nach oben ziehen, sonst taktet er nicht den chip beim erreichen des PL herunter, sondern den vram takt.
auch mit 464w bleibt n31 mit oc brutal powerlimitiert. jay hätte sich etwas mehr mit der amd software auseinandersetzen müssen, und nicht einfach stur nv praxis auf amd zu übertragen.
Daredevil
2022-12-19, 10:43:16
Das ist aber auch ein Unsinn, niemand kauft ne Grafikkarte aus Mitleid :freak:. Wer sowas behauptet hat einfach den Schuss nicht gehört.
Jemand, der BD oder ne 390 gekauft hat damals hat das getan, weil er offen war für das Produkt und der Preis gestimmt hat. Viele NV-Käufer würden ne Radeon nicht mal mit der Kneifzange anfassen, das ist das eigentliche Problem. Der Vergleich mit dem Apple-Produkt ist gar nicht so schlecht.
Aber ich denke schon, dass viele Geforce-Käufer jetzt oder in jüngerer Vergangenheit einfach wegen der finanziellen Exzesse von NV doch mal ne Radeon probiert haben und - oh Wunder - das geht ja auch. Die 3080 mit ihren 10GB war die ganze Zeit ein schlechter Witz, was den Preis angeht.
Ich glaube tatsächlich, das es weniger Nvidia Fans gibt als welche, die AMD hinterher laufen, weil hier der Faktor "Kaufe das Beste" ein entscheidender ist, egal was es kostet. Wenn AMD an der Stelle das "Beste" bieten würde, wäre Miami der erste, der nen Zen und RDNA in seiner Kiste hat. Da es aber nicht "das beste" ist, bleibt Intel und Nvidia seine Wahl. Aber das ist psychologisch auch nachvollziehbar und ist auch überhaupt kein Thema. AMD zeigt ja nun einmal, das sie es können mit der CPU Sparte und ich bin mir sicher, das RDNA3 große Weichen gelegt hat und Fehler begangen wurden, die mit der nächsten Gen nicht mehr relevant sind. Nobody is perfect, man sieht ja an Nvidias Reaktion, das AMD nunmal nicht ganz unbewaffnet ist, letztendlich am Kühler der 4090. :ugly:
dargo
2022-12-19, 10:48:36
auch mit 464w bleibt n31 mit oc brutal powerlimitiert.
Überraschung... hohe GPU-Frequenzen nah an der Kotzgrenze fressen viel Strom. :freak:
MSABK
2022-12-19, 10:54:55
Wenn man mal ein bestimmtes Image hat, dann bleibt das hängen in den Köpfen. NV gilt nun mal als ausgersift und beständig in der HW und SW. AMD ist halt eher als Budget und weniger ausgereift gerade in SW bekannt,
basix
2022-12-19, 11:36:42
AMD ist halt eher als Budget und weniger ausgereift gerade in SW bekannt,
Und das Problem ist, dass das eigentlich gar nicht mehr stimmt. Schon seit langem. AMD hatte immer mal wieder Bugs in den Treibern, die hatte Nvidia aber auch. Und Nvidias Control Panel ist auch nicht mehr gerade taufrisch.
Wo Nvidia deutlich stärker ist, sind neue SW-Features zu bringen wo der Nutzer einen Mehrwert hat. DLSS, DLDSR, Reflex, Shadowplay, Ansel, Remix, RTX Voice und noch weiteres. Einiges davon ist leider proprietär und müsste es nicht unbedingt sein, aber über die SW kann sich Nvidia differenzieren. HW bauen können Nvidia wie auch AMD sehr gut.
dargo
2022-12-19, 11:40:49
Wenn man mal ein bestimmtes Image hat, dann bleibt das hängen in den Köpfen. NV gilt nun mal als ausgersift und beständig in der HW und SW. AMD ist halt eher als Budget und weniger ausgereift gerade in SW bekannt,
Was ein Blödsinn wieder.
Linmoum
2022-12-19, 11:48:16
Er hat ja nicht gesagt, dass er das so sieht. Sondern vielmehr, dass AMD so wahrgenommen wird. Was halt auch so stimmt, zumindest bei den GPUs.
Und wenn das Blödsinn wäre, hätte Nvidia nicht 85% Marktanteile und Intel wäre nicht schon fast an AMD dran... Das kommt auch von irgendwoher. Viele kaufen auch lieber eine 3050 statt einer 6600. Natürlich ist das Schwachsinn, aber es ist eine GeForce und keine Radeon. Das reicht für viele aus.
dildo4u
2022-12-19, 11:50:19
Was ein Blödsinn wieder.
Wo ist das Blödsinn wenn die Karte 80 Watt beim YouTube gucken nimmt man sollte meinen das endlich mal was vom Budget bei der Grafik Abteilung landet.
Wenn nicht mal die Grundlage wie idle Optimierung funktioniert wozu 100 nutzlose Features die eh keiner nutzt?
Und zusätzlich liegt das Top Modell jetzt weiter hinten als bei Ampere vs RDNA2.
Der Chip ist einfach nur die Fingerübung bis sie endlich zwei Compute Dies nutzen können was wohl erst 2024 eine Rolle spielt.
MSABK
2022-12-19, 12:00:18
Er hat ja nicht gesagt, dass er das so sieht. Sondern vielmehr, dass AMD so wahrgenommen wird. Was halt auch so stimmt, zumindest bei den GPUs.
Und wenn das Blödsinn wäre, hätte Nvidia nicht 85% Marktanteile und Intel wäre nicht schon fast an AMD dran... Das kommt auch von irgendwoher. Viele kaufen auch lieber eine 3050 statt einer 6600. Natürlich ist das Schwachsinn, aber es ist eine GeForce und keine Radeon. Das reicht für viele aus.
Genau, ich sehe das nicht so. Aber der durchschnittliche User draußen. Ich kenne da einige davon und die würden nie im Leben eine Amd Karte kaufen weil die einfach „mäh“ sind laut deren Meinung. Das wird man auch nicht ändern können. Ist wie mit Alfa Romeo, ist mal das Image beschädigt kannst so gute Produkte bringen wie du willst.
dargo
2022-12-19, 12:33:13
Wo ist das Blödsinn wenn die Karte 80 Watt beim YouTube gucken nimmt man sollte meinen das endlich mal was vom Budget bei der Grafik Abteilung landet.
Junge... N31 bzw. RDNA3 ist in der Diskussion noch gar nicht inkludiert.
Und wenn das Blödsinn wäre, hätte Nvidia nicht 85% Marktanteile und Intel wäre nicht schon fast an AMD dran... Das kommt auch von irgendwoher.
Ja... zum großen Teil vom Mining in den letzten ~zwei Jahren.
Redneck
2022-12-19, 12:46:07
Das wird man auch nicht ändern können. Ist wie mit Alfa Romeo, ist mal das Image beschädigt kannst so gute Produkte bringen wie du willst.
Doch, kann man. Mann muss "nur" die steilvorlagen nutzen, die der Gegner bietet und mit seinen Produkten abliefern. Da hakt es aktuell.
Das Momentum pro AMD war nach der 4080 Vorstellung nie so groß. Leider war der Stunt AMDs nicht das Gelbe vom Ei und bis dato überzeugt auch das Produkt nicht vollends.
NV hat bis jetzt ( analog zu AMD) noch nichts greifbares für die Massen gezeigt.
Das Feld ist noch komplett unbestellt.
Denke es hat schon einen Grund weshalb man Top Bottom released und man die Karten für die Massen zuletzt bringt (die wichtiger für NV und AMD sind als die paar Tausend Einheiten an Enthusiasten Graka s). Beide beäugen sich bis kurz vor Schluss um im Volumenbereich das bessere Produkt stellen zu können. Da ist die Chance für AMD nach wie vor gegeben, sollte NV im preissensiblen Segment sich falsch positionieren.
BlacKi
2022-12-19, 12:53:31
Viele kaufen auch lieber eine 3050 statt einer 6600. Natürlich ist das Schwachsinn, aber es ist eine GeForce und keine Radeon. Das reicht für viele aus.
würde ich aber auch vorziehen. dlss und fsr kompatibel. das sind wichtige features im unteren bereich, und nicht überall wo dlss angeboten wird(das besser aussieht und besser performt) gibts überhaupt fsr.
Complicated
2022-12-19, 13:05:54
Euch ist aber schon klar, dass Nvidia mit dem 85% Marktanteil auch 85% seines Unternehmensumsatzes macht, während AMD mit dem 15% Marktanteil 20% seines Umsatzes macht. Was AMD machen muss, ist auch seine anderen 80% Geschäft voranzutreiben, vor allem, wenn das Momentum dort deutlich größer ist beim Wachstum. Einen GPU-Markt in dieser desaströsen Lage mit extra Investitionen zu bearbeiten ist nicht sonderlich clever. Da wird 2023 ausgesessen, bis da auch wieder Wachstum zu erzielen ist.
dargo
2022-12-19, 13:13:59
Viele kaufen auch lieber eine 3050 statt einer 6600. Natürlich ist das Schwachsinn, aber es ist eine GeForce und keine Radeon. Das reicht für viele aus.
Ist das dein Bauchgefühl oder auf welche Quellen stützt sich deine Aussage? Also wenn ich aktuell bei MF nachschaue steht dort folgendes:
RX 6600 = >13.530 Exemplare
RTX 3050 = >3.905 Exemplare
MF dürfte natürlich höchstens nur DE einigermaßen gut abbilden. Global kann das sicherlich wieder anders aussehen.
Linmoum
2022-12-19, 13:20:07
Euch ist aber schon klar, dass Nvidia mit dem 85% Marktanteil auch 85% seines Unternehmensumsatzes machtNein, machen sie nicht. Data Center hat allein fast 65% des gesamten Umsatzes in Q3 bei NV ausgemacht, "Gaming" hingegen nur knapp 27%. Und das sind auch nicht nur die Desktop-GPUs, um die es hier geht.
Der einzige Vorteil, den ich diese Gen bei AMD sehe ist, wenn sie RDNA3 zügig nach unten hin im Portfolio nachschieben. Wenn sie da deutlich früher am Markt sind, dann kaufen die Leute auch einen N33 statt Alteisen. Aber ich fürchte, gerade dieser Chip wird als letzterer launchen und auch N32 nicht unbedingt zeitnah.
MSABK
2022-12-19, 13:22:11
Ist das dein Bauchgefühl oder auf welche Quellen stützt sich deine Aussage? Also wenn ich aktuell bei MF nachschaue steht dort folgendes:
RX 6600 = >13.530 Exemplare
RTX 3050 = >3.905 Exemplare
MF dürfte natürlich höchstens nur DE einigermaßen gut abbilden. Global kann das sicherlich wieder anders aussehen.
Die RX6600 hat im Heimbereich schon ein gutes standing, kann man nichts verkehrt machen damity die 50er bei Nvidia bringt man eher mit 149-199€ Karten in Verbindung.
BlacKi
2022-12-19, 13:23:26
Ist das dein Bauchgefühl oder auf welche Quellen stützt sich deine Aussage? Also wenn ich aktuell bei MF nachschaue steht dort folgendes:
RX 6600 = >13.530 Exemplare
RTX 3050 = >3.905 Exemplare
MF dürfte natürlich höchstens nur DE einigermaßen gut abbilden. Global kann das sicherlich wieder anders aussehen.MF ist MF, aber spiegelt nicht den gesammten markt wieder.
Complicated
2022-12-19, 13:33:19
Nein, machen sie nicht. Data Center hat allein fast 65% des gesamten Umsatzes in Q3 bei NV ausgemacht, "Gaming" hingegen nur knapp 27%. Und das sind auch nicht nur die Desktop-GPUs, um die es hier geht. Wo ist denn bitte der Widerspruch zu was ich schrieb? Du unterteilst die Sparten, die ich zuvor zusammengefaßt hatte. Es bleiben dGPUs. Es ist sogar noch kleinteiliger. Nur ist es doch ausreichend zu erkennen, wo AMD derzeit seine Top Prioritäten hat. Das ist nicht der Gaming-GPU Markt. Daher sind Aussagen wie "AMD muss jetzt dies und das.." tun um den GPU-Markt zu konsolidieren so weit weg von dem, was AMD interessiert.
dargo
2022-12-19, 13:48:24
MF ist MF, aber spiegelt nicht den gesammten markt wieder.
Breaking News. ;D
btw.
Laut HWU verkauft sich die RX 7900XTX sehr gut vs. RTX 4080, AMD muss nur mehr von dieser SKU liefern (Nachfrage größer Angebot). 7900XT verkauft sich wie erwartet eher schlecht zu dem Preispunkt. Die RTX 4080 wird von einigen Händlern schon zum Einkaufspreis verkauft damit die Lager leer werden, die will kaum jemand haben.
UfTHArkIVRE
Die 7900XT gibts vor allem um den Preis der 7900XTX zu rechtfertigen. Dann ergibt der Preispunkt auch Sinn.
BlacKi
2022-12-19, 13:51:21
Breaking News. ;D
schön, das du deinen denkfehler einsiehst.
btw.
Laut HWU verkauft sich die RX 7900XTX sehr gut vs. RTX 4080, AMD muss nur mehr von dieser SKU liefern (Nachfrage größer Angebot).
die karte hat einfach nur keine stückzahlen im vergleich zur xt. ich denke, es wurden mehr xt verkauft als xtx. es gab schlicht viel zu wenige. es gab bestimmt mindestens doppelt soviele xt als xtx im verkauf. selbiges trifft auch auf die 4080 vs 4090 zu.
dargo
2022-12-19, 13:54:02
schön, das du deinen denkfehler einsiehst.
Lesen ist nicht so deine Stärke gell?
Iscaran
2022-12-19, 14:15:52
RX 6600 = >13.530 Exemplare
RTX 3050 = >3.905 Exemplare
Das ist aber auch wieder deutlich "grün-Bias".
Die 3050 hat ein Performance Rating von ~800%
Die 6600 liegt bei 1100%
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022
Die 3060 ist eher die Karte die die Konkurrenz zur 6600 bildet (Rating 1130%).
Bzw. die 6600 ist eigentlich eine Karte ZWISCHEN 3050 und 3060.
6600 XT vs 3060 passt fast am besten.
BlacKi
2022-12-19, 14:23:19
Lesen ist nicht so deine Stärke gell?du kannst mir nur nicht folgen. ich bezog es auf die oem rechner + diy. und in den oem rechnern hast du komplett andere zahlen. absolut gesehen werden wohl massiv mehr nv karten verkauft. sieht man schön am marketshare.
Daredevil
2022-12-19, 14:23:54
Die 3050 hat einen Nutzeranteil von 2.26% bei Steam, die RX6600 hat einen Anteil von 0.36%.
Laut Dargo kaufen also mehr Menschen die RX6600, aber halt offensichtlich nicht zum spielen.
#MadeForOffice365 ? ^^
Linmoum
2022-12-19, 14:28:41
Wo ist denn bitte der Widerspruch zu was ich schrieb? Du unterteilst die Sparten, die ich zuvor zusammengefaßt hatte. Es bleiben dGPUs.Der von mir erwähnte Marktanteil ist konkret der von JPR und umfasst ausschließlich dGPUs (da du hier scheinbar alles als "dGPUs" in einen Topf werfen willst: es sind konkret AiB Desktop-GPUs).
Server ist also völlig irrelevant für diesen Marktanteil. Und Desktop auch nur ein Teil von Nvidia in der Sparte Gaming. Die besteht nicht nur aus Desktop-GeForces.
@Iscaran
Preislich ist es aber eher 6600 vs. 3050. Erstere hat eine deutlich höhere Performance als letztere (selbst mit RT) und kostet dszu weniger. Trotzdem kaufen immer noch genug Leute hier eine deutlich langsamere GPU für mehr Geld. Das ist ein grundlegendes Phänomen bei Grafikkarten. Da wird zu häufig nach Name a) gekauft und b) halt nicht.
Das sitzt in vielen Köpfen halt so fest. Und mit RDNA3 macht AMD mit den ersten gelaunchten GPUs auch nicht den Eindruck, als wollten sie hier daran etwas ändern. Entweder ist RDNA3 wieder nur irgendeine Art von Zwischenschritt, oder sie können/wollen einfach nicht anders. Irgendwann müssen sie aber mal. Das geht nicht ewig gut, gerade jetzt, wo Intel ins Spiel kommt. Die erschlagen zur Not alles mit größeren Chips, was sonst noch an Defiziten besteht.
BlacKi
2022-12-19, 14:36:11
Die 3050 hat einen Nutzeranteil von 2.26% bei Steam, die RX6600 hat einen Anteil von 0.36%.
Laut Dargo kaufen also mehr Menschen die RX6600, aber halt offensichtlich nicht zum spielen.
#MadeForOffice365 ? ^^und der passendere gegner 3060, 3,41%
dr.denton
2022-12-19, 14:41:32
Nein, du kannst nicht erwarten, dass Kunden das "schlechtere" Produkt kaufen. Den Vorwurf könnte man machen, wenn AMD gleiche Leistung liefern würde und alle trotzdem Geforce kaufen.
Einverstanden. Aber was war mit RV870 vs. Fermi? Da war AMD früher am Markt und hatte, so weit ich mich erinnere, für Gaming das insgesamt deutlich rundere Produkt zu günstigeren Preisen.
Und trotzdem reichte das nicht für mehr als die Hälfte des Marktanteils.
AMD können ihre GPUs aus himmlischem Manna bauen und noch zwei sexy Dämonen (m/w/d) dazu legen, der Mindshare gehört NV :freak:
Complicated
2022-12-19, 14:44:47
Server ist also völlig irrelevant für diesen Marktanteil. Und Desktop auch nur ein Teil von Nvidia in der Sparte Gaming. Die besteht nicht nur aus Desktop-GeForces.
Na und? Du verstehst noch nicht einmal gegen was Du argumentierst. Lass stecken.
DrFreaK666
2022-12-19, 14:53:11
... Das sitzt in vielen Köpfen halt so fest...
Ist leider wirklich so. Ich bin eher pro AMD, habe aber zu Nvidia gegriffen, weil das Angebot besser war.
Bei RTX3050 vs RX6600 macht das aber überhaupt keinen Sinn
Daredevil
2022-12-19, 14:58:54
Einverstanden. Aber was war mit RV870 vs. Fermi? Da war AMD früher am Markt und hatte, so weit ich mich erinnere, für Gaming das insgesamt deutlich rundere Produkt zu günstigeren Preisen.
Und trotzdem reichte das nicht für mehr als die Hälfte des Marktanteils.
AMD können ihre GPUs aus himmlischem Manna bauen und noch zwei sexy Dämonen (m/w/d) dazu legen, der Mindshare gehört NV :freak:
Vertrauen baut man nun einmal nicht mit einem Produkt auf, sondern mit mehreren Generationen. ( Zen 1-4 ist denke ich ein gutes Beispiel )
Samsung kann die besten Waschmaschinen der Welt bauen, die deutschen würde immer 500€ mehr ausgeben für eine Miele, wo die Marke seit 30 Jahren für Qualität steht. ( Auch wenn es heute nicht mehr der Fall ist, dass die Kisten 20 Jahre laufen ).
Ich denke aber, das AMD wirklich viel Kredibilität durch die Konsolen bekommt, nur vermarktet das Microsoft und Sony leider nicht so oft, das alles "Made by AMD" ist.
Da fehlt quasi das Äquivalent zum "Intel Inside" Sticker auf der Playstation.
basix
2022-12-19, 15:18:54
Ist leider wirklich so. Ich bin eher pro AMD, habe aber zu Nvidia gegriffen, weil das Angebot besser war.
Bei RTX3050 vs RX6600 macht das aber überhaupt keinen Sinn
Ich bin auch eher pro AMD, aber schlussendlich ist es für mich ein rationaler Entscheid: Das bessere Produkt gewinnt. Ist bei sicher den meisten Personen so, die sich mit der Materie befassen. Was "besser" genau bedeutet, ist allerdings individuelle Präferenz. Kann Performance sein, ein Feature, höhere Energieffizienz oder bessere Kühler oder bessere SW-Unterstützung. Oder halt einfach besseres P/L.
Die, die sich nicht mit der Materie befassen: GeForce ist eine deutlich stärkere und bekanntere Marke. Ähnlich wie es mal bei Intel <-> AMD bei den CPUs war. Um diesen Zustand zu brechen, muss man mindestens 2 Generationen hintereinander abliefern. Diese Chance hat man mit RDNA3 Stand heute etwas verpasst.
dargo
2022-12-19, 15:33:49
Die 3050 hat einen Nutzeranteil von 2.26% bei Steam, die RX6600 hat einen Anteil von 0.36%.
Laut Dargo kaufen also mehr Menschen die RX6600, aber halt offensichtlich nicht zum spielen.
Auch du solltest dringend an deiner Leseschwäche arbeiten.
Prinzenrolle
2022-12-19, 16:14:42
Preislich ist es aber eher 6600 vs. 3050. Erstere hat eine deutlich höhere Performance als letztere (selbst mit RT) und kostet dszu weniger..
Zum einen wird die RTX 3050 deutlich häufiger in Komplettsystemen verbaut, zum anderen ist deine Aussage mit "deutlich höherer Performance" schlicht falsch. Im Mittel sind sie in RT gleichauf und bei WQHD Raster ist die AMD rund 25% im Front.
https://www.pcgameshardware.de/Geforce-RTX-3050-Grafikkarte-278118/Tests/Kaufen-Preis-Release-Benchmark-Vergleich-vs-6500-XT-RTX-2060-1387678/4/
Am Ende hat Nvidia noch das bessere Featureset und somit kann Nvidia eben diesen Preis für die Karte nehmen, zudem war die 6600 bis vor kurzem noch teurer als die 3050. Erst ab Mitte des Jahres wurde die 6600 gleichteuer.
Das ist ein grundlegendes Phänomen bei Grafikkarten. Da wird zu häufig nach Name a) gekauft und b) halt nicht.
Du meinst wieso Leute für 1200 eine RX 7900XTX kaufen, obwohl Nvidias etwas teurere RTX 4080 in RT 30% mehr leistet?:redface:
In Witcher 3 ~40%? Inkl FG +100%?^^
Das sitzt in vielen Köpfen halt so fest. Und mit RDNA3 macht AMD mit den ersten gelaunchten GPUs auch nicht den Eindruck, als wollten sie hier daran etwas ändern.
Wie soll AMD das schaffen? Dafür bräuchten sie bessere Produkte und bessere Software. Mit RDNA 2 waren sie näher dran.
RDNA 3 ist eine Kopie der Radeon VII. Viel Speicher, denn man nie brauchen wird, aber eine sehr schwache Leistung.
Iscaran
2022-12-19, 16:16:32
@Iscaran
Preislich ist es aber eher 6600 vs. 3050. Erstere hat eine deutlich höhere Performance als letztere (selbst mit RT) und kostet dszu weniger. Trotzdem kaufen immer noch genug Leute hier eine deutlich langsamere GPU für mehr Geld. Das ist ein grundlegendes Phänomen bei Grafikkarten. Da wird zu häufig nach Name a) gekauft und b) halt nicht.
Genau DAS und das manifestiert sich nur umso mehr, je öfter man eben auch als "kundiger" bei Vergleichen dann eben die 3050 mit der 6600 herzieht.
Performancetechnisch ist die 3060 praktisch kaum besser. Ausser in RT, aber da ja auch nur in Realitätsfernen Usecases...und fake FPS können beide hinreichend gut.
Aber die "Fanboys" kaufen halt blind lieber die 3050, weil "bei gleichem Preis nimmst halt lieber die Grüne Karte!"...
Nur gleicher Preis ist halt != gleiche Performance.
P/L steckt die 6600 die 3050 jederzeit weg. Gekauft wird aber "grün" - weil ein Freund der sich "auskennt" hat mir gesagt...
dargo
2022-12-19, 16:31:26
Wie kommt es, dass das Verhältnis zwischen RTX 3090 und RX 6900XT bei Steam so deutlich abweicht?
RTX 3090 = 0,53%
RX 6900XT = 0,20%
Wobei ich die Steam-Umfrage immer noch für zweifelhaft halte. Ich werde bei Steam nahezu nie nach der Hardware gefragt. Ich glaube bisher wurde ich 1x gefragt in sehr vielen Jahren. Oder ich spiele zu wenig für Steam. :freak:
Prinzenrolle
2022-12-19, 16:33:00
Performancetechnisch ist die 3060 praktisch kaum besser. Ausser in RT, aber da ja auch nur in Realitätsfernen Usecases...und fake FPS können beide hinreichend gut.
PCGH misst im RT Indes 63% mehr Leistung für die 3060, non RT 12% zugunsten der 3060, aber ja natürlich, kaum besser.
https://www.pcgameshardware.de/Radeon-RX-6600-Grafikkarte-277910/Tests/Radeon-RX-6600-Test-Benchmarks-Review-1381209/3/
Aber die "Fanboys" kaufen halt blind lieber die 3050, weil "bei gleichem Preis nimmst halt lieber die Grüne Karte!"...
Ist ja nicht so, als gäbe es nicht auch eine RTX 3060 8GB.:smile:
Ich glaube bisher wurde ich 1x gefragt in sehr vielen Jahren. Oder ich spiele zu wenig für Steam. :freak:
Ich wurde noch nie gefragt welche Partei ich wähle und dennoch kommen die Umfragen sehr nahe ans Endergebnis ran.:confused:
robbitop
2022-12-19, 16:50:57
Müsste Steam nicht die HW die im PC verbaut ist kennen/erkennen können? Wozu dann eine Umfrage?
Dino-Fossil
2022-12-19, 16:57:31
Ich dachte immer, das sie ohne Zustimmung die Daten nicht weitergeben dürfen. Aber vielleicht gilt das nur z.B. in der EU?
BlacKi
2022-12-19, 17:20:05
Ich dachte immer, das sie ohne Zustimmung die Daten nicht weitergeben dürfen. Aber vielleicht gilt das nur z.B. in der EU?du musst natürlich zustimmen. du kannst die umfrage natürlich ablehnen.
Exxtreme
2022-12-19, 19:02:37
Und wieder zurück zum Thema. Etwaige Meinungsverschiedenheiten bitte per PM ausmachen. Danke.
Langlay
2022-12-19, 21:47:31
RDNA 3 ist eine Kopie der Radeon VII. Viel Speicher, denn man nie brauchen wird, aber eine sehr schwache Leistung.
Die Radeon VII hat zumindest in HZD profitieren können. Beim Launch war die VII eine der wenigen Karten die HZD glatte in Frametimes geschafft hat.
dargo
2022-12-19, 22:03:31
Aber auch nur weil die Software kaputt war. Ja... in solchen Fällen hilft Brechstange.
RDNA 3 N31 ist eine Kopie der Radeon VII. Viel Speicher, denn man nie brauchen wird, aber eine sehr schwache Leistung.
Eher eine Kopie von RTX 3090. War vor kurzem noch das nonplusultra. ;D
Digidi
2022-12-20, 01:56:52
Ich glaube tatsächlich, das es weniger Nvidia Fans gibt als welche, die AMD hinterher laufen, weil hier der Faktor "Kaufe das Beste" ein entscheidender ist, egal was es kostet. Wenn AMD an der Stelle das "Beste" bieten würde, wäre Miami der erste, der nen Zen und RDNA in seiner Kiste hat. Da es aber nicht "das beste" ist, bleibt Intel und Nvidia seine Wahl. Aber das ist psychologisch auch nachvollziehbar und ist auch überhaupt kein Thema. AMD zeigt ja nun einmal, das sie es können mit der CPU Sparte und ich bin mir sicher, das RDNA3 große Weichen gelegt hat und Fehler begangen wurden, die mit der nächsten Gen nicht mehr relevant sind. Nobody is perfect, man sieht ja an Nvidias Reaktion, das AMD nunmal nicht ganz unbewaffnet ist, letztendlich am Kühler der 4090. :ugly:
Doch genau das ist ein Thema. Wenn der Markt so gestört ist, das jemand auf so hohen Finanziellen mitteln sitzt, das keiner Ihn mer einhohlen kann, dann müssen die Verbraucher agieren. Wie sollen AMD und Intel das bessere Produkt bauen wenn Sie keine Kohle haben um dies zu finanzieren?
Auf gut Glück etwas bessers zu schaffen funktioniert bei Sterneküche beim Esssen, aber im GPU markt geht da vieles nur über Kohle und Try and Error. Derjenige der am meisten Testen kann und die Kohle dafür hat wird gewinnen.
Spring
2022-12-20, 11:05:58
Also ich sehe immer noch keine große Bedeutung von RT, ausser innerhalb der 3DC-Blase natürlich. Wenn man sich anschaut wieviele RT-Titel es gibt und das dann auf die Anzahl der Titel hochrechnet, die im gleichen Zeitraum für den PC veröffentlicht wurden dann kommt man wohl kaum an die 0,5%. RT ist immer noch eine komplette Nische. Dürfte ähnlich nischenhaft sein wie VR. Und dass AMD aurf sowas die Hardware nicht ausrichtet ist für mich schlüssig.
Jup
https://steamcharts.com/top
BavarianRealist
2022-12-20, 11:52:25
Das Chiplet-Konzept von Navi31 liefert anscheinend bisher keine echten Vorteite (weder bei Kosten noch Effizienz), schon gar nicht für den kleineren Navi32.
ABER:
Das Chiplet-Konzept wird mit dem kommenden N3E-Prozess von TSMC seine Vorteile dann vermutlich richtig ausspielen, weil:
- SRAM und analoger Teil im Chip nicht weiter schrumpfen, d.h. die Auslagerung in das MCD in N6 wird sich dann richtig auszahlen
- die N3E-Wafer werden gigantisch teuer werden und zudem erstmal weit mehr vom Yield abhänig sein, sodass AMD hier vermutlich früher auf N3E gehen kann, weil sie mit kleinen Dice arbeiten können und nur einen Teil der GPU im teuren N3E gefertigt wird
Auch die Komponenten für Video könnten als nächstes auf ein eigenes Die wandern, damit sich nicht mehr auf den teuren 3nm-Prozess protiert werden müssen bzw. um das 3nm-Die kleiner zu halten.
Von daher dürfte AMD möglichst schnell GCD auf N3E bringen, zumal sie ja jetzt den Vorteil haben, dass sie nur noch die Core shrinken müssen.
Von daher dürfte Navi31 vor allem eine Art Pipe-Cleaner für die neue Technologie für GPUs sein....
....womöglich wird es daher keinen Navi32 im Chiplet-Konzept sondern einfach als verdoppelten Navi33 geben. Wer weiß.
Was für ein Unsinn. trotz Interposer ist das Konstrukt dank der nur 300mm² sehr viel billiger als ein 522mm²-Monolith. N31 wird billiger sein als N21.
dargo
2022-12-20, 12:21:06
Das Chiplet-Konzept von Navi31 liefert anscheinend bisher keine echten Vorteite (weder bei Kosten noch Effizienz), schon gar nicht für den kleineren Navi32.
Aha... bist du einer der Ingenieure bei AMD?
robbitop
2022-12-20, 12:25:46
Was für ein Unsinn. trotz Interposer ist das Konstrukt dank der nur 300mm² sehr viel billiger als ein 522mm²-Monolith. N31 wird billiger sein als N21.
N31 kommt ohne Interposer aus. Info-R nutzt Leitungen auf dem Package selbst. Deswegen ist es günstiger.
Ian Cutress hat ausgerechnet dass N31 wegen Chiplets eine Kostenreduktion um 20 USD erreicht hat.
raffa
2022-12-20, 12:30:48
dazu empfehle ich dieses Video
https://www.youtube.com/watch?v=8XBFpjM6EIY
"How AMD is Fighting NVIDIA with RDNA3 - Chiplet Engineering Explained"
War sicher hier im Thread verlinkt.
BlacKi
2022-12-20, 12:42:00
Was für ein Unsinn. trotz Interposer ist das Konstrukt dank der nur 300mm² sehr viel billiger als ein 522mm²-Monolith. N31 wird billiger sein als N21.das chiplet design wird aber mehr fläche benötigen als ein monolith. wegen den interconnects.
die frage ist eher, wird ein geschätzter 500mm² 5nm monolith teurer sein als ein 300mm² 5nm+ 220mm 6nm design, mit zusätzlichem packaging.
und das glaube ich nicht. wird vermutlich fast das gleiche kosten, aber der monolith wird schneller sein bei gleichem verbrauch. und das ist der eigentliche haken.
ein zusätzlicher haken ist, das kein oder weniger abfall anfällt, was im umkehrschluss bedeutet, amd muss mehr gute chips salvagen. das reduziert den kostenvorteil durch chiplets wieder.
n21 in 5nm wäre sicher 20% schneller als n21 in 7nm und würde 100w weniger verbraten. naja, mal sehen was n33 macht.
Schau dir die Dies an, die Interconnects sind sowohl von der Fläche als auch vom Verbrauch her irrelevant. Und alles weitere ist haltlose Spekulation.
robbitop
2022-12-20, 12:56:52
Das hat Ian alles eingerechnet. Wie gesagt 20 usd hat es gebracht.
Der_Korken
2022-12-20, 13:02:43
ein zusätzlicher haken ist, das kein oder weniger abfall anfällt, was im umkehrschluss bedeutet, amd muss mehr gute chips salvagen. das reduziert den kostenvorteil durch chiplets wieder.
Inwiefern soll das ein Haken sein? Wenn die Yields besser werden, ist das niemals ein Nachteil. Selbst wenn man mehr CUs deaktiviert als man müsste, nimmt man pro verkauftem Chip nicht weniger ein als wären die Yields schlechter. Ansonsten würde ich eher sagen, dass man in Zukunft beim GCD nur leicht abgeschwächte Salvages verkauft und stärker über das Speichersystem segmeniert. Eine 7900XT hat durch das gesparte MCD weniger Chipfläche als die 7900XTX. Bei einem monolithischen Design wäre das nicht möglich, da muss man bei Chips mit kaputten CUs immer auch 1/6 des SIs und des Caches wegwerfen. Theoretisch könnte man auch noch eine 7900 mit weiterhin 84CUs aber nur 4 MCDs bringen. Oder man hätte N31 von vornherein nur mit 256bit bringen können und der 7900XTX gestackten Cache spendieren, damit die Bandbreite nicht zu knapp wird. Die Flexibilität des Chiplet-Designs ist einfach enorm.
ChaosTM
2022-12-20, 13:09:55
Das hat Ian alles eingerechnet. Wie gesagt 20 usd hat es gebracht.
Bei dieser Gen, ja. Für zukünftige reduziert/erhöht sich das deutlich stärker, weil man die MDCs nur minimal überarbeiten und nicht völlig neu designen muss.
Angeblich eine Ersparnis > 500 Millionen $ alleine für diese Phase der Entwicklung - laut den Videos mit dem AMD Chief Designer, dessen Namen mir leider entfallen ist. Ian ???
BlacKi
2022-12-20, 13:10:05
nicht direkt nachteil, ich meinte, es reduziert den chipletvorteil, der auf dem papier ja komplett vorhanden ist, aber bei der bildung des portfolios nicht durchschlägt.
Das hat Ian alles eingerechnet. Wie gesagt 20 usd hat es gebracht.
für gpus?
raffa
2022-12-20, 13:15:16
Navi 21 besteht ja bereits aus mehreren zuammengeschaltenen "Shader-Engines".
Es ist ihnen nicht gelungen, den Logic Die (GCD) aufzuteilen, und ähnlich wie bei Zen mehrere davon zu verbinden.
Es sind einfach zu viele Leitungen nötig, um die Daten schnell genug zwischen den Bereichen tranportieren zu können, um das Off-Die hinzubekommen.
Wenn das zu lösen ist, liessen sich die GPUs ähnlich skalieren, wie das jetzt mit Zen 8c bis EPYC 96c geht.
Zukunftsmusik.
robbitop
2022-12-20, 13:27:41
Bei dieser Gen, ja. Für zukünftige reduziert/erhöht sich das deutlich stärker, weil man die MDCs nur minimal überarbeiten und nicht völlig neu designen muss.
Angeblich eine Ersparnis > 500 Millionen $ alleine für diese Phase der Entwicklung - laut den Videos mit dem AMD Chief Designer, dessen Namen mir leider entfallen ist. Ian ???
Dr Ian Cutress.
Ja der Effekt nimmt zu je neuer der Prozess und je größer das gcd.
für gpus?
Ganz konkret für N31.
robbitop
2022-12-20, 13:31:55
Navi 21 besteht ja bereits aus mehreren zuammengeschaltenen "Shader-Engines".
Es ist ihnen nicht gelungen, den Logic Die (GCD) aufzuteilen, und ähnlich wie bei Zen mehrere davon zu verbinden.
Es sind einfach zu viele Leitungen nötig, um die Daten schnell genug zwischen den Bereichen tranportieren zu können, um das Off-Die hinzubekommen.
Wenn das zu lösen ist, liessen sich die GPUs ähnlich skalieren, wie das jetzt mit Zen 8c bis EPYC 96c geht.
Zukunftsmusik.
Das ist bei GPUs ungleich schwerer als bei CPUs aufgrund der massiv höheren Anforderung an Bandbreite und Latenz. Apple hat es mit dem M1 Ultra gezeigt, dass es geht. Aber eben mit einer silicone bridge. (info-lsi)
RDNA4 bringt das ggf auch.
BlacKi
2022-12-20, 13:34:05
die 6 mcds unter das gcd schieben, fertig :)
robbitop
2022-12-20, 13:48:38
zum Beispiel - sofern das thermisch funktioniert. Aber auch die Architektur und Topologie muss daran angepasst sein, damit man nicht zu viel Redundanz hat und das ganze gut skaliert.
raffa
2022-12-20, 13:52:56
Das ist bei GPUs ungleich schwerer als bei CPUs aufgrund der massiv höheren Anforderung an Bandbreite und Latenz. Apple hat es mit dem M1 Ultra gezeigt, dass es geht. Aber eben mit einer silicone bridge. (info-lsi)
RDNA4 bringt das ggf auch.
Ich plapper ja nur nach, was Sam Naffziger bei Gamers Nexus erzählt hat ;)
Danke für den Hinweis auf M1 Ultra. Gehen tut das, aber nicht mit der aktuellen AMD Interposer Technik
robbitop
2022-12-20, 13:57:59
AMD nutzt bei N31 keine Interposertechnik. Sondern Info-R. Das ist fanout auf dem package. Das ist wesentlich günstiger.
Mit einem Interposer oder einer bridge (emib bzw info-lsi) wäre es möglich.
CrazyIvan
2022-12-20, 19:24:39
N31 kommt ohne Interposer aus. Info-R nutzt Leitungen auf dem Package selbst. Deswegen ist es günstiger.
Ian Cutress hat ausgerechnet dass N31 wegen Chiplets eine Kostenreduktion um 20 USD erreicht hat.
Konnte das bei TechTechPotato nicht finden. Hast Du vielleicht einen Link oder eine Idee, wo ich suchen muss?
robbitop
2022-12-20, 19:29:07
Ich finde es auch nicht mehr.
amdfanuwe
2022-12-20, 23:39:04
$155 if you use Ian Cutress's 6nm and 5nm price estimates from a few weeks ago, Vs around $177 for a 410mm monolithic design.
aus den Kommentaren hier: https://www.reddit.com/r/hardware/comments/z1iuho/gamers_nexus_how_amd_is_fighting_nvidia_with/
Dabei sind die höheren Packaging Kosten für Chiplet noch nicht drin.
Gibt sich also Preismäßig nicht viel.
Was man aber auch sehen muss: Bei der nächsten Generation High-NA EUV sind nur noch max 400mm² Chips möglich.
Von heut auf morgen stellt man nicht auf Chiplet Design um.
AMD sammelt jetzt schon die Erfahrungen in der Massenproduktion um später davon zu profitieren.
Um Kosten, Yield, Bandbreite, Aufwand, Latenz, Stromverbrauch etc. einer neuen Verbindungstechnik wirklich kennen zu lernen, muss man halt in die Massenproduktion.
Mit
- Interposer
- Chiplet on Substrat ( EPYC, Ryzen)
- EFOB ( Elevated Fanout Bridge)
- Infinity Fanout Links
- Stacked 3D (Direct Copper to Copper Bond)
hat AMD einiges an Verbindungstechniken im Programm und in der Massenproduktion getestet.
Das könnte beim nächstem Projekt ein wesentlicher Vorteil sein.
Thema Salvage Chips:
Die defekten Dies spielen dabei keine wesentliche Rolle!
Bei einem 300mm² Chip kommen auf 150 funktionsfähige 35 mit Defekten.
Eine wesentliche Rolle spielt jedoch, dass sich die funktionsfähigen Chips unterschiedlich hinsichtlich Takt, Spannung, Verbrauch verhalten.
Das liegt am Ätzprozess, wodurch die Strukturen minimal unterschiedliche Dicken erhalten, somit unterschiedliche Wiederstände und Kapazitäten auftreten.
Da sind durchaus >10% Takt und Effizienzunterschiede aus.
Da gilt es dann zu entscheiden, wo die Grenze zwischen guten und schlechten Chips gelegt wird.
Durch Abschalten begrenzter Regionen kann man evtl. aus einem schlechten Chip einen guten mit weniger CUs/Cores/Interfaces machen (und vielleicht noch den ein oder anderen Chip mit einem realem Defekt retten).
Thema Chiplet:
Bei N31 ergibt sich der Vorteil aus den Chiplets dadurch, dass man gute GCDs mit effizienten MCDs kombinieren kann. Gibt einen Yield Vorteil gegenüber monolithisch.
Richtig interessant wird es aber, wenn 2 oder mehr GCDs miteinander verwendet werden.
Da kann man entsprechend gute GCDs kombinieren, monolithisch hätte man nur eine sehr begrenzte geringe Menge an solch guten Chips.
iamthebear
2022-12-20, 23:42:40
Ian Cutress hat ausgerechnet dass N31 wegen Chiplets eine Kostenreduktion um 20 USD erreicht hat.
Ian hat bei seinen Kalkulationen immer einen Denkfehler drin. Er nutzt den Die Yield Calculator und geht davon aus. dass Dies mit einem einzigen Fehler kompletter Ausschuss sind. Das ist aber bei großen Dies in der Regel nie der Fall. Die werden in den meisten Fällen als Salvage verkauft.
Einmal abgesehen davon denke ich nicht, dass er den Platzbedarf der ganzen zusätzlichen Interconnects mitberücksichtigt hat. Monolithisch auf 5nm wäre N31 um einiges kleiner.
Was die Preise angeht können wir das denke ich nicht beantworten, da jeder Kunde seinen eigenen Preis hat. Die 5nm Wafer, die noch bis Mitte des Jahres gelaufen sind hatten einen durchschnittlichen Verkaufpreis von 10K also nicht teurer als 7nm. Was man so hört scheint das aber jetzt nicht mehr der Fall zu sein.
Nach der Architektur von N31 zu urteilen war es aber anscheinend eine sehr hohe Priorität so wenig wie möglich 5nm Fläche zu verbrauchen und dafür hat man auch einige gravierende Nachteile in Kauf genommen.
[...]
Thema Salvage Chips:
Die defekten Dies spielen dabei keine wesentliche Rolle!
Bei einem 300mm² Chip kommen auf 150 funktionsfähige 35 mit Defekten.
[...]
Ist der Ertrag von TSMCs N5 wirklich schon so gut? Woher kommen die Zahlen? Früher(tm) schien Yield ein viel größeres Problem zu sein. Das würde aber gut erklären, warum AMD die XTX attraktiver macht - es gibt schlicht und ergreifend genug Chips dafür, also will man das teurere Produkt an den Mann oder die Frau bringen.
MfG
Raff
amdfanuwe
2022-12-21, 01:17:29
Ist der Ertrag von TSMCs N5 wirklich schon so gut? Woher kommen die Zahlen?
Dr. Ian gab bei seinen ZEN 4 Betrachtungen eine Defekt Density von 0,07 [#/cm²] für TSMC an.
Gibt bei einem 300mm² Chip eine Ausbeute von 81%. 186 gesamt, 151 Good Dies, 35 mit Defekt.
Bei einem 40mm² Chip liegt man dann bei 97%.
Bei einem 600mm² Chip bei 66%
Kannst ja mal hier rumspielen:
http://cloud.mooreelite.com/tools/die-yield-calculator/index.html
Dran denken den 300mm Wafer auszuwählen.
Ein Defekt wird durch Staubteilchen oder Spritzer verursacht. Entweder direkt auf dem Wafer, wodurch der Belichtungs- bzw. Ätzvorgang gestört wird oder auf der Maske, weshalb diese regelmäßig gereinigt werden muss.
amdfanuwe
2022-12-21, 01:35:36
Das würde aber gut erklären, warum AMD die XTX attraktiver macht - es gibt schlicht und ergreifend genug Chips dafür, also will man das teurere Produkt an den Mann oder die Frau bringen.
MfG
Raff
Das hängt davon ab, wie die Chips nach Frequenz selektiert werden.
Da hätte AMD sicherlich auch bessere Chips für XTX verwenden können.
Ich denke eher, die Entscheidung für die Preise liegt darin, dass AMD einen Preisverfall erwartet.
Also macht man die XT unattraktiver um erstmal möglichst viel Gewinnmarge bei der XTX abzuschöpfen.
N31 kostet schließlich für XT und XTX das gleiche.
So siehts aus. Gut analysiert. Bei AMD gibt's bei GPUs aber oft gute Yields. NV scheint bei N5 auch einen sehr gute Yield zu haben.
robbitop
2022-12-21, 08:13:47
aus den Kommentaren hier: https://www.reddit.com/r/hardware/comments/z1iuho/gamers_nexus_how_amd_is_fighting_nvidia_with/
Dabei sind die höheren Packaging Kosten für Chiplet noch nicht drin.
Gibt sich also Preismäßig nicht viel.
Was man aber auch sehen muss: Bei der nächsten Generation High-NA EUV sind nur noch max 400mm² Chips möglich.
Von heut auf morgen stellt man nicht auf Chiplet Design um.
AMD sammelt jetzt schon die Erfahrungen in der Massenproduktion um später davon zu profitieren.
Um Kosten, Yield, Bandbreite, Aufwand, Latenz, Stromverbrauch etc. einer neuen Verbindungstechnik wirklich kennen zu lernen, muss man halt in die Massenproduktion.
Mit
- Interposer
- Chiplet on Substrat ( EPYC, Ryzen)
- EFOB ( Elevated Fanout Bridge)
- Infinity Fanout Links
- Stacked 3D (Direct Copper to Copper Bond)
hat AMD einiges an Verbindungstechniken im Programm und in der Massenproduktion getestet.
Das könnte beim nächstem Projekt ein wesentlicher Vorteil sein.
Thema Salvage Chips:
Die defekten Dies spielen dabei keine wesentliche Rolle!
Bei einem 300mm² Chip kommen auf 150 funktionsfähige 35 mit Defekten.
Eine wesentliche Rolle spielt jedoch, dass sich die funktionsfähigen Chips unterschiedlich hinsichtlich Takt, Spannung, Verbrauch verhalten.
Das liegt am Ätzprozess, wodurch die Strukturen minimal unterschiedliche Dicken erhalten, somit unterschiedliche Wiederstände und Kapazitäten auftreten.
Da sind durchaus >10% Takt und Effizienzunterschiede aus.
Da gilt es dann zu entscheiden, wo die Grenze zwischen guten und schlechten Chips gelegt wird.
Durch Abschalten begrenzter Regionen kann man evtl. aus einem schlechten Chip einen guten mit weniger CUs/Cores/Interfaces machen (und vielleicht noch den ein oder anderen Chip mit einem realem Defekt retten).
Thema Chiplet:
Bei N31 ergibt sich der Vorteil aus den Chiplets dadurch, dass man gute GCDs mit effizienten MCDs kombinieren kann. Gibt einen Yield Vorteil gegenüber monolithisch.
Richtig interessant wird es aber, wenn 2 oder mehr GCDs miteinander verwendet werden.
Da kann man entsprechend gute GCDs kombinieren, monolithisch hätte man nur eine sehr begrenzte geringe Menge an solch guten Chips.
Naja dank Info-R sollten die Packagingkosten sehr klein sein. Man braucht ja kein zusätzliches silicone. Die Leiterbahnen sind ja einfach auf dem organischen Package. Das frisst die 20 usd wahrscheinlich nicht annähernd auf. :)
Aber ja die kleine Ersparnis war wie du schreibst sicher nicht das primäre Motiv sondern Serienerfahrung mit chiplet gpus zu sammeln.
robbitop
2022-12-21, 08:16:11
Ian hat bei seinen Kalkulationen immer einen Denkfehler drin. Er nutzt den Die Yield Calculator und geht davon aus. dass Dies mit einem einzigen Fehler kompletter Ausschuss sind. Das ist aber bei großen Dies in der Regel nie der Fall. Die werden in den meisten Fällen als Salvage verkauft.
Einmal abgesehen davon denke ich nicht, dass er den Platzbedarf der ganzen zusätzlichen Interconnects mitberücksichtigt hat. Monolithisch auf 5nm wäre N31 um einiges kleiner.
Was die Preise angeht können wir das denke ich nicht beantworten, da jeder Kunde seinen eigenen Preis hat. Die 5nm Wafer, die noch bis Mitte des Jahres gelaufen sind hatten einen durchschnittlichen Verkaufpreis von 10K also nicht teurer als 7nm. Was man so hört scheint das aber jetzt nicht mehr der Fall zu sein.
Nach der Architektur von N31 zu urteilen war es aber anscheinend eine sehr hohe Priorität so wenig wie möglich 5nm Fläche zu verbrauchen und dafür hat man auch einige gravierende Nachteile in Kauf genommen.
Das stimmt - ist aber immerhin ein Ansatz. Salvagechips sind möglich aber normalerweise muss man oft sehr viel Marge opfern.
dargo
2022-12-21, 08:25:15
Das hängt davon ab, wie die Chips nach Frequenz selektiert werden.
Da hätte AMD sicherlich auch bessere Chips für XTX verwenden können.
Ich denke eher, die Entscheidung für die Preise liegt darin, dass AMD einen Preisverfall erwartet.
Also macht man die XT unattraktiver um erstmal möglichst viel Gewinnmarge bei der XTX abzuschöpfen.
N31 kostet schließlich für XT und XTX das gleiche.
Der kostet nicht das gleiche, schließlich besteht eine Grafikkarte nicht nur aus dem GCD. Die XT hat zwei 2GB Speicherchips weniger an Board und ein MCD fehlt auch der durch einen Dummy (der kaum was kosten dürfte) ersetzt wird.
MCD und die beiden Speichermodule dürften so gut wie gar nichts ausmachen bei dem Produkt. auch die paar SPS, die da nicht verbaut werden - das alles spart ein paar € Kosten pro Produkt. Dennoch macht AMD damit sicherlich mindestens 60% Marge. NV wird mit der 4080 sogar >80% machen. Ist eben übelste Abzocke mittlerweile.
dargo
2022-12-21, 09:47:19
MCD und die beiden Speichermodule dürften so gut wie gar nichts ausmachen bei dem Produkt.
Stimmt, die kosten natürlich gar nichts. :facepalm: Und wenn sie gar nichts kosten hätte man bei der XT auch gleich 24GB und sechs funktionierende MCDs verbauen können, vereinfacht die Produktionslinie.
BlacKi
2022-12-21, 10:00:55
Naja dank Info-R sollten die Packagingkosten sehr klein sein. Man braucht ja kein zusätzliches silicone. Die Leiterbahnen sind ja einfach auf dem organischen Package. Das frisst die 20 usd wahrscheinlich nicht annähernd auf. :)
Aber ja die kleine Ersparnis war wie du schreibst sicher nicht das primäre Motiv sondern Serienerfahrung mit chiplet gpus zu sammeln.
wenn der vorteil aber auf 10$ schrumpft, dann bin ich mir schlicht einfach nicht sicher ob das den mehraufwand, und imho schlechtere performance rechtfertigt.
ich hab den eindruck, das chiplet design lässt mindestens 10-15% performance auf der straße. n31 sollte mindestens 50-70% schneller sein vs monolithic, kann das aber aus gründen nicht umsetzen. ich sehe daran das chiplet design die schuld tragen.
wenn du das preislich reinkalkulierst, wirkt das für mich katastrophal.
lediglich bei monster gpus sehe ich einen vorteil im chiplet design, also 800mm²+.
robbitop
2022-12-21, 10:28:31
Warum sollte das Performance kosten? AMD genau das mit der Latenzslide gezeigt dass es kein Problem ist. Es kostet extra Energie und extra Transistoren. Das ist nicht das Problem von N31. Der noch nicht so tolle Shadercompiler (das Potenzial ist dass die jetzigen best cases vs n21 in allen Spielen die Norm werden und damit geht der avg Wert bzw der Spieleindex deutlich nach vorn) und der deutlich geringer als gedachte Takt haben das Produkt unnötig verhagelt.
50% mehr Bandbreite, ROPs und Shaderengines und potenziell stackbare mcds braucht man für das was N31 zum launch erreichte nicht. Unnötig übereilter launch. Sofern AMD einen zweiten Anlauf 2023 wagt wird man sehen was wirklich geplant war. Da ist einiges liegengeblieben an Potenzial.
IMO hätte es sich mehr gelohnt wenn man dadurch viel näher ans recticle limit gegangen wäre. Also bspw 600 mm2 gcd. Dann hätte man das ganze viel weiter skalieren können als monolithisch.
So wie tatsächlich releast hingegen war es einfach nicht direkt nötig.
Wobei auch 10 usd Einsparnis bei einem Serienprodukt eine Menge Geld ist. Hersteller machen costouts locker 2 Größenordnungen darunter in Serienprodukten.
Stimmt, die kosten natürlich gar nichts. :facepalm: Und wenn sie gar nichts kosten hätte man bei der XT auch gleich 24GB und sechs funktionierende MCDs verbauen können, vereinfacht die Produktionslinie.
Das ist Produktpolitik und ein bisschen Kostenersparnis. Kannst du glauben oder nicht, ergibt aber Sinn, wenn man darüber nachdenkt.
Die Masse machts natürlich.
dargo
2022-12-21, 10:56:40
Warum sollte das Performance kosten? AMD genau das mit der Latenzslide gezeigt dass es kein Problem ist.
Das ist die verzweifelte Suche danach warum N31 nicht ganz das geworden ist was erwartet wurde. ;) Ich vermute eher, dass die GPU in vielen Titeln wegen dem neuen Shaderaufbau nicht das liefert was sie sollte. Jedenfalls sehe ich in CoD: MW2 und APT: R ein gewisses Potenzial. Dort ist die 7900XTX laut CB immerhin 81% und 79% schneller als meine 6800XT, was ein Upgrade schon eher rechtfertigen würde. Ob AMD es mit den kommenden Treibern schafft mehr Titel in diese Richtung zu bewegen wird sich im nächsten Jahr zeigen müssen. Deshalb heißt hier auch die Devise in Ruhe alles zu beobachten wie sich das in den kommenden Monaten entwickelt.
IMO hätte es sich mehr gelohnt wenn man dadurch viel näher ans recticle limit gegangen wäre. Also bspw 600 mm2 gcd. Dann hätte man das ganze viel weiter skalieren können als monolithisch.
So wie tatsächlich releast hingegen war es einfach nicht direkt nötig.
Ich bin mir nicht sicher ob AMD bei weit über 1000$ einen nennenswerten Markt beim Gaming sieht. Schau dir einfach nur was aktuell bei Ada mit der 4080 passiert, die will kaum jemand haben. Der kleine Prozentsatz der Enthusiasten greift zur 4090 und dieser Bereich ist dann schnell gesättigt. Für die gesamte Gamingbranche sind die Enthusiasten kaum relevant. Dafür werden auch keine Games entwickelt. Aktuell ist das doch nichts weiter als nur Marketingstunts von Lederjacke im Bereich sehr teures RT. Da wird dann auch keine Rücksicht auf die älteren NV-Generationen genommen.
robbitop
2022-12-21, 11:13:07
Die Einzeltitel in denen es gut läuft sind schon fast sowas wie ein Beweis oder jedenfalls ein starkes Indiz wie gut es funktioniert wenn der Shadercompiler vernünftig funktioniert.
Laut MLID muss das AMD Treiberteam über die Feiertage crunchen.
Auch waren die Kontakte aus der RTG wohl alle sehr überrascht über die Ergebnisse. (er hat vier Quellen zitiert)
Beweise gibt es nicht aber es wäre wirklich merkwürdig wenn AMD nach zwei so guten uArchs (rdna1/2) wieder so amateurhaft merkwürdige uArchs rausbeingen sollte. Im Simulator hat wohl alles wie erwartet funktioniert. Auch das deutet eher auf SW. Und genau das ist die Sparte die bei AMD leider immer am schwächsten war (auch wenn das besser geworden ist).
Ich würde mich nicht wundern, wenn RDNA3 mittwlfristig viel konsistenter performen wird.
Die uArch Änderung war schon relativ groß und komplex.
————-
Das mit sem >1000 usd Markt stimmt und gilt auch für NV. Aber der Halo Effekt wird da oft nicht mitbetrachtet. Wobei ich nicht sicher bin wie viele Generationen man nacheinander dort abliefern muss um den mindshare umzudrehen. Mit der 290x hat man damals die klassische Titan geschlagen und es hat niemanden interessiert. :(
Ggf hast du Recht und AMD miss zusehen im Mainstream ordentlich abzuliefern.
dildo4u
2022-12-21, 11:15:48
Ich würde warten ob die 4080 weiter liegen bleiben es hat natürlich Sinn gemacht auf die AMD Karten zu warten und dann zu entscheiden.
dargo
2022-12-21, 11:19:51
Das mit sem >1000 usd Markt stimmt und gilt auch für NV.
Imho ist das bei NV etwas anders. Ein voller Topdog wird hauptsächlich im Profimarkt verwendet wo du ganz andere Summen generierst. Die Gamingsparte kriegt am Anfang immer nur den "Abfall" davon. Und selbst dieser "Abfall" ist teuer genug, zumindest fürs Gaming.
Gipsel
2022-12-21, 11:20:26
Naja dank Info-R sollten die Packagingkosten sehr klein sein. Man braucht ja kein zusätzliches silicone. Die Leiterbahnen sind ja einfach auf dem organischen Package.Nur mal eine kleine technische Anmerkung:
Vom Ablauf her werden die einzelnen Dies zuerst richtig angeordnet und dann in dieser Epoxy-Masse vergossen (das passiert bei InFo-R als Erstes, nicht erst am Ende). Auf der Unterseite (mit den exponierten Kontakten der Chips) wird dann der Info-R-Interconnect aufgebaut (im Prinzip wird da Schicht für Schicht ein sehr feines PCB produziert), der die Chips untereinander verbindet und am Ende selber die normalen Flip-Chip-Bumps besitzt. Mit diesen wird dann das komplette Konstrukt (vergossene-Chips mit dem vorher aufgebrachten Redistribution Layern) auf dem eigentlichen PCB verlötet.
Dino-Fossil
2022-12-21, 11:26:13
Heute wurde auch der 22.12.2 Treiber veröffentlicht, der unter anderem erste Verbesserungen bei der Leistungsaufnahme während Videowiedergabe verspricht, sowie weitere Verbesserungen auch bei multi-Monitor in Aussicht stellt.
Wie groß die ausfallen wird man abwarten müssen, aber immerhin führen sie es als Known Issue.
BlacKi
2022-12-21, 11:44:24
Es kostet extra Energie und extra Transistoren.
danke, das du meine aussage ergänzt hast und unterstützt ;) ersteres kostet leistung, zweiteres indirekt, weil man mehr shader verbauen könnte.
robbitop
2022-12-21, 11:49:18
ja indirekt stimmt das schon. Amdererseits hat man theoretisch gesehen Shaderleistung im Überfluss. 2,7x fp32 vs n21. Die muss man erstmal anfangen besser zu nutzen. Ob jetzt noch mehr CUs die Lösung gewesen wären?
amdfanuwe
2022-12-21, 12:35:22
Nur mal eine kleine technische Anmerkung:
Vom Ablauf her werden die einzelnen Dies zuerst richtig angeordnet und dann in dieser Epoxy-Masse vergossen (das passiert bei InFo-R als Erstes, ...
Danke, war mir so noch nicht bewusst.
Da dürfte die Fehlerrate doch sehr gering sein.
OgrEGT
2022-12-21, 12:35:30
Heute wurde auch der 22.12.2 Treiber veröffentlicht, der unter anderem erste Verbesserungen bei der Leistungsaufnahme während Videowiedergabe verspricht, sowie weitere Verbesserungen auch bei multi-Monitor in Aussicht stellt.
Wie groß die ausfallen wird man abwarten müssen, aber immerhin führen sie es als Known Issue.
Weißt man schon wann es Tests mit dem neuen Treiber geben wird?
davidzo
2022-12-21, 12:46:40
Nur mal eine kleine technische Anmerkung:
Vom Ablauf her werden die einzelnen Dies zuerst richtig angeordnet und dann in dieser Epoxy-Masse vergossen (das passiert bei InFo-R als Erstes, nicht erst am Ende). Auf der Unterseite (mit den exponierten Kontakten der Chips) wird dann der Info-R-Interconnect aufgebaut (im Prinzip wird da Schicht für Schicht ein sehr feines PCB produziert), der die Chips untereinander verbindet und am Ende selber die normalen Flip-Chip-Bumps besitzt. Mit diesen wird dann das komplette Konstrukt (vergossene-Chips mit dem vorher aufgebrachten Redistribution Layern) auf dem eigentlichen PCB verlötet.
Soweit ich weiß hat der RDL keine BGA bumps, sondern da ist noch das traditionelle Package dazwischen. Der RDL wird nicht direkt mit dem PCB verlötet, sondern bekomm "FlipChip" C4 bumps welche viel zu fein für ein FR4 PCB wären.
Der RDL wird wie traditionell ein einzelnes Die eines Wafers mit C4 bumps bestückt und mit dem Flipchip Package gebondet (+ underfill etc.). Dann erst kommt das ganze als normaler BGA-chip auf eine Platine.
Der Grund wieso man den RDL nicht schon im package macht schein in erster Linie die Größe der C4 Bumps zu sein. Die sind verglichen zu den letzten Chip Metal Layern immer noch gigantisch.
Indem man metal Layer additiv auf die Rückseite des DIEs aufbringt, ohne Lötzinnpunkte, kann man anscheinend feinere pitches erzeugen und auch einen weit geringeren vertikalen Abstand erziehlen. Wer weiß, vielleicht reagiert man sogar mit automatisierten Korrekturen auf die Ausricht-Toleranzen der Chips untereinander im Epoxy Package, wäre zumindest denkbar.
Normale Flipchip Packages sind auch Organisch bzw. Epoxy, allerdings ist der Challenge hier auch die unterschiedliche Wärmeausdehnung. Deswegen haben einige Chips weiterhin Keramik Packages.
TSMC musste also neue epoxydmatrixen finden die eine Wärmeausdehnung näher an Silizium haben um die Langzeit-Stabilität sicher zu stellen.
amdfanuwe
2022-12-21, 12:48:57
Der kostet nicht das gleiche, schließlich besteht eine Grafikkarte nicht nur aus dem GCD. Die XT hat zwei 2GB Speicherchips weniger an Board und ein MCD fehlt auch der durch einen Dummy (der kaum was kosten dürfte) ersetzt wird.
Ja, hast Recht. N31 für XT ist ~$8 billiger wegen fehlendem MCD.
Zu Grafikkartenpreisen hab ich gar nichts gesagt.
robbitop
2022-12-21, 13:06:49
Epoxyd Harz ist im Fasererbund eine Matrix Epoxydmatrix ist doppelt gemoppelt. Sofern man mit Faserverbund arbeitet ist der Ausdehungskoeffizient von diesem viel wichtiger/einflussreicher. Epoxyidharz mit Glasfaser zB dehnt sich bei Wärme aus, mit Kohlefaser hingegen so gut wie gar nicht. Epoxyidharz ihne Füllstoff ist eigentlich nur für sehr kleine Spaltmaße sinnvoll und hat auch ein sehr sehr niedriges E Modul.
Dino-Fossil
2022-12-21, 13:32:44
Weißt man schon wann es Tests mit dem neuen Treiber geben wird?
Keine Ahnung. Aber ich würde mir auch noch keine Wunder versprechen, so wie es klingt ist das eindeutig WIP.
BlacKi
2022-12-21, 13:33:44
Ja, hast Recht. N31 für XT ist ~$8 billiger wegen fehlendem MCD.
pfft, wie niedlich:biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.