Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Iscaran
2025-01-20, 09:43:37
Die meisten glauben halt ernsthaft, dass ein 1080p Display in nativer Auflösung besser wäre als 1440p DLSS Quality oder 2160p DLSS Performance. Weil Upscaling ist ja schlimm. Völlig abgehängt halt, wie so viele am PC...
1080p nativ ist allein schon wegen der Display effekte einem 1440p => downscaled auf 1080p überlegen. Da es kein 1:1 mapping der Pixel von 1440p => 1080p gibt MUSS das display Pixel mit Werten "überschreiben" die unpassend sind, oder als irgendein Mittelwert von anderen Pixel entstehen => automatisch "blurry"...egal wie gut der Downscaler/upscaler.
Egal was du auf ein display schmeisst ist es extrem relevant ist, ob das Display "Pixel-sharf" skalieren kann oder nicht.
Wenn du ein 1080p Display hast und darauf irgendein unpassenden Content z.B.1440 schickst, wird es automatisch "blurry" weil das Display den 1440p content ja "pixelgerecht" zurecht-skalieren muss. Krumme pixel werden dann als "overlay" verschiedener Werte eben blurry.
Da kannst natürlich dann gleich noch ein paar mehr Matschfilter und upscaler drüberlaufen lassen - weil durch den Display-Blurfilter fällt das eh nicht mehr ins Gewicht.
Also allein "Display"-Technisch ist "nativ" immer besser.
Nicht umsonst gibts ja z.B. die berühmten "schwarzen Balken" bei TV-Filmen wenn die Eingabegröße nicht der Display-größe entspricht. (Sofern die Balken natürlich nicht gleich "hard-gecodedeter" Bestandteil des Eingabebildes sind - aber das sollten sie nicht sein)
Aber um mal zur BQ zurückzukommen, Wenn du ein 1080p display hast ist es verlorerene Liebesmüh darauf mit 4k zu rendern...und ein 1080p nativ auf 4k "upgescaled" nur um es dann auf 1080p wiederzugeben ist noch größerer Unsinn - außer man liebt Unscharfedarstellung. (Auch wäre das dann ja "downscaling" eigentlich)
Upscaling macht eh nur Sinn wenn dein Eingabeformat "kleiner" ist als dein Ausgabeformat...und führt dann nunmal auch immer zu "Verlusten" da du nicht vorhandene Pixelinformationen ja nicht aus dem Äther generieren kannst, sondern bestenfalls aus den Umgebungspixeln, bestenfalls dem zeitlichen Ablauf der Pixel "rekonstruierst".
Klar kann man gerade bei Games und Renderpipelines mit der zeitlichen "Extrapolation" von Frame zu Frame viel gewinnen, aber auch da...nicht vorhanden Informationen kannst du bestenfalls "raten/extrapolieren". Nichts anderes machen Upscaler. Die Frage ist nur wie gut das raten funktioniert und ob man dazu NN, KI, oder sonst was benutzt. Am Ende ist die Information aber NIEMALS vollständig und entsprechend niemals besser als ein natives höhere gerendertes Bild.
Wenn jemand das behauptet, dann kann er auch Schwarze Löcher erklären und warum diese Information nicht vernichten sondern nur transformieren.
Badesalz
2025-01-20, 09:45:38
UWQHD hat halt den 21:9 Vorteil. Sieht besser aus als 16:9 und bietet deutlich mehr Immersion. 16:9 4K ist hier ein downgrade.Mein reden. Für Zocker jedenfalls.
@Iscaran
Ich weiß auch heute noch nicht wo die "sieht besser aus als nativ" Probanden hinschauen. Wie die Promoter der Journalie damals schon DLSS1 besungen haben ist aus heutiger Sicht echt peinlich. War schon damals peinlich. Nur als ich das mal anmerkte, versuchten die Fanboys wie so meist meine Waden zu erwischen. Geleitet von Promotern...
Ich frag mich manchmal wirklich, ob man dazu wirklich Grips braucht, ein Nerd zu sein :usweet:
Du bist kein Nerd, ich bin kein Nerd. Vielleicht braucht es eine weitere Kategorie. Nerd ist irgendwie auch nicht mehr das was es ganz früher mal war. Was gäbe es denn sonst noch? Knower? Ten4? =)
Für 144Hz kann sich das aber lohnen, wenn das einem eben wichtiger ist. Nichts zu kritisieren. FFG + FR liefern an der Stelle ab mit nur noch vergleichsweise wenigen Abstrichen. Wenn aber QHD und UWQHD nativ mit 120Hz laufen, ist der Drops eben gelutscht. Sorry, Blase.
Und RT wird so langsam tatsächlich nicht mehr für jeden möglichen und unnützen Showeffekt genutzt, sondern immer mehr da wo ich es mir seit Anfang an gewünscht habe. In sinniges. Atmosphäre. Immersion usw. Licht. Nicht schwachsinnig glänzende Spiegelungen, die man beim realen Zocken kaum beachtet.
Frißt also einem weniger FPS vom Kopf als früher. Es bleibt also mehr Leistung fürs Wesentliche.
fondness
2025-01-20, 09:52:06
Falls das stimmt war das Statement um „wir wollen Marktanteile“ offenbar geheuchelt wenn man schon von high margin company Nvidia durch Blackwell in Preisbedrängnis gebracht wurde.
Die Aussage ist absurd. Noch weniger als die 10% mehr Leistung die Nvidia im Bereich der 9070 liefert konnte man nun wirklich nicht erwarten.
fondness
2025-01-20, 09:55:15
Der Sprung bei den Erwartungen vor und nach des CES lässt sich komplett mit der Die-Size erklären. Vor der CES sollten es laut Gerüchte 240mm² sein und auf der CES wird dann ein Die gesichtet, der 390mm² groß sein soll (später auf 350mm² korrigiert), also 50% größer. Zeitgleich ist der angenommene Verbrauch von wahlweise 220 oder 265W auf über 300W gestiegen. Da kann man dann schon mal ein kleines bisschen mehr erwarten als vorher.
Ansonsten finde ich 4080 minus 5-10% als Erwartung überhaupt nicht abgehoben, auch in RT nicht. AD103 ist selbst nur ca. 380mm² groß in einem leicht schlechteren Fertigungsprozess und wenn AMD fast 2,5 Jahre später mit 350mm² knapp dahinter landet, wäre das jetzt wirklich keine Sensation. Zumal die 4080 nur 76 von physisch vorhandenen 84SMs nutzt, d.h. 4080 minus 5% würde streng genommen nichtmal für Ada-Level reichen. GB103 zieht bei Perf/mm² dann wieder weitere 15-20% davon.
Ich stimme dir grundsätzlich zu, allerdings sollte man den gddr6 Malus nicht unterschätzen in der gleichung. AMD kann das entweder mit mehr Cache ausgleichen = deutlich mehr die size, und/oder muss wegen Bandbreitenlimit Performance liegen lassen. Die bessere perf/mm2 von Blackwell kommt womöglich auch daher, dass man durch GDDR7 Cache einsparen kann.
w0mbat
2025-01-20, 10:07:38
Blackwell scheint mehr cache zu haben. Also auf jeden Fall GB202 vs AD102.
Der_Korken
2025-01-20, 10:31:43
Ich stimme dir grundsätzlich zu, allerdings sollte man den gddr6 Malus nicht unterschätzen in der gleichung. AMD kann das entweder mit mehr Cache ausgleichen = deutlich mehr die size, und/oder muss wegen Bandbreitenlimit Performance liegen lassen. Die bessere perf/mm2 von Blackwell kommt womöglich auch daher, dass man durch GDDR7 Cache einsparen kann.
Bei der 4080 sind es 12% mehr als die 20Gbps der 9070XT, also kaum mehr als der spekulierte Performance-Rückstand. Ist natürlich nicht nichts, aber ich bleibe dabei, dass knappe 4080-Performance bei 350mm2 in 2025 ganz sicher kein Hypetrain mehr wäre.
Blackwell scheint mehr cache zu haben. Also auf jeden Fall GB202 vs AD102.
Unwahrscheinlich, dass der Cache pro Memory-Channel steigt, wo doch die Bandbreite gerade kräftig gestiegen ist (die Rechenleistung aber nicht). Bei GB202 ist es logisch, weil das SI von 384 auf 512bit gewachsen ist. Da kann man auch 128 statt 96MB L2 erwarten.
dargo
2025-01-20, 10:32:41
Ich stimme dir grundsätzlich zu, allerdings sollte man den gddr6 Malus nicht unterschätzen in der gleichung. AMD kann das entweder mit mehr Cache ausgleichen = deutlich mehr die size, und/oder muss wegen Bandbreitenlimit Performance liegen lassen.
Ach komm... wie groß kann schon der Unterschied bei der Die Size sein mit 96MB IF anstatt 64MB? Von deutlich kann da keine Rede sein.
DrFreaK666
2025-01-20, 10:58:01
...aber ich bleibe dabei, dass knappe 4080-Performance bei 350mm2 in 2025 ganz sicher kein Hypetrain mehr wäre...
Für 1000+€ sicherlich nicht
w0mbat
2025-01-20, 11:00:33
Unwahrscheinlich, dass der Cache pro Memory-Channel steigt, wo doch die Bandbreite gerade kräftig gestiegen ist (die Rechenleistung aber nicht). Bei GB202 ist es logisch, weil das SI von 384 auf 512bit gewachsen ist. Da kann man auch 128 statt 96MB L2 erwarten.
Hast du natürlich Recht. Ist zwar insg. mehr, aber im Verhältnis zum SI gleichgeblieben.
fondness
2025-01-20, 11:11:33
Bei der 4080 sind es 12% mehr als die 20Gbps der 9070XT, also kaum mehr als der spekulierte Performance-Rückstand. Ist natürlich nicht nichts, aber ich bleibe dabei, dass knappe 4080-Performance bei 350mm2 in 2025 ganz sicher kein Hypetrain mehr wäre.
Ein "Hypetrain" ist es vor allem deswegen, weil man sehr wenig erwartet hat und weil es von N31 ausgehend trotzdem eine deutliche Verbesserung ist. Aber klar ist es jetzt nichts dass Nvidia schlägt, aber ich denke das hat auch niemand erwartet.
Blackwell scheint mehr cache zu haben. Also auf jeden Fall GB202 vs AD102.
Ist das bestätigt? Würde mich nicht wundern, wenn NV den Cache pro Channel halbiert hätte bei so viel mehr Bandbreite. Zumindest im preissensitiven Gefilde.
fondness
2025-01-20, 11:15:44
Ach komm... wie groß kann schon der Unterschied bei der Die Size sein mit 96MB IF anstatt 64MB? Von deutlich kann da keine Rede sein.
Es könnten auch 128MB sein. Das wäre dann schon deutlich.
Oder es bleibt bei 64MB, dann hat man höchstwahrscheinlich ein Bandbreitenlimit wenn man nicht irgendeine magic souce gefunden hat.
In beiden Fällen kostet es Perf/mm2 vs. GDDR6x/GDDR7.
w0mbat
2025-01-20, 11:22:22
Ist das bestätigt? Würde mich nicht wundern, wenn NV den Cache pro Channel halbiert hätte bei so viel mehr Bandbreite. Zumindest im preissensitiven Gefilde.
Soweit ich weiß - ja.
Es könnten auch 128MB sein. Das wäre dann schon deutlich.
Oder es bleibt bei 64MB, dann hat man höchstwahrscheinlich ein Bandbreitenlimit wenn man nicht irgendeine magic souce gefunden hat.
In beiden Fällen kostet es Perf/mm2 vs. GDDR6x/GDDR7.
ist ein GDDR6x oder -7 genauso groß, wie ein GDDR6-Interface?
Der_Korken
2025-01-20, 12:18:26
ist ein GDDR6x oder -7 genauso groß, wie ein GDDR6-Interface?
Der Signaltakt über das PCB steigt afaik nicht gegenüber GDDR6 an, sondern es werden stattdessen mehr als Zustände pro Signal erlaubt (bei GDDR7 sind es drei). Ob dadurch die nicht-schrumpfbaren Transistoren wachsen bzw. mehr werden, weiß ich aber nicht. Die Anforderungen an das PCB dürften aber steigen, damit man die Zustände am Ende der Leitung sauber trennen kann.
robbitop
2025-01-20, 12:19:02
Die Aussage ist absurd. Noch weniger als die 10% mehr Leistung die Nvidia im Bereich der 9070 liefert konnte man nun wirklich nicht erwarten.
Es geht mir bei der Aussage nicht um was wer erwartet, sondern darum, dass man durch Blackwell in eine Preisbedrängnis gekommen sei.
Blackwell ist nicht furchtbar schlecht was P/L angeht gemessen an den P/L Katastrophen der letzten Jahre aber der wird auch weiterhin ziemlich sicher Nvidias 50-60% Bruttomargenerwartungen entsprechen.
Wenn man Marktanteile holen will, dann ist die logische Schlussfolgerung, dass man das auch auf Kosten von Bruttomarge macht.
Wenn man dann aber durch ein high margin Produkt von einer high margin Firma in eine preisliche Bedrängnis gekommen sein soll (nur weil das P/L dieses mal nicht astronomisch schlecht ist), dann hat man offenbar nicht wirklich stark ablassen wollen von den Margen. Entsprechend verwässert es die Aussage, dass es dieses Mal das Ziel sein soll, Marktanteile zu gewinnen. Unabhängig davon was wer erwartet.
Finde ich nicht, dass diese Kausalkette absurd ist.
Das Blöde für AMD ist, dass der Mindshare bei Nvidia so hoch zu sein scheint, dass man leider deutlich drunter gehen muss Leistungsnormiert. Kleinere Summen zahlen dann viele offenbar einfach drauf.
Wie viel das ist, das muss man wahrscheinlich iterieren (sofern man dafür bereit ist). Ich könnte mir tatsächlich gute 20% vorstellen - das kann aber auch total daneben liegen.
Oder aber man bietet gleich zu einem Kampfpreis an in der Erwartung primär Marktanteile zu holen und kaum Geld zu verdienen - mit dem Ziel das als Fundament zu nutzen um das mittelfristig wieder umzudrehen.
War bei Ryzen auch nötig für eine Weile bis man die Preise steigern konnte. Mindshare dauert leider etwas.
robbitop
2025-01-20, 12:21:16
Ach komm... wie groß kann schon der Unterschied bei der Die Size sein mit 96MB IF anstatt 64MB? Von deutlich kann da keine Rede sein.
Pro MiB aktuell ~0,5 mm².
32 zusätzliche MB mehr wären entsprechend ~16mm² mehr Fläche.
dargo
2025-01-20, 12:22:45
Pro MiB aktuell ~0,5 mm².
32 zusätzliche MB mehr wären entsprechend ~16mm² mehr Fläche.
Lol...das ist doch komplett vernachlässigbar bei den spekulierten ~350mm² Gesamtfläche. Worüber reden wir hier eigentlich? :freak: Da machst du dann beim Preisschild 50$ mehr und gut ist.
GerryB
2025-01-20, 12:23:10
Mindshare dauert leider etwas.
Mindshare ist auch viel Einbildung+Markentreue.
Dagegen kommt man nicht in einer Gen an.
sonst wäre RDNA2 erfolgreicher gewesen
deswegen lohnt es sich nicht, RDNA4 nicht verschenken
Nach m.E. müsste AMD erstmal bei den Notebooks Fuß fassen, um auf Marktanteile zu kommen.
HALO ist aber für meinen Geschmack total daneben, zuviel CPU mit zuwenig GPU = viel zu teuer.
Das wird die Wende nicht schaffen.
Exxtreme
2025-01-20, 12:24:47
Da sie das Ziel Marktanteile ausgegeben haben, tun sie das zwangsläufig. Da ist dann am Ende eigentlich nur entscheidend, inwiefern AMD auf Margen verzichten will und wie aggressiv man tatsächlich auf Marktanteile aus ist. Was eigentlich zwingend notwendig ist bei aktuell ~10%.
Für mich macht das trotzdem nicht den Eindruck als ob AMD sehr viel tut um Marktanteile zu gewinnen. Für mich sieht das so aus als ob sich Nvidia und AMD abgesprochen haben. AMD bekommt genug Luft unten um Intel schlagen zu können. Denn Intel ist der eigentliche Gegner von AMD. Und gleichzeitig sorgt AMDs Präsenz im Markt dafür, dass Nvidia keinen Ärger mit Kartellämtern bekommt.
Und mal ernsthaft: damit AMD wirklich Marktanteile im Grafikkartensegment gewinnt, das ist eher ein 10-Jahres-Projekt. Ich glaube kaum, dass AMDs Aktionäre so viel Sitzfleisch haben.
Complicated
2025-01-20, 12:27:02
Wer meint AMD wird im Retailmarkt auf Fang von Marktanteilen gehen, der irrt sich. Dort wird es keinen Preiskampf geben. Der Kampf wir wohl auf OEM-Ebene bei Komplettsystemen stattfinden und dafür benötigt es
1. kein Highend
2. Bundle-Angebote mit CPU und APU
3. OEM-Rabatte.
Ich denke AMDs Strategie wird davon abhängen, wie viele Designwins da zusammen kommen.
OEM-taugliches Produkt ist der Maßstab, für den Massenmakrt.
fondness
2025-01-20, 12:27:27
Es geht mir bei der Aussage nicht um was wer erwartet, sondern darum, dass man durch Blackwell in eine Preisbedrängnis gekommen sei.
Eben und genau diese Aussage halte ich für absurd. NV liefert mit der 5070/Ti 10% Mehrperformance, wo genau soll das AMD im "Preisbedrängnis" gebracht haben? Weniger konnte man nun wirklich nicht erwarten. Aber klar kann man jeden Blödsinn im Internet verbreiten. Eher geht man jetzt mit dem Preis rauf.
dargo
2025-01-20, 12:28:32
Mindshare ist auch viel Einbildung+Markentreue.
Dagegen kommt man nicht in einer Gen an.
sonst wäre RDNA2 erfolgreicher gewesen
deswegen lohnt es sich nicht, RDNA4 nicht verschenken
Nach m.E. müsste AMD erstmal bei den Notebooks Fuß fassen, um auf Marktanteile zu kommen.
Ich bin mir ziemlich sicher RDNA2 wäre erfolgreicher gewesen hätten wir damals diesen Bullshit mit Mining nicht gehabt. Gleiches gilt auch für Corona. Das hat den gesamten Gamingmarkt kaputt gemacht. Die Preise waren teilweise richtig übel. Nur wäre selbst ohne diesen Vorfällen RDNA3 kein Stück besser geworden. Das hat sich AMD selbst verkackt. Und ich meine damit nicht irgendwelches RT-Gedöns sondern einfach den Rest.
robbitop
2025-01-20, 12:30:56
Aber um mal zur BQ zurückzukommen, Wenn du ein 1080p display hast ist es verlorerene Liebesmüh darauf mit 4k zu rendern...und ein 1080p nativ auf 4k "upgescaled" nur um es dann auf 1080p wiederzugeben ist noch größerer Unsinn - außer man liebt Unscharfedarstellung. (Auch wäre das dann ja "downscaling" eigentlich)
Upscaling macht eh nur Sinn wenn dein Eingabeformat "kleiner" ist als dein Ausgabeformat...und führt dann nunmal auch immer zu "Verlusten" da du nicht vorhandene Pixelinformationen ja nicht aus dem Äther generieren kannst, sondern bestenfalls aus den Umgebungspixeln, bestenfalls dem zeitlichen Ablauf der Pixel "rekonstruierst".
Klar kann man gerade bei Games und Renderpipelines mit der zeitlichen "Extrapolation" von Frame zu Frame viel gewinnen, aber auch da...nicht vorhanden Informationen kannst du bestenfalls "raten/extrapolieren". Nichts anderes machen Upscaler. Die Frage ist nur wie gut das raten funktioniert und ob man dazu NN, KI, oder sonst was benutzt. Am Ende ist die Information aber NIEMALS vollständig und entsprechend niemals besser als ein natives höhere gerendertes Bild.
Wenn jemand das behauptet, dann kann er auch Schwarze Löcher erklären und warum diese Information nicht vernichten sondern nur transformieren.
Hm. Meinst du hier zB das Spiel auf eine Auflösung von 4K zu stellen und DLSS mit dem Performance Preset laufen zu lassen. Bei einem 1080P Monitor. Und dann den 4K Content auf 1080p downzusamplen?
Wenn ja dann bringt das schon was. Wenn es nur spatiales upsampling wäre, würde es nichts bringen. Da stimme ich zu. Da es aber temporales Super Sampling Upsampling ist, gibt es zusätzliche Informationen. Durch das jittern der Sampleposition des Pixels und die Nutzung von Informationen aus mehreren Frames gibt es durchaus viele nutzbare Informationen, sofern (durch das Clamping) diese Pixel wieder gefunden werden können. Ohne temporales Supersampling wären diese Informationen nicht genutzt. Entsprechend sind TSSAA, DLSS, XeSS, FSR2+, TSR usw alles Verfahren die diese bis dato nicht genutzten Informationen wiederfinden können und dann nutzen um diese Informationen auf das jeweilige Frame anzuweden.
Das geht natürlich nicht für jeden Content und jede Situation und jeden Bildbereich. Aber je besser das Verfahren ist, desto mehr geht das.
DLSS akkumuliert pro Pixel bis zu 64 Samples IIRC. Im Bestfall (das ist eher theoretischer Natur) wäre das 64x SGSSAA. Diese samples können entweder für AA genutzt werden (DLAA, FSR native TSSAA) oder eben auch für das Upsampling.
Entsprechend sieht 4K DLSS-P auf einem 1080p Monitor besser aus als 1080p ohne DLSS/DLAA usw.
Temporal stabiler, weniger Aliasing, mehr Details in weiter entferntem Content, schärferes Mipbias usw.
Klar gibt es bestimmt auch mal Situationen wo es Nachteile hat aber unterm Strich sollte es besser sein. Was ja auch Sinn macht, wenn man bedenkt, dass bis dato nicht genutzte echte Informationen (weil schwierig zu extrahieren) die temporal vorhanden werden jetzt nutzbar gemacht werden. Das kostet Compute und ist nicht einfach aber es geht immer besser.
Man muss allerdings aufpassen, dass man es nicht zu aggressiv macht für das jeweilige Verfahren wegen Artefaktbildung.
Aber Faktor 4 sollte mit modernem DLSS kein großes Problem sein.
Ich mache das öfter mal mit 4K oder 5K @ 1440p auf meinem 1440p Monitor mit DLSS-P + DSR. Und es ist schon ein gutes Stück besser als 1440p native ohne DLSS/AA
robbitop
2025-01-20, 12:33:18
Eben und genau diese Aussage halte ich für absurd. NV liefert mit der 5070/Ti 10% Mehrperformance, wo genau soll das AMD im "Preisbedrängnis" gebracht haben? Weniger konnte man nun wirklich nicht erwarten. Aber klar kann man jeden Blödsinn im Internet verbreiten.
Achso - ja klar dann stimme ich zu. Klar kann die Aussage falsch sein. Aber ist halt ein Speku Forum. Also bewertet man Dinge, die durch den Äther fliegen.
Und wer weiß, was das AMD Marketing (dazu gehört auch Preisbildung) macht und ob man wirklich bereit ist, jetzt mal richtig anzusetzen und Marge zu opfern.
Mein Tipp: mit 20% weniger Preis bei gleicher Leistung könnte es lawinenartig losgehen. Sollte man aber besser iterativ bestimmen - ist nur der feuchte Daumen im Wind. :-D
fondness
2025-01-20, 12:34:46
Achso - ja klar dann stimme ich zu. Klar kann die Aussage falsch sein. Aber ist halt ein Speku Forum. Also bewertet man Dinge, die durch den Äther fliegen.
Und wer weiß, was das AMD Marketing (dazu gehört auch Preisbildung) macht und ob man wirklich bereit ist, jetzt mal richtig anzusetzen und Marge zu opfern.
Mein Tipp: mit 20% weniger Preis bei gleicher Leistung könnte es lawinenartig losgehen. Sollte man aber besser iterativ bestimmen - ist nur der feuchte Daumen im Wind. :-D
Siehe meine edit, jetzt hier:
Und das mit den billigeren Preisen hat man bereits über viele Jahre probiert, ist gescheitert. Das kann auch nicht funktionieren, sobald man ein zu attraktives Produkt hat, senkt Nvidia einfach die Preise. In der Vergangenheit mehrmals geschehen. Auch bei Zen konnte man ausschließlich durch bessere Produkte Marktanteile gewinnen, nicht durch einen Preiskampf. Solange man diese nicht hat, schadet ein Preiskampf AMD mehr als Nvidia.
fondness
2025-01-20, 12:39:52
Pro MiB aktuell ~0,5 mm².
32 zusätzliche MB mehr wären entsprechend ~16mm² mehr Fläche.
Das schwankt sehr stark je nach Produkt (warum auch immer). ~0,5 mm² pro MB ist aktuell das beste was man gesehen hat (bei Zen5 L3-Cache), aber es geht auch deutlich schlechter.
robbitop
2025-01-20, 12:42:36
Siehe meine edit, jetzt hier:
Und das mit den billigeren Preisen hat man bereits über viele Jahre probiert, ist gescheitert. Das kann auch nicht funktionieren, sobald man ein zu attraktives Produkt hat, senkt Nvidia einfach die Preise. In der Vergangenheit mehrmals geschehen. Auch bei Zen konnte man ausschließlich durch bessere Produkte Marktanteile gewinnen, nicht durch einen Preiskampf. Solange man diese nicht hat, schadet ein Preiskampf AMD mehr als Nvidia.
Ich persönlich denke (ich kann hier falsch liegen), dass immer ein Glied in der Gleichung gefehlt hat.
Um Mindshare zu gewinnen braucht es IMO: (1) Marktanteil + (2) Überlegenheit + (3) Konsistenz
Vor ~10 Jahren hatte man den Marktanteil durch die kleinen Preise. Es fehlte aber (2) und (3).
Mit RDNA2 hatte man:
- von (1) mehr als heute aber ggf. noch zu wenig
- von (2) immerhin mehr als heute - aber es fehlten die Features - so ist es leider das catcht Leute
- und (3) hätte man etwas mehr bekommen, wenn man mit RDNA3 nachgelegt hätte.
Man muss das jetzt von unten wieder aufbauen aber auch nur wenn man gewillt ist, dass ein paar Gens durchzuziehen.
Gen 1: low cost -> viel Marktanteil
Gen 2: jetzt mit Performance und Features abliefern. Aber polished. Trotzdem niedrigerer Preis - aber ggf. nicht mehr ganz so niedrig
Gen3-4: immer dran bleiben - erster bleiben, abliefern, polishen, features und leistung vorn sein. Und man kann immer mehr Marge zurückholen.
Bei Ryzen hat es auch ungefähr so ausgesehen. Allerdings hatte man mit Intel einen anderen Gegner als Nvidia.
Wenn man nicht glaubt, das gegen Nvidia über ~3-4 Gens so abliefern zu können - ja dann wird das nichts.
Aber wenn man so weiter macht mit Nvidia last gen Performance und features und minus 50 EUR, wird man mit der GPU Sparte in die Bedeutungslosigkeit verschwinden. Und das wird auch irgendwann sich bei der GPU IP auswirken und man bekommt ggf nicht mal mehr die Konsolen.
So wie man es die letzten Jahre gemacht hat ist es auch kein tragbarer Pfad IMO.
Das schwankt sehr stark je nach Produkt (warum auch immer). ~0,5 mm² pro MB ist aktuell das beste was man gesehen hat (bei Zen5 L3-Cache), aber es geht auch deutlich schlechter.
Ja mit Zen 5 hat man einen ordentlichen Sprung gemacht. Ich denke aber etwas schlechteres für ein neueres Produkt aus dem gleichen Haus zu erwarten wäre doch etwas pessimistisch oder?
Für Ada finde ich leider keine Angaben im Netz. Wäre interessant gewesen.
Redneck
2025-01-20, 12:54:13
AMD (Frank azor) hatte doch in einem Interview mit PC World (IMHO) gesagt, das sie das Namensschema geändert hatten, damit potentielle Käufer gleich die Leistungsklasse erkennen Koennen (weil angeblich niemand die AMD Nomenklatur verstehen wuerde). Und der Vize (Huyn glaube ich heißt er) sagte doch, das sie klar Mittelklasse anpeilen. Also werden sie preislich nicht auf 5070TI Level liegen.. Das ist für Mittelklasse auch viel zu hoch.
E39Driver
2025-01-20, 13:08:03
Siehe meine edit, jetzt hier:
Und das mit den billigeren Preisen hat man bereits über viele Jahre probiert, ist gescheitert. Das kann auch nicht funktionieren, sobald man ein zu attraktives Produkt hat, senkt Nvidia einfach die Preise. In der Vergangenheit mehrmals geschehen. Auch bei Zen konnte man ausschließlich durch bessere Produkte Marktanteile gewinnen, nicht durch einen Preiskampf. Solange man diese nicht hat, schadet ein Preiskampf AMD mehr als Nvidia.
Naja warum sollte Nvidia zum aktuellen Zeitpunkt einen Preiskampf mitgehen und sich so selbst die Margen zerschießen? Der Gaming-Markt ist für sie nur noch eine kleine rückläufige Nische. Jeden mm² Chipfläche könnte man ungleich renditeträchtiger im AI-Boom verkaufen. Von daher macht man im Gaming-Bereich nur soviel wie notwendig.
AMD krebst derzeit mit 10% Marktanteil rum, Tendenz fallend. Für NV ist es strategisch egal, ob sich AMD diesen Marktanteil durch einen Kampfpreis in einer Generation wieder auf 20% steigern kann. Mehr ist realistisch eh nicht drin. Wegen dieser 10% macht man sich nicht die eigenen Margen kaputt. Vermutlich wird man eher noch froh sein, wenn AMD sich dort etwas erholen kann. Unterhalb von 10% Marktanteil wäre sonst auch ein Marktaustritt erwartbar, was für Nvidia auch nicht gut wäre.
Fragman
2025-01-20, 13:41:40
Oder aber man bietet gleich zu einem Kampfpreis an in der Erwartung primär Marktanteile zu holen und kaum Geld zu verdienen - mit dem Ziel das als Fundament zu nutzen um das mittelfristig wieder umzudrehen.
Wenn nv bei der nächsten Gen gezwungen sein wird eine echte xx80 zu bringen statt einer um 500 Dollar zu hoch bepreisten xx70, wäre schon viel gewonnen.
Das würde auch wiederum Druck auf AMD ausüben um solche Preisblüten wie bei RDNA3 zu verhindern.
fondness
2025-01-20, 14:09:13
Naja warum sollte Nvidia zum aktuellen Zeitpunkt einen Preiskampf mitgehen und sich so selbst die Margen zerschießen? Der Gaming-Markt ist für sie nur noch eine kleine rückläufige Nische. Jeden mm² Chipfläche könnte man ungleich renditeträchtiger im AI-Boom verkaufen. Von daher macht man im Gaming-Bereich nur soviel wie notwendig.
AMD krebst derzeit mit 10% Marktanteil rum, Tendenz fallend. Für NV ist es strategisch egal, ob sich AMD diesen Marktanteil durch einen Kampfpreis in einer Generation wieder auf 20% steigern kann. Mehr ist realistisch eh nicht drin. Wegen dieser 10% macht man sich nicht die eigenen Margen kaputt. Vermutlich wird man eher noch froh sein, wenn AMD sich dort etwas erholen kann. Unterhalb von 10% Marktanteil wäre sonst auch ein Marktaustritt erwartbar, was für Nvidia auch nicht gut wäre.
Warum sollten Nvidia dabei zusehen, wie sie Marktanteile verlieren? Halte ich für eine ziemlich naive Ansicht. Zumal sie in der Vergangenheit schon mehrmals gezeigt haben, dass sie einen Preiskampf mitgehen. Nvidia kann es doch völlig egal sein, wenn man im Gaming-Bereich temporär auf etwas Marge verzichtet, das Geld verdient man eh ganz wo anders. Es hat auch einen Grund, warum Nvidia im Niedrigpreissegment halbwegs gute Preise anbietet, man will AMD und jetzt auch Intel keine Luft zum atmen lassen.
NV hat jetzt genug Marktanteile, um nach belieben ihren eigenen Code in Spiele zu drücken und damit ihr Monopol immer stärker zu festigen. Die werden einen Teufel tun und das jetzt ohne Not aufgeben. Der Weg NV Marktanteile abzunehmen kann nur über bessere Produkte funktionieren, aber sich nicht über einen Preiskampf den NV jederzeit leicht kontern kann.
fondness
2025-01-20, 14:12:22
Wenn nv bei der nächsten Gen gezwungen sein wird eine echte xx80 zu bringen statt einer um 500 Dollar zu hoch bepreisten xx70, wäre schon viel gewonnen.
Das würde auch wiederum Druck auf AMD ausüben um solche Preisblüten wie bei RDNA3 zu verhindern.
Es wäre für den Kunden temporär viel gewonnen ja. Aber aus Sicht von AMD wäre es bestenfalls ein Pyrrhussieg.
mboeller
2025-01-20, 14:12:56
Wenn man beide übereinander legt, ist das schon sehr viel näher am Slot.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90927&d=1736686335
Hat eigentlich die Größe des Ausschnitts im PCB + Metallumrandung was mit der Größe des Chips/GPU zu tun?
Wenn ja, der Ausschnitt bei der 9070XT ist wesentlich kleiner als bei der 7900XT/X, also eher halb so groß
GerryB
2025-01-20, 14:13:46
Es wäre für den Kunden temporär viel gewonnen ja. Aber aus Sicht von AMD wäre es bestenfalls ein Pyrrhussieg.
Über welche Kunden redet Ihr da überhaupt.
>1k€ ist nicht die typische AMD-Klientel.
wg. 4% GamerGesamt@4k wird AMD sicher nicht ne Menge Geld in die Entwicklung von schwer verkäuflichen Produkten stecken
(Milchmädchenrechnung 5% von 4% Marktanteil@4k = 0,2% = Nothing)
fondness
2025-01-20, 14:15:41
Über welche Kunden redet Ihr da überhaupt.
>1k€ ist nicht die typische AMD-Klientel.
Es gibt kein typisches AMD-Klientel, siehe Zen. Markentreue wird überschätzt, wenn das Produkt überzeugt wechseln Kunden ganz schnell das Lager.
Man hat sich vielleicht ein typischen Klientel erschaffen, dass immer mehr Leistung zu weniger Preis erwartet als die Konkurrenz. Aber dieses Klientel will man in Wahrheit eh nicht haben.
Lurtz
2025-01-20, 14:18:57
1080p nativ ist allein schon wegen der Display effekte einem 1440p => downscaled auf 1080p überlegen. Da es kein 1:1 mapping der Pixel von 1440p => 1080p gibt MUSS das display Pixel mit Werten "überschreiben" die unpassend sind, oder als irgendein Mittelwert von anderen Pixel entstehen => automatisch "blurry"...egal wie gut der Downscaler/upscaler.
[...]
Ich meinte schon native Displays. WQHD-Displays sind mittlerweile so günstig, das kann sich am Ende "jeder" leisten.
DrFreaK666
2025-01-20, 14:20:48
Bei Nvidia ist das anders.
Sie wissen wie Marketing funktioniert und das hat sich bei vielen ins Hirn gebrannt
robbitop
2025-01-20, 14:23:07
Warum sollten Nvidia dabei zusehen, wie sie Marktanteile verlieren? Halte ich für eine ziemlich naive Ansicht. Zumal sie in der Vergangenheit schon mehrmals gezeigt haben, dass sie einen Preiskampf mitgehen.
Naja die Frage ist, ob Nvidia das immer noch so sieht. Die Dinge haben sich stark geändert. Die Margen sind nach oben geschossen, entsprechend sicherlich auch die Erwartungen der Investoren und Partner.
Sie können jedes mm2 Silizium im AI Bereich für noch höhere Margen verkaufen und ihr Marktanteil ist so hoch, dass AMD mit ihrem Kontingent bei TSMC wahrscheinlich nicht ausreichend wird, daran so viel zu ändern.
Die Frage ist, um wie viel ist Nvidia bereit runter zu gehen von ihren 50-60%. Sicherlich gibt es da auch eine untere Grenze.
fondness
2025-01-20, 14:26:12
Bei Nvidia ist das anders.
Sie wissen wie Marketing funktioniert und das hat sich bei vielen ins Hirn gebrannt
Ich bitte dich. NVs Marketing besteht darin, dass man Leute für dumm verkauft und bsw. Fake Frames echten gegenüberstellt. So könnte AMD nicht auftreten, das würde in der Luft zerrissen werden. Bei Nvidia ist es egal, weil das Produkt überzeugt.
Ein gutes Produkt braucht kein Marketing, bei einem schlechten Produkt hilft das beste Marketing nichts. Tesla hatte bsw. lange nicht mal eine Marketingabteilung. Deshalb finde ich das sogar positiv, dass die AMD-Marketingabteilung immer mal wieder failed. Es zeigt, dass AMD die richtigen Prioritäten setzt - nämlich auf RnD statt auf Marketing. Dort ist das Geld mit Sicherheit besser angelegt.
robbitop
2025-01-20, 14:32:08
Naja besser als failen wäre es dann sich komplett rauszuhalten. :-D
So wie damals zum Sony PS1 release: der Typ geht zum Mikro und sagt "299" und geht wieder. ^^
Oder zumindest dafür zu sorgen, dass der Kram, der releast wird (zB Frame Generation) vorher anständig ge-vetted ist. Wenn nicht -> kein release.
mczak
2025-01-20, 14:33:54
Lol...das ist doch komplett vernachlässigbar bei den spekulierten ~350mm² Gesamtfläche.
So vernachlässigbar ist das nicht, das wären so ~5% der Gesamtfläche. Bei 64MB mehr sind es dann 10% der Gesamtfläche - was ähnlich viel ist wie die dedizierten RT/Tensorkerne bei Turing gekostet haben, Fläche die AMD ja bekanntlich nicht bereit war (und immer nocht nicht wirklich ist) zu investieren.
AMD war nicht mal bereit den GPU-L2 bei Strix von 2MB auf 4MB zu vergrössern obwohl das ziemlich sicher eine Menge gebracht hätte wenn man schon den IF spart (auch wenn jetzt eine APU nicht mit einer dGPU vergleichbar ist).
Wenn N48 tatsächlich gddr7 beherrscht würde ich nicht von 128MB IF ausgehen - das wäre dann wohl etwas Overkill wenn man gddr7 verwendet (mehr IF als N31 bei ähnlicher Bandbreite). Evtl. 96MB um sich da etwas abzusichern falls gddr7 dann eben noch nicht verfügbar ist um da die ärgsten Bandbreitenprobleme zu mindern (und es ist ja nicht so dass ein grösserer Cache mit gddr7 gar nichts mehr bringen würde).
Natürlich hat auch schon der viel langsamere N22 96MB IF, aber ich bin immer noch der Meinung das war wohl eher eine Vorsichtsmassnahme weil man den eigenen Prognosen wieviel Cache sinnvoll sind nicht wirklich getraut hat.
fondness
2025-01-20, 14:35:40
Naja besser als failen wäre es dann sich komplett rauszuhalten. :-D
So wie damals zum Sony PS1 release: der Typ geht zum Mikro und sagt "299" und geht wieder. ^^
Oder zumindest dafür zu sorgen, dass der Kram, der releast wird (zB Frame Generation) vorher anständig ge-vetted ist. Wenn nicht -> kein release.
Naja, die Folien geben zumindest immer mal wieder interessante technische Einblicke. Sehr viel tiefere als sie Nvidia oder Intel geben. Die Dokumentationen für Devs ist sehr gut, sehr viel besser als bei der Konkurrenz. Ich denke die setzen schon die richtigen Prioritäten. Einen Rechtschreibfehler auf der einen oder anderen Folie nehmen ich da gerne ich kauf. Und ja, vielleicht hat man manches zu früh released, aber wie gesagt langfristig zählt was anderes.
robbitop
2025-01-20, 14:47:31
Naja aber Dinge die nicht vernünftig funktionieren kosten den "ersten Eindruck". Gerade bei nicht nerds ist der erste Eindruck verbrannt und es kostet wieder mindshare. Es assoziert Frickeligkeit mit der Marke. Das muss nicht sein. Man will lieber Zuverlässigkeit assoziieren. Das hat Intel sehr lange über Wasser gehalten - selbst als ihre CPUs schlechter wurden. (auch wenn das nicht immer stimmte) Wenn man das langfristig richtig macht, ist das auch langfristig besser.
Rechtschreibfehler sind nicht so wichtig - das stimmt. Aber klare, geradlinige Kommunikation ist schon nicht verkehrt. Und solche Last Minute Dinger wie auf der CES sehen auch nicht gut aus. Und wenn man das schon macht, macht es straight forward am meisten Sinn anstatt da tagelang rumzudrucksen. Macht einfach keinen guten Eindruck.
Aber ja das Produkt ist wichtiger. Aber ganz unwichtig ist sinnvolle Kommunikation nicht.
Exxtreme
2025-01-20, 14:49:32
Die Rechtschreibfehler sind eher so ein US-amerikanisches Ding. Die Amis achten da so ziemlich gar nicht drauf.
Palpatin
2025-01-20, 14:53:46
Über welche Kunden redet Ihr da überhaupt.
>1k€ ist nicht die typische AMD-Klientel.
wg. 4% GamerGesamt@4k wird AMD sicher nicht ne Menge Geld in die Entwicklung von schwer verkäuflichen Produkten stecken
(Milchmädchenrechnung 5% von 4% Marktanteil@4k = 0,2% = Nothing)
Hört doch endlich mal mit eurem Steam HW Survey auf. Die Datenbasis ist über 1Mrd Nutzer wovon vermutlich knapp die Hälfte mit 1080p und Laptop unterwegs ist. Dann ist da noch ein sehr hoher Anteil Chinesischer Internetcafes drinnen usw. Das ist aber nicht der Gesamt Markt für dedizierte GPUs. Der relevante Markt dürfte irgendwas um die 100 Millionen Gamer in USA und Europa sein.
Wenn man das anders betrachtet (4,x% von 1,x Mrd) dürften ca. 50 Millionen Gamer mit 4k und höher unterwegs sein. Die werden nicht alle zur 5090 greifen.
fondness
2025-01-20, 15:01:45
Naja aber Dinge die nicht vernünftig funktionieren kosten den "ersten Eindruck". Gerade bei nicht nerds ist der erste Eindruck verbrannt und es kostet wieder mindshare. Es assoziert Frickeligkeit mit der Marke. Das muss nicht sein. Man will lieber Zuverlässigkeit assoziieren. Das hat Intel sehr lange über Wasser gehalten - selbst als ihre CPUs schlechter wurden. (auch wenn das nicht immer stimmte) Wenn man das langfristig richtig macht, ist das auch langfristig besser.
Rechtschreibfehler sind nicht so wichtig - das stimmt. Aber klare, geradlinige Kommunikation ist schon nicht verkehrt. Und solche Last Minute Dinger wie auf der CES sehen auch nicht gut aus. Und wenn man das schon macht, macht es straight forward am meisten Sinn anstatt da tagelang rumzudrucksen. Macht einfach keinen guten Eindruck.
Aber ja das Produkt ist wichtiger. Aber ganz unwichtig ist sinnvolle Kommunikation nicht.
Für mich ist das geraunze von Leuten denen es AMD ohnehin nie Recht machen könnte. Als ob AMDs Problem die Kommunikation wäre. Man ist im CPU-Bereich sehr sehr erfolgreich mit exakt derselben Kommunikation.
DrFreaK666
2025-01-20, 15:08:11
AMDs Fehler war das: AMD senior vice president and general manager of the Computing and Graphics Group Jack Huynh, along with other AMD executives will be joined by partners and customers to discuss how AMD is expanding its leadership across PCs and gaming
why_me
2025-01-20, 15:09:16
Für mich ist das geraunze von Leuten denen es AMD ohnehin nie Recht machen könnte.
+1 Wenn die wollen finden die immer einen Grund. Und wenn es am Ende der ATI Treiber ist, der damals so schlecht war.
robbitop
2025-01-20, 15:10:17
Für mich ist das geraunze von Leuten denen es AMD ohnehin nie Recht machen könnte. Als ob AMDs Problem die Kommunikation wäre. Man ist im CPU-Bereich sehr sehr erfolgreich mit exakt derselben Kommunikation.
Es gibt mMn selten "das eine Problem". Es ist oft ein Konglomerat.
Und ja wenn man wie im CPU Bereich ein absolut krank überlegenes Produkt hätte, wären sekundäre Probleme wesentlich weniger wichtig. (wobei man auch das ein paar Gens konsitent abliefern muss, damit die Normis es realisieren) Aber wenn man das nicht hat, ist das oben genannte "adding insult to injury".
Sehe ich in dem Fall anders. Und ich bin zB niemand denen es AMD nicht rechtmachen kann. Dafür habe ich schon lange zu viele AMD und ATI Produkte gekauft wann immer sie das bessere Produkt für den Preispunkt den ich wollte haben/hatten.
Normis hingegen, die sich nicht ständig neu belesen, da kann ein schlechter Ersteindruck richtig kosten. Da wird dann eine Weile nicht mehr gekauft weil irgendwas unrund lief. Eindruck ist gerade bei Normis super wichtig. Ich glaube das unterschätzen wir in unserer Nerd Bubble.
+1 Wenn die wollen finden die immer einen Grund. Und wenn es am Ende der ATI Treiber ist, der damals so schlecht war.
Das kann einem lange nachhängen ja. Zu Navi10 hatte AMD da eine Weile lang Probleme. Jetzt hat man konsistent stabile Treiber.
Wenn ein Normi eine schlechte Erfahrung hat, kann das lange nachwirken. Denk mal an Bekannte, Eltern usw. Wie oft hat man das schon gehört: Nie wieder Automarke XYZ wenn da irgendwas anfällig war / gespackt hat. Berühmtes Beispiel war Opel als sie damals mit ihrem Stareinkäufer "die Qualität weggespart haben" (und die Fahrzeuge dann mehr rumspackten), was ihnen dann in den Verkaufszahlen für viele Gens sehr nachgehangen hat.
davidzo
2025-01-20, 15:40:44
Warum sollten Nvidia dabei zusehen, wie sie Marktanteile verlieren? Halte ich für eine ziemlich naive Ansicht. Zumal sie in der Vergangenheit schon mehrmals gezeigt haben, dass sie einen Preiskampf mitgehen. Nvidia kann es doch völlig egal sein, wenn man im Gaming-Bereich temporär auf etwas Marge verzichtet, das Geld verdient man eh ganz wo anders.
Steile These.
Ich habe den umgekehrten Eindruck. Nvidia geht Preiskämpfe eben nicht mit, weil sie das gar nicht nötig haben. Wenn AMD 5% Marktanteile dazugewinnt, dann bedeutet dass für AMD plus 50% Umsatz, für Nvidia aber nur 5,5% weniger. Für Intel wäre es sogar eine glatte Verdopplung wenn sie nur 1% der Marktanteile von nvidia abnehmen könnten.
Wenn nvidia als Reaktion darauf die Preise um 10% senkt verliert man mehr Geld als wenn man AMD oder Intel eben die paar Prozente zugesteht. Und zwar auch wenn so eine Senkung sich auf einen bestimmten Performancebereich beschränkt, denn auch hier schneidet sich NV mit rund 90% Marktanteil durch eine Reduzierung der Marge nur ins eigene Fleisch.
Nur so kann man sich auch das Pricing der 4060ti 16GB vs 7700XT oder der 4070 vs 7800XT und 7900GRE erklären. Nvidia hat gar kein Interesse an Preiskämpfen teilzunehmen. Eine attraktive P/L bei der Produkteinführung neuer Generationen dient primär dazu die eigenen Kunden früherer Generationen von nvidia Karten von einem Upgrade zu überzeugen und sind nicht gedacht um AMD und Intel Paroli zu bieten.
Bei Nvidia ist es egal, weil das Produkt überzeugt.
Korrigiere: Weil das Halo Produkt überzeugt. Die Midrange und Einsteigerprodukte waren bei der RTX4000er Serie bis auf die Energieeffizienz ja ziemlich underwhelming. Es ist bei NV immer das Halo Produkt welches die anderen mitzieht.
robbitop
2025-01-20, 15:43:18
Naja und das Featureset. DLSS, Ray Reconstruction, Frame Generation, moderne RT HW. Das waren ja alles Aspekte wo man deutlich vorn lag in den Augen des Endkunden.
aufkrawall
2025-01-20, 15:47:25
Wenn ein Normi eine schlechte Erfahrung hat, kann das lange nachwirken.
Hab leider so eine schlechte Erfahrung immer wieder mit jeder AMD-GPU gemacht, außer Polaris.
Jüngstes Beispiel: Der Shader Cache des Schrott-Treibers funktioniert mit Fortnite nicht richtig und vergisst zufällig zwischen Sessions immer die gecacheten Shader.
Tritt sowohl mit RDNA1 als auch 3 auf, mit Polaris offenbar nicht. Also auf Polaris defakto besser spielbar als auf einer 7900 XTX.
Hatte ich reported, natürlich null Feedback erhalten. Die Firma wird immer an sich selbst scheitern und diverse Kunden vergraulen, solange die Windows-Treiber nicht auch open-source sind und der Usermode-Part von Valve/Mesa kommt.
Da potenziellen Kunden vorzuwerfen, AMD nicht mehr ihr Vertrauen schenken zu wollen, ist ziemlich billig. Man hat nicht immer im Leben für alles unendlich Chancen.
Dino-Fossil
2025-01-20, 15:52:43
Ich hatte zu Thermi Zeiten massive Treiberprobleme mit einer GTX 460, konnte da über ein halbes Jahr lang keinen aktuellen Treiber installieren ohne dass der abkackte. Was machen wir jetzt damit?
reaperrr
2025-01-20, 15:55:25
Steile These.
Ich habe den umgekehrten Eindruck. Nvidia geht Preiskämpfe eben nicht mit, weil sie das gar nicht nötig haben. Wenn AMD 5% Marktanteile dazugewinnt, dann bedeutet dass für AMD plus 50% Umsatz, für Nvidia aber nur 5,5% weniger.
Tatsächlich ist es sogar noch krasser, denn:
Marktanteil ist nicht gleich Umsatz.
Wenn Nvidia mit 10% höherer Marge 5,5% weniger Karten verkauft, haben sie mit weniger Aufwand effektiv mehr Geld gemacht und die gesparten Wafer können sie dann für Quadros und HPC-Beschleuniger einsetzen.
Gleichzeitig ist es für NV kein Beinbruch, wenn AMD genug vom Kuchen abbekommt, um im Markt zu bleiben, weil das erstmal Monopol-Vorwürfe und Aufspaltungsrisiken verhindert.
Hakim
2025-01-20, 15:56:26
Ich kann das mit Treibern selber nicht beurteilen weil meine letzte AMD Karte viel zu lange her ist und normal liefen. Hatte aber bei RDNA1 einen Freund zu 5700 überredet und empfohlen wegen sehr gutem P\L. Der hatte halt über einen längeren Zeitraum das Problem das es oft einen Blackscreen gab beim Spielen. Hatten wir auch monatelang zusammen versucht das iwie zu lösen. Irgendwann war es mit einem Treiber Weg, aber ja bleibt im Kopf hängen. Aber gibt sicherlich auch Leute die mit NV probs hatten
aufkrawall
2025-01-20, 15:57:54
Ich hatte zu Thermi Zeiten massive Treiberprobleme mit einer GTX 460, konnte da über ein halbes Jahr lang keinen aktuellen Treiber installieren ohne dass der abkackte. Was machen wir jetzt damit?
Nicht vergessen? Das gleiche Problem gibts gerade so ziemlich wieder mit Lovelace.
Gibts auch ständig bei Nvidia, dass ein neuer Katastrophen-Branch ewig zum Reifen braucht. Muss man nicht beschönigen. Das sind aber keine chronischen Bugs, die nie gefixt werden. Nicht ganz unerheblicher Unterschied.
Wiseman
2025-01-20, 16:10:23
Zerstör doch nicht Nvidia-Fanboys' Anti-Radeon Kampagne
:up:
Heute ist es wieder ganz schlimm.
Hakim
2025-01-20, 16:12:42
Ich bin dennoch hier weil ich mir eine 9070 evtl kaufen will, nicht alles ist eine Kampagne :)
Es wird Zeit, dass die Dinger released werden. Zudem ist es wichtig, dass der Release vor einer 5070(ti) erfolgt. Ist doch eigentlich logisch, dass man dem Neuen aka FSR4 erstmal den Vortritt gewährt. Und langsam scheinen die Karten keinesfalls zu sein.
GrimReaper85
2025-01-20, 18:48:18
Also 700-750€ finde ich durchaus realistisch für eine 9070XT - passt doch?! Noch 550-550€ für eine 9070 und die Abgrenzung zur 5070 seht.
Ja, ich denke:
9070 - $500 oder 625€ (multipliziert 1,25x)
9070 XT - $600 oder 750€
Es sei denn, AMD hat in den letzten 2 Wochen irgendwie herausgefunden, wie man sie günstiger bepreisen kann, etwa $550 und $450.
Ich denke, $500 und $400 sind nicht möglich.
Zum Glück für AMD habe ich momentan zumindest nicht das Geld für eine 5070 Ti (950 €) und die 9070 mit 220W gefällt mir wirklich gut. Ich denke auch, dass eine Senkung des Leistungslimits bei der 9070 XT und der 5070 Ti auf etwa 240W sie nicht viel schneller machen würde. Und ich kann die Leistung der 9070 sogar noch weiter auf 180W senken und trotzdem noch die Standardleistung beibehalten, wie es bei der 7800 XT von 263W auf 225W (max. 2500 MHz) der Fall war.
dargo
2025-01-20, 19:41:01
Freut euch nicht zu früh über diese ominösen 220W. Die ergeben noch keinen Sinn mit 56CUs und etwas weniger Takt. Nur mal zur Erinnerung... RX 6900XT und RX 6800XT hatten das selbe Powerbudget. Bei der RX 9070XT vs. 9070 wird der Taktunterschied womöglich größer sein, erklärt aber immer noch nicht die 300(+)W der XT. Sollte die XT mit 265W kommen glaube ich gerne die 220W der non XT.
Ravenhearth
2025-01-20, 20:14:45
Die Vega 64 hatte auch 295W, während die Vega 56 nur 210W hatte, und das bei nur ~12% mehr Leistung. Die Karte war einfach sehr hoch geprügelt...
ecodriver
2025-01-20, 21:55:01
Launch angeblich erst im März ;D
Wenn das stimmen sollte dreht AMD echt am Rad. Die 9700XT liegt doch schon in den Warenhäusern.
Ich vermute das die 9700XT ungefähr im Bereich der 5070Ti liegen wird, also 850€
Quelle vergessen?
https://x.com/McAfeeDavid_AMD/status/1881435903358628047
Nun, AMD hat von Anfang an (CES) nur "Q1" gesagt. Und das geht bis Ende März. ;)
MfG
Raff
Hakim
2025-01-20, 22:02:24
Ja gut, März, wenn das stimmt, gg. Selbst Leuten die mal von NV zu AMD switchen wollen machen die es schwer, vorallem unnötig wenn schon die Karten in den Shops stehen. Ich werde mal versuchen solange zu warten, aber gut möglich das ich vorher wieder zu NV greife.
Linmoum
2025-01-20, 22:04:22
Quelle vergessen?
https://x.com/McAfeeDavid_AMD/status/1881435903358628047Sorry, aber bei dem, was die Boardparter schon gezeigt und angekündigt haben, ist ein Launch erst >2 Monate später doch völlig grotesk. Wen will AMD damit denn veralbern?
Mal davon ab, dass es dann auch schon die 5070 (Ti) zu kaufen gibt. Und AMD wird hier sicherlich keine $449-GPUs verkaufen. Wer wartet denn da noch? Marketing und Außendarstellung mal wieder völlig katastrophal. Mehr AMD-Fanboys als im AMD-reddit gibt's nirgendwo sonst und selbst das geht ob der offiziellien Verlautbarung für März gerade schon steil. ;D
GerryB
2025-01-20, 22:06:23
Will AMD noch auf die 5070 nonTi warten?
... dann kann man jetzt hier im Thread in aller Ruhe erstmal runterfahren
die ganze Aufregung umsonst
btw.
Mit dem letzten Gerücht 9070 nonXT= 499$ bleibt auch die 7800xt attraktiv und kann weiter verkauft werden.
The_Invisible
2025-01-20, 22:07:33
Gute Taktik, bis dahin haben sich schon alle mit 5070/Ti eingedeckt außer die paar Hardcore Radeon Fans. Also die Gerüchteküche mal wieder voll gefailt.
reaperrr
2025-01-20, 22:07:59
Ich hab's geahnt, seit rauskam, dass die 99x0X3D erst im März kommen sollen.
Die sollten nämlich ursprünglich zusammen mit den neuen Radeons Ende Januar launchen, und dass AMD die Launches plötzlich splittet, wäre für AMD-Verhältnisse erstaunlich flexibel gewesen.
Ich wette, da BW in Sachen Raster-P/L so mies wird, verkauft AMD lieber erstmal weiter die restlichen 7000er Bestände, ohne groß was am Preis machen zu müssen.
Die 4070 soll auch bald ausverkauft sein, dann ist die einzige Neukarten-"Konkurrenz" für die 7800XT in dem Preisbereich die 4060Ti-16GB, das will AMD vermutlich noch etwas auskosten.
Linmoum
2025-01-20, 22:09:37
Will AMD noch auf die 5070 nonTi warten?
... dann kann man jetzt hier im Thread in aller Ruhe erstmal runterfahren
die ganze Aufregung umsonstEigentlich sollte die Aufregung doch jetzt erst losgehen. Mittlerweile ist bekannt, dass mehrere Händler die Karten schon auf Lager (!!) haben und jetzt haut AMD raus, dass der Launch erst im März erfolgt? Wie kann man sich jedes Mal nur so dermaßen selbst fi... und vor allem: Warum lernt man nie daraus? Jetzt gehen die Spekulationen erst richtig los, was der wahre Grund dafür ist.
GerryB
2025-01-20, 22:11:21
Gute Taktik, bis dahin haben sich schon alle mit 5070/Ti eingedeckt...
5070Ti > 9070xt interessiert eeh nicht.
aber
unmittelbar darunter hat AMD dann 9070xt+9070+7800xt
später
noch die 9060xt etc., wo man vlt auch erst noch auf die 5060Ti wartet
Sooo ungewöhnlich ist das eigentlich gar nicht, das AMD die Modelle auf gleichem Lvl wie NV,
erst ne Woche später bringt.
aufkrawall
2025-01-20, 22:12:25
Klar, gar nicht ungewöhnlich, Karten monatelang bei Händlern liegen zu lassen...
The_Invisible
2025-01-20, 22:12:35
Eigentlich sollte die Aufregung doch jetzt erst losgehen. Mittlerweile ist bekannt, dass mehrere Händler die Karten schon auf Lager (!!) haben und jetzt haut AMD raus, dass der Launch erst im März erfolgt? Wie kann man sich jedes Mal nur so dermaßen selbst fi... und vor allem: Warum lernt man nie daraus? Jetzt gehen die Spekulationen erst richtig los, was der wahre Grund dafür ist.
Stimmt, da kann der HypeTrain erst so richtig Fahrt aufnehmen, 5090 Perf incoming :D
GerryB
2025-01-20, 22:13:27
Stimmt, da kann der HypeTrain erst so richtig Fahrt aufnehmen, 5090 Perf incoming :D
FG = 5x, was solls!
Hauptsache Balkenlänge
crux2005
2025-01-20, 22:13:32
Will AMD jetzt auch noch die Leistung der finalen 5070(Ti) abwarten oder liegt es am unfertigen Treiber oder FSR4? Es wird ja immer Kurioser.
TheGood
2025-01-20, 22:18:26
Sie haben halt die "TOP" Verkaufszahlen bei Mindfactory gesehen und wollen das noch auskosten :D
Tegenarian
2025-01-20, 22:19:24
Irgendwie erinnert mich das Ganze an die Bulldozer-Vorstellung.
War jetzt lange Radeon treu, mag ihre "offene Politik" mehr, aber nachdem ich fast 2-3 h täglich nur noch Blender spiele, muss ich sagen, dass ich trotz HIP Ansatz enttäuscht von AMD bin.
Ich werde garantiert nicht auf März warten, um meine 7800 XT zu ersetzen, da warte ich eher auf die 5070 Ti (oder halt doch 4070 Ti S). -.- Das wird meine erste nicht AMD-Karte seit der 3dfx Voodoo Banshee.
GerryB
2025-01-20, 22:19:46
Sie haben halt die "TOP" Verkaufszahlen bei Mindfactory gesehen und wollen das noch auskosten :D
Kann schon sein, wer weiss wieviel RDNA3 noch wegmüssen.
Und bis die 5070 in großen Stck.zahlen kommt hat man Zeit.
Ob NV in der Zwischenzeit noch viele 4070 verkauft, ... sieht bei MF nicht so aus.
Tegenarian
2025-01-20, 22:21:17
Ich glaube das ist nur getrolle. Raff weiß bestimmt schon, wann in den nächsten Tagen die Vorstellung ist.
w0mbat
2025-01-20, 22:21:36
Die Karten liegen schon bei den Händlern, da stimmt mMn was nicht.
Linmoum
2025-01-20, 22:22:04
Will AMD jetzt auch noch die Leistung der finalen 5070(Ti) abwarten oder liegt es am unfertigen Treiber oder FSR4? Es wird ja immer Kurioser.Da Händler schon mit Karten beliefert werden, ergibt gerade eigentlich gar nichts einen Sinn. Außer, es geht tatsächlich darum, dass AMD massiv mit dem Preis runtergehen muss aufgrund dessen, wo Nvidia Blackwell preislich platziert hat.
Wenn ich weiß, dass der Treiber noch nicht fertig ist oder FSR4 noch Zeit braucht, dann kommuniziert man das "intern" entsprechend gegenüber sämtlichen Dritten. Händler freuen sich jetzt sicher auch darüber, dass sie >2 Monate lang lauter GPUs nutzlos rumliegen haben und sie diese nicht verkaufen können.
Daredevil
2025-01-20, 22:23:05
AMD will also dieses mal nicht im High End mitspielen, sondern AMD entscheidet sich dazu.... einfach gar nicht mehr mitzuspielen? :D What the fuck, da muss ja ordentlich was schief laufen.
Auf Karte xyz zu warten macht überhaupt keinen Sinn. Man kann mit Preisen immer nach unten gehen, nur hoch eben nicht. Also könnte AMD auch jetzt einfach einen ordentlichen Margen Preispunkt setzen und bei Bedarf runter gehen, ABER DOCH NICHT 2 MONATE WARTEN LOL. ;D
Es tut einfach weh, dort zuzusehen. Intel liefert einfach mehr als AMD, ich werd völlig bekloppt. Was ist das für eine verrückte Welt.
Eigentlich würde ich sagen, dass dies ein guter PR Gag ist, aber irgendwie ... PR und AMD..... uff
Edit: Fairerweise muss man sagen, das AMD ja auch nicht mehr als Q1 angekündigt hat und die Hersteller AMD das Leben sehr schwer macht mit Leaks und Ankündigungen.
Aber die Ankündigung und den Vorgeschmack kann man deutlich netter gestalten als ein "Kommt im März lol" von irgendeinem AMD Dude auf X. Wahnsinn.
Exxtreme
2025-01-20, 22:24:27
Ja, das ist eine Entscheidung, die ich jetzt auch nicht mehr nachvollziehen kann. Die Karten sind ja schon da. Jetzt aber auch noch bis zum März warten ist echt mehhh.
why_me
2025-01-20, 22:24:41
Gute Taktik, bis dahin haben sich schon alle mit 5070/Ti eingedeckt außer die paar Hardcore Radeon Fans. Also die Gerüchteküche mal wieder voll gefailt.
Was machen die Hersteller nur die 23 Monate zwischen den Grafikkarten releases wenn immer alle zum Release kaufen.
GerryB
2025-01-20, 22:24:46
Intel liefert einfach mehr als AMD, ...
Intels B780 kommt noch später, ... in H2
fondness
2025-01-20, 22:26:22
Da Händler schon mit Karten beliefert werden, ergibt gerade eigentlich gar nichts einen Sinn. Außer, es geht tatsächlich darum, dass AMD massiv mit dem Preis runtergehen muss aufgrund dessen, wo Nvidia Blackwell preislich platziert hat.
Aja, das kannst du jetzt sicher erklären, lol. Was für ein Blödsinn.
ecodriver
2025-01-20, 22:26:34
Wenn es keine Reviews gibt, dann liegt evtl. die Performance nicht da, wo AMD es vermutet hatte.
Evtl. (knapp?) unter 5070.
Dazu würde die Gerüchte passen, dass der Preis zu hoch angesetzt war und die Watt hochgezogen worden sind.
Es hinterlässt auf jeden Fall keinen guten Eindruck.
Linmoum
2025-01-20, 22:28:22
Aja, das kannst du jetzt sicher erklären, lol. Was für ein Blödsinn.Du kannst ja gerne erstmal einen (anderen) fundierten Grund dafür nennen bzw. entsprechend antworten, stand anderes ausschließlich plump als Blödsinn zu bezeichnen. Speku-Forum übrigens, hier wird also spekuliert. Spekulationen sind Spekulationen und keine Fakten.
fondness
2025-01-20, 22:29:31
Du kannst ja gerne erstmal einen (anderen) fundierten Grund dafür nennen bzw. entsprechend antworten, stand anderes ausschließlich plump als Blödsinn zu bezeichnen.
Wie erwartet kannst du es nicht begründen. Ergibt ja auch null Sinn. Mit dem Preis runtergehen kann man immer, dafür muss man nicht um Monate verschieben. Nur rauf kann man im Nachhinein nicht mehr. Also wenn dann ist es umgekehrt.
Für wahrscheinlicher halte ich allerdings irgendeine Software Geschichte, zb dass man auf FSR 4 wartet und noch den NV launch mitnehmen will.
TheGood
2025-01-20, 22:34:06
Du kannst ja gerne erstmal einen (anderen) fundierten Grund dafür nennen bzw. entsprechend antworten, stand anderes ausschließlich plump als Blödsinn zu bezeichnen. Speku-Forum übrigens, hier wird also spekuliert. Spekulationen sind Spekulationen und keine Fakten.
Sorry das Thema ist schon seit einem Tag durch und sowas von unwahrscheinlich, weil es einfach jeder logik entbehrt.
Finde es vor allem geil, dass man das auf X ankündigt, aber die ganze zeit von einem Super wichtigen Event redet, um genügend Raum zur "Entfaltung" zu bieten.
Ich glaube langsam bei AMD machen sie sich einen Riesenspaß :) Die Frage ist auf welche Kosten ;) Auf jedenfall auf die Nerds hier im 3DCenter forum :D
fizzo
2025-01-20, 22:34:58
Ich werde garantiert nicht auf März warten, um meine 7800 XT zu ersetzen, da warte ich eher auf die 5070 Ti (oder halt doch 4070 Ti S). -.- Das wird meine erste nicht AMD-Karte seit der 3dfx Voodoo Banshee.
Hm, wann soll die 5070Ti eigentlich genau erscheinen? Obwohl, bei den Straßenpreisen (siehe 5080/5090) zielt diese auf eine andere Käuferschicht. Die 9000er Serie ist da sicher eine/zwei Stufen niedriger bepreist. Die 5070 ist wengen ihren 12GB sowieso keine Option so werde ich das in Ruhe aussitzen. Wir werden in der Zwischenzeit sicher gut mit "Leaks" unterhalten ;)
Tegenarian
2025-01-20, 22:40:46
Solange ich nur gezockt habe und Bildbearbeitung mit Capture One machte, waren mir Radeon (oder Vega) Karten mehr als gut genug. Aber leider muss ich zugeben, bei Blender scheinen sie wirklich hinterherzuhinken. Da erwarte ich für den Mehrpreis von Nvidia auch entsprechend stabiler und zügigeres Arbeiten.
Ich hoffe doch, dass die 5070 Ti auch im Februar kommt? Hoffe ja schon die ganze Zeit auf Blenderbenchmarks wie bei der 5090 (sowohl von der 9070 XT als auch von der 5070 Ti).
TheGood
2025-01-20, 22:42:14
Dann kannste ja auch locker noch bis März warten. Darauf kommts dann nimmer an.
DrFreaK666
2025-01-20, 22:59:30
Eigentlich sollte die Aufregung doch jetzt erst losgehen...
Wieso? Was soll Aufregung bringen?
AMD sagte 1.Quartal, März liegt darin.
Dass sich Nvidianer aufregen, ist grotesk.
edit: Du hast 73 Beiträge im RDNA4-Thread und 37 im Blackwell-Thread. Ist dir langweilig?
Die Händler mussten ihre Karten zurückschicken, ich tippe auf einen schweren Fehler, der erst in letzter Minute entdeckt wurde. Erinnert leider stark an RDNA3. Da wurde aus September Dezember und sie waren deutlich langsamer als angekündigt...
AMDs Execution versagt vollständig bei Grafikkarten, das sieht man jetzt aber so richtig. Ich finde, die sollten wirklich die Execution von Grafikhardware auch mit Sony teilen, irgendjemand, der es besser kann.
why_me
2025-01-20, 23:02:47
Quelle?
DrFreaK666
2025-01-20, 23:05:45
Die Händler mussten ihre Karten zurückschicken, ich tippe auf einen schweren Fehler, der erst in letzter Minute entdeckt wurde. Erinnert leider stark an RDNA3. Da wurde aus September Dezember und sie waren deutlich langsamer als angekündigt...
AMDs Execution versagt vollständig bei Grafikkarten, das sieht man jetzt aber so richtig. Ich finde, die sollten wirklich die Execution von Grafikhardware auch mit Sony teilen, irgendjemand, der es besser kann.
Für mich klingt das eher nach "Features sind noch nicht fertig".
Bei der FSR4-Demo hieß es nicht FSR4, sondern Research-Dingsbums.
Das gleiche bei der "Ray Reconstruction Demo".
AffenJack
2025-01-20, 23:05:55
Da Händler schon mit Karten beliefert werden, ergibt gerade eigentlich gar nichts einen Sinn. Außer, es geht tatsächlich darum, dass AMD massiv mit dem Preis runtergehen muss aufgrund dessen, wo Nvidia Blackwell preislich platziert hat.
Wenn ich weiß, dass der Treiber noch nicht fertig ist oder FSR4 noch Zeit braucht, dann kommuniziert man das "intern" entsprechend gegenüber sämtlichen Dritten. Händler freuen sich jetzt sicher auch darüber, dass sie >2 Monate lang lauter GPUs nutzlos rumliegen haben und sie diese nicht verkaufen können.
Die Preise von Blackwell sind bekannt und die Leistungssteigerungen sind klein. Das macht kein Sinn deswegen zu warten, muss man seinen Preis halt tiefer ansetzen.
Es kann eigentlich nur das warten darauf sein, dass Treiber oder ein Feature fertig werden. Bleibt also eigentlich nur FSR4. Aber auch da muss man sich fragen, wieso man nicht erstmal ohne launcht, solange die x70er nicht da sind und die ersten Verkäufe mitnimmt.
Außer DLSS4 ist so gut, dass man sich ohne FSR4 komplett auf verlorenen Feld sieht und deshalb auf keinen Fall ohne FSR launchen will.
w0mbat
2025-01-20, 23:10:45
Die Händler mussten ihre Karten zurückschicken, ich tippe auf einen schweren Fehler, der erst in letzter Minute entdeckt wurde. Erinnert leider stark an RDNA3. Da wurde aus September Dezember und sie waren deutlich langsamer als angekündigt...
AMDs Execution versagt vollständig bei Grafikkarten, das sieht man jetzt aber so richtig. Ich finde, die sollten wirklich die Execution von Grafikhardware auch mit Sony teilen, irgendjemand, der es besser kann.
Hast du ne Quelle zu der Info?
Oranje7
2025-01-21, 00:17:29
Bleibt also eigentlich nur FSR4. Aber auch da muss man sich fragen, wieso man nicht erstmal ohne launcht, solange die x70er nicht da sind und die ersten Verkäufe mitnimmt.
Aber genau das wird doch AMD vorgworfen. Etwas bringen aber nur so lala...
Dadurch ist das Internet ja voll mit Problemen im Roten Lager.
Auf der anderen Seite gibt es überall noch "alte" Grafikkarten die müssen halt auch weg
Dino-Fossil
2025-01-21, 00:33:40
Um mich schamlos selbst zu zitieren (von Anfang Juni):
Würde immerhin ins übliche Muster passen:
Gerüchte lange vor release: AMD kommt deutlich vor nVidia
Release: nVidia hat fast das komplette Line-up raus als AMD endlich den ersten Chip bringt
Der_Korken
2025-01-21, 00:42:31
Eigentlich würde mich jetzt auch nicht mehr wundern, wenn FSR4 trotzdem nicht im März launched, sondern erst ein oder zwei Quartale später.
Hakim
2025-01-21, 00:43:52
Ich zitiere mich auch mal selbst, selbst wenn das stimmen würde, würden wir es nicht mitbekommen
Vielleicht hat man sowas wie damals bei der Referenz MBA 7900XTX mit dem vapor chamber problem entdeckt und hat kurzfristig den Launch verschoben bevor man wieder wochenlang schlechte Publicity bekommt
Naja, so ein Event zur Vorstellung der 9070-Gen zu organisieren, dauert halt auch seine Zeit. Oder? :D
OgrEGT
2025-01-21, 04:20:44
Ich zitiere mich auch mal selbst, selbst wenn das stimmen würde, würden wir es nicht mitbekommen
Was kann es auch anderes sein da ja alle Customs die gleiche Vapor Chamber nutzen...
Hakim
2025-01-21, 05:55:47
Muss ich das jetzt erklären was selbsterklärend ist? Wenn AMD seine neue Grafikchip vorstellen will machen sie das wie die letzten Jahre in Form ihres eigenen Referenz Modells, und darauf folgen dann die Customs (genau wie NV). Bis auf wenige Ausnahmen wie z.B 5070ti. Wenn aber die Referenz Probleme macht, wäre es schon eigenartig bei der eigenen Vorstellung eine custom vorzuweisen und die Referenz nach zu reichen was viele Fragen stellen würde und auch peinlich rüberkommen würde.
Aber ist auch nur eine Spekulationen, könnte alles mögliche sein, neue Preisgestaltung, Treiber, FSR4… wer weiß das schon
konkretor
2025-01-21, 06:20:17
Es gab doch schon Bilder von Lagerware bei der Distribution. WTF.
G3cko
2025-01-21, 06:31:04
Die werden sicherlich von DLS4 überrascht worden sein. Nun brauchen sie auch ein gleichwertiges Fakeframe Feature. Schwer umzusetzen ist das denke ich nicht, nur eben noch nicht spruchreif.
Da aber Nvidias Marketing fast nur DLS4 in den Vordergrund stellt, benötigen sie zwingend dieses Verkaufsargument.
Das eine 5070 minimal schneller sein wird als eine 4079 Ti das überrascht doch niemanden, sonder das ist die Erwartungshaltung.
dargo
2025-01-21, 07:11:18
Gute Taktik, bis dahin haben sich schon alle mit 5070/Ti eingedeckt außer die paar Hardcore Radeon Fans.
Alle Nerds im 3DC oder wer? :lol: Interessante Logik... nur zum Release wird neue Hardware gekauft. :crazy:
aufkrawall
2025-01-21, 07:21:37
AMD trollt mal wieder hart: Zahlende Kunden dürfen eine Runde wünsch dir was spielen, welche Produkte ggf. eines Tages noch ROCm-Support erhalten könnten:
https://www.phoronix.com/news/AMD-Feedback-ROCm-Support
Nicht "unterstützte" Produkte wie die 7800 XT sind natürlich per Blacklist in WSL2 ROCm absichtlich ausgeschlossen. :rolleyes:
Unfassbarer Cringe...
The_Invisible
2025-01-21, 07:41:30
Alle Nerds im 3DC oder wer? :lol: Interessante Logik... nur zum Release wird neue Hardware gekauft. :crazy:
Gemeint waren natürlich die Launch-Käufer die extra gewartet haben und jetzt keine Lust haben noch länger hingehalten zu werden...
DrFreaK666
2025-01-21, 07:51:27
Gemeint waren natürlich die Launch-Käufer die extra gewartet haben und jetzt keine Lust haben noch länger hingehalten zu werden...
Also ein paar Wenige
Schnitzl
2025-01-21, 07:54:03
wie gut dass ich vor nem Jahr die 7800XT gekauft hab ...
es hiess ja RDNA4 kommt im Sommer 2024... ;D
muss ich mich jetzt wenigstens nicht aufregen über die ganzen Verzögerungen :rolleyes:
DrFreaK666
2025-01-21, 07:58:50
Der erste Quartal wurde auf der CES genannt. Viele sind nun überrascht, dass März auch im ersten Quartal ist :ugly:
konkretor
2025-01-21, 08:00:05
AMD trollt mal wieder hart: Zahlende Kunden dürfen eine Runde wünsch dir was spielen, welche Produkte ggf. eines Tages noch ROCm-Support erhalten könnten:
https://www.phoronix.com/news/AMD-Feedback-ROCm-Support
Nicht "unterstützte" Produkte wie die 7800 XT sind natürlich per Blacklist in WSL2 ROCm absichtlich ausgeschlossen. :rolleyes:
Unfassbarer Cringe...
Jap das verstehe ich auch nicht, es sollte einfach jede Karte damit laufen. Nervt mich auch. Das Verhalten sorgt nicht dafür cuda Marktanteile abzunehmen.
ashantus
2025-01-21, 08:06:38
Eigentlich würde mich jetzt auch nicht mehr wundern, wenn FSR4 trotzdem nicht im März launched, sondern erst ein oder zwei Quartale später.
Das gleiche habe ich mur auch gedacht. Mit dem ganzen Murks hat AMD viel Glaubwürdigkeit verloren. Trotz meiner Pro AMD Einstellung habe ich heute erstmals daran gedacht wieder auf die grüne Seite zu wechseln. Es wird für mich interessant, wie die Preisentwicklung der 4080 super aussieht. Wenn die eine 7 vorne bekommt, wird es dunkel für AMD (auch gebraucht).
Schnitzl
2025-01-21, 08:15:41
Der erste Quartal wurde auf der CES genannt. Viele sind nun überrascht, dass März auch im ersten Quartal ist :ugly:
und das die Karten bereits bei den Händlern sind - fast 2 Monate vorher ist....?
StevenB
2025-01-21, 08:20:38
Ich bin enttäuscht, aufgrund der ganzen Leaks und Spekulationen hab ich meine 7800XT versetzt um noch einen guten Preis zu erreichen (hab ich auch) um dann direkt die Woche auf eine 9070XT umzusteigen.
Warum liegen die Karten dann schon bei den Händlern wenn es erst im März losgeht?
DrFreaK666
2025-01-21, 08:28:43
und das die Karten bereits bei den Händlern sind - fast 2 Monate vorher ist....?
Wie von mir schon genannt, ist FSR4 wahrscheinlich noch nicht ganz fertig. Das hieß auf der CES sicherlich nicht ganz zufällig nur "AMD Graphics Research AI-based Upscaling".
Ich bin enttäuscht, aufgrund der ganzen Leaks und Spekulationen ...
Wieso ist man heutzutage so gutgläubig und glaubt alles, was andere angeblich mal irgendwo gehört haben?
Random Person postet auf X die Zahl 15 und schon wird daraus der 15. Januar :freak:
Sumpfmolch
2025-01-21, 08:36:18
Dieses Jahr beginnt mit so vielen Chancen sein Geld einfach nicht auszugeben, sondern tausende Euro zusätzlich in seinen Aktiensparplan zu packen ( Samsung S-Stillstand, Nvidia Preise, AMD Verfügbarkeit) :ugly:
StevenB
2025-01-21, 08:45:39
Wieso ist man heutzutage so gutgläubig und glaubt alles, was andere angeblich mal irgendwo gehört haben?
Random Person postet auf X die Zahl 15 und schon wird daraus der 15. Januar :freak:
Was hat das mit gutgläubig zu tun wenn die Karten bereits beim Händler liegen und mehrere AMD Partner sagen 23/24 Marktstart?
basix
2025-01-21, 08:46:36
Jap das verstehe ich auch nicht, es sollte einfach jede Karte damit laufen. Nervt mich auch. Das Verhalten sorgt nicht dafür cuda Marktanteile abzunehmen.
AMD sollte zumindest alles bis und mit RDNA2 für ROCm nachliefern. Die Karten sind verbreitet und noch relativ neu. RDNA3 und neu RDNA4 wird besser optimiert sein aber das ist weniger wichtig als dass es überhaupt läuft.
DrFreaK666
2025-01-21, 08:49:31
Welche "mehrere AMD Partner" sollen das sein?
"ASUS confirms Radeon RX 9070 GPUs are ‘coming soon’" klingt für mich nicht nach 23/24. Januar.
https://videocardz.com/newz/asus-confirms-radeon-rx-9070-gpus-are-coming-soon-greek-retailer-list-january-23-availability
"XFX teases January 24 Radeon RX 9070 news" kann bedeuten, dass XFX da ihre Karten näher vorstellt, da auf deren Seite aktuell noch RDNA3 das Neueste ist. Daraus wird aber gleich wieder ein Release-Date gebastelt :rollseye:, obwohl AMD nur 1.Quartal gesagt hat und nicht "in 2 Wochen".
https://www.xfxforce.com/
StevenB
2025-01-21, 08:55:35
Welche "mehrere AMD Partner" sollen das sein?
Ach komm, schaust du auch noch in andere Foren?
Siehe CB Artikel, was auch den vorherigen Leaks entspricht inkl. Aussage eines Redakteurs von CB.
The_Invisible
2025-01-21, 08:58:46
Also ein paar Wenige
Du könntest in Sachen Marketing direkt bei AMD anfangen :D
Schnitzl
2025-01-21, 08:59:53
Wie von mir schon genannt, ist FSR4 wahrscheinlich noch nicht ganz fertig. Das hieß auf der CES sicherlich nicht ganz zufällig nur "AMD Graphics Research AI-based Upscaling".
du willst damit sagen AMD verschickt Karten und merkt dann auf der CES *ups* FSR4 ist ja noch im Alpha Status - das wusste man nicht vorher?
Egal wie du es drehst und wendest, es bleibt einfach scheisse.
DrFreaK666
2025-01-21, 09:00:07
Ach komm, schaust du auch noch in andere Foren?
Siehe CB Artikel, was auch den vorherigen Leaks entspricht inkl. Aussage eines Redakteurs von CB.
Aus CB: Jetzt wird dort der 22. Januar als angeblicher Termin für die Aufhebung eines NDA genannt.
https://www.computerbase.de/news/grafikkarten/radeon-rx-9070-xt-release-termin-und-preise-aus-der-geruechtekueche.90973/
DrFreaK666
2025-01-21, 09:01:35
...Egal wie du es drehst und wendest, es bleibt einfach scheisse.
Ich bin mir sicher du meinst "schade". Habs nicht so mit Schwarz/Weiß-Denken ;)
StevenB
2025-01-21, 09:02:05
Aus CB:
https://www.computerbase.de/news/grafikkarten/radeon-rx-9070-xt-release-termin-und-preise-aus-der-geruechtekueche.90973/
Auch aus CB.
https://www.computerbase.de/news/grafikkarten/amd-rdna-4-radeon-rx-9070-xt-und-rx-9070-kommen-im-maerz.91097/
Eine Verzögerung bei AMD gab es derweil definitiv: Partner gingen noch Ende 2024 von einem Launch im Januar aus.
StevenB
2025-01-21, 09:04:48
Ich bin mir sicher du meinst "schade". Habs nicht so mit Schwarz/Weiß-Denken ;)
AMD hat's verkackt und das sag ich als AMD Fanboy. :P
The_Invisible
2025-01-21, 09:08:37
Klar ist da was im Busch, kein Händler lagert Ware freiwillig die er 2 Monate nicht verkaufen darf. Lager kostet Geld, am liebsten würden die durchverkaufen.
Dieses ganze "warten auf NV Preise/Performance" ist doch Unsinn, man lässt die Karten doch nicht 2 Monate beim Händler vergammeln.
DrFreaK666
2025-01-21, 09:15:43
AMD hat's verkackt und das sag ich als AMD Fanboy. :P
Schön für dich, dass du dich wegen solchen Nichtigkeiten aufregst? Oder was willst jetzt hören?
Mit der 7800XT bist sowieso eher nicht die Zielgruppe
StevenB
2025-01-21, 09:19:02
Schön für dich, dass du dich wegen solchen Nichtigkeiten aufregst? Oder was willst jetzt hören?
Mit der 7800XT bist sowieso eher nicht die Zielgruppe
Was läuft bei dir eigentlich falsch?
Ich habe geschrieben das ich enttäuscht bin, entscheidest du jetzt wer zu welcher Zielgruppe gehört?
Du regst dich doch eher auf das man AMD kritisiert etc. :facepalm:
Exxtreme
2025-01-21, 09:23:48
Also an eine größere Regression glaube ich nicht. Denn wenn es wirklich ein größerer Bug im Chip ist dann müsste man eher mit 6 Monaten Verzögerung rechnen. Chip-Herstellung ist sehr langsam und dauert viele Wochen bis ein Chip hergestellt ist. Und so gesehen verzögert sich RDNA4 auch nicht. Die haben schon immer gesagt Q1/2025.
w0mbat
2025-01-21, 09:25:57
Bis gestern war es noch relativ sicher, dass RDNA4 im Januar startet. Da muss was unvorhergesehenes passiert sein. Nicht gut für AMD.
Schnitzl
2025-01-21, 09:26:31
Ich bin mir sicher du meinst "schade". Habs nicht so mit Schwarz/Weiß-Denken ;)
schön dass du den wichtigen Teil meines Posts ignoriert hast.
aber stimmt scheisse reicht nicht. es ist absolute GÜLLE!
OCmylife
2025-01-21, 09:30:35
Wie von mir schon genannt, ist FSR4 wahrscheinlich noch nicht ganz fertig. Das hieß auf der CES sicherlich nicht ganz zufällig nur "AMD Graphics Research AI-based Upscaling".
Wieso ist man heutzutage so gutgläubig und glaubt alles, was andere angeblich mal irgendwo gehört haben?
Random Person postet auf X die Zahl 15 und schon wird daraus der 15. Januar :freak:
Wieso sollte ein Software-Feature dafür verantwortlich sein, dass die Karten 2 Monate beim Händler liegen? Das könnte man auch noch nachliefern. Eher könnte ich mir vorstellen, dass der Treiber noch nicht fertig ist.
DrFreaK666
2025-01-21, 09:32:06
schön dass du den wichtigen Teil meines Posts ignoriert hast.
aber stimmt scheisse reicht nicht. es ist absolute GÜLLE!
Wie du willst...
du willst damit sagen AMD verschickt Karten und merkt dann auf der CES *ups* FSR4 ist ja noch im Alpha Status - das wusste man nicht vorher?
Woher soll ich das wissen? Das war nur eine Vermutung.
The_Invisible
2025-01-21, 09:37:49
Also an eine größere Regression glaube ich nicht. Denn wenn es wirklich ein größerer Bug im Chip ist dann müsste man eher mit 6 Monaten Verzögerung rechnen. Chip-Herstellung ist sehr langsam und dauert viele Wochen bis ein Chip hergestellt ist. Und so gesehen verzögert sich RDNA4 auch nicht. Die haben schon immer gesagt Q1/2025.
Würde Sinn machen wenn die Karten nicht schon bei den Händlern liegen würden, gibt sogar ein Unboxing Video :freak:
Palpatin
2025-01-21, 09:39:49
Bis gestern war es noch relativ sicher, dass RDNA4 im Januar startet. Da muss was unvorhergesehenes passiert sein. Nicht gut für AMD.
Die hätten doch auf der CES nie Q1 gesagt wenn sie Januar starten wollten. Wie Blauäugig kann man sein. Februar war möglich, März wahrscheinlich.
dildo4u
2025-01-21, 09:40:37
FSR4 wurde als Alpha bezeichnet das ist der Punkt der zu 100% landen muss egal ob jemand auf RT heiß ist oder nicht.
Mal sehen ob sie im März ein neues FG haben das wurde nicht gezeigt.
Twodee
2025-01-21, 09:41:14
Ich bin enttäuscht, aufgrund der ganzen Leaks und Spekulationen hab ich meine 7800XT versetzt um noch einen guten Preis zu erreichen (hab ich auch) um dann direkt die Woche auf eine 9070XT umzusteigen.
Warum liegen die Karten dann schon bei den Händlern wenn es erst im März losgeht?
na immerhin hast einen 7800XT-User glücklich gemacht ;D
DrFreaK666
2025-01-21, 09:41:49
...Eher könnte ich mir vorstellen, dass der Treiber noch nicht fertig ist.
Ist natürlich auch möglich.
Fakt ist: Wir wissen nicht, was der Grund ist.
Was HWU dazu sagt, sollte der Screenshot echt sein
https://www.computerbase.de/forum/attachments/092811mf993bi6gn9w9bww-jpeg.1572671/
Exxtreme
2025-01-21, 09:41:54
Würde Sinn machen wenn die Karten nicht schon bei den Händlern liegen würden, gibt sogar ein Unboxing Video :freak:
Das könnte auch etwas viel banaleres sein wie ein neues BIOS, welches an der Stromversorgung was regelt. :freak:
dildo4u
2025-01-21, 09:46:49
5070 Performance ist einfach sie ersetzt die 4070 S die auch 650€ kostet.
Der_Korken
2025-01-21, 09:56:01
Die werden sicherlich von DLS4 überrascht worden sein.
Bitte was? Überrascht davon, dass Nvidia nach über 2 Jahren eine neue Major Version von DLSS raushaut und sie dort an neuen Features gearbeitet haben? 4xFG war imho sogar ziemlich naheliegend.
Ist natürlich auch möglich.
Fakt ist: Wir wissen nicht, was der Grund ist.
Was HWU dazu sagt, sollte der Screenshot echt sein
https://www.computerbase.de/forum/attachments/092811mf993bi6gn9w9bww-jpeg.1572671/
Das unterstützt imho weiter die Theorie, dass AMD den Preis viel zu hoch angesetzt hat. Preise erhöhen würde hier schnell gehen und alle Partner würden mitziehen. Beim Senken gibt es aber Stunk.
why_me
2025-01-21, 10:06:16
März ist doch der einzig logische Zeitraum für ein Release.
Die news seiten werden die nächsten Wochen voll mit Nvidia sein, da würde die 9070 einfach unter gehen.
Unboxing 5090, 5090 FE benchmark, 5090 partner karten, 5090 kann gekauft werden
Dann das gleiche mit der 5080, 5070 und 5070 ti.
Dazu noch DLSS4 im detail, reflex2 etc.
Nvidia hat bis Mitte-Ende Februar die News besetzt, da ist einfach kein Platz für AMD karten.
Falls AMD dann auch noch mit sehr aggressiven Preisen releasen sollte, wäre der März ideal, da Nvidia mit heruntergelassenen Hosen da steht und die hohen Preise überall in den Reviews abgedruckt sind. Ein reduzieren der Preise könnte für Nvidia dann schmerzhafter sein als AMD den Markt zu überlassen.
Warum die Karten schon bei den Händlern liegen? Könnte auch einfach an den AIBs liegen. Wenn AMD etwas wie "Q1, frühstens 24.1, genauer Termin kommt noch" gesagt hat und manche AIBs daraus am "24. geht es los" verstanden haben, müssen sie die Karten halt jetzt zurück ziehen.
Kann es ein HW problem sein und ein neues Bios nötig werden? Vielleicht. Es gibt aber auch ein Haufen anderer Möglichkeiten. Also nicht immer alles so negativ sehen und einfach warten.
Fragman
2025-01-21, 10:06:43
Hast du ne Quelle zu der Info?
Eine Quelle wäre in der Tat interessant.
Aber sollte das stimmen, werden die Händler das auch nicht mitmachen.
Die müssen die Lagerkapazitäten vorhalten und das kostet Geld.
Da ist die Rücknahme eigentlich das Mindeste.
Generell sind die Gerüchte grad wieder verrückt. :D
fondness
2025-01-21, 10:31:19
Das unterstützt imho weiter die Theorie, dass AMD den Preis viel zu hoch angesetzt hat. Preise erhöhen würde hier schnell gehen und alle Partner würden mitziehen. Beim Senken gibt es aber Stunk.
Merkst du eigentlich nicht, wie lächerlich diese Aussage ist? Wie stellst du dir das jetzt vor, dass man 2 Monate mit den Partnern streitet wie tief man den Preis senken darf? Einen Preis senkt man in einem halben Tag.
Ganz davon abgesehen, dass die Aussage null Sinn ergibt, Nvidia liefert defacto nichts mehr als Ada +10%. Was glaubst du denn hat AMD erwartet? Noch weniger?
fondness
2025-01-21, 10:32:26
Die hätten doch auf der CES nie Q1 gesagt wenn sie Januar starten wollten. Wie Blauäugig kann man sein. Februar war möglich, März wahrscheinlich.
Richtig. Auf der CES hatte AMD definitiv schon den März Termin im Fokus. Der Rest sind Gerüchte. Vorher gab es wohl eine Verschiebung, den wahren Grund dafür wird man wohl nie erfahren, aber selbst das sind nur Gerüchte.
Als wenn die Performance der RTX 5070 irgendwie ein Mysterium wäre. Das Ding ist bestenfalls eine 4070 Ti mit MFG. Letzteres ist das Einzige, was die Karte interessant macht, der Rest ist meh und stinkt nach VRAM Starvation. ;)
MfG
Raff
dildo4u
2025-01-21, 10:41:57
Merkst du eigentlich nicht, wie lächerlich diese Aussage ist? Wie stellst du dir das jetzt vor, dass man 2 Monate mit den Partnern streitet wie tief man den Preis senken darf?
Ganz davon abgesehen, dass die Aussage null Sinn ergibt, Nvidia liefert defacto nichts mehr als Ada +10%. Was glaubst du denn hat AMD erwartet? Noch weniger?
Welcher Partner ist Glücklich wenn sie für die Custom Modelle die selbe Stromversorgung/Kühlung wie eine XTX verbaut haben aber 300€ weniger dafür verlangen müssen?
Bei 300Watt Plus sind die Karten nicht billiger in der Herstellung als 4070 TI Super die für 850€ verkauft werden.
Badesalz
2025-01-21, 10:42:08
Die müssen die Lagerkapazitäten vorhalten und das kostet Geld.Wer davon (Händler) hat erstmal mehr geordert als EINE Europalette?
Welcher Art Bilder gabs da eigentlich dazu? :)
Hakim
2025-01-21, 10:46:27
Mal die Antworten unter der Meldung gelesen, erstaunlich viele die kurz vorher ihre Karten verkauft haben um jetzt bei der 9070 zuzuschlagen xD. Ganz ehrlich das ist halt falsch gepokert, selber schuld wenn man den evtl Wertverlust zuvor kommen will. Für die ist es jetzt besonders schwer bis März zu warten
dildo4u
2025-01-21, 10:48:01
Verkaufen ist natürlich jetzt am besten die alten Karte werden nicht wertvoller mit der 5070 im Markt.
Badesalz
2025-01-21, 10:59:28
@Hakim
Sie kommen schon alle irgendwie ins Netz ;) Für "viele" ist so eine Auszeit ggf. nicht dermaßen tragisch wie du dir das selbst vorstellst :rolleyes:
DrFreaK666
2025-01-21, 11:02:24
Selbst schuld wenn man jeden Leak glaubt :rolleyes:
Hier im Marktplatz sucht jemand eine GPU.
Ich habe meine 6700XT angeboten aber "Erst wenn es die 9070XT gibt."
Palpatin
2025-01-21, 11:03:01
Als wenn die Performance der RTX 5070 irgendwie ein Mysterium wäre. Das Ding ist bestenfalls eine 4070 Ti mit MFG. Letzteres ist das Einzige, was die Karte interessant macht, der Rest ist meh und stinkt nach VRAM Starvation. ;)
MfG
Raff
Das große ? Imo ist ob NV die Nachfrage zu den propagierten Preisen bedienen kann oder ob es läuft wie Ende 2019. Sollte das der Fall sein hat AMD alles richtig gemacht.
AtTheDriveIn
2025-01-21, 11:05:11
Frage: Wenn zumindest einige Händler die Ware schon haben, dann gab es doch einen Einkaufspreis oder nicht?
Hakim
2025-01-21, 11:05:33
Ja aber kotzen sich schon ab im Internet darüber oder schreiben das die jetzt zu Nvidia deswegen greifen.
Ohne offizielle Bestätigung würde ich nicht so weit Pokern wenn ich sonst mit der onboard GPU scribble.io spielen müsste. Ich persönlich könnte nicht mal das, KF CPU :). Aber habe im Lager sicherlich noch irgendeine alte graka rumliegen
DrFreaK666
2025-01-21, 11:08:56
Ich hätte ja auch noch die 5500XT... Aber für meine Games ist sie eher nicht zu gebrauchen
Badesalz
2025-01-21, 11:10:20
Ja aber kotzen sich schon ab im Internet darüber oder schreiben das die jetzt zu Nvidia deswegen greifen.Ja ok. Für solche sollte man sich natürlich aufrichtig freuen :ulol:
Tigershark
2025-01-21, 11:18:08
Frage: Wenn zumindest einige Händler die Ware schon haben, dann gab es doch einen Einkaufspreis oder nicht?
Sicher. Es wurde doch auch schon gemunkelt, dass AMD die Karten den Partnern zu Preisen verkauft habe, die jetzt sehr nahe an oder sogar oberhalb der UVPs (neu gesenkte? Von Anfang an geplante? Who knows...) liegen. Damit wäre natürlich kein Geschäft zu machen und die Distributoren sind entsprechend verärgert. Ob das aber eine solche "Verschiebung" begründet, keine Ahnung - wenn es denn stimmt. Außerdem sind Änderungen an (Händler-)Preisen jetzt auch nicht so ungewöhnlich, dass deswegen ein kopletter Launch-Plan durcheinander gewürfelt würde.
Trotz allem sehe ich es immer noch so, dass viele einfach enttäuscht sind, weil sie für sich auf der CES die Phrase "Q1 25" mit "Januar" übersetzt haben. Dabei ist, wie viele ja schon richtig festgestellt haben, eben auch März noch das erste Quartal... von daher - abwarten und Tee trinken... und hoffentlich noch eine GPU im Rechner haben :biggrin:
Dino-Fossil
2025-01-21, 11:25:23
Richtig. Auf der CES hatte AMD definitiv schon den März Termin im Fokus. Der Rest sind Gerüchte. Vorher gab es wohl eine Verschiebung, den wahren Grund dafür wird man wohl nie erfahren, aber selbst das sind nur Gerüchte.
Mag sein, dass sie auf der CES dann bereits auf März eingeschwenkt waren. Aber die verschieben muss sehr kurzfristig davor gekommen sein, sonst hätte man meiner Meinung nach
* nicht die Folien zu RDNA4 an die Presse gegeben und
* keine Partnerkarten gezeigt
Als wenn die Performance der RTX 5070 irgendwie ein Mysterium wäre. Das Ding ist bestenfalls eine 4070 Ti mit MFG.
Eben, die Performance ist relativ klar. Eher sogar schlechter als erwartet, falls nVidia nicht irgendeine secret sauce eingebaut hat. Der Preis ist jetzt auch keine so große Überraschung (und nach wie vor viel zu hoch).
Hakim
2025-01-21, 11:27:03
@badesalz erst willst du wissen das es nicht so schlimm für die wäre, dann willst du mir übel nehmen das ich mich darüber amusiere. Was ist los, selber betroffen? Wenn ja, selber schuld, wenn nicht, such dir jemand anderen aus.
dildo4u
2025-01-21, 11:29:50
Eben, die Performance ist relativ klar. Eher sogar schlechter als erwartet, falls nVidia nicht irgendeine secret sauce eingebaut hat. Der Preis ist jetzt auch keine so große Überraschung (und nach wie vor viel zu hoch).
Die Preise passen für RT Performance das ist das was dich in AAA Games limitiert.
4070S 650€ vs 7900XT 700€
Das ist ohne Path Tracing
https://i.ibb.co/BBgHjSk/Screenshot-2025-01-21-112836.png (https://ibb.co/tDbwcWR)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_2560__1440
fondness
2025-01-21, 11:35:19
Mag sein, dass sie auf der CES dann bereits auf März eingeschwenkt waren. Aber die verschieben muss sehr kurzfristig davor gekommen sein, sonst hätte man meiner Meinung nach
* nicht die Folien zu RDNA4 an die Presse gegeben und
* keine Partnerkarten gezeigt
Das sehe ich auch so. Wobei man Partnerkarten öfter schon vorher gesehen hat. Die Folien, und das zwei bis drei Händler schon Karten haben deuten auf eine kurzfristige Verschiebung hin.
Eben, die Performance ist relativ klar. Eher sogar schlechter als erwartet, falls nVidia nicht irgendeine secret sauce eingebaut hat. Der Preis ist jetzt auch keine so große Überraschung (und nach wie vor viel zu hoch).
Korrekt. AMD hat wenn dann mehr erwartet, aber sicher nicht weniger. Hat Nvidia schon jemals so wenig geliefert? Deshalb sind solche Aussagen man habe den Preis zu hoch abgesetzt auch völlig absurd.
Badesalz
2025-01-21, 11:38:59
@badesalz erst willst du wissen das es nicht so schlimm für die wäre, dann willst du mir übel nehmen das ich mich darüber amusiere.Falsche Interpretation im falschen Hals ;) Ist ok. Passiert mir auch mal.
basix
2025-01-21, 11:40:13
Ich sehe grundsätzlich zwei Gründe für die Verschiebung:
- 5070 Release abwarten und MSRP Anpassung, aber wohl eher nach oben als nach unten (dann tut den Händlern die 2-Monate Lagerung auch nicht weh ;))
- FSR4 Feinschliff (oder gar Feature-Erweiterung à la MFG oder RR)
Hakim
2025-01-21, 11:40:21
So wie du schreibst und Smileys verwendest... egal OT hier, lassen wir es
Palpatin
2025-01-21, 11:45:25
Korrekt. AMD hat wenn dann mehr erwartet, aber sicher nicht weniger. Hat Nvidia schon jemals so wenig geliefert? Deshalb sind solche Aussagen man habe den Preis zu hoch abgesetzt auch völlig absurd.
7800 GTX und 9800 GTX waren ziemlich mau im Vergleich zum Vorgänger.
Lurtz
2025-01-21, 11:56:08
Ist natürlich auch möglich.
Fakt ist: Wir wissen nicht, was der Grund ist.
Was HWU dazu sagt, sollte der Screenshot echt sein
https://www.computerbase.de/forum/attachments/092811mf993bi6gn9w9bww-jpeg.1572671/
Wie kommen sie zu der Aussage? Haben sie schon einen Treiber und konnten das anvisierte Performanceziel selbst sehen?
AMD wollte doch ein attraktives Angebot in der Mittelklasse warten. Wieso auf nVidia warten? ;D
The_Invisible
2025-01-21, 12:04:51
Korrekt. AMD hat wenn dann mehr erwartet, aber sicher nicht weniger. Hat Nvidia schon jemals so wenig geliefert? Deshalb sind solche Aussagen man habe den Preis zu hoch abgesetzt auch völlig absurd.
Wenn man nur rohe Perf. betrachtet ist es wenig ja, aber mit dem haben alle zu kämpfen
Der_Korken
2025-01-21, 12:05:25
Merkst du eigentlich nicht, wie lächerlich diese Aussage ist? Wie stellst du dir das jetzt vor, dass man 2 Monate mit den Partnern streitet wie tief man den Preis senken darf?
Sehr wahrscheinlich ja.
Ganz davon abgesehen, dass die Aussage null Sinn ergibt, Nvidia liefert defacto nichts mehr als Ada +10%. Was glaubst du denn hat AMD erwartet? Noch weniger?
Wenn ich das aktuell jemandem zutraue, dann AMD.
Wie kommen sie zu der Aussage? Haben sie schon einen Treiber und konnten das anvisierte Performanceziel selbst sehen?
Haben sie natürlich noch nicht.
MfG
Raff
Hakim
2025-01-21, 12:08:13
Eigentlich müssten doch die Partner die schon ausgeliefert haben über die Verzögerung und den Grund informiert worden sein inzwischen. Gut möglich das so information rauskommen, Igor und co kennen doch immer Leute bei den Partnern.
fondness
2025-01-21, 12:11:23
Wenn man nur rohe Perf. betrachtet ist es wenig ja, aber mit dem haben alle zu kämpfen
Klar, aber man muss jetzt wirklich nicht so tun als hätte Nvidia irgendeinen furchtbar überraschenden Move gemacht der alle Erwartungen bei weitem übertroffen hat.
DrFreaK666
2025-01-21, 12:16:26
...Wenn ich das aktuell jemandem zutraue, dann AMD.
Cleverer Kommentar. Wenn Nvidia schon außen vor ist, dann bleibt ja nur noch AMD :ugly:
fondness
2025-01-21, 12:16:59
Sehr wahrscheinlich ja.
Dann hast du keine Ahnung wie die Preisbildung funktioniert. Ganz davon abgesehen, dass einen niedrigeren Preis eh AMD schlucken muss und nicht die Partner. Die Partner sind also sicher nicht beleidigt wenn sie den N48 Chip billiger bekommen.
Wenn ich das aktuell jemandem zutraue, dann AMD.
So nach dem Motto die sind eh zu dumm für alles und ich habe den totalen Durchblick. :ugly:
dargo
2025-01-21, 12:36:21
Apropo Preisanpassung. Eigentlich geht es bei sowas doch nur um eine Preisanpassung (sofern überhaupt was an diesem Gerücht dran ist) bei dem Paket von GPU Die und VRAM. Denn das wird afaik direkt von AMD und Nvidia an die Partner bepreist. Für den Rest sind die AIBs doch selbst verantwortlich. Oder habe ich das falsch in Erinnerung? Weil in diesem Fall reden wir über andere Summen als wenn es um das Gesamtkonstrukt Grafikkarte gehen würde.
why_me
2025-01-21, 12:42:23
Man wird den AIBs schon vorab einen groben Preisrahmen nennen auf den sie entwickeln sollen.
Bringt ja nix wenn die AIBs 1000€ kühler auf die Karte packen wenn sie später für 300€ verkauft werden soll.
dargo
2025-01-21, 12:44:44
1.000€ Kühler? Was soll das sein? :freak: Bei einer ~600€ Karte sollte der Kühler alleine keine ~100€ veranschlagen... imo.
Hakim
2025-01-21, 12:45:57
Kühler richtet sich vermutlich an der Wärme Entwicklung, aber ja wenn die Preise höher sind, verbauen die AIBs evtl aufwendigere Kühler, wobei das nicht so extrem sein kann mit der Preisänderung. Was wird es sein, +-100€ max?
Dino-Fossil
2025-01-21, 12:47:29
Zum Thema angebliche Preisanpassung: Ging es hier nicht angeblich um die Retailer, also die belieferten Händler? Zumindest war davon im Artikel die Rede.
Jetzt mal unabhängig davon, wie sinnig oder unsinnig das ist.
dildo4u
2025-01-21, 12:51:13
Am Kühler kann nicht gespart werden die 9700XT braucht nicht nennenswert weniger als eine 4080 also musst Vergleichbarer Material Aufwand betrieben werden.
Die 9700 kommt mit 2Slot/2Lüfter aus Vergleichbar mit einer 4070.
why_me
2025-01-21, 12:51:15
1.000€ Kühler? Was soll das sein? :freak: Bei einer ~600€ Karte sollte der Kühler alleine keine ~100€ veranschlagen... imo.
Das nennt man eine Übertreibung um es zu verdeutlichen. Klar sind die deutlich günstiger
Hakim
2025-01-21, 12:56:02
Am Kühler kann nicht gespart werden die 9700XT braucht nicht nennenswert weniger als eine 4080 also musst Vergleichbarer Material Aufwand betrieben werden.
Oder einfach der 7900xt wenn man bei der Marke bleiben will.
Badesalz
2025-01-21, 12:56:41
1.000€ Kühler? Was soll das sein? :freak:Ein sehr ;) plakatives Beispiel NUR um zu veranschaulichen um was es ihm eigentlich geht :| Zu schwer gewesen?
edit:
(ah ja, hat er schon selbst gesagt) Ja war auch hölle schwer nachzuvollziehen :ulol:
dargo
2025-01-21, 12:57:07
Am Kühler kann nicht gespart werden die 9700XT braucht nicht nennenswert weniger als eine 4080 also musst Vergleichbarer Material Aufwand betrieben werden.
Seit wann performen alle Kühler der AIBs gleich gut oder schlecht? :freak:
Die 9700 kommt mit 2Slot/2Lüfter aus Vergleichbar mit einer 4070.
Es spielt keine Rolle. In der Regel bekommt der Salvage den gleichen Kühler bei den AIBs. Ganz einfach, weil du für einen anderen Kühler eine zusätzliche Fertigungsschiene brauchst und das lohnt sich in der Regel wirtschaftlich nicht. Wenn der Salvage deutlich weniger Powerbudget hat ist der Kühler halt etwas überdimensioniert. Oder man lässt eine Heatpipe weg, wie auch immer. Hauptsache kein extra Kühlerdesign, das lohnt sich nicht.
DrFreaK666
2025-01-21, 13:08:53
Womöglich bastelt AMD nun ein paar Benchmarks mit aktiviertem AFMF2. Benchmarken dauert Zeit ^^
AFMF2 kann man ja mit FSR FG kombinieren - perfekt für 4x längere Balken. Die Input-Latenz muss man in dem Zusammenhang ja nicht erwähnen :D
dargo
2025-01-21, 13:10:33
Pfff... als ob AFMF2 nur ein Latenzproblem hätte. :rolleyes: Hör mir bloß mit dem Quatsch AFMF2 auf.
dildo4u
2025-01-21, 13:10:58
Seit wann performen alle Kühler der AIBs gleich gut oder schlecht? :freak:
Es spielt keine Rolle. In der Regel bekommt der Salvage den gleichen Kühler bei den AIBs. Ganz einfach, weil du für einen anderen Kühler eine zusätzliche Fertigungsschiene brauchst und das lohnt sich in der Regel wirtschaftlich nicht. Wenn der Salvage deutlich weniger Powerbudget hat ist der Kühler halt etwas überdimensioniert. Oder man lässt eine Heatpipe weg, wie auch immer. Hauptsache kein extra Kühlerdesign, das lohnt sich nicht.
Betrifft das AMD speziell ich habe gerade erst eine 4070 S mit einem Spar Kühler gekauft der definitiv Material spart.
Ich habe extra TDP auf 200 gesenkt damit sie leiser läuft.
https://www.zotac.com/de/product/graphics_card/zotac-gaming-geforce-rtx-4070-super-twin-edge-12gb-gddr6x-0
Hakim
2025-01-21, 13:16:56
Wenn ich so darüber nachdenke, ein Launch derzeit vor den 5000ern hätte auch den Vorteil gehabt das man sich gegen die aktuellen Konkurrenz Karten zeigen könnte, mit so vergleichen wie unsere 650€ Karte ist so schnell wie die 1k€ Karte der Konkurrenz, reale Leistung ohne FG etc. Das hätte doch bleibenden Eindruck und Wow Eindrücke hinterlassen. Aber ja hätte hätte....
why_me
2025-01-21, 13:20:25
und wäre die folgenden Wochen von "schau mal wie toll die neue Nvidia 50x0 ist" überschwemmt worden. An die 9070 hätte sich dann kaum jemand erinnert.
dargo
2025-01-21, 17:00:20
Betrifft das AMD speziell ich habe gerade erst eine 4070 S mit einem Spar Kühler gekauft der definitiv Material spart.
Keine Ahnung was du mir damit sagen möchtest. Auch bei Radeons gibt es "Sparkühler" bezüglich Materialaufwand. Powercolor bsw. liefert drei Serien aus.
Die Vega 64 hatte auch 295W, während die Vega 56 nur 210W hatte, und das bei nur ~12% mehr Leistung. Die Karte war einfach sehr hoch geprügelt...
Hatte ich tatsächlich nicht mehr auf dem Schirm. War das wirklich so übel damals? Da muss ich mal nachhaken wie es dort mit den Spannungen und Frequenzen zwischen den beiden aussah.
Tja und für März bin ich zu ungeduldig, Ausschlag Richtung 5070 Ti gestiegen.
Switch 2 erst ca. Juni.
18 Zoll Arrow Lake Notebooks erst Q2
TheGood
2025-01-21, 17:43:59
Als wenn die Performance der RTX 5070 irgendwie ein Mysterium wäre. Das Ding ist bestenfalls eine 4070 Ti mit MFG. Letzteres ist das Einzige, was die Karte interessant macht, der Rest ist meh und stinkt nach VRAM Starvation. ;)
MfG
Raff
Hattest du eigentlicht bei der CES Vorstellung der Grakas für die Presse das Gefühl, dass AMD dieses Event zusammengekürzt hat?
Wiseman
2025-01-21, 17:44:45
Ich sehe grundsätzlich zwei Gründe für die Verschiebung:
- 5070 Release abwarten und MSRP Anpassung, aber wohl eher nach oben als nach unten (dann tut den Händlern die 2-Monate Lagerung auch nicht weh ;))
- FSR4 Feinschliff (oder gar Feature-Erweiterung à la MFG oder RR)
Das sind auch für mich die zwei Hauptgründe für die Verschiebung.
In weiser Voraussicht :biggrin: sprach AMD deshalb offiziell nur von einem Launch im 1. Quartal.
w0mbat
2025-01-21, 18:14:59
Wenn die Karten fertig sind, bei den Händlern lagern und so performen wie sie sollen, gibt es mMn keinen guten Grund für eine Verschiebung. FSR4 kann man auch in 2 Monaten launchen und Preise kann man anpassen.
Ich wollte mir die reviews anschauen und zwischen 9070 XT oder 5090 entscheiden. Jetzt werde ich auf jeden Fall versuchen eine 5090 FE zu bekommen.
Agent117
2025-01-21, 18:18:46
Vielleicht hat man Blackwell auch wirklich überschätzt und liegt bei der Rasterperformance (und vmtl. tendenziell auch Raytracing) mit der XT eher auf 5070 Ti Niveau oder sogar darüber. Wäre dann natürlich blöd die im Preisbereich von 500 bis 600 $ rauszuhauen, Preise nachträglich erhöhen geht nicht. Hier möchte man sich dann mglw. für bessere Marge direkt eher bei 600 bis 700$ positionieren und könnte auch die in der Produktion gleich teure non XT entsprechend teurer anbieten.
Das funktioniert aber natürlich nur wenn FSR4 konsistent gut liefert und nicht zuviele negative Ausreißer hat, die dann negative Presse bringen, selbst wenn die in der Praxis vielleicht nur wenig bemerkbar sind. Immerhin im Gegensatz zu RDNA3 jetzt auf Hardware Basis eine neue Technologie für AMD. Da nimmt man dann jeden Feinschliff mit, der FSR 4 noch verbessert.
Die 5070 kommt davon abgesehen doch wahrscheinlich auch erst im März und die Marktmacht hat AMD einfach nicht, um im mitleren Preissegment als selbstbewusster Vorreiter zu releasen.
So gesehen macht das schon Sinn, wenn auch blöd jetzt.
GerryB
2025-01-21, 19:29:52
Wow!
der RDNA4-Thread ist bigger als der Blackwellthread.
Soviele kluge Leute posten hier ihre Speku´s-
Gegen Tech-Speku´s hab ich Nichts, aber das Palaver AMD "musste wg. XYZ" ist reichlich überflüssig/nicht belegt.
(bitte jetzt keine "Leaks" von drittklassigen Xern und YTern)
Mal ein neuer Vorschlag:
Der Chip auf der CES war gar nicht N48, oder nur scheinbar
Ich persönlich halte alle Ideen zur Größe für unwahrscheinlich, solange bis ein Röntgenbild erscheint,
was zeigt, was tatsächlich unter der Haube steckt.
Könnte AMD, warum auch immer, noch ne NPU darein gepackt haben?
(wieviel Platz kostet die NPU bei der PS5pro)
Was mir auch noch fehlt, ist ein Beleg für die Idee von Gedi, das RDNA4 auch GDDR7 könnte, ... als späterer Refresh.
Badesalz
2025-01-21, 19:33:46
Mal ein neuer Vorschlag:Warum?
Vielleicht ist es auch ganz simpel. FSR4 ist noch nicht fertig und man braucht eben bis März, um es zur Zufriedenheit bereitstellen zu können.
GerryB
2025-01-21, 19:38:15
Warum?
Das AMD mehr Shader-Silizium/Fps braucht als ne 4080 ist unwahrscheinlich.
Da vertraue ich auf AMD+N4P.
Ob 4N+N4P bei 4080 vs 5080 ne annähernd gleiche Packdichte haben, ist ne ganz andere Frage.
reaperrr
2025-01-21, 19:46:26
Das AMD mehr Shader-Silizium/Fps braucht als ne 4080 ist unwahrscheinlich.
Warum?
RT kriegt deutlich mehr Hardware, KI kriegt deutlich mehr Hardware, dann vielleicht noch größere Register, größere Caches...
Nichts davon ist wirklich so unwahrscheinlich.
Selbst 390mm2 wären ja auch nur 12mm2 mehr als AD103.
N22 war für nur 40 CUs auch ziemlich groß, hauptsächlich wegen Cache.
horn 12
2025-01-21, 19:48:46
Geilomat
COD 6 -
Da stand ja auch dass FSR 4.0 so bald als möglich nachgereicht wird,- und dies "Very Soon"
sind nie und nimmer mehr als 4+ Monate!
AMD Ihr Verliert! noch EURE Treuesten Kunden !!!!
dargo
2025-01-21, 19:50:51
Könnte bitte jemand Horni eine Sauerstoffmaske reichen? :D
128MB L3-Cache incoming? Damit hätte man sich GDDR7 aufgespart, obwohl er pincompatibel sein soll.
Badesalz
2025-01-21, 19:55:36
Könnte bitte jemand Horni eine Sauerstoffmaske reichen? :DIch ein CPAP vom Vater im Angebot.
why_me
2025-01-21, 19:58:47
N22 war für nur 40 CUs auch ziemlich groß, hauptsächlich wegen Cache.
Wäre N33 nicht ein besserer vergleich? So als ein halber N48.
Und ist auch schon RDNA3.
Prinzenrolle
2025-01-21, 20:04:06
Könnte bitte jemand Horni eine Sauerstoffmaske reichen? :D
Die hat grade der gute Igor mit seinem neuen Jammer Artikel schon aufgesetzt.
128MB L3-Cache incoming? Damit hätte man sich GDDR7 aufgespart, obwohl er pincompatibel sein soll.
Cache ersetzt DRAM nicht, spätestens in hohen Auflösungen landet man immer im Grafikspeicher.
MfG
Raff
Agent117
2025-01-21, 20:58:07
Cache ersetzt DRAM nicht, spätestens in hohen Auflösungen landet man immer im Grafikspeicher.
MfG
Raff
Bei Navi 21 war das damals ja ein gewisses Problem ggü. der 3080/3090, wenn auch nicht mega groß.
Navi 48 spielt aber eine Klasse darunter, da würde das nicht so sehr ins Gewicht fallen. Zudem hat sich die Cache Bandbreite seitdem mehr erhöht als die DRAM-Bandbreite (GDR7 mal außer Acht).
Vielleicht hat sich durch den Umstand auch die Hitrate bei 4K entsprechend erhöht (kenne leider nur Diagramme zu RDNA2, bei denen die bei 4K noch deutlich abgefallen ist), dass selbst bei 4K kaum Auswirkungen bestehen.
Es wird auch oft vergessen, dass die Aussage N48 verhungert an zu wenig Cache oder DRAM-Bandbreite ignoriert dass die 4080S auch nur 64 MB hat und über 2 Jahre alt ist. Kann doch sein, dass AMD 2 Jahre später effizienter mit Bandbreite umgeht als die 4080 von 2022.
basix
2025-01-21, 21:11:00
Die Auflösung zur Die Size ist doch ziemlich einfach:
Das Ding ist etwas kleiner als die kolportierten 390mm2, sondern exakt 333mm2. Dann klebt man zwei von denen zusammen und erhält einen 666mm2 Brocken :devil:
Dann wäre Nvidia ziemlich gearscht! :biggrin:
Es wird auch oft vergessen, dass die Aussage N48 verhungert an zu wenig Cache oder DRAM-Bandbreite ignoriert dass die 4080S auch nur 64 MB hat und über 2 Jahre alt ist. Kann doch sein, dass AMD 2 Jahre später effizienter mit Bandbreite umgeht als die 4080 von 2022.
Ich weiß zum Thema Cache leider viel weniger, als ich das gerne würde, aber ein paar Gedanken:
- Der Käsch bei Ada und David ist Level 2. AMDs Infinity Cache ist seit jeher Level 3.
- Der Käsch bei RDNA 3 ist verhältnismäßig langsam angebunden (MCD).
- Potenzial für RDNA 4, schneller und "treffsicherer" zu sein als RDNA 2 und 3 zusammen, besteht also.
MfG
Raff
][immy
2025-01-21, 22:39:36
Dann wäre Nvidia ziemlich gearscht! :biggrin:
Ich weiß zum Thema Cache leider viel weniger, als ich das gerne würde, aber ein paar Gedanken:
- Der Käsch bei Ada und David ist Level 2. AMDs Infinity Cache ist seit jeher Level 3.
- Der Käsch bei RDNA 3 ist verhältnismäßig langsam angebunden (MCD).
- Potenzial für RDNA 4, schneller und "treffsicherer" zu sein als RDNA 2 und 3 zusammen, besteht also.
MfG
Raff
Der Cache lohnt ja vor allem dann, wenn sich zugriffe widerholen (oder Inhalte geholt werden, bevor sie gebraucht werden). Da ist der Nutzen natürlich endlich. Ab einem Gewissen level würde es sich vermutlich eher lohnen, den Cache als eigenen schnellen Speicher zur Verfügung zu haben (xbox one Konzept). Aber dann müssten die Entwickler das natürlich separat unterstützen, aber für manche Aufgaben wäre so ein Extra Speicher natürlich Gold Wert. Ist dann aber nur zu gebrauchen, wenn alle Karten das hätten.
Am Ende hilft aber nur viel schneller Speicher etwas, so das auch die Daten, auf die seltener zugegriffen wird, schnell Verfügbar sind, damit diese nicht alles ausbremsen.
Bei Vega hat man aber auch bemerkt, das reine Bandbreite auch nicht viel bringt, wenn der Speicher dafür langsamer ist (der lief ja nur mit um die 800MHz). Aber ggfs. würde man es mit den neueren Verfahren auch schaffen, den integrierten Speicher höher zu Takten. Bei den aktuellen Grafikkarten-Preisen sollte das eigentlich kaum mehr was ausmachen. Dafür sind die Margen ja heutzutage Traumhaft hoch. Man kann dann allerdings auch nicht einfach mal die Größe Skalieren. Aber dafür hat man ein weniger komplexes PCB .... (wobei das von nvidia ja schon lächerlich klein ist).
Zossel
2025-01-21, 23:02:02
Ich weiß zum Thema Cache leider viel weniger, als ich das gerne würde, aber ein paar Gedanken:
- Der Käsch bei Ada und David ist Level 2. AMDs Infinity Cache ist seit jeher Level 3.
- Der Käsch bei RDNA 3 ist verhältnismäßig langsam angebunden (MCD).
- Potenzial für RDNA 4, schneller und "treffsicherer" zu sein als RDNA 2 und 3 zusammen, besteht also.
Das Design von Cache ist immer ein Tradeoff.
Besonders viel von irgendwas ist da eine dumme bis doofe Strategie.
HarryHirsch
2025-01-21, 23:09:26
kommt es nicht auch auf die hitrate an? wenn man das "richtigere" speichert sollte es doch auch was bringen
Zossel
2025-01-21, 23:11:45
[immy;13689817']Bei Vega hat man aber auch bemerkt, das reine Bandbreite auch nicht viel bringt, wenn der Speicher dafür langsamer ist (der lief ja nur mit um die 800MHz).
Dafür war der breit.
davidzo
2025-01-21, 23:17:25
- Der Käsch bei RDNA 3 ist verhältnismäßig langsam angebunden (MCD).
Nicht wirklich.
Beide Caches liegen bei 5TB/s und ein paar zerquetschte laut den Folien und Tests von ChipsandCheese. Kurioserweise sind N31s IF$ und Adas L2 wohl gleichbreit angebunden, die Unterschiede kommen dann durch die Taktrate und ggf. deaktivierte Chunks bei der 4090 zustande. AD102 hat da nur einen minimalen Vorsprung trotz Multichip und einem weiteren Cachelevel bei AMD.
Bei der Latenz hat Nvidia natürlich die Nase vorn, aber mit 107ns vs 128ns nicht Signifikant. Zumal AMD ja auch noch 6MB L2 globalen Cache bei rund 70ns davor hat, Nvidia aber nur den L1 per SM.
Auch die DRAM Latenz ist praktisch gleich bei 220-230ns.
AMD hat bei N31 zwar jede Menge Silizium für die Chiplet Verbindungen verschleudert, aber sie haben es geschafft mit diesem Aufwand auch monolitische Bandbreite und Latenz zu liefern. Das ist trotzdem eine große Leistung.
Zossel
2025-01-21, 23:18:04
kommt es nicht auch auf die hitrate an? wenn man das "richtigere" speichert sollte es doch auch was bringen
Um mal gleich bei dem Thema Tradeoff zu bleiben: Zu welchen Kosten?
HarryHirsch
2025-01-21, 23:29:18
wieso kosten? mir ging es um die sprungvorhersage. wird die in hardware gegossen oder ist die softwareseitig?
mir ist schon klar das die hitrate mit mehr cache steigt aber kann man sowas nicht optimieren?
Exxtreme
2025-01-21, 23:33:03
Die Daten, die die Grafikkarte so verarbeitet, sind nicht so optimal für Caches. Deshalb bringen die Caches da nicht so viel wie bei CPUs. Wenn man Caches in der CPU abchaltet dann fällt die auf 486-Niveau zurück.
HarryHirsch
2025-01-21, 23:42:09
warum werden dann so riesige caches verbaut?
es spart bandbreite und weiter? wieso spart es bandbreite wenn eh alles aus dem vram kommt?
Zossel
2025-01-21, 23:43:15
wieso kosten?
Dann eben Gas, Wasser, Scheiße statt Kosten.
Exxtreme
2025-01-21, 23:45:52
warum werden dann so riesige caches verbaut?
es spart bandbreite und weiter? wieso spart es bandbreite wenn eh alles aus dem vram kommt?
Du kannst die Caches auf der Grafikkarte nicht unbedingt mit Caches auf der CPU vergleichen. Und man macht es weil das billiger ist als Alternativen. Schnellerer VRAM dürfte viel mehr kosten und auch noch viel mehr Strom verbrauchen. Caches sind viel stromsparender als hochgetakteter Speicher.
HarryHirsch
2025-01-22, 00:00:17
Dann eben Gas, Wasser, Scheiße statt Kosten.
was bistn jetzt so? mir ist schon klar dass cache fläche kostet und somit die die-kosten erhöht.
Du kannst die Caches auf der Grafikkarte nicht unbedingt mit Caches auf der CPU vergleichen. Und man macht es weil das billiger ist als Alternativen. Schnellerer VRAM dürfte viel mehr kosten und auch noch viel mehr Strom verbrauchen. Caches sind viel stromsparender als hochgetakteter Speicher.
die alternative ist doch nur vram? der ist dann aber langsamer angebunden. ich versteh nicht was das gespeichert wird (also im cache)und warum mehr leistung dabei rum kommt.
Agent117
2025-01-22, 00:00:50
Finde es auffällig dass der IF bei Navi31 scheinbar effektiver ist als noch bei Navi21.
Habe als Basis verglichen:
6800 XT vs. 7900 GRE anhand des aktuellen PCGH Leistungsindexis in Raster.
128 MB vs. 64 MB bei gleicher DRam Transferrate.
Die 7900 GRE setzt sich mit steigender Auflösung mehr ab von der 6800XT
Dann noch verglichen, älter aber ähnlichere Rohleistung und beide gleihe DRam-Bandbreite:
6950 XT vs. 7900 GRE anhand PCGH Test von leterterer.
Auch 128 MB vs. 64 MB und beide skalieren gleich von FHD zu 4K.
Das impliziert doch (sicher mit par Schwächen) dass RDNA3 den effektiveren IF hat, der bei halber IF-Größe gleich gut unterstützt. Laut den RDNA3 Slides von AMD wurde der IF-Interconnect um 43 % höher getaktet als bei RDNA2.
Par Beiträge vorher wurde hier geschrieben, dass Lovelance und RDNA3 beide den L2 bzw. L3/IF mit 5 GT/s takten.
Dann wäre doch wiederum denkbar, dass 64 MB IF bei RDNA4 mit > 5 GT/s den DRAM noch weiter entlasten.
Blackwell hätte dann weiter gedacht wiederum für die Mehrperformance ohne DLSS und ohne FG wiederum durch GDR7 vermutlich zu viel Bandbreite gegenüber Lovelance, falls man zu viel Bandbreite haben kann :smile: Oder halt weniger L2-Cache Größe.
Falscher Thread aber da zur Diskussion passend: Ist die schon bekannt eigentlich ? Soweit ich weiß nicht ?
Zossel
2025-01-22, 00:05:46
was bistn jetzt so? mir ist schon klar dass cache fläche kostet und somit die die-kosten erhöht.
Dann wird der cache langsamer. (Und schon wieder ein fucking Tradeoff)
HarryHirsch
2025-01-22, 00:18:36
wieso wird der cache langsamer? weil er größer wird?
ich überlege schon die ganze zeit ob du ein alter 3dcler bist oder nur ein troll
Tesseract
2025-01-22, 02:02:37
"alles" kommt in den cache. wenn daten vom vram gelesen werden landen sie im cache und sind dort so lange bis die caching-strategie sie durch andere ersetzt. werden diese daten, solange sie im cache sind, mehrmals gelesen/geschrieben ist jeder zugriff nach dem ersten ein hit und man muss nicht jedes mal zum vram.
größere caches werden in der regel langsamer weil die leitungen länger und die logik komplexer wird und man sie deswegen langsamer designen muss.
mit sprungvorhersage hat das nicht direkt was zu tun.
dargo
2025-01-22, 06:37:56
Cache ersetzt DRAM nicht, spätestens in hohen Auflösungen landet man immer im Grafikspeicher.
Nö... nur die Hitrate sinkt. Und wo spielt man heute noch in hohen Auflösungen? Selbst Nvidia verwendet in ihren Marketingfolien Performance Upscaling in 4k bei einer RTX 5090 um ihr MFG zu pushen damit die Baseline Frames besser aussehen. :freak: Überall wird nur noch Upscaling verwendet. Und komm mir bitte jetzt nicht mit so einem Quatsch wie 8k bei N48.
Zossel
2025-01-22, 07:00:26
wieso wird der cache langsamer? weil er größer wird?
Ja, würde man sonst den ganzen Aufriss mit zig verschiedenen Stufen machen?
mboeller
2025-01-22, 07:16:18
Die Auflösung zur Die Size ist doch ziemlich einfach:
Das Ding ist etwas kleiner als die kolportierten 390mm2, sondern exakt 333mm2. Dann klebt man zwei von denen zusammen und erhält einen 666mm2 Brocken :devil:
nö du ...
ich bleibe bei 1x N44 (13x10mm), 2x N44 (13x20mm), 3x N44 (13x30mm) und vielleicht ja auch 4x N44 (40x13mm)
und das ganze dann als Wafer-Scale-Engine wie bei Cerebras, und je nachdem was du verkaufen willst schneidest du die GPU's dann aus dem Wafer, entweder viele kleine N44 oder wenige große N4x
;)
Das mit der Wafer-Scale-Engine ist mir noch in den Sinn gekommen um die ganzen Package-Kosten zu umgehen. Keine Ahnung warum sie das nicht schon umsetzen. Also Nvidia oder AMD.
fondness
2025-01-22, 14:18:32
Ein paar neue Bilder der Sakura Atlantis Radeon RX 9070 XT :ugly:
https://videocardz.com/pixel/yeston-radeon-rx-9070-xt-sakura-atlantis-pictured-some-more
Zumindest fällt man damit auf X-D
Fragman
2025-01-22, 14:40:04
Ein paar neue Bilder der Sakura Atlantis Radeon RX 9070 XT :ugly:
https://videocardz.com/pixel/yeston-radeon-rx-9070-xt-sakura-atlantis-pictured-some-more
Zumindest fällt man damit auf X-D
Lool,
das ist DIE Karte für den Brotato Fan.
Auf dem Lüfter haben wir das Fluchsymbol, den Seestern und natürlich die Muschel. Vorn dann einen Kartoffelsticker übers Animeface und man hat die perfekte Karte. :biggrin:
Ex3cut3r
2025-01-22, 18:15:22
Also März als Rls. finde ich mega schwach. Man überlässt wieder einmal Nvidia die Bühne. Und die RTX 5070 und Ti kommen auch schon Mitte Februar (Wahrscheinlich)
Wer zuerst kommt, mahlt zuerst.....
Ob die 9070 XT überhaupt die 5070 Ti erreichen wird? Wage ich auch zu bezweifeln. Machen wir uns nichts vor. Die Nvidia Karten haben bessere Argumente, DLSS mit neuem Modell + x4 FG sind schon sehr schmackhaft.
AMD muss eigentlich über den Preis kommen. Argumente für einen Kauf einer AMD Karte sehe ich nicht wirklich, außer halt man ist aus irgendeinen Grund ein AMD GPU Fanboy. Gibt immer solche Kandidaten. Kann ich nicht ernst nehmen.
ashantus
2025-01-22, 18:33:18
Hatte das gerade im Blackwell-Thread geschrieben, kopiere es hier rein.
20. Februar, 5070Ti, 749$
edit: 5080 mit 999$ ist 250$ teurer, aber Performanceunterschied weniger. D.h. 5070Ti mit 16GB wird der P/L Tip.
Und genau diese 5070Ti wird den Preis bestimmen für die 9070XT. Also nicht Preisgleich 749$, sondern die Performance der 9070XT relativ zur 5070Ti.
Wenn man spekuliert, daß 9070XT etwas langsamer ist, kommen wir auf einen Preis Richtung 649$, das wäre 750-800 Euro.
https://wccftech.com/nvidia-geforce-...n-february-20/
raffa
2025-01-22, 18:34:27
Es gibt auch Leute wie mich, für die derzeit nur AMD ne echte Option ist, weil Linux.
(Ok, ich bin schon auch ein nvidia antiboy ;) )
Ich nehm eine nvidia nicht mal geschenkt, obwohl ich eine bekommen könnte, weil sie halt nicht gut läuft und ich keine Lust hab mir wieder ein Windows anzutun.
Der März Release ist schwach (aber woran das nun wirklich liegt ist halt speku) und auch das Anpassen des Namens an NV find ich immer noch nicht toll - die 9000er scheinen ja gut zu werden, FSR4 auch, wozu also das nachahmen?
Zudem, 4xFG braucht man doch koa Mensch und alles unter der der 5090 hat zuwenig vram fürs Geld. Die 5070ti ist noch am interessantesten.
horn 12
2025-01-22, 18:37:58
Was ist dann morgen, mit dem Bestellen der Karten , sprich deren Freigabe bei Shops bestellen zu können ?
OgrEGT
2025-01-22, 18:43:11
Wer Ex3cut3r ernst nimmt dem ist nicht mehr zu helfen... seine Absichten was er hier im RDNA4 Thread sucht hat er im BW Thread schon zum Besten gegeben... An Infantilität nicht zu überbieten... Schade eigentlich :facepalm:
Wann gibt es Benchmarks? Muss schließlich AMDs Vernichtung mal wieder feiern. ;D
raffa
2025-01-22, 18:44:15
Was ist dann morgen, mit dem Bestellen der Karten , sprich deren Freigabe bei Shops bestellen zu können ?
Morgen ist gar nix, das war vielleicht mal so angedacht.
The_Invisible
2025-01-22, 18:50:34
Was ist dann morgen, mit dem Bestellen der Karten , sprich deren Freigabe bei Shops bestellen zu können ?
Was willst du bestellen wenn AMD offiziell sagt die kommt irgendwann im märz :freak:
dargo
2025-01-22, 18:54:51
Hatte das gerade im Blackwell-Thread geschrieben, kopiere es hier rein.
20. Februar, 5070Ti, 749$
edit: 5080 mit 999$ ist 250$ teurer, aber Performanceunterschied weniger. D.h. 5070Ti mit 16GB wird der P/L Tip.
P/L Tip halte ich für eine steile These wenn die Dinger dann mit Straßenpreisen von 850-900€ einschlagen. :tongue: Die 5070TI ist nur kein wirklicher Unfall wegen der 16GB. Aber P/L ist nach über zwei Jahren dennoch mies.
Wer Ex3cut3r ernst nimmt dem ist nicht mehr zu helfen... seine Absichten was er hier im RDNA4 Thread sucht hat er im BW Thread schon zum Besten gegeben... An Infantilität nicht zu überbieten... Schade eigentlich :facepalm:
Ja... das nimmt schon langsam v_v Züge an, nur hier in grün. :tongue:
Was ist dann morgen, mit dem Bestellen der Karten , sprich deren Freigabe bei Shops bestellen zu können ?
Ach Horni... komm doch bitte endlich in der Realität an. Das Ding wurde auf März verschoben... aus Gründen. Ich fände es zwar auch besser wenns diese Woche Karten gäbe, ist nun mal nicht. Deshalb geht die Welt nicht unter, entspann dich mal. :) Spielereleases werden auch oft verschoben um Monate, wird da auch jedes Mal so ein riesen Fass aufgemacht? :freak: So nach dem Motto... mimimi, ich will das jetzt und zwar sofort! Wie Kleinkinder. :D
Zossel
2025-01-22, 20:17:43
Es gibt auch Leute wie mich, für die derzeit nur AMD ne echte Option ist, weil Linux.
(Ok, ich bin schon auch ein nvidia antiboy ;)
Und außerdem hat der Nvidia-Treiber unter NT-4.0 ständig Bluescreens geworfen.
GerryB
2025-01-22, 20:17:57
Hatte das gerade im Blackwell-Thread geschrieben, kopiere es hier rein.
20. Februar, 5070Ti, ...
Und wann kommt die 5070 nonTi, eine Woche später?
Palpatin
2025-01-22, 20:41:13
Was ist dann morgen, mit dem Bestellen der Karten , sprich deren Freigabe bei Shops bestellen zu können ?
Ich würde ab morgen mich mal bei allen Shops anmelden und überall anfragen. Mit viel Glück kannst du schon vor dem 29.1. eine 5090 Preordern.
TheGood
2025-01-22, 20:56:54
Die Verschiebung ist eigentlich ganz gut, bis dahin hat sich der Preis des Ryzen 9800 X3D vielleicht normalisiert :)
Vielelicht hat AMD verschoben weil sie nicht genügend KArten hätten liefern können und wollten sich dann keine schlechte Presse antun wie jetzt Nvidia ;D bzw. lieber jetzt schlechte presse als beim verkauf...
Skaven
2025-01-22, 21:56:35
Also März als Rls. finde ich mega schwach. [..]
Wer zuerst kommt, mahlt zuerst.....
[..]
AMD muss eigentlich über den Preis kommen. Argumente für einen Kauf einer AMD Karte sehe ich nicht wirklich, außer halt man ist aus irgendeinen Grund ein AMD GPU Fanboy. Gibt immer solche Kandidaten. Kann ich nicht ernst nehmen.
Sehe ich anders. Wer bis jetzt nichts von Nvidia Ada oder AMD RDNA3 hat, der kann jetzt auch noch zwei Monate warten, bis klar ist was kommt.
Ja, Nvidia ist technologisch vorne. Das heißt aber nicht, dass AMD nicht in Frage kommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.