PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 [46] 47 48

dildo4u
2023-09-01, 14:48:29
Wie denkt ihr könnten sich die 7800/7700er Preise auf die konkurrierenden Nvidia Karten Preise auswirken?
7800xt schneller und günstiger als 4070?
In den USA geht die 4060Ti 16GB auf 450$ keine Bewegung der 4070.

https://wccftech.com/nvidia-geforce-rtx-4060-ti-16-gb-graphics-card-now-available-for-449-us/

AMD hat die 500$ angesetzt da der Sprung zum Vorgänger nicht da ist.

https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/News/3DMark-Leak-Augenhoehe-Vorgaenger-1428113/

DrFreaK666
2023-09-01, 15:21:08
"Based on the alleged 3DMark Time Spy performance, the AMD Radeon RX 7800 XT might end up being as fast as the Radeon RX 6800 XT GPU."
https://wccftech.com/amd-radeon-rx-7800-xt-gpu-performance-match-radeon-rx-6800-xt-graphics-card/

"Fortschritt"

BlacKi
2023-09-01, 15:27:55
unser firmen motto lautet: wachsen ohne zu wachsen.

robbitop
2023-09-01, 15:45:50
Das Naming ist genauso beschissen wie Nvidias bei Ada.
Eigentlich hätte man bei beiden IHVs jede SKU, wenn man ehrlich wäre, um 1x Klasse runterraten müssen.
Die 4090 hat so viele Einheiten Deaktiviert, dass es eher eine 4080/ti wäre. Usw den stack runter bis zur 4060 die eigentlich eher eine 4050 ist. Die 7900XTX/N31 kommt gerade mal gegen die 4080 an. Wäre aus meiner Sicht dann eine 7800XT (maximal eine 7900 ohne XT). Und N32 dann eine 7700XT. Und N33 eigentlich fast eher eine 7500XT.

Lehdro
2023-09-01, 15:46:26
unser firmen motto lautet: wachsen ohne zu wachsen.
Nein, "Überholen ohne Einzuholen"!

fondness
2023-09-01, 15:55:08
Die 7900XTX/N31 kommt gerade mal gegen die 4080 an. Wäre aus meiner Sicht dann eine 7800XT

Warum sollte AMD sich an Nvidia orientieren? Völlig absurd. N31 bzw die 7900XTX ist das schnellste Produkt von AMD und deshalb natürlich mit einer 9.

dargo
2023-09-01, 15:58:02
"Based on the alleged 3DMark Time Spy performance, the AMD Radeon RX 7800 XT might end up being as fast as the Radeon RX 6800 XT GPU."
https://wccftech.com/amd-radeon-rx-7800-xt-gpu-performance-match-radeon-rx-6800-xt-graphics-card/

"Fortschritt"
Einfach nur noch zum tot lachen die neue GPU-Generation wenn ich an die fast 3 Jahre zwischen RX 6800XT und RX 7800XT denke. :lol:

Linmoum
2023-09-01, 16:01:26
Warum sollte AMD sich an Nvidia orientieren? Völlig absurd. N31 bzw die 7900XTX ist das schnellste Produkt von AMD und deshalb natürlich mit einer 9.N10 war auch AMDs schnellster Chip, trotzdem hießen die Karten 5700XT und nicht 5900XT.

Lehdro
2023-09-01, 16:11:40
N10 war auch AMDs schnellster Chip, trotzdem hießen die Karten 5700XT und nicht 5900XT.
5900XT (https://www.computerbase.de/2004-05/test-fuenf-mal-geforce-fx-5900-xt/)gab es trotzdem.

DrFreaK666
2023-09-01, 16:11:48
N10 war auch AMDs schnellster Chip, trotzdem hießen die Karten 5700XT und nicht 5900XT.

Aber es gab auch die 2900XT (damals noch ATI)

robbitop
2023-09-01, 16:28:03
Warum sollte AMD sich an Nvidia orientieren? Völlig absurd. N31 bzw die 7900XTX ist das schnellste Produkt von AMD und deshalb natürlich mit einer 9.

Den Realitätsverlust hatte man früher nicht als einem klar war, dass es nicht für den Top dog reicht. Dann gabs nur eine 8. Oder weniger. Siehe die 5700XT. War die schnellste AMD Karte aber nur so schnell wie die 2070 also korrekterweise eine 7.

Lehdro
2023-09-01, 16:37:07
Den Realitätsverlust hatte man früher nicht als einem klar war, dass es nicht für den Top dog reicht. Dann gabs nur eine 8. Oder weniger.
R9 390X ~ 980
HD 6970 ~ GTX 570
HD 2900XT ~ 8800 GTS

robbitop
2023-09-01, 17:01:22
R9 390X ~ 980
HD 6970 ~ GTX 570
HD 2900XT ~ 8800 GTS

Umso schlechter. Weil inkonsistent.

Dino-Fossil
2023-09-01, 17:07:43
Warum sollte AMD sich an Nvidia orientieren? Völlig absurd. N31 bzw die 7900XTX ist das schnellste Produkt von AMD und deshalb natürlich mit einer 9.

Es reicht ja, wenn sie sich an sich selbst orientieren. Hätte das ganze Portfolio gegenüber den 6000ern etwas runder aussehen lassen. Allerdings hätte man dann wiederum die Preise niedriger ansetzen müssen. Aus wirtschaflticher Sicht also verständlich, dass sie hier genau wie nVidia vorgehen.

bbott
2023-09-01, 17:09:11
Umso schlechter. Weil inkonsistent.
NV ist auch inkonsistent. Leider.

BlacKi
2023-09-01, 17:55:39
Einfach nur noch zum tot lachen die neue GPU-Generation wenn ich an die fast 3 Jahre zwischen RX 6800XT und RX 7800XT denke. :lol:so hab ich das garnicht betrachtet, also 1,5 generationen später.

hätte man einfach das XT weggelassen, wäre die geschichte zumindest namenstechnisch gelöst gewesen.

mal davon abgesehen, verstehe ich nicht, warum amd nicht wie früher rebranding betreibt um das portfolio besser aussehen zu lassen. früher war das amd mal wichtig, heute ist es das plötzlich nichtmehr.

Complicated
2023-09-01, 18:01:49
Der Sinn der Grafikkarten Nomenklatur ist nicht eine historische Konsistenz für Statistiker vorzuweisen. Bei keinem Hersteller ist das der Fall. Ich verstehe gar nicht warum man sich dieses Kriterium her nimmt und es dann bemängelt.

dargo
2023-09-01, 18:05:59
Sommerloch. :D

Ich finds jedenfalls köstlich amüsant wie sich hier manche über sowas unwichtiges wie die Namensvergabe eschauffieren. Mich regt eher der fast Stillstand nach einer so langen Zeit seit Ende 2020 auf. Unfassbar wie grottenschlecht diese GPU-Generation innerhalb des selben bzw. vergleichbaren Power-/ und Preisbudgets ausfällt.

Complicated
2023-09-01, 18:07:12
Sommerloch. :D
:ubeer:

BlacKi
2023-09-01, 18:08:35
Ich verstehe gar nicht warum man sich dieses Kriterium her nimmt und es dann bemängelt.hab ich oben bschrieben.

dildo4u
2023-09-02, 08:19:47
Paar Werte gewürzt mit Anti Nvidia Infos



IPSB_BKd9Dg

robbitop
2023-09-02, 08:58:12
Sommerloch. :D

Ich finds jedenfalls köstlich amüsant wie sich hier manche über sowas unwichtiges wie die Namensvergabe eschauffieren. Mich regt eher der fast Stillstand nach einer so langen Zeit seit Ende 2020 auf. Unfassbar wie grottenschlecht diese GPU-Generation innerhalb des selben bzw. vergleichbaren Power-/ und Preisbudgets ausfällt.

Die Namensschemen korrilieren aber dummerweise mit den Preisen für die SKUs. Insofern ist es eine indirekte Beschwerde über die besonders schlechte Preis/Leistung die durch umlabeln der SKUs den unwissenden Kunden verschleiert wird. Die, die immer eine 7er SKU kaufen, kriegen nur 6er Leistung zum bestenfalls 7er (schlimmstenfalls 8er) Preis.
Gibt genug Leute im Massenmarkt die so kaufen.

Complicated
2023-09-02, 09:17:31
hab ich oben bschrieben.
Ja, nur nicht sonderlich plausibel.

Gibt genug Leute im Massenmarkt die so kaufen.
Deswegen machen Unternehmen Marketing. Der Verkaufsname ist ein zentraler Bestandteil.

Leonidas
2023-09-02, 09:43:27
Namen sind eigentlich Schall und Rauch, beliebig setzbar.

Aber: Dies funktioniert langfristig nur im engen Rahmen. Du kannst nicht ständig die Namen hochsetzen. Ansonsten haben wir irgendwann GeForce RTX 6090, 6091, 6092, 6093, etc - und kein Produkt darunter.

Will sagen: Namenswahl kann einen im konkreten Vergleich immer auf die fasche Fährte bringen. Aber langfristig ist es durchaus eine vernünftige Vergleichgrundlage. Weil man braucht in jeder Generation eine 60er, 70er, 80er Lösung, egal wie sich die Grenzen der Segmente entwickeln. Die Namen sind zwar hochdrückbar, aber eben nicht beliebig, weil das sehr endlich ist und man eben immer auch eine 60er Lösung braucht.

Complicated
2023-09-02, 09:48:32
Namen sind voll und ganz beliebig - diese Ausführungen was Unternehmen machen dürfen/können/sollen gehen an allen Denkprozessen der Unternehmen vorbei. Es ist die Perspektive dieses Forums/Käufer, die völlig andere Bedürfnisse zur Grundlage haben um darüber zu diskutieren - somit ist es für die Foristen immer unplausibel und nicht sinnvoll.

Wenn ich diese Lineups lese wie die Serien heißen sollten und wo sie preislich angesiedelt sein sollten, mit wie viel CU und Performance, dann sehe ich jedesmal jemanden der einfach unternehmerisch planlos ist.

Edit: mich persönlich stören bei der Übersicht z.B. die ganzen Kürzel mehr als alles andere XT/XTX/GRE. Doch so ist es gewollt. Übersicht und direkte Vergleichbarkeit zu erschweren sind Ziele des Marketings.

HOT
2023-09-02, 10:01:19
Paar Werte gewürzt mit Anti Nvidia Infos



https://youtu.be/IPSB_BKd9Dg
?
Er sagt doch nur, dass NV die Finanzierung für Gaming zurückfährt und die Entwicklungsleistung Richtung AI lenkt und das Starfield ne direkte Folge davon ist - und Ähnliches hat Jensen ja auch angekündigt, sich stark auf AI zu konzentrieren. Außerdem steckt NV in der Schmierenkampagne "AMD verhindert DLSS" drin, ich hab von Anfang an gesagt, glaubt diesen BS nicht und ich lag richtig! Asche auf HUB bei dem Thema übrigens, dass die darauf reingefallen sind. Aber passiert halt.

horn 12
2023-09-02, 10:04:32
und zum FSR 3.0 Release-Datum und zum Canceln von RDNA 4 sagt er ?

HOT
2023-09-02, 10:16:12
In diesem Video nichts.

BlacKi
2023-09-02, 10:27:19
Ja, nur nicht sonderlich plausibel.

was ist an einer fragestellung unplausibel?

mir persönlich sind namen komplett egal. aber, du du beschwerst dich warum man sich über ein unvollständiges portfolio beschwert, nur hab ich das nicht direkt. vl um davon abzulenken was meine eigentlich frage war, diskreditierst du andere.

nochmal. meine frage war:

warum hats früher amd interessiert und jetzt nichtmehr?

liegts am geld? heißt das, amd hat früher mehr geld für sowas verschwendet und hats nun nichtmehr übrig dafür?

ich finde meine frage ist schon sehr plausibel.

Edit: oder, vl etwas gewagte these, lieber die karten unter rdna2/rx 6000er namen verkaufen, weil die einen besseren ruf haben? ich weiß es nicht.

dildo4u
2023-09-02, 10:30:01
DLSS 3.5 zeigt das nix zurück gefahren wurde AMD hängt immer 1 Jahr zurück mit solchen Features.
Er sollte langsam Objektiver werden die neuen GPU ändern genau nix an dem derzeitigen Bild, da RDNA2 schon lange für Ramsch Preise verkauft wird.
Er meint sogar die 7800XT ist zu billig diese Preise sind aber da da selbst als die GPU 30% schneller waren 6800XT vs 3070 sich kaum was Richtung AMD bewegt hat.


Und als Treiber Beispiel AMD hatte halbes Jahr gebraucht bis Forza Horion 5 auf RDNA3 skaliert man sollte immer beide Seiten erwähnen.

BlacKi
2023-09-02, 10:39:56
Außerdem steckt NV in der Schmierenkampagne "AMD verhindert DLSS" drin, ich hab von Anfang an gesagt, glaubt diesen BS nicht und ich lag richtig!selten so einen BS gelesen.

DrFreaK666
2023-09-02, 10:56:44
selten so einen BS gelesen.

Scheinst andere Infos zu haben. Immer her damit.
Übrigens aus dem Video, das wahrscheinlich nicht gesehen hast
https://abload.de/img/zwischenablage03_c3fs3.jpg (https://abload.de/image.php?img=zwischenablage03_c3fs3.jpg)

fondness
2023-09-02, 10:58:21
Außerdem steckt NV in der Schmierenkampagne "AMD verhindert DLSS" drin, ich hab von Anfang an gesagt, glaubt diesen BS nicht und ich lag richtig!

Wie oft "verhindert" denn Nvidia FSR? Warum wird das nicht thematisiert? Weil die NV-Fanboys in der Überzahl sind und lauter schreien? Na dann ab ins Monopol!

robbitop
2023-09-02, 10:59:43
Namen sind voll und ganz beliebig - diese Ausführungen was Unternehmen machen dürfen/können/sollen gehen an allen Denkprozessen der Unternehmen vorbei. Es ist die Perspektive dieses Forums/Käufer, die völlig andere Bedürfnisse zur Grundlage haben um darüber zu diskutieren - somit ist es für die Foristen immer unplausibel und nicht sinnvoll.

Wenn ich diese Lineups lese wie die Serien heißen sollten und wo sie preislich angesiedelt sein sollten, mit wie viel CU und Performance, dann sehe ich jedesmal jemanden der einfach unternehmerisch planlos ist.

Edit: mich persönlich stören bei der Übersicht z.B. die ganzen Kürzel mehr als alles andere XT/XTX/GRE. Doch so ist es gewollt. Übersicht und direkte Vergleichbarkeit zu erschweren, sind Ziele des Marketings.

Das hat nichts mit Planlosigkeit zu tun. Unternehmertum zu verstehen braucht kaum tiefes Wissen und keinen hohen Interekt. Es ist naiv anzunehmen, dass man das nicht versteht.
Aber wir und die Youtuber sind alles Endkunden oder berichten Endkunden. Entsprechend vertritt man natürlich die Interessen der Endkunden. Die Interessen der Unternehmen zu vertreten wäre sofern man da nicht Großinvestor wäre eher dumm.

Complicated
2023-09-02, 11:07:15
ich finde meine frage ist schon sehr plausibel.
Genauso plausibel wie warum ist der Himmel blau. Die sind schon alle beantwortet wenn man sich AMDs neue CPU-Benennungen anschaut. Es ist doch klar zu sehen, dass es keine vollständigen Lineups mit der selben IP mehr geben wird in jeder Generation. Auch das ist eine Konsequenz der Chiplet-Möglichkeiten. Ob die Benennung bei GPUs auch kommen wird weiss ich nicht, es ist ein eigener Markt. Doch das "komplette Lineup" ist nicht mal im Ansatz ein Unternehmensziel und kann genausogut durch ältere Generation aufgefüllt werden. Die Übergänge sind doch schon fließend.

Zur Verdeutlichung: Das Modell wird von der Technik getrennt und nur noch zeitlich als neue SKU gekennzeichnet - das wonach du fragst interessiert überhaupt niemanden:
https://static.digitecgalaxus.ch/Files/6/8/2/2/9/8/3/0/AMD-Ryzen-5-7640U-Naming.jpg Das hat nichts mit Planlosigkeit zu tun. Unternehmertum zu verstehen braucht kaum tiefes Wissen und keinen hohen Interekt. Es benötigt die richtige Perspektive, das schrieb ich auch. Die nehmen die meisten hier nicht ein, da auch nie unternehmerische Entscheidungen getroffen werden mußten. Das ist ja ok, nicht jeder muss das selber durchlebt haben. Nur sollte man aufhören so zu tun als ob das alles logisch sei, was man als Kunde gerne hätte.

DrFreaK666
2023-09-02, 11:08:31
Was sind denn die Vorteile der nächsten Karten, außer erzwingbares FSR3 (was ich übrigens sehr geil finde)

BlacKi
2023-09-02, 11:08:37
Scheinst andere Infos zu haben. Immer her damit.
Übrigens aus dem Video, das wahrscheinlich nicht gesehen hast
https://abload.de/img/zwischenablage03_c3fs3.jpgja, genau, du sagst es. ich hab auch infos die an mich rangetragen wurden, das amd besser bezahlt hat, um dlss aus dem spiel zu lassen ;) aber sags nicht weiter:wink:

das wonach du fragst interessiert überhaupt niemanden

warum antwortest du dann überhaupt? das macht garkeinen sinn.

DrFreaK666
2023-09-02, 11:10:19
ja, genau, du sagst es. ich hab auch infos die an mich rangetragen wurden, das amd besser bezahlt hat, um dlss aus dem spiel zu lassen ;) aber sags nicht weiter:wink:

klar :rolleyes:

selten so einen BS gelesen.

:D

Linmoum
2023-09-02, 11:19:25
Ach Gott, nehmen wir jetzt wirklich MLID als Grundlage für solche Themen und Diskussionen?

Complicated
2023-09-02, 11:52:32
warum antwortest du dann überhaupt? das macht garkeinen sinn.Du liest auch was du willst. Schrieb ich, dass es mich nicht interessiert? Schon wieder stellst du unsinnige Fragen, weil du den Kontext nicht verstehst (willst?). Lies einfach nochmal.

- das wonach du fragst interessiert überhaupt niemanden:
Kontext: In einem Unternehmen

robbitop
2023-09-02, 11:59:26
Zur Verdeutlichung: Das Modell wird von der Technik getrennt und nur noch zeitlich als neue SKU gekennzeichnet - das wonach du fragst interessiert überhaupt niemanden:
https://static.digitecgalaxus.ch/Files/6/8/2/2/9/8/3/0/AMD-Ryzen-5-7640U-Naming.jpg Es benötigt die richtige Perspektive, das schrieb ich auch. Die nehmen die meisten hier nicht ein, da auch nie unternehmerische Entscheidungen getroffen werden mußten. Das ist ja ok, nicht jeder muss das selber durchlebt haben. Nur sollte man aufhören so zu tun als ob das alles logisch sei, was man als Kunde gerne hätte.
Tut denn jemand so? Ich bemerke primar die legitime Beschwerde der Abzocke und der Verschleierung dieser. Klar schön für die IHVs die jetzt mehr Milliarden denn je verdienen. Die Yachten, Ferraris und Millionenspenden an diverse Universitäten wollen finanziert werden. (auch wenn der Großteil wahrscheinlich nicht aus dem Gamingbereich kommt).
Ich bin selbst auch unternehmerfreundlich aber privat bin ich Gamer und jeder shitstorm der mal ein wenig gegen die Abzocke läuft (die YT Videos die du so abfällig erwähnt hast) sind IMO nicht naiv sondern hoffentlich helfen sie Bewusstsein für P/L beim Endkunden zu schaffen. Denn nur wir Endkunden haben es in der Hand, Einfluss zu nehmen. Durch unser Kaufverhalten.

HOT
2023-09-02, 12:12:12
Ach Gott, nehmen wir jetzt wirklich MLID als Grundlage für solche Themen und Diskussionen?
Man muss das nehmen wie man das halt nehmen muss, aber generell verurteilen darf man ihn nicht. Das ist schon sehr nützlich, was er tut, sonst würden wir überhaupt nichts aus der Industrie erfahren, wenn es Leute wie ihn nicht gäbe. Wie sagt man im Englischen so schön? "take it with a grain auf salt...

Complicated
2023-09-02, 12:16:14
Tut denn jemand so? Ich bemerke primar die legitime Beschwerde der Abzocke und der Verschleierung dieser.
:confused: Über diese Beschwerde reden wir doch gerade. Du bist es doch der das schreibt: "Beschwerde über Abzocke und deren Verschleierung" aka "legitimes Marketing das uns überall täglich begegnet".
Ein und das selbe aus zwei verschiedenen Perspektiven.

prinz_valium_2
2023-09-02, 12:16:33
Namen sind eigentlich Schall und Rauch, beliebig setzbar.

Aber: Dies funktioniert langfristig nur im engen Rahmen. Du kannst nicht ständig die Namen hochsetzen. Ansonsten haben wir irgendwann GeForce RTX 6090, 6091, 6092, 6093, etc - und kein Produkt darunter.

Will sagen: Namenswahl kann einen im konkreten Vergleich immer auf die fasche Fährte bringen. Aber langfristig ist es durchaus eine vernünftige Vergleichgrundlage. Weil man braucht in jeder Generation eine 60er, 70er, 80er Lösung, egal wie sich die Grenzen der Segmente entwickeln. Die Namen sind zwar hochdrückbar, aber eben nicht beliebig, weil das sehr endlich ist und man eben immer auch eine 60er Lösung braucht.

Vollkommen Richtig

dargo
2023-09-02, 17:59:29
Die Namensschemen korrilieren aber dummerweise mit den Preisen für die SKUs. Insofern ist es eine indirekte Beschwerde über die besonders schlechte Preis/Leistung die durch umlabeln der SKUs den unwissenden Kunden verschleiert wird. Die, die immer eine 7er SKU kaufen, kriegen nur 6er Leistung zum bestenfalls 7er (schlimmstenfalls 8er) Preis.
Gibt genug Leute im Massenmarkt die so kaufen.
Selbst schuld... kein Mitleid mit Menschen die sich vorher nicht informieren, das gilt im Prinzip für alles im Leben. Wer "blind" kauft der zahlt eben zu viel.

Monsta
2023-09-04, 21:02:59
Selbst schuld... kein Mitleid mit Menschen die sich vorher nicht informieren, das gilt im Prinzip für alles im Leben. Wer "blind" kauft der zahlt eben zu viel.

Es gibt aber auch Hersteller da kann man blind kaufen.

Was Amd macht ist auf Dauer nicht verkaufsfördernt. Wer blind von einer 6800xt auf eine 7800xt umsteigt, kauft evtl zum letzten mal eine Amd Gpu.

n00b
2023-09-04, 21:05:23
Wann gibt es denn die 77/78er Reviews, morgen oder übermorgen?

Complicated
2023-09-04, 21:42:20
Es gibt aber auch Hersteller da kann man blind kaufen.
Ja ich kenne den Hersteller auch, der es immer wieder schafft Leute davon zu überzeugen blind zu kaufen. Das bestes Marketing-Departement in der Branche.

dargo
2023-09-04, 22:06:11
Es gibt aber auch Hersteller da kann man blind kaufen.

Sowas tun nur Vollidioten.

reaperrr
2023-09-05, 00:47:44
Was Amd macht ist auf Dauer nicht verkaufsfördernt. Wer blind von einer 6800xt auf eine 7800xt umsteigt, kauft evtl zum letzten mal eine Amd Gpu.
Genau. Und wer blind von einer 3060 auf eine 4060 oder von einer 3060Ti auf eine 4060Ti-8GB umsteigt, kauft evtl zum letzten Mal einen Nvidia GPU...:rolleyes:

'Tschuldigung, aber es ist heutzutage doch niemand mehr so blöd, wirklich blind eine GPU zu kaufen.
Wer überhaupt noch selbst herkömmliche Spiele-PCs besitzt, Grakas kauft und in der Lage ist, die einzubauen, ist in der Regel auch nicht so blöd, sich nicht vorher ein oder zwei Reviews anzusehen und zumindest die Balkenlänge abzuchecken.

Schlau ist die Namensgebung trotzdem nicht, klar, aber das ist sie von der Leistung auch bei der 4060Ti (das wäre eigentlich die 4060) und der 4060 (das wäre eigentlich die 4050) nicht, von dem ursprünglichen "4080 12GB"-Witz ganz zu schweigen.

horn 12
2023-09-05, 01:38:13
https://videocardz.com/newz/official-amd-radeon-rx-7800-xt-rx-7700-xt-gaming-and-synthetic-benchmark-leaked-ahead-of-launch

Wer nicht warten kann und ein Bild machen sollte.
KEIN Gewähr auf Richtigkeit!

Linmoum
2023-09-05, 02:12:19
Sowas tun nur Vollidioten.Nach der Logik müsstest du dann aber auch ganz nüchtern Nvidia in Betracht ziehen und nicht immer nur blind AMD kaufen. ;)

dargo
2023-09-05, 06:41:28
Ich kaufe nie blind AMD sondern informiere mich ausgiebig vorher. :rolleyes: Und trotz der üblichen 08/15 Reviews bei Grafikkarten bin ich immer noch in der Lage sowas wie einen N31 ausgiebig zu untersuchen und wenn ich nicht zufrieden bin diesen wieder Retoure zu schicken. Also erspare mir deinen billigen Trollversuch. Warum ich keine Geforces mehr seit vielen Jahren kaufe hatte ich schon ausführlich hier dargestellt. Da Intel noch nicht in der Lage ist in für mich interessanten Segment aufzuholen bleibt erstmal AMD die einzige Option.

https://videocardz.com/newz/official-amd-radeon-rx-7800-xt-rx-7700-xt-gaming-and-synthetic-benchmark-leaked-ahead-of-launch

Wer nicht warten kann und ein Bild machen sollte.
KEIN Gewähr auf Richtigkeit!
Am geilsten finde ich die Werte bei CP77 mit Lederjacken-RT... ähm, Verzeihung RT-Overdrive. :ulol:

RX 7700XT = 5fps
RX 7800 XT = 6fps
RTX 4060TI = 14fps
RTX 4070 = 18fps

Wofür benchmarkt man sowas überhaupt wenn es eh völlig unspielbar auf allen Karten ist? Kompletter bullshit imo. Selbst RT-Ultra bis RT-Medium ist für einen PC-Spieler mit etwas Anspruch an Fluffigkeit ebenfalls unspielbar mit den Werten da.

dildo4u
2023-09-05, 07:52:25
Mit RT Medium kommt man auf 60 mit DLSS ohne Framegen.
Diese Werte sind nicht so Katastrophal und auf Level mit Starfield was kein RT hat.

aufkrawall
2023-09-05, 08:18:10
Mit dem TC-Denoising dürften die RT-Reflexionen auch mit ordentlich Upsampling wesentlich attraktiver werden.
Könnten dann sogar weniger rauschen als SSR (die ja auch Müll in dem Spiel sind), die ja prinzipiell das gleiche Problem haben, wenn auch nicht so ausgeprägt (dafür mit anderen Abtastungslücken).

Monsta
2023-09-05, 09:43:19
Sowas tun nur Vollidioten.

Ich bin Hardwareentwickler und wir haben Kunden die kaufen neue Entwicklungen blind. Das nennt man Vertrauen. Wenn man über lange Zeit top abliefert bekommt man sowas.

Ich habe noch andere Hobbys und da kaufe ich gerne oben aus dem Regal, und Sidegrades kommen da äußerst selten vor.

Ist mir völlig unverständlich warum man das Verhalten von Amd nicht kritisiert, aber der Kunde ist ein Vollidiot.

DrFreaK666
2023-09-05, 10:29:59
... Ist mir völlig unverständlich warum man das Verhalten von Amd nicht kritisiert, aber der Kunde ist ein Vollidiot.

AMD und NV sind da zu kritisieren und nicht nur die Farbe, die einem nicht schmeckt

Monsta
2023-09-05, 10:57:45
AMD und NV sind da zu kritisieren und nicht nur die Farbe, die einem nicht schmeckt

Das ist der RDNA3 Thread, und da hat Nvidia oder wer auch immer miese Produkte launched nichts zu suchen.

Ich finde im Verhältnis zu Vorgängergeneration ist das RDNA3 Lineup im Nummernschema eine Nummer zu groß gewählt.

Das was die Konkurenz macht, da hat AMD ja keinen Einfluß drauf, aber die eigenen Produkte kennt man ja.

Und ich finde da ist ein einfach nur eine schwache Vorstellung.

The_Invisible
2023-09-05, 11:17:38
Am geilsten finde ich die Werte bei CP77 mit Lederjacken-RT... ähm, Verzeihung RT-Overdrive. :ulol:

RX 7700XT = 5fps
RX 7800 XT = 6fps
RTX 4060TI = 14fps
RTX 4070 = 18fps

Wofür benchmarkt man sowas überhaupt wenn es eh völlig unspielbar auf allen Karten ist? Kompletter bullshit imo. Selbst RT-Ultra bis RT-Medium ist für einen PC-Spieler mit etwas Anspruch an Fluffigkeit ebenfalls unspielbar mit den Werten da.

Mit DLSS(3.5) + FrameGen siehts halt noch schlechter aus für AMD. Und als ob AMD mit seinem Starfield wass besseres abliefern würde, da läufts selbst mit Raster LastGen schlecht ;D

@Monsta
Gibt sicher keinen Shitstorm weil ist ja AMD. Dabei hätte da selbst die 4080 12GB mehr Sinn gemacht...

dildo4u
2023-09-05, 11:34:40
Er hat schon Recht du willst bei Framegen mit 60fps als Basis anfangen vorallem für Games wo man mit der Maus ziehlt.
Also ich würde sagen altes RT OK fürs Overdrive muss man deutlich dickere Hardware ansetzen.

Exxtreme
2023-09-05, 12:00:20
Mit DLSS(3.5) + FrameGen siehts halt noch schlechter aus für AMD. Und als ob AMD mit seinem Starfield wass besseres abliefern würde, da läufts selbst mit Raster LastGen schlecht ;D


Framegen zieht hier nicht wenn das Spiel nativ mit 14 fps läuft. Aktivierst du FG dann läuft es wahrscheinlich nativ mit 10 fps und FG zieht es auf scheinbare 20 fps hoch. Und mit 10 fps nativ willst du nicht spielen da du mindestens 105 ms Eingabelatenz hast.

DrFreaK666
2023-09-05, 12:07:15
Das ist der RDNA3 Thread, und da hat Nvidia oder wer auch immer miese Produkte launched nichts zu suchen.

Ich finde im Verhältnis zu Vorgängergeneration ist das RDNA3 Lineup im Nummernschema eine Nummer zu groß gewählt.

Das was die Konkurenz macht, da hat AMD ja keinen Einfluß drauf, aber die eigenen Produkte kennt man ja.

Und ich finde da ist ein einfach nur eine schwache Vorstellung.

Wieso legt man sich so auf das Namensschema fest? Wenn man 550€ hat, ist es da wichtig wie die Karte heißt?
Dass RDNA3 im Vergleich zum Vorgänger eher nicht der Bringer ist, muss man aber auch nicht jede Woche thematisieren.

davidzo
2023-09-05, 12:27:20
Ich finde im Verhältnis zu Vorgängergeneration ist das RDNA3 Lineup im Nummernschema eine Nummer zu groß gewählt.

+1
Ich finde AMD entwertet seine Markennamen damit. Und das nicht nur bei den GPUs. Bei den CPUs ist es leider auch so, ein Ryzen5 steht gegen Core i3, ein Ryzen7 gegen Core i5 und es braucht einen Ryzen 9 um einem Core i7 paroli zu bieten und einen eigentlich einen refresh suggerierenden 7950x um einem Core i9 die Stirn zu bieten.
Dadurch fühlt sich das für mich an als wenn man sich Intel allgemein unterlegen fühlt und nun billig mit Marketing abräumen will indem man in jedem preisbereich, also Core i5, i7, i9 die jeweils leicht langsameren aber günstigeren Produkte haben will.

Völlig unnötig, es wäre imo sinnvoller gewesen wenn 8Kerner Ryzen5 heißen würde und den 13400F zu schlagen imstande ist. Ryzen7 dann erst ab 12 Kernen und in etwa gleichwertig zum 13700K. Top CPU wäre dann ein Ryzen9 7900X mit 16Kernen und der X3D könnte 7950x heißen.
Der 7800X3D wäre dann ein Ryzen/Core i5, was von der Positonierung viel mehr sinn macht. Gamer haben schon immer gerne die schnellste CPU aus dem midrange Segment gewählt da diese zwar weniger Kerne hat aber ähnlich taktet und in games performt wie die absolute Highend CPU. Aber der 7600X? Nee, der ist keine midrange gaming CPU, der ist die einzige 'budget' AM5 CPU.

Bei Navi10 hat AMD es ausnahmsweise mal richtig gemacht. 5700XT war der perfekte Name für eine GPU die zwischen RTX2070 und RTX2080 liegt. Schade das AMD das wieder aufgegeben hat.

robbitop
2023-09-05, 12:35:34
Sehe ich komplett genauso.

Exxtreme
2023-09-05, 12:41:08
+1
Ich finde AMD entwertet seine Markennamen damit. Und das nicht nur bei den GPUs. Bei den CPUs ist es leider auch so, ein Ryzen5 steht gegen Core i3, ein Ryzen7 gegen Core i5 und es braucht einen Ryzen 9 um einem Core i7 paroli zu bieten und einen eigentlich einen refresh suggerierenden 7950x um einem Core i9 die Stirn zu bieten.
Dadurch fühlt sich das für mich an als wenn man sich Intel allgemein unterlegen fühlt und nun billig mit Marketing abräumen will indem man in jedem preisbereich, also Core i5, i7, i9 die jeweils leicht langsameren aber günstigeren Produkte haben will.

Völlig unnötig, es wäre imo sinnvoller gewesen wenn 8Kerner Ryzen5 heißen würde und den 13400F zu schlagen imstande ist. Ryzen7 dann erst ab 12 Kernen und in etwa gleichwertig zum 13700K. Top CPU wäre dann ein Ryzen9 7900X mit 16Kernen und der X3D könnte 7950x heißen.
Der 7800X3D wäre dann ein Ryzen/Core i5, was von der Positonierung viel mehr sinn macht. Gamer haben schon immer gerne die schnellste CPU aus dem midrange Segment gewählt da diese zwar weniger Kerne hat aber ähnlich taktet und in games performt wie die absolute Highend CPU.

Bei Navi10 hat AMD es ausnahmsweise mal richtig gemacht. 5700XT war der perfekte Name für eine GPU die zwischen RTX2070 und RTX2080 liegt. Schade das AMD das wieder aufgegeben hat.


Naja, du machst offenbar die Annahme bzw. es scheint irgendwie die Forderung durch, dass sich AMD bei der Benamung irgendwie an der Konkurrenz orientieren soll. Die Frage ist jetzt wiederum warum AMD das überhaupt tun sollte? Also die Benamung der eigenen Produkte von der Konkurrenz diktieren lassen?

davidzo
2023-09-05, 12:53:38
Weil die Konkurrenz seit 30 Jahren 70 bis 90% des Marktes beherrscht, ein namensschema seit Jahrzehnten etabliert hat (was sich übrigens an BMW orientiert die das seit 50 Jahren machen) und damit zigfach mehr Mindshare hat vielleicht? Die Leute werden nicht für die Underdogs einfach mal alles umlernen.

Muss man immer alles anders machen?
Selbes Ding mit Dvorak vs Quertz, Apple cmd-c vs strg+c etc. Ich bin überzeugter Appleuser, aber ich verabscheue dass die manches einfach aus Prinzip anders machen, ohne praktischen grund. ich vertippe mich jedes mal wenn ich wieder am PC sitze. Das ist einfach unnötige Eigenbrödelei da es in meinen augen keinen signifikanten nachweisbaren Vorteil der anderen Anordnung gibt. Genau so ist es bei den Modellbezeichnungen.

Und darauf dass die Leute nicht verstehen was sie bekommen spekuliert AMDs marketing ganz offensichtlich.

Außerdem zählt das Argument des Intelvergleichs nicht wenn AMD auch ihre eigene Legacy ignoriert.
Topmodelle:
1800X
2700X
3950X
5950X
7950X3D

Wann kommt der 9999+4X?

Und glaubst du wirklich selber dass die 7800XT ein Upgrade gegenüber der 6800XT ist?
Der Anstieg der Zahlen ist doch kein Zufall, das ist kalkuliert.

Und genau damit spielt AMDs Marketing bewusst um sich einen unfairen Vorteil zu verschaffen: auf Kosten des Langzeit Brand-Images ihrer eigenen Firma. Die Heuschrecken die das zu verantworten haben sitzen sicher schon in den Startlöchern um den Arbeitgeber zu wechseln sobald Intel wieder Oberwasser hat oder nvidia mal neue Leute hired.

AMD bewegt sich außerdem sehr weit am Limit mit den Modellbezeichnungen 9999!!111elf was bedeutet dass sie alle drei Jahre von vorne anfangen können.
Zum Beispiel mit der 7000er CPU Generation, wo man jetzt eine Ziffer pro Modelljahr nimmt. Völliger quark weil spätestens 2025-26 das Namennschema schon wieder am Ende ist. Außerdem müsste der 7950x3d strengenommen schon 8950x3d heißen weil er ja ein Jahr später heraus gekommen ist als die anderen Zen4 CPUs. Also konsequent ist das Schema eh nicht.

Und wir alle wissen dass es kein Zufall ist dass AMD immer versucht eine leicht höhere Zahl zu haben als Intel. Das ist Marketing einmaleins auf Kindergartenniveau. Schwanzvergleich aufgrund der Zahlenhöhe. Funktioniert vielleicht bei Marketing-Proleten wie Vinacis aber bei mir nicht.


Bei den Endkunden kommt langfristig an:
- Eine Radeon RX ist eine Midrange karte. Günstiger als nvidia, nicht ganz so schnell und auch nicht mit allen Features. Eine schnelle GPU für Sparfüchse.
- Eine Geforce RTX ist eine Highendkarte mit allen Features. Sicher, beide Hersteller haben auch entrymodelle aber Geforce ist quasi immer besser und moderner wenn man nicht auf den letzten Dollar gucken muss. Vielleicht nicht für Sparfüchse aber 'The real Deal'.

Der_Korken
2023-09-05, 13:11:56
Ästhetisch finde ich AMDs Namensschema bei der 7000er-Serie auch nicht. Um davidzos Witz auf die Spitze zu treiben, könnte man bei der nächsten Gen das Lineup so benennen:

RX 8900XT - Lowend Cut
RX 8950XT - Lowend Full
RX 8990XT - Midrange Cut
RX 8990XTX - Midrange Full
RX 8995XTX - Highend Cut
RX 8999XTX - Highend Full
RX 8999XTX-PE - Highend Full, selektiert

Sorry, bin heute albern :D.

Ansonsten finde ich den Punkt mit dem konsistanten Namensschema schon durchaus berechtigt. Nvidia zieht ihr Schema seit der 700er Serie relativ konsequent durch. Seit der 900er Serie sind auch die relativen Specs der kleineren Modelle im Verhältnis zum Topdog sehr konsistent (bis auf die 4000er Serie ...). Jeder weiß, dass er bei der 60er Karte ein solides Mittelklassemodell bekommt. Jeder weiß, dass die 80er Karte solides Highend ist und dass die 80Ti bzw. 90 ein überteuertes Flaggschiff für verrückte ist :D.

AMD hatte mit ihren R5/7/9 X00 Schema erstmal kein schlechtes Schema, es aber mit der 400er Serie (Polaris) wieder abgewandelt, Vega war völlig außen vor, RDNA1 fing nach 500 plötzlich mit 5000 an. Die 6000er waren von den Namen dann wieder OK/konsistent, aber bei der 7000er gibt es plötzlich drei 900er Modelle mit zwei neuen Kürzeln (GRE, XTX), statt es einfach in 800 und 900 zu splitten und bei einem davon dass "XT" wegzulassen wie bisher.

Exxtreme
2023-09-05, 13:28:58
Weil die Konkurrenz seit 30 Jahren 70 bis 90% des Marktes beherrscht, ein namensschema seit Jahrzehnten etabliert hat (was sich übrigens an BMW orientiert die das seit 50 Jahren machen) und damit zigfach mehr Mindshare hat vielleicht? Die Leute werden nicht für die Underdogs einfach mal alles umlernen.


Naja, wenn man sich die Benamung der eigenen Produkte von der Konkurrenz diktieren lässt dann gibt man damit indirekt eine Unterlegenheit der eigenen Produkte zu. Und warum sollen dann Kunden die Produkte kaufen wenn der Hersteller selbst implizit zugibt, dass sie unterlegen sind?

Und zweitens, wenn die Konkurrenz die Benamung ändert, muss man da mitziehen oder nicht?


Muss man immer alles anders machen?
Selbes Ding mit Dvorak vs Quertz, Apple cmd-c vs strg+c etc.
.
.
.
.



Wobei der Aufdruck auf der Schachtel bei Weitem nicht die Konsequenzen im Alltag hat wie CMD+C vs. STRG+C. ;)

davidzo
2023-09-05, 13:43:46
Nvidia zieht ihr Schema seit der 700er Serie relativ konsequent durch.

Seit Fermi, also 400er Serie.


Seit der 900er Serie sind auch die relativen Specs der kleineren Modelle im Verhältnis zum Topdog sehr konsistent (bis auf die 4000er Serie ...). Jeder weiß, dass er bei der 60er Karte ein solides Mittelklassemodell bekommt.

Die Großväter der 60er Midrangekarten sind imo die 6600GT und 8600GT. Die FX5600 zählt nicht weil sie unbeliebt war und davor hatte nvidia eher die Tradition refreshs von älteren architekturen als neuen midrange zu verkaufen. Mit der 6600 Serie hat nvidia die 60er Serie als einen 50% Chip vom 80er Chip etabliert, mit der 8600GT als 33% (8800GTS) bzw 25% (8800Ultra). Seitdem bewegt sich der Midrange chip immer in dieser Range. Die 4060 liegt am unteren Ende mit 31% der Einheiten der 4080, aber die Positionierung ist jetzt auch nicht absolut ungehört.


AMD hatte mit ihren R5/7/9 X00 Schema erstmal kein schlechtes Schema, es aber mit der 400er Serie (Polaris) wieder abgewandelt, Vega war völlig außen vor, RDNA1 fing nach 500 plötzlich mit 5000 an. Die 6000er waren von den Namen dann wieder OK/konsistent, aber bei der 7000er gibt es plötzlich drei 900er Modelle mit zwei neuen Kürzeln (GRE, XTX), statt es einfach in 800 und 900 zu splitten und bei einem davon dass "XT" wegzulassen wie bisher.
ja, GCN hatte ein gutes Schema. Allerdings hat man sich das mit Fiji schon kaputt gemacht. Fiji war die echte R9 390 und man hätte Hawai zur 380 deklarieren müssen. Polaris10 wäre ne super RX460 als gegenstück zur 1060 gewesen mit Polaris 11 und 12 als 450, 440. Vega wäre dann eine 580 oder 680, die radeon VII eine 590 odr 690 mit Polaris Refresh für die 60er, 50er, 40er und 30er. Navi10 wäre dann die 700er Serie, mit der 5700xt als 770XT, die 6800Xt als 680XT.

prinz_valium_2
2023-09-05, 13:47:17
Damit kommt die RX7800XT ja doch an die RX6900XT ran.
Wenn auch nicht die 6950XT

Bleibt aber doch ein sehr gutes Stück hinter der 4070Ti zurück

amdfanuwe
2023-09-05, 14:00:29
Bleibt aber doch ein sehr gutes Stück hinter der 4070Ti zurück
Vor allem im Preis.

davidzo
2023-09-05, 14:02:49
Naja, wenn man sich die Benamung der eigenen Produkte von der Konkurrenz diktieren lässt dann gibt man damit indirekt eine Unterlegenheit der eigenen Produkte zu. Und warum sollen dann Kunden die Produkte kaufen wenn der Hersteller selbst implizit zugibt, dass sie unterlegen sind?

Du meinst wenn das eigene Produkt unterlegen ist, dann sollte man sich lieber weiter aus dem Fenster lehnen damit der Kunde das nicht mitbekommt (Navi3x vs Lovelce -> 7800XT vs RTX 4080)? :freak: Ich kann dem Argument nicht ganz folgen :hammer:, ich glaube die Kunden auch nicht und ich habe nicht so eine hohe Meinung von den Koksnasen bei AMD dass sie selber an eine so elaborierte Theorie entwickeln geschweige denn glauben.


Und zweitens, wenn die Konkurrenz die Benamung ändert, muss man da mitziehen oder nicht?


Das ist ein Red Herring, da es für diese Diskussion nicht mehr relevant ist. Erstens hat die Konkurrenz die Namen nicht geändert sondern war einfach früher am Markt, hat also Realitäten geschaffen und nicht irgendwas nachträglich geändert.
Und zweitens glaube ich nicht das ändern für den Brand value gut ist sich zu sehr anzupassen. Das kann ein Marketingwerkzeug sein, aber jeglicher kurzfristiger Gewinn geht auf den langfristigen Wert der Marke. Vegleiche zu Zeiten von GCN wurde AMD mit Hawai R9 290X etc. als durch und durch gleichwertiger Konkurrent wargenommen. Als man dann die RX480, 580 und 590 auf Basis eines midrange Chips brachte war das kurfristig zwar gut um die Verkäufe zu retten, aber selbst die Starke 6800XT hat das verlorene Image nicht wett machen können.
Und ja, eine 7600XT oder 7700XT mit Navi32 nun 7800XT zu nennen sehe ich als eine Änderung und zwar nicht in Reaktion auf Nvidia sondern einfach auf sich selbst bezogen.



Wobei der Aufdruck auf der Schachtel bei Weitem nicht die Konsequenzen im Alltag hat wie CMD+C vs. STRG+C. ;)
Zu wissen dass man eine GPU aus AMDs schwacher, ineffizienter und überbeworbener Generation hat aber schon. Ich habe da lieber eine saubere 6800XT ehrlich gesagt, ist auch billiger.

Lehdro
2023-09-05, 14:04:16
Außerdem zählt das Argument des Intelvergleichs nicht wenn AMD auch ihre eigene Legacy ignoriert.
Topmodelle:
1800X
2700X
3950X
5950X
7950X3D

-> 1920X und 1950X - gab es als Fortführung des Portfolios auch noch
-> 2700X, weil man kein extra Modell auflegen wollte als 2800X (Gerüchteweise hat sich der 1700X viel besser als der 1800X verkauft, I wonder why) (https://www.pcgameshardware.de/Ryzen-7-2700X-CPU-267374/News/2800X-koennte-eines-Tages-noch-erscheinen-1254918/)
Auch hier gab es als Fortführung noch 2920X und 2950X
-> 3D - 3D Vcache

Ist eigentlich ziemlich simpel:
x700 & x800 = 8 Kerne
x900/x920 = 12 Kerne
x950X = 16 Kerne
Die einzige CPU die da wirklich nicht reinpasst ist der 1900X, aber das war eh eine Nische, selbst im Threadripppervergleich.

Disco_STFU
2023-09-05, 15:07:03
Dachte heute gehen die Tests online... oder doch erst morgen?

Linmoum
2023-09-05, 15:27:15
Wundere mich auch schon, morgen ist Verkaufsstart und in dieser Gen gab's Reviews bei AMD bislang immer einen Tag vor Release. Vielleicht findet man N32 selbst nicht so geil, um ihn vor Verkaufsstart schon zu präsentieren.

The_Invisible
2023-09-05, 15:34:21
Framegen zieht hier nicht wenn das Spiel nativ mit 14 fps läuft. Aktivierst du FG dann läuft es wahrscheinlich nativ mit 10 fps und FG zieht es auf scheinbare 20 fps hoch. Und mit 10 fps nativ willst du nicht spielen da du mindestens 105 ms Eingabelatenz hast.

Deshalb schrieb ich ja mit DLSS+FG. Da kommt man dann nativ schon über 30fps und mit FG >60fps. Was besseres haben die Konsolen auch nicht, dann müsste ja quasi alles unspielbar sein auf Konsole...

n00b
2023-09-05, 23:17:24
Amazon Canada hat schon eine XFX 7800 gelistet.

809,22 CAN$ entspricht wohl rund ~553€

Keine Ahnung ob mit oder ohne Steuer.

https://www.amazon.ca/XFX-Speedster-MERC319-Graphics-RX-78TMERCB9/dp/B0CGM93HJD/ref=sr_1_1?crid=2VMUQBZBJSOIP&keywords=rx+7800+xt&qid=1693948476&sprefix=rx+7800+xt%2Caps%2C184&sr=8-1

Raff
2023-09-05, 23:43:29
Wundere mich auch schon, morgen ist Verkaufsstart und in dieser Gen gab's Reviews bei AMD bislang immer einen Tag vor Release. Vielleicht findet man N32 selbst nicht so geil, um ihn vor Verkaufsstart schon zu präsentieren.

AMD hat die Hosen doch bereits vor zwei Wochen heruntergelassen.

MfG
Raff

Linmoum
2023-09-06, 00:10:28
Haben sie bei N31 damals auch, trotzdem gab's die unabhängigen Reviews nicht erst zum Verkaufsstart. ;)

AMD ist ja nicht alleine damit, das so zu handhaben bzw. gehandhabt zu haben. Und jedes mal ist es mir ein Rätsel, was solche Aktionen sollen, statt dem Kunden schon vor Marktstart reinen Wein einschenken lassen durch die Presse.

horn 12
2023-09-06, 00:10:39
Und wann kommen bitte die Test.
heute früh Morgen,- sprich wie damals um 06 Uhr morgens ?

dildo4u
2023-09-06, 06:49:13
7600 war 15Uhr. https://www.pcgameshardware.de/Radeon-RX-7600-Grafikkarte-279650/Tests/Release-preis-Benchmark-Specs-Review-1419906/

sun-man
2023-09-06, 07:12:05
AMD wollte scheinbar nichts vor dem Verkaufsstart. Wer weiß, was das wieder für Krücken sind. Schade das man da nichts liefert. Ich, unwissend, behaupte mal das AMD nichts gegen einen Testparcours hätte wenn man Leistung liefern könnte.

horn 12
2023-09-06, 07:37:53
Da kannst Recht behalten
und hoffe das FSR 3.0 was reist sonst wird´s schwer werden.

Dino-Fossil
2023-09-06, 11:55:03
Vielleicht, aber ändert doch eh nix. Kann mir nicht vorstellen, dass so viele Leute unbesehen eine GPU in dem Preisbereich kaufen.

prinz_valium_2
2023-09-06, 12:21:04
ALs ob ein Tag nen großen Unterschied macht.
Tut es nicht mal bei Games und deren Test.

Und da ist "Tag 1 kaufen" viel wichtiger

aufkrawall
2023-09-06, 12:23:43
Wenn das Upsampling mit FSR 3 nicht deutlich verbessert wird, sollte man trotz der 16GB vor der Karte warnen.

sun-man
2023-09-06, 12:30:58
ALs ob ein Tag nen großen Unterschied macht.
Tut es nicht mal bei Games und deren Test.

Tatsächlich macht der Tag nichts. Erfahrungsgemäß war es jedoch immer so das man den Handel und die Kunden gerne informiert hat wenn es was spannendes gab.

HOT
2023-09-06, 14:00:41
Wenn das Upsampling mit FSR 3 nicht deutlich verbessert wird, sollte man trotz der 16GB vor der Karte warnen.
So ein Quatsch wenn die 100€ weniger kostet ;D. Manche übertreibens echt bei ihrem anti-RDNA3-Kreuzzug :D. Seid froh, dass es günstigere Karten in dem Leistungbereich gibt anstatt dieses ständige dämliche gehate abzusondern.

aufkrawall
2023-09-06, 14:22:34
Red es dir schön. Aktuelle Spiele keulen ohne Upsampling schnell mal eine 4090. Ist defakto kein optionales Feature mehr und FSR 2 versagt viel zu oft und heftig. Da ist HW-RT noch nicht mal mit eingerechnet. :freak:

Dino-Fossil
2023-09-06, 14:24:38
Nicht jeder zockt unter 4K auf 144Hz Monitoren... :rolleyes:

(und man muss auc nciht jeden unoptimierten Müll mitnehmen)

maximus_hertus
2023-09-06, 14:25:40
Wenn das Upsampling mit FSR 3 nicht deutlich verbessert wird, sollte man trotz der 16GB vor der Karte warnen.

und was soll man heute machen? FSR3 kommt ja erst noch, heute gibt es wohl keine FSR3 Tests.....

Ansonsten ist das, sorry, bullshit. Ja, DLSS ist hochwertiger. Aber FSR2 ist sicherlich kein kompletter Schrott. Ultimativ sieht es doch so aus: FSR und 16GB > DLSS und 12GB. Wenn der VRAM ausgeht, ist DLSS (FrameGen) eher kontraproduktiv.

Die komplette aktuelle Gen ist ziemlich meh. Einzig die 4090 ist Top. Die 4080 ist auch gut, aber imo zu teuer (in Relation zur 4090, oder die 4090 zu billig).

Alles darunter kann man nicht wirklich Ernst nehmen. 12GB für knapp 1000 Euro? Das gab es schon Anno 2015. Vor 8 Jahren.

aufkrawall
2023-09-06, 14:27:23
Nicht jeder zockt unter 4K auf 144Hz Monitoren... :rolleyes:
Und wer spielt Starfield oder Immortals of Aveum ohne Upsampling auf einem 1440p Monitor mit einer 7800 XT? Ziemliches Geruckel für >500€...

maximus_hertus
2023-09-06, 14:41:32
Und wer spielt Starfield oder Immortals of Aveum

Das ist die Frage :) Es gibt sehr viele, die weder das eine, noch das andere zocken werden.

Warten wir doch gleich die Reviews ab, dann können wir uns mit den Zahlen gegenseitig "fertig" machen ;)

aufkrawall
2023-09-06, 14:52:17
Das ist die Frage :) Es gibt sehr viele, die weder das eine, noch das andere zocken werden.

Den Trend zu immer leistungshungrigeren Spielen einfach auszublenden, ist natürlich eine bequeme "Lösung". :freak:

Dino-Fossil
2023-09-06, 15:42:16
Naja, inwieweit ein Spiel von Bugthesda kurz nach Release der Maßstab sein soll, sei mal dahingestellt...

DozerDave
2023-09-06, 15:43:53
Bugthesda LOL
You made my day!

aufkrawall
2023-09-06, 15:48:16
Naja, inwieweit ein Spiel von Bugthesda kurz nach Release der Maßstab sein soll, sei mal dahingestellt...
Es läuft etwas langsamer als UE5-Spiele, aber das wars. Wenn Talos Principle 2 so aussieht wie auf den Screenshots, kann das auch noch deutlich langsamer laufen. Einfach mal den Realitätscheck machen...

Mangel76
2023-09-06, 18:54:48
Und wer spielt Starfield oder Immortals of Aveum ohne Upsampling auf einem 1440p Monitor mit einer 7800 XT? Ziemliches Geruckel für >500€...

Wie war das eigentlich früher? Haben da auch alle immer die teuersten Grafikkarten gekauft, weil alle alle Spiele in der höchsten verfügbaren Qualität mit dreistelligen FPS spielen wollten? Ich frag für einen Freund...

(Ironie aus) selten so ne dämliche Argumentation gehört. Nach der dürfte es immer nur die Flaggschiff geben.

DrFreaK666
2023-09-06, 19:10:51
Damals (zu Röhren-Zeiten) hat man auch die Auflösung gesenkt, damit es flüssig läuft (512x384 bei Unreal mit ner Voodoo 1). Davor hat man den Bildschirmausschnitt verkleinert, wenn die Hardware nicht schnell genug war

davidzo
2023-09-06, 19:13:22
Wie war das eigentlich früher? Haben da auch alle immer die teuersten Grafikkarten gekauft, weil alle alle Spiele in der höchsten verfügbaren Qualität mit dreistelligen FPS spielen wollten? Ich frag für einen Freund...

Die Realität sieht eher so aus: Millenials im vollen Berufsleben und mit gutem Einkommen basteln sich endlich die Highendrechner die sie als Kind nie haben durften und echauffieren sich dann mit gleichgesinnten über Benchmarkergebnisse. Die wenige Freizeit verbringt man auf Reddit und in Foren oder netflixt mit der Frau/Freundin. Richtig zocken ist zu stressig nach Feierabend. Einmal im Monat wird damit vielleicht gezockt, aber nur weil die Frau mit den Kids gerade bei den Großeltern übernachtet. Ansonsten kauft man zwar neue Titel, testet die aber nur oberflächlich als Grafikdemos weil man zu viel Angst vor dem möglichen Timesink hat. Gelegentlich wird stattdessen ein alter Klassiker wieder ausgegraben der auch auf einem Athlon 1Ghz und einer Geforce 2 GTS rasend schnell laufen würde.

Die 10 jährigen Kids von heute sind wie wir damals in der Phase wo sie am meisten spielen können. Neben einer switch mit heftigem stickdrift die man sich mit den Geschwistern teilt haben sie vielleicht Zugang zu einem alten PC vom Onkel oder Papa und freuen sich wenn sie mal auf nativer fullHD Auflösung spielen können. Wenn man überhaupt PC-spielen darf, dann ist der ganze Luxus mal über 45 stabile FPS in min oder medium Details in halbwegs aktuellen Titeln zu haben:
TqkPDoLpi_s

Mangel76
2023-09-06, 21:31:47
Die Realität sieht eher so aus: Millenials im vollen Berufsleben und mit gutem Einkommen basteln sich endlich die Highendrechner die sie als Kind nie haben durften und echauffieren sich dann mit gleichgesinnten über Benchmarkergebnisse. Die wenige Freizeit verbringt man auf Reddit und in Foren oder netflixt mit der Frau/Freundin. Richtig zocken ist zu stressig nach Feierabend. Einmal im Monat wird damit vielleicht gezockt, aber nur weil die Frau mit den Kids gerade bei den Großeltern übernachtet. Ansonsten kauft man zwar neue Titel, testet die aber nur oberflächlich als Grafikdemos weil man zu viel Angst vor dem möglichen Timesink hat. Gelegentlich wird stattdessen ein alter Klassiker wieder ausgegraben der auch auf einem Athlon 1Ghz und einer Geforce 2 GTS rasend schnell laufen würde.

Die 10 jährigen Kids von heute sind wie wir damals in der Phase wo sie am meisten spielen können. Neben einer switch mit heftigem stickdrift die man sich mit den Geschwistern teilt haben sie vielleicht Zugang zu einem alten PC vom Onkel oder Papa und freuen sich wenn sie mal auf nativer fullHD Auflösung spielen können. Wenn man überhaupt PC-spielen darf, dann ist der ganze Luxus mal über 45 stabile FPS in min oder medium Details in halbwegs aktuellen Titeln zu haben:
https://youtu.be/TqkPDoLpi_s

Das es da Veränderungen gibt, bestreitet ja auch niemand. Nach der kritisierten Argumentation dürfte aber nichtmal die 4090 verkauft werden, weil selbst damit schafft man in bester Qualität keine 144Hz in UHD bei Starfield.

Lurtz
2023-09-06, 22:01:38
Wie war das eigentlich früher? Haben da auch alle immer die teuersten Grafikkarten gekauft, weil alle alle Spiele in der höchsten verfügbaren Qualität mit dreistelligen FPS spielen wollten? Ich frag für einen Freund...

(Ironie aus) selten so ne dämliche Argumentation gehört. Nach der dürfte es immer nur die Flaggschiff geben.
Früher hat die teuerste Grafikkarte auch keine 1.000€ oder mehr gekostet...

Troyan
2023-09-06, 22:29:57
Früher hat die teuerste Grafikkarte auch keine 1.000€ oder mehr gekostet...

Inflation? Geforce 3 war $499. Aber durch den Crash an der Börse musste nVidia den Preis bei Release im Mai auf $399 senken.

Nightspider
2023-09-06, 22:40:29
Das es da Veränderungen gibt, bestreitet ja auch niemand. Nach der kritisierten Argumentation dürfte aber nichtmal die 4090 verkauft werden, weil selbst damit schafft man in bester Qualität keine 144Hz in UHD bei Starfield.

Bethesda Games sind zum Glück kein Maßstab. ;)

DrFreaK666
2023-09-06, 22:44:57
Früher hat die teuerste Grafikkarte auch keine 1.000€ oder mehr gekostet...

Trotzdem gab es verschieden schnelle Grafikkarten. Sagt dir die Geforce 2MX etwas?
Um etwas näher beim Thema zu bleiben: auch von der ATI Rage gab es verschiedene Modelle

Fusion_Power
2023-09-06, 23:01:07
Inflation? Geforce 3 war $499. Aber durch den Crash an der Börse musste nVidia den Preis bei Release im Mai auf $399 senken.
Es wäre sicher auch interessant nen großen, Grafikkartenvergleich über die Generationen hinweg zu haben. Und zwar in Bezug auf Frames pro $. Gern auch inflationsbereinigt. Da stehen heutige Grafikkarten sicher recht gut dar, vielleicht bis auf die ganz teuren Boliden.

bbott
2023-09-06, 23:25:46
Den Trend zu immer leistungshungrigeren Spielen einfach auszublenden, ist natürlich eine bequeme "Lösung". :freak:
Der RAM geiz und immer höheren Preisen auch.

lilgefo~
2023-09-07, 02:39:59
Früher hat die teuerste Grafikkarte auch keine 1.000€ oder mehr gekostet...

GeForce 2 Ultra würde mir da als Erstes einfallen.

robbitop
2023-09-07, 08:24:38
Wobei das eine Ausnahme war. Man hat super lange noch absolutes High End (heute „enthusiast“) für 500 usd und weniger bekommen.
Seit Kepler wird die zweite Riege zum Preis der ersten Verkauft, weil man es konnte. Und seit Ada wurde jede SKU nicht nur nochmal teurer sondern man hat für diese noch teurere SKU eigentlich eine kleinere bekommen (eine 4060 ist bspw eher eine 50 weil sie gerade mal so schnell ist wie die 3060 usw). Sozusagen du kaufst eine 50er Karte zum Preis einer 70er und sie heisst 60er.

Das ist nicht nur Inflation das ist auch Marge, Marge, Marge. Man schaue sich an wie riesig Nvidia geworden ist und wie fett die Margen geworden sind. Bei einem gesunden Markt könnten die Preise deutlich niedriger sein. Der GPU Markt ist spätestens seit Corona kaputt und mit Ada noch schlimmer geworden. Die Seuche gibg aber mMn 2012 los.
Und AMD macht natürlich auch dabei noch mit. (wobei unklar ist ob das erfolgsverspreche ist). Es zeigt wir brauchen einen aufmüpfigen dritten IHV der den Druck erhöht.

Linmoum
2023-09-07, 08:57:23
Wobei zumindest AMD selbst allerdings froh sein kann, dass Nvidia die Preise und SKUs so ansetzt, wie sie es tun. Man stelle sich vor, das würde alles ein Tier nach unten rutschen, dann müsste AMD N32 für $100 weniger verramschen. Herkelman hat ja jetzt schon mit Blick auf die nur $50 Differenz zwischen 7700XT und 7800XT zugegeben, dass man ja auch als Unternehmen Geld verdienen müsse.

HOT
2023-09-07, 08:58:26
Ti4600 -> 500€+ (2002, könnte heute preislich der 4080 entsprechen)
5900FX -> 500€
6800 Ultra -> 540€
7900GTX -> 500€ (wie auch die 1900XTX)
8800GTX -> 580€
GTX 280 -> 550€
GTX 480/580 -> 480€

und danach wart schon Titan ;). Die Preise waren also über sehr lange Zeit sehr stabil (real gesunken durch Inflation). Ab Titan wurds teuer.

dildo4u
2023-09-07, 09:03:28
Wobei zumindest AMD selbst allerdings froh sein kann, dass Nvidia die Preise und SKUs so ansetzt, wie sie es tun. Man stelle sich vor, das würde alles ein Tier nach unten rutschen, dann müsste AMD N32 für $100 weniger verramschen. Herkelman hat ja jetzt schon mit Blick auf die nur $50 Differenz zwischen 7700XT und 7800XT zugegeben, dass man ja auch als Unternehmen Geld verdienen müsse.
Daher haben sie ja den 5nm Anteil um weniger als die Hälfte reduziert, die 7700xt ist so designt das sie die 6700xt ersetzen kann.
Die 6800 mit 16GB sollte deutlich teurer zu produzieren sein.

HOT
2023-09-07, 09:08:50
MMn hat AMD 7nm noch mal richtig gemolken, weil sie das aufgrund der Überkapazitäten bei TSMC billig bekommen haben und das läuft jetzt aus. TSMC wird auch schon recht viel auf neuere Fertigung umgebaut haben. N21 EOL, N23 EOL, weiter produziert werden nur noch das Zen3 CCD und N22. Das hatte natürlich den Vorteil, dass man mit den vorhandenen 5nm-Kontingenten Zen4 produzieren konnte wie bescheuert, N31 sind ja ebenfalls lukrativ für die abgerufenen Preise und mit Ausweitung der Kapazitäten kommt noch Phoenix, MI300 und N32 hinzu. Phoenix ist ja nicht wegen Probleme später gelauncht ;). Andere Sachen brachten schlichtweg mehr Geld.

robbitop
2023-09-07, 09:15:36
Ti4600 -> 500€+ (2002, könnte heute preislich der 4080 entsprechen)
5900FX -> 500€
6800 Ultra -> 540€
7900GTX -> 500€ (wie auch die 1900XTX)
8800GTX -> 580€
GTX 280 -> 550€
GTX 480/580 -> 480€

und danach wart schon Titan ;). Die Preise waren also über sehr lange Zeit sehr stabil (real gesunken durch Inflation). Ab Titan wurds teuer.
Mal die MSRPs in USD

Ti 4600 399$
FX5900 399$
6800 Ultra 499$
7900 GTX 500$
8800 GTX 599$
GTX 280 649$
GTX 580 499$ (Preissenkung!)

davidzo
2023-09-07, 11:17:21
GeForce 2 Ultra würde mir da als Erstes einfallen.

Jo, die war 1300Mark. Und Die Mark von damals hatte in etwa die Kaufkraft von 1 Euro heute inflationsbereinigt.

Selbst die GTS hat gut 700Mark auf die Waage gebracht und wenn man ein premium Partnerdesign made in Germany wollte, dann hat man sogar 849Mark für die Elsa Gladiac zahlen müssen, trotz nur 32mb Vram.

Jensen wusste es seitdem immer gut zu nutzen wenn seine Produktgeneration mal früher auf dem Markt war und in der Leistung konkurrenzlos.

Bei der geforce 256 hatte er nämlich den umgekehrten Effekt gelernt und einen frühen Shitstorm bekommen während die Partner und Händler gut verdient haben. Mit 179$ für die SDR Variante und 279$ für die DDR Version waren sie preislich direkte Nachfolger der TNT2 pro und Ultra. Die Karte war zwar auf dem Markt einzigartig und der Konkurrenz mindestens eine volle Generation voraus, aber durch den niedrigen Preis immer völlig ausverkauft. Die hatten einfach zu wenig Chips bestellt. Die Boardpartner und Händler haben hier richtig abgesahnt.
So einen Fehler hat Jensen nicht noch mal gemacht, seitdem wird selber zugegriffen wenn der shitstorm eh nicht zu verhindern ist.

Nightspider
2023-09-07, 12:32:55
So ein Vergleich mit Inflationsbereinigung würde mich schon auch sehr interessieren.

Unter dem Gesichtspunkt würden die aktuellen Karten dann gar nicht mehr so teuer wirken.

Die highend Karten werden ja primär auch dazu genutzt um die Renderauflösunge weiter hochzuprügeln.
Wer nur in FHD zockt und die Details auch mal von Ultra auf High setzen kann, kann ziemlich günstig PC Spiele zocken, gerade auch mit gebrauchten Karten.

Mit den >1000 Euro Karten wird ja meisten in 4K oder darüber gerendert. Wer ein knackig scharfes Bild haben will gibt das Geld gerne aus und hat dann mittlerweile 2-3 Jahre Ruhe.

Features wie Temporales Upsampling werden in den nächsten Jahren wahrscheinlich noch ordentliche Fortschritte machen.

Vielleicht gibts auch irgendwann sowas wie Eyetracking im Monitor mit Foveated Rendering, wo nur noch der Fokusbereich in 6K gerendert wird und der Rest in 1080 bis 1440p.
An allen Fronten der Technik geht es immer weiter voran.

Auf solche 4K Monitore mit 3D ohne Brille, wie auf der IFA gezeigt, warte ich ja schon seit Jahren. Vielleicht erleben wir in einigen Jahren nochmal ein Revival der 3D Technik. Dank 4-8K Panels muss man zumindest keine Abstriche mehr bei der Schärfe hinnehmen, wie damals bei den Nvidia-3D-Monitoren, wo sich zumindest die zeitliche Auflösung von 120Hz auf 60Hz halbiert hat und das Bild merklich dunkler wurde.
Bei der Helligkeit der OLEDs scheint es ja auch Zukunft weiter nach oben zu gehen.

BlacKi
2023-09-07, 15:16:42
Mit den >1000 Euro Karten wird ja meisten in 4K oder darüber gerendert. Wer ein knackig scharfes Bild haben will gibt das Geld gerne aus und hat dann mittlerweile 2-3 Jahre Ruhe.


das war ja früher auch anders. dort gabs ständig neue hardware mit massiven performance gewinnen, dementsprechend war die teure karte viel schneller nichts mehr wert.



für mich zählt sowieso nur der wertverfall von hardware, nicht der preis. und da war gerade der krypto boom die billigste pc hw phase die ich je hatte.

robbitop
2023-09-07, 15:36:32
Ja aber nur wenn man zu einem guten Zeitpunkt gekauft hat. Als alle HW wollten zu Covid Zeiten sah es anders aus. Wer vorher gekauft hat, hat (ohne es hätte wissen zu können) einfach pures Glück gehabt. Zumal die Verfügbarkeit von Ampere auch schon vor Covid ja auch schon fast ein Glücksspiel war insbesondere wenn man UVP haben wollte.

The_Invisible
2023-09-07, 15:57:49
das war ja früher auch anders. dort gabs ständig neue hardware mit massiven performance gewinnen, dementsprechend war die teure karte viel schneller nichts mehr wert.


Stimmt, heute ist auch eine 3090/6800xt noch top und die Karten sind jetzt 3 Jahre alt, die hättest früher nur mehr als besseren Briefbeschwerer verwenden wollen.

robbitop
2023-09-07, 16:06:31
Aber nur weil die Innovationsrate bzw der GPU Markt kaputt ist. Das kann man nicht gut finden.
Nur weil es seltener Sprünge gibt, ist es nicht gleichzeitig ok dafür mehr zu bezahlen.
Das ist als wenn man jeden Tag zum Bäcker geht und 1x Brötchen kauft für 1 EUR. Und auf einmal gibt es die nur noch einmal pro Woche 1x Brötchen was 2 EUR kostet. Ja man gibt 2 EUR statt 7 EUR pro Woche aus aber man bekommt nur 1x Brötchen was doppelt so teuer ist. X-D Wie kann man das gut finden?
Preis gibt es pro Leistung. Und das Delta an Leistung pro Zeiteinheit ist heute meh. Insbesondere wenn man Preis/Leistung pro Zeiteinheit betrachtet.

Lehdro
2023-09-07, 16:08:14
Ti4600 -> 500€+ (2002, könnte heute preislich der 4080 entsprechen)
5900FX -> 500€
6800 Ultra -> 540€
7900GTX -> 500€ (wie auch die 1900XTX)
8800GTX -> 580€
GTX 280 -> 550€
GTX 480/580 -> 480€

und danach wart schon Titan ;). Die Preise waren also über sehr lange Zeit sehr stabil (real gesunken durch Inflation). Ab Titan wurds teuer.

Mal die MSRPs in USD

Ti 4600 399$
FX5900 399$
6800 Ultra 499$
7900 GTX 500$
8800 GTX 599$
GTX 280 649$
GTX 580 499$ (Preissenkung!)
Habt ein paar vergessen:
5950 Ultra - 599€ - 499$
7800 GTX 512 - 649€ - 649 $
8800 Ultra - 699 € - 829$

robbitop
2023-09-07, 16:20:24
Ja wobei die Ultra so eine Art "on top" Produkt zur 8800 GTX war. Nur höhere Taktraten - mehr melken kaum Mehrwert. 8800 GTX hatte den vollen G80 Kern und hatte eine MSRP von 649$. (und durch ein wenig OC war das auch kein Problem das Leistungslevel zu erreichen)

Lehdro
2023-09-07, 16:34:04
Ja wobei die Ultra so eine Art "on top" Produkt zur 8800 GTX war. Nur höhere Taktraten - mehr melken kaum Mehrwert. 8800 GTX hatte den vollen G80 Kern und hatte eine MSRP von 649$. (und durch ein wenig OC war das auch kein Problem das Leistungslevel zu erreichen)
Selbiges kann ich über viele GPUs der Auflistung behaupten: 6800 GT vs. Ultra, 7900 GTO vs. GTX, FX 5900 vs. Ultra usw.
Ist halt kein wirkliches Argument :smile:

The_Invisible
2023-09-07, 16:40:15
Aber nur weil die Innovationsrate bzw der GPU Markt kaputt ist. Das kann man nicht gut finden.
Nur weil es seltener Sprünge gibt, ist es nicht gleichzeitig ok dafür mehr zu bezahlen.
Das ist als wenn man jeden Tag zum Bäcker geht und 1x Brötchen kauft für 1 EUR. Und auf einmal gibt es die nur noch einmal pro Woche 1x Brötchen was 2 EUR kostet. Ja man gibt 2 EUR statt 7 EUR pro Woche aus aber man bekommt nur 1x Brötchen was doppelt so teuer ist. X-D Wie kann man das gut finden?
Preis gibt es pro Leistung. Und das Delta an Leistung pro Zeiteinheit ist heute meh. Insbesondere wenn man Preis/Leistung pro Zeiteinheit betrachtet.

Einmal ist halt ein Zenit erreicht, wo die Grundperformance gut genug ist. Man darf nicht vergessen das auch die Auflösung enorm gestiegen ist, Highend ist heute UHD und war früher 1600x1200 (und das hat keine gut gepackt). Heute schafft das schon die untere Mittelklasse problemlos.

Aber was willst machen mit den Preisen, AMD geht da schön brav mit. Eventuell kann Intel einen Keil reindrehen aber die Karte müsste dann schon gut einfahren.

robbitop
2023-09-07, 17:02:59
Zenit? Man kann nie genug GPU Leistung haben. Die Stagnation der Entwicklung der GPU Leistung hat eben auch die Innovationsrate in Spielen gebremst. Mehr GPU Leistung würde zu mehr BQ pro Pixel führen.

Selbiges kann ich über viele GPUs der Auflistung behaupten: 6800 GT vs. Ultra, 7900 GTO vs. GTX, FX 5900 vs. Ultra usw.
Ist halt kein wirkliches Argument :smile:
Nope die 6800GT und die 7900 GTO waren beschnitten. Es geht um vollen Chip mit vollem Speicher und einfach nur ein bisschen mehr Takt. (wer für's binning bezahlt ist selbst schuld)
Die 5950 Ultra war tatsächlich eher ein Refresh des Refreshes der 5900. Und ja für die gilt das auch.

BlacKi
2023-09-07, 17:18:12
Aber nur weil die Innovationsrate bzw der GPU Markt kaputt ist. Das kann man nicht gut finden.
Nur weil es seltener Sprünge gibt, ist es nicht gleichzeitig ok dafür mehr zu bezahlen.
Das ist als wenn man jeden Tag zum Bäcker geht und 1x Brötchen kauft für 1 EUR. Und auf einmal gibt es die nur noch einmal pro Woche 1x Brötchen was 2 EUR kostet. Ja man gibt 2 EUR statt 7 EUR pro Woche aus aber man bekommt nur 1x Brötchen was doppelt so teuer ist. X-D Wie kann man das gut finden?
Preis gibt es pro Leistung. Und das Delta an Leistung pro Zeiteinheit ist heute meh. Insbesondere wenn man Preis/Leistung pro Zeiteinheit betrachtet.wenn du aber nur noch alle 2 wochen brötchen holen musst, so wie heute mit den gpus, dann hast du finanziell nichts verloren.


die kosten für eine gpu haben massiv zugenommen. es ist klar, das weiterentwicklungen nun mehr zeit brauchen. nicht umsonst geht nun die richtung abkürzung(dlss), sonst würden die preise noch weiter zulegen wenn man weiterhin alles nativ spielen wollen würde. so brauch ich eben keine 1000€+ karte für die fps. die 8800gtx hat die leistung mehr als verdoppelt im zeitraum von 1,5jahren. die wertverluste damals waren imens. da ist der wertverlust der 3090/4090 heute dagegen geringer. wirklich billiger wars damals auch nicht.

robbitop
2023-09-07, 17:27:51
wenn du aber nur noch alle 2 wochen brötchen holen musst, so wie heute mit den gpus, dann hast du finanziell nichts verloren.

Lies genauer. Du bekommst pro Woche nur 1 Brötchen anstatt 7. ;)
Also musst du hungern.
Die Analogie ist doch wohl klar? Weniger Innovation wird nicht deswegen besser weil man weniger zahlt (aber in Summe pro Innovation mehr).


die kosten für eine gpu haben massiv zugenommen. es ist klar, das weiterentwicklungen nun mehr zeit brauchen. nicht umsonst geht nun die richtung abkürzung(dlss), sonst würden die preise noch weiter zulegen wenn man weiterhin alles nativ spielen wollen würde. so brauch ich eben keine 1000€+ karte für die fps. die 8800gtx hat die leistung mehr als verdoppelt im zeitraum von 1,5jahren. die wertverluste damals waren imens. da ist der wertverlust der 3090/4090 heute dagegen geringer. wirklich billiger wars damals auch nicht.
Die (tatsächlichen) Kosten sind okay. Es wird oft so getan als erklären sich die heutigen Wucherpreise rein durch höhere R&D costen und Inflationen. Aber nein: Die Margen sind gestiegen wie sonst was (du finanzierst fremde Ferraris und Yachten). Und das passiert nur wenn der Markt nicht genug umkämpft ist. Genau das kritisiere ich.
Dass die Innovationsrate auch durch nicht mehr genauso schnelle Nodeshrinks gebremst ist, kann man akzeptieren. Die überfetten Margen aber eher nicht.

][immy
2023-09-07, 17:32:40
wenn du aber nur noch alle 2 wochen brötchen holen musst, so wie heute mit den gpus, dann hast du finanziell nichts verloren.


die kosten für eine gpu haben massiv zugenommen. es ist klar, das weiterentwicklungen nun mehr zeit brauchen. nicht umsonst geht nun die richtung abkürzung(dlss), sonst würden die preise noch weiter zulegen wenn man weiterhin alles nativ spielen wollen würde. so brauch ich eben keine 1000€+ karte für die fps. die 8800gtx hat die leistung mehr als verdoppelt im zeitraum von 1,5jahren. die wertverluste damals waren imens. da ist der wertverlust der 3090/4090 heute dagegen geringer. wirklich billiger wars damals auch nicht.

Der große Unterschied ist aber das du damals was ziemlich gutes im 200-300€ Bereich gefunden hast, was mit der Generation davor kurzen Prozess gemacht hat. Heute .... nunja, da ist das in Richtung von 500€ gewandert und die Vorgänger sind eigentlich ziemlich nah wenn nicht teilweise schneller.
Das mittlere Segment ist komplett gestorben und das absolute ultra high end liegt bei mehr als 1000€. Das ist selbst inflationsbereinigt schlecht. Vor allem auf lange Sicht für den Markt. Und DLSS rettet da nix, weil hardwareexklusiv und die neuste Version ist nicht mal kompatibel zu letzten Generation (die Zielgruppe ist also winzig). Das beschleunigt nicht grad die Adaptionsrate beim Kunden. Hoffen wir mal das zumindest fsr 3 gut wird.

Und ganz nebenbei passiert grad was ich mal prognostiziert habe für raytracing. Die Sprünge durch die Fertigung reichen nicht aus um rein auf Ray tracing setzen zu können. Wir sind auch heute noch bei ein paar ausgewählten Effekten und die minimalen Sprünge in den unteren Segmenten machen es unwahrscheinlicher das sich das wirklich für Beleuchtung & co als Standard durchsetzen wird.

BlacKi
2023-09-07, 17:35:20
Die überfetten Margen aber eher nicht.


warst du das nicht, der meinte, die 3080 war zu billig für nv um noch gewinne zu machen? wie passt das zusammen? waren die margen damals wirklich kleiner bei einer 6800/8800ultra?


ich glaub eher, das die anzahl der käufe zugelegt haben, denn die 8800gt hat nur einen bruchteil der ultra gekostet trotz des neueren prozesses und hat ebenfalls noch gut geld reingespielt. ich wäre mir nichtmal so sicher, das die margen nicht sogar prozentual höher waren.

[immy;13390225']Der große Unterschied ist aber das du damals was ziemlich gutes im 200-300€ Bereich gefunden hast, was mit der Generation davor kurzen Prozess gemacht hat. Heute .... nunja, da ist das in Richtung von 500€ gewandert und die Vorgänger sind eigentlich ziemlich nah wenn nicht teilweise schneller.
ja, aber früher sind die günstigeren karten später gekommen, nicht direkt zur vorstellung der neuen gen. aber im prinzip gebe ich dir recht, früher wollten die leute eher nicht soviel geld ausgeben, das hat sich geändert. früher wollte man möglichst viele karten verkaufen. heute cheesed man das aus, auch wegen der langen übergänge von gen zu gen.

upselling funktioniert wie man an den ganzen 4090 karten hier im forum sieht. man hat keine probleme für seine karten käufer zu finden, notfalls wartet man etwas, so hoch scheinen die lagerkosten nicht zu sein, das sich das rausschmeißen der karten rentiert.

Th3o
2023-09-07, 17:37:53
Zenit? Man kann nie genug GPU Leistung haben.
Anscheinend ist es nicht mehr so einfach so locker mehr Leistung aus den GPUs zu pressen. Auch der grüne Platzhirsch schafft das nicht.

BlacKi
2023-09-07, 17:53:58
Anscheinend ist es nicht mehr so einfach so locker mehr Leistung aus den GPUs zu pressen. Auch der grüne Platzhirsch schafft das nicht.würde gehen, die 4090 ist relativ stark beschnitten. das wäre dann schon 2x gewesen.

robbitop
2023-09-07, 18:08:07
warst du das nicht, der meinte, die 3080 war zu billig für nv um noch gewinne zu machen? wie passt das zusammen? waren die margen damals wirklich kleiner bei einer 6800/8800ultra?


ich glaub eher, das die anzahl der käufe zugelegt haben, denn die 8800gt hat nur einen bruchteil der ultra gekostet trotz des neueren prozesses und hat ebenfalls noch gut geld reingespielt. ich wäre mir nichtmal so sicher, das die margen nicht sogar prozentual höher waren.

Das hat MLID gesagt. Und man muss konstatieren dass die 3080 auch eher sowas war wie jetzt die 4090. Der geoße Chip mit einer ähnlichen Prozentzahl an deaktivierten Einheiten.
Die 699 usd waren wohl Verarschung seitens Nvidia. Sie haben das für eine kurze Zeit mit kleinen Stückzahlen gemacht und den OEMs rebates gegeben damit das denen möglich war und danach gab es die Karten zu der UVP auch nicht mehr. Und die Karte war bis auf wenige Einzeldrops nie wieder für den Preis gesehen. Insofern hatte diese UVP nie eine legitime Bedeutung.
Aber auch für 800€ war die Karte noch okay weil es ein GA102 war mit immer noch relativ vielen aktiven Einheiten.
Jetzt kriegst du für 800eur bei Ada einen AD104 der eher (relativ zum Topchip) eher eine 4060ti in Wahrheit wäre. Bei der 3080 war‘s andersherum. Nie war eine 80 relativ zum Topchip so stark.

Die Gewinnspannen sind ultrahoch geworden da gibts IMO nichts zu diskutieren.

BlacKi
2023-09-07, 18:12:03
Die Gewinnspannen sind ultrahoch geworden da gibts IMO nichts zu diskutieren.
die gewinnspannen bei den günstigeren karten hat man wohl angehoben. bei den topdogs weniger.

robbitop
2023-09-07, 19:17:41
Das Preis/Leistungsverhältnis ist eigentlich relativ ähnlich von oben bis unten.

basix
2023-09-07, 19:22:01
Das Preis/Leistungsverhältnis ist eigentlich relativ ähnlich von oben bis unten.

Für den Kunden ja ;) Das war mal anders: Umso höher man ging, desto geringer wurde das P/L.

BlacKi
2023-09-07, 19:25:28
Das Preis/Leistungsverhältnis ist eigentlich relativ ähnlich von oben bis unten.früher aber nicht, darum gehts doch. früher gabs performante 230-300€ karten nicht im preisverhältnis zum top dog waren. die hatten 80% des topdogs und waren 3x günstiger, wenn auch zeitlich versetzt. upselling hat es ermöglicht, das wesentlich mehr leute teuer einkaufen wollen.

robbitop
2023-09-08, 08:33:35
das ist oben drein schlimmer geworden ja. Ich bin mir aber ziemlich sicher, dass die Marge auch bei der 4090 noch astronomisch ist.

HOT
2023-09-08, 09:02:47
6900XT 16GB $999 -> 7900XTX 24GB $999
V64 8GB $499 -> 6800XT 16GB $649 -> 7900XT 20GB $899 (wahnwitzige Bepreisung bei Launch)
6800 16GB $549 -> 7900GRE 16GB $649
V56 8GB $399 -> 5700XT 8GB $449 -> 6700XT 12GB $479 -> 7800XT 16GB $499
6700 10GB $399(?) -> 7700XT 12GB $449
5700 8GB $349 -> 6600XT 8GB $379 -> 6750GRE 10/12GB $329
5600XT 6GB $279 -> 6600 8GB $329 -> 7600 8GB $269
5500XT 4GB $149 -> 6500XT 4GB $199 -> keine 7k

Die Bepreisung ist kontinuierlich gestiegen bei AMD


robbitop
ich würde zustimmen. Die 4090 wird ne Marge von über 100% haben, wenn die Entwicklungskosten eingerechnet werden vielleicht 80%.

OCmylife
2023-09-08, 09:32:54
Stimmt, heute ist auch eine 3090/6800xt noch top und die Karten sind jetzt 3 Jahre alt, die hättest früher nur mehr als besseren Briefbeschwerer verwenden wollen.

Wenn die Spiele vernünftig optimiert sind, stimme ich Dir zu. Ich habe gestern mal Starfield angespielt in 4K. Selbst mit Hoch und FSR mit 70% Skalierung waren immer noch keine stabilen 60 FPS drin, trotz 3090, die sich bis zu 450 Watt genehmigen darf und auch immer um die 400 Watt mit 99% Auslastung benötigte. Da wünscht man sich dann doch ne 4090 😁

Exxtreme
2023-09-08, 10:25:21
Wenn die Spiele vernünftig optimiert sind, stimme ich Dir zu. Ich habe gestern mal Starfield angespielt in 4K. Selbst mit Hoch und FSR mit 70% Skalierung waren immer noch keine stabilen 60 FPS drin, trotz 3090, die sich bis zu 450 Watt genehmigen darf und auch immer um die 400 Watt mit 99% Auslastung benötigte. Da wünscht man sich dann doch ne 4090 😁

Naja, ich würde Bugthesda-Spiele nicht als Referenz nehmen. Nicht dass hinterher rauskommt, dass sie alle Compiler-Optimierungen abgeschaltet haben oder so. ;D Zuzutrauen wäre es denen denn sowas haben sie schonmal gebracht.

Dino-Fossil
2023-09-08, 14:25:41
Joa, ich würde auch erstmal paar Wochen warten, ob nicht (wieder mal) ein paar Fan-Mods erscheinen, die nachträglich optimieren und ordentlich Performance hervorzaubern, so dass dann Bugthesda wiederum ein paar Wochen später die endlich per Patch einpflegen kann. :ugly:

Naja, a man may dream...

dildo4u
2023-09-08, 14:30:14
AMD performt schon wie gedacht eine 6700XT schafft über 1440p30fps High also wo die Xbox ist.

robbitop
2023-09-08, 14:30:38
Wenn die Spiele vernünftig optimiert sind, stimme ich Dir zu. Ich habe gestern mal Starfield angespielt in 4K. Selbst mit Hoch und FSR mit 70% Skalierung waren immer noch keine stabilen 60 FPS drin, trotz 3090, die sich bis zu 450 Watt genehmigen darf und auch immer um die 400 Watt mit 99% Auslastung benötigte. Da wünscht man sich dann doch ne 4090 😁
Todd Howard sagt, die PCs sind zu lahm und Sternenfeld ist Nextgen. ;D:freak:
https://www.computerbase.de/2023-09/starfield-auf-dem-pc-bethesda-schiebt-schlechte-leistung-auf-alte-hardware/

Schon klar, alles in Popellevel mit Ladezeit segmentiert und die Grafik ist zwar okay aber auch nicht wegweisend, wenn man es mit anderen Spielen vergleicht. Und dafür auch noch schweinelangsam. Also besonders optimiert ist das anscheinend nicht. Die sollen sich mal bei id Tech (oder Dice oder Nixxes oder Insomniac oder Bluepoint Games) schulen lassen wie das geht.

aufkrawall
2023-09-08, 14:39:35
Diese Engines sind doch auch alle tot und kein Stück mehr auf der Höhe der Zeit. Eines der wenigen verbliebenden positiven Beispiele für super in-house Engines sind Remedy mit Northlight.
Ansonsten könnte es klappen, dass das kleine Croteam mit Unreal in Talos 2 den Boden mit Custom-Engines wischt, wenn das wirklich so wie auf den Vorab-Screenshots aussehen sollte.

HOT
2023-09-08, 15:19:29
Creation ist damit aber auch nicht wirklich vergleichbar...

robbitop
2023-09-08, 15:24:14
Diese Engines sind doch auch alle tot und kein Stück mehr auf der Höhe der Zeit. Eines der wenigen verbliebenden positiven Beispiele für super in-house Engines sind Remedy mit Northlight.
Ansonsten könnte es klappen, dass das kleine Croteam mit Unreal in Talos 2 den Boden mit Custom-Engines wischt, wenn das wirklich so wie auf den Vorab-Screenshots aussehen sollte.
Seit wann ist die id Tech Engine tot? Oder auch die Insomniac und Bluepoint baut bei jedem Remaster was eigenes. Ich habe noch keine Anzeichen gesehen, dass die sterben.
Es wechseln tatsächlich viele (aber nicht alle) Studios auf Unreal 5.x. (was eine schöne Monokultur werden wird und wahrscheinlich nicht unter dem Zeichen der Optimierung)

Creation ist damit aber auch nicht wirklich vergleichbar...
Weil es offenbar nicht Bethesdas Stärke oder Priorität war. Die Creation Engine war schon immer nicht so besonders toll. Aber auch eigentlich nie so katastrophal wie heute in Relation zu anderen Titeln.

TheAntitheist
2023-09-08, 15:28:18
Genau. Und wer blind von einer 3060 auf eine 4060 oder von einer 3060Ti auf eine 4060Ti-8GB umsteigt, kauft evtl zum letzten Mal einen Nvidia GPU...:rolleyes:

'Tschuldigung, aber es ist heutzutage doch niemand mehr so blöd, wirklich blind eine GPU zu kaufen.
Wer überhaupt noch selbst herkömmliche Spiele-PCs besitzt, Grakas kauft und in der Lage ist, die einzubauen, ist in der Regel auch nicht so blöd, sich nicht vorher ein oder zwei Reviews anzusehen und zumindest die Balkenlänge abzuchecken.

Schlau ist die Namensgebung trotzdem nicht, klar, aber das ist sie von der Leistung auch bei der 4060Ti (das wäre eigentlich die 4060) und der 4060 (das wäre eigentlich die 4050) nicht, von dem ursprünglichen "4080 12GB"-Witz ganz zu schweigen.das gleiche gilt ja vor allem für einen WEchsel von einer 6800 zu einer 7800er radeon... stellenweise sogar langsamer. Den Vergleich bringst du natürlich nicht als AMD Fanboy

Lehdro
2023-09-08, 15:35:27
Nope die 6800GT und die 7900 GTO waren beschnitten. Es geht um vollen Chip mit vollem Speicher und einfach nur ein bisschen mehr Takt. (wer für's binning bezahlt ist selbst schuld)

6800GT (https://en.wikipedia.org/wiki/GeForce_6_series) und 7900GTO (https://en.wikipedia.org/wiki/GeForce_7_series) sind Vollausbauten gewesen.

robbitop
2023-09-08, 15:39:34
Oh okay da hat mich mein Gedächtnis getrügt. Dann gilt das natürlich für die auch.
Sowas gibt es ja heute nicht mehr.

Hier sieht man sogar wie die 6800 GT auf Ultra Niveau gebracht wird durch bisschen OC:
https://www.au-ja.de/review-pov6800gt-print.phtml

Wer dann so eine Sinnlos-Ultra kauft ist halt verschwenderisch (und wahrscheinlich nicht besonders smart) unterwegs.

amdfanuwe
2023-09-08, 15:58:19
Wie wäre es mal mit einem Laberthread?
Dann könnte man sich hier wieder auf RDNA3 konzentrieren.

aufkrawall
2023-09-08, 16:07:36
Seit wann ist die id Tech Engine tot?
Doom Eternal hat so ziemlich die mieseste Auflösungsskalierung irgendeines Spiels mit RT, obwohl das RT auch noch arschteuer ist. Keine Ahnung, was du an dem Müll so toll findest. Mir fällt aber auch gerade nichts ein, was damit angekündigt ist (ein Glück). Würde es begrüßen, wenn Microsoft den Stecker zieht.

robbitop
2023-09-08, 16:10:44
Doom Eternal hat so ziemlich die mieseste Auflösungsskalierung irgendeines Spiels mit RT, obwohl das RT auch noch arschteuer ist. Keine Ahnung, was du an dem Müll so toll findest. Mir fällt aber auch gerade nichts ein, was damit angekündigt ist (ein Glück). Würde es begrüßen, wenn Microsoft den Stecker zieht.
Das nächste Machinegames Spiel sicherlich. Indiana Jones. Und es sollte doch noch ein Wolfenstein 3 geben.

RT hab ich nicht getestet - aber ansonsten fand ich rannte Doom für das Gebotene irre schnell.

Lurtz
2023-09-08, 16:26:24
Gabs bei Indiana Jones nicht das Gerücht, die wären auch auf UE gewechselt?

TheAntitheist
2023-09-08, 16:48:33
Ich kaufe nie blind AMD sondern informiere mich ausgiebig vorher. :rolleyes: Und trotz der üblichen 08/15 Reviews bei Grafikkarten bin ich immer noch in der Lage sowas wie einen N31 ausgiebig zu untersuchen und wenn ich nicht zufrieden bin diesen wieder Retoure zu schicken. Also erspare mir deinen billigen Trollversuch. Warum ich keine Geforces mehr seit vielen Jahren kaufe hatte ich schon ausführlich hier dargestellt. Da Intel noch nicht in der Lage ist in für mich interessanten Segment aufzuholen bleibt erstmal AMD die einzige Option.


Am geilsten finde ich die Werte bei CP77 mit Lederjacken-RT... ähm, Verzeihung RT-Overdrive. :ulol:

RX 7700XT = 5fps
RX 7800 XT = 6fps
RTX 4060TI = 14fps
RTX 4070 = 18fps

Wofür benchmarkt man sowas überhaupt wenn es eh völlig unspielbar auf allen Karten ist? Kompletter bullshit imo. Selbst RT-Ultra bis RT-Medium ist für einen PC-Spieler mit etwas Anspruch an Fluffigkeit ebenfalls unspielbar mit den Werten da.

warum? Weil man Details und Auflösung reduzieren kann, weil man DLSS benutzen kann... also das was du hier von dir gibst ist nicht im geringsten besser als das was du anderen vor den Kopf wirfst. und die Rassismuskeule kannst du auch langsam mal einpacken

DrFreaK666
2023-09-08, 17:08:31
...und die Rassismuskeule kannst du auch langsam mal einpacken

Wo hast du da bitte Rassismus entdeckt? :uponder:

reaperrr
2023-09-08, 18:51:43
das gleiche gilt ja vor allem für einen WEchsel von einer 6800 zu einer 7800er radeon... stellenweise sogar langsamer. Den Vergleich bringst du natürlich nicht als AMD Fanboy
Was soll der Schwachsinn?

Das war nur meine Antwort auf das vorher genannte 6800XT->7800XT Beispiel um aufzuzeigen, dass es bei NV eben nicht besser aussieht.
Spar die die Sch***-Kommentare, wenn du zu faul bist den Kontext zu lesen.

Meine aktuelle Graka ist übrigens ne 3060Ti, meine vorherige ne 1070, und meine nächste voraussichtlich ne 4070, weil mir AMD zu heiß, stromhungrig und dadurch in der Regel zu laut ist. Was daran AMD-Fanboy sein soll erklär mir bitte mal.
Mir geht nur das einseitige Pro-NV-Scheuklappen-Rosinenpicken von einigen hier auf den Sack, nichts weiter, und das war von dir mal gerade ein absolutes Parade-Beispiel.

sun-man
2023-09-08, 20:05:28
Meine aktuelle Graka ist übrigens ne 3060Ti, meine vorherige ne 1070, und meine nächste voraussichtlich ne 4070, weil mir AMD zu heiß, stromhungrig und dadurch in der Regel zu laut ist. Was daran AMD-Fanboy sein soll erklär mir bitte mal.

Also "zu heiß" unterschreibe ich nicht.
https://www.techpowerup.com/review/powercolor-radeon-rx-7800-xt-hellhound/36.html
https://www.techpowerup.com/review/galax-geforce-rtx-4070-ex-gamer-white/37.html

In dem Vergleichsvideo 4070/7800XT ist die 7800XT jeweils ~10 Grad kühler - und nicht lauter.

HOT
2023-09-08, 20:40:45
Doom Eternal hat so ziemlich die mieseste Auflösungsskalierung irgendeines Spiels mit RT, obwohl das RT auch noch arschteuer ist. Keine Ahnung, was du an dem Müll so toll findest. Mir fällt aber auch gerade nichts ein, was damit angekündigt ist (ein Glück). Würde es begrüßen, wenn Microsoft den Stecker zieht.
Also manchmal kommen von dir Sachen, da weiß man nciht wo man hingucken soll....
Ist ja nur die technisch beste Lösung am Markt, aber spielt ja keine Rolle... :freak:

basix
2023-09-09, 00:24:20
Wo hast du da bitte Rassismus entdeckt? :uponder:

Lederjacke? ;D

ianm
2023-09-09, 06:51:01
Am geilsten finde ich die Werte bei CP77 mit Lederjacken-RT... ähm, Verzeihung RT-Overdrive. :ulol:

RX 7700XT = 5fps
RX 7800 XT = 6fps
RTX 4060TI = 14fps
RTX 4070 = 18fps

Wofür benchmarkt man sowas überhaupt wenn es eh völlig unspielbar auf allen Karten ist? Kompletter bullshit imo. Selbst RT-Ultra bis RT-Medium ist für einen PC-Spieler mit etwas Anspruch an Fluffigkeit ebenfalls unspielbar mit den Werten da.
Hab den Post gesehen und hole ihn trotzdem nochmal hoch, weil man CB2077 mit Pathtracing, DLSS Quality und Frame Generation mit einer 4070 wirklich spielen kann. DF Settings. Hier fällt selbst der Input Lag nicht groß auf. Das ist dann eben doch ein Unterschied zu AMD. Freue mich schon aufs Addon.

https://abload.de/thumb/cb2077_pathtracingijdbo.png (https://abload.de/image.php?img=cb2077_pathtracingijdbo.png)

dargo
2023-09-09, 07:13:23
Sieht zwar zum kotzen aus, aber hey... Hauptsache RT-Overdrive ist drin. :uup:

HOT
2023-09-09, 09:04:00
Vor allem "spielen kann" mit den Shooterelementen... :freak:
Es läuft - wie Grütze - aber es läuft.

robbitop
2023-09-09, 09:19:55
RTX : On. Und schon freuen sich die Lemminge.

Ohne Spaß:
Ich finde, dass es nicht immer optische Vorteile bietet - insbesondere für die Kosten.
Aber: Global Illumination in dunklen Räumen sieht damit oft dich deutlich realistischer aus und Dinge wie Refraktion/Reflexion.
Aber weil es oft wenige Rays und Bounces sind sehen Reflexionen oft sehr detailarm aus.
Und man kann vieles auch zT sehr gut faken (und bekommt es dann zu einem Bruchteil der Performance).

Aber grundsätzlich denke ich schon, dass das der nächste Schritt auf der Evolution der 3D Grafik ist. Und in der Übergangszeit sehen solche Dinge dann meist „cringe“ aus. Wie bei Pixelshadern damals. Als man dann genug Leistung hatte und nicht mehr Effekthascherei betreiben wollte, waren Shader dann richtig gut und nicht mehr wegzudenken.
Mal schauen wie lange das mit RT dauert.

RT kann (weil nichts mehr manuel gefakt wetsen muss) Entwicklerzeit sparen. (wobei mir als Spieler das erstmal egal ist ob geakt oder nicht - mich interessiert Perf/BQ) Aber mittelfristig ist es die Zukunft.

Lurtz
2023-09-09, 10:03:28
Also ich habe Far Cry damals mit 20-30 fps (+VSync ;D) gespielt, da sind >60 fps mit Frame Generation schon ein Fortschritt.

Ich kann den Cyberpunk RT-Look aber nicht mehr sehen, erst recht nicht mit Overdrive. Alles grieselt (wenn man nicht gerade die Rechenpower für 4k hat) und zieht nach. Ich hoffe mal Ray Reconstruction wird da der erhoffte Gamechanger.

DrFreaK666
2023-09-09, 10:53:46
Hab den Post gesehen und hole ihn trotzdem nochmal hoch, weil man CB2077 mit Pathtracing, DLSS Quality und Frame Generation mit einer 4070 wirklich spielen kann. DF Settings. Hier fällt selbst der Input Lag nicht groß auf. Das ist dann eben doch ein Unterschied zu AMD. Freue mich schon aufs Addon.

https://abload.de/thumb/cb2077_pathtracingijdbo.png (https://abload.de/image.php?img=cb2077_pathtracingijdbo.png)

FSR3 kommt für Cyberpunk.

Linmoum
2023-09-09, 11:03:05
FSR3 kann die mangelnde Grundperformance von RDNA3 auch nicht herbeizaubern. Aber klar, vielleicht kann man damit dann trotzdem mit Radeons zumindest endlich mal RT auf Medium vernünftig spielen.

Sieht zwar zum kotzen aus, aber hey... Hauptsache RT-Overdrive ist drin. :uup:Das hat schon nichts mehr mit Objektivität zu tun, sondern ist schlicht offen zur Schau gestellte Trotzigkeit (oder sogar Ignoranz?) und Verklärung der Realität. Warum ist bei dir leider offensichtlich bei dem Thema. Und immer wieder schade.

The_Invisible
2023-09-09, 11:18:32
RTX : On. Und schon freuen sich die Lemminge.

Ohne Spaß:
Ich finde, dass es nicht immer optische Vorteile bietet - insbesondere für die Kosten.
Aber: Global Illumination in dunklen Räumen sieht damit oft dich deutlich realistischer aus und Dinge wie Refraktion/Reflexion.
Aber weil es oft wenige Rays und Bounces sind sehen Reflexionen oft sehr detailarm aus.
.

Dafür kommt ja DLSS3.5

Aber schon klar das es den AMDlern nicht schmeckt, die haben wohl noch damit zu kämpfen das RDNA2 nicht alle Features bekommt ;)

dargo
2023-09-09, 11:31:16
Vor allem "spielen kann" mit den Shooterelementen... :freak:
Es läuft - wie Grütze - aber es läuft.
Ach hör doch auf... die cinematischen 6fps bei 1% low kommen bestimmt geil rüber mit RTX On. ;D ;D ;D Ach nee... dafür brauchst du ja 24fps. :D

Platos
2023-09-09, 11:36:29
Das hat schon nichts mehr mit Objektivität zu tun, sondern ist schlicht offen zur Schau gestellte Trotzigkeit (oder sogar Ignoranz?) und Verklärung der Realität. Warum ist bei dir leider offensichtlich bei dem Thema. Und immer wieder schade.

*Hust* AMD Fanboy *Hust*

Ist halt immer das gleiche bei denen.

Ich kann dir sagen, wie das laufen wird:

Alles, was nvidia (zuerst) implementiert hat wie RT und co. wird erst dann als "Marktrelevant" oder "nicht schlecht aussehend" abgetan, wenn AMD von der Qualität und perfomance gleichziehen kann.

Dann wird es auf einmal ganz wichtig werden ;)

robbitop
2023-09-09, 11:42:32
Dafür kommt ja DLSS3.5


Leider wieder proprietär aber technisch total sinnvoll. :) Gegen das Grieseln und das laggen hilft das - aber nicht gegen die Detailarmut die aufgrund von zu hohen Kosten eingestellt wird bisher. Da hilft nur brachial mehr Leistung.


Aber schon klar das es den AMDlern nicht schmeckt, die haben wohl noch damit zu kämpfen das RDNA2 nicht alle Features bekommt ;)
Ein Musterbeispiel (wie leider auch viele andere in diesem Thread seit ein paar Seiten…) von Beiträgen die die Welt nicht braucht. Offtopic, unnötig agitierend und keine Substanz. Das gilt auch für 90% der anderen Posts der anderen hier… das ist niveaulos und bietet keinen Mehrwert. (obiger Quote ist nur exemplarisch!)

Mein Tip: Wer Niveau hat steht über Propellerjungentum und macht nicht auch noch mit. ;)

aufkrawall
2023-09-09, 11:45:10
aber nicht gegen die Detailarmut
Doch, das RT verliert ja (laut Nvidia) allgemein massiv weniger Details mit TC-Denoising als mit den traditionellen Echtzeit-Denoisern.

dargo
2023-09-09, 11:57:10
Das hat schon nichts mehr mit Objektivität zu tun, sondern ist schlicht offen zur Schau gestellte Trotzigkeit (oder sogar Ignoranz?) und Verklärung der Realität. Warum ist bei dir leider offensichtlich bei dem Thema. Und immer wieder schade.
Klar... du bist ja voll objektiv. :freak: Hast du dir mal das Bild welches ianm gepostet hat angesehen? Das sieht so unfassbar schlecht aus, aber Hauptsache RAYTRACING!!! 111elf. Das Bild sieht aus wie ein schlechtes Upcaling von 720p-960p @1440p auf einem billigen Monitor. Ich opfere doch nicht so viel Bildqualität damit ich nur das bescheuerte Raytracing nutzen kann. :ucrazy: Aber ich bin auch kein RTX-Zombie von Nvidia.


Aber schon klar das es den AMDlern nicht schmeckt, die haben wohl noch damit zu kämpfen das RDNA2 nicht alle Features bekommt ;)
Witzig, dass so ein Stuss auch immer nur aus dem grünen Lager kommt. :uup: Ich verrate dir mal was... vor wenigen Stunden habe ich mir meine Garmin Venu 2 sowie die Airbuds 10 geschnappt und bin fast 1,5 Stunden im Wald gelaufen. Alles mit voller Dröhnung RTX ohne Kompromisse und geiler Musik an den Ohren. :eek: Ab und zu habe ich sogar das Glück ein Tier im Wald anzutreffen. Und Überraschung... auch dieses Tier bekomme ich in voller RTX Dröhnung zu sehen.

*Hust* AMD Fanboy *Hust*

Ist halt immer das gleiche bei denen.

Ich kann dir sagen, wie das laufen wird:

Alles, was nvidia (zuerst) implementiert hat wie RT und co. wird erst dann als "Marktrelevant" oder "nicht schlecht aussehend" abgetan, wenn AMD von der Qualität und perfomance gleichziehen kann.

Dann wird es auf einmal ganz wichtig werden ;)
Falsch! Wenn es im Mainstream schnell genug ist bei vertretbaren Powerbudget, erst dann ist es marktreif. :rolleyes: Und das bestimmen in erster Linie die Konsolen, dann der Mainstream beim PC-Gaming. Natürlich rafft das die PC-Elite im 3DC immer noch nicht. Diese Lernresistenz ist schon bemerkenswert hier.

DrFreaK666
2023-09-09, 12:17:10
FSR3 kann die mangelnde Grundperformance von RDNA3 Nicht-Ada-Karten auch nicht herbeizaubern. Aber klar, vielleicht kann man damit dann trotzdem mit Radeons Nicht-Ada-Karten zumindest endlich mal RT auf Medium vernünftig spielen...

Habs für dich mal korrigiert ;)

robbitop
2023-09-09, 12:19:05
Doch, das RT verliert ja (laut Nvidia) allgemein massiv weniger Details mit TC-Denoising als mit den traditionellen Echtzeit-Denoisern.
Ja ich meine eher, dass Objektgeometriedetails fehlen oder ganze Objekte. Das liegt dann nicht an den Rays und den Bounces nach meinem Verständnis. Entsprechend hilft dort der bessere Denoiser nicht.
Aber grundsätzlich kann er indirekt helfen in dem man ggf. obige Details erhöht und im Gegenzug die Strahlenanzahl runternimmt (was dank dem besseren denoiser nicht so in's Gewicht fallen sollte).

Hypadaiper
2023-09-09, 13:09:49
Also ich komme eigentlich von roten Lager und war bei der Vorstellung von DLSS2.0 dermaßen begeistert, dass es direkt nen Laptop mit einer 3080 wurde (sehr günstig geschossen damals ). Vorher war eine 6900 oder so anvisiert.
Dann als Ada kam hab ich in Drop ne 4090fe ergattert und bin sehr begeistert darüber wie gut alles läuft.
Es wäre toll wenn sich ein offener Standard in RTX und upscaling durchsetzt. Nvidia macht sowas nicht und das ist kacke. Aber den selling point haben sie. Einfach mit „ach ihr doofen amd Fans“ zu argumentieren ist doch Grütze. Kindlicher Grabenkampf den ich vielleicht im Luxx oder CB erwarte, aber doch bitte nicht im Technikfokussierten 3d.

ianm
2023-09-09, 15:33:05
Ach hör doch auf... die cinematischen 6fps bei 1% low kommen bestimmt geil rüber mit RTX On. ;D ;D ;D Ach nee... dafür brauchst du ja 24fps. :D
Die schnappt sich RTSS direkt beim Spielstart und lässt sie nicht mehr los. Sieht ingame aber ganz anders aus. Die Frametimes sind fast eine Linie. Hauptsache du kannst dich wieder an irgendwas aufhängen?

https://abload.de/thumb/cb2077_bench_pathtrac7zcsb.png (https://abload.de/image.php?img=cb2077_bench_pathtrac7zcsb.png)

PS: Ich weiß es ist offtopic, wollte ich trotzdem nochmal klarstellen. Und ja, Ray Reconstruction wird der Bildqualität insgesamt sicher gut tun.

dargo
2023-09-11, 16:33:17
Ach was, den kleinen Seitenhieb konnte ich mir nicht verkneifen. ;) Aus der Ferne kann ich natürlich nicht beurteilen wann dieser Ausreißer vorkam. Hauptsächlich ist die Bildqualität totale Grütze mit DLSS, zumindest das Bild was du da gepostet hast. Keine Ahnung wie man sowas gut finden kann. Aber jeder hat da offenbar andere Ansprüche Vorlieben an Bildqualität. :)

HOT
2023-09-12, 19:06:44
Von wegen AMD ist fertig mit RDNA3 :freak:. Da ist nur Chaos in der Bude. Die sollten echt mal ihr Führungspersonal adäquat informieren, bevor die ihre Fresse in die Kamera halten und irgendeinen BS behaupten :freak:

https://www.techpowerup.com/313541/powercolor-registers-radeon-rx-7600-xt-10-gb-12-gb-cards

Natürlich sind 7600XTs jetzt registriert worden, das bedeutet, die würden so im November etwa launchen. Endweder macht man noch mehr N32/31 mit 2 SEs (wie ich schon vor Monaten spekuliert hab) oder N22 bekommt schlichtweg nen neuen Namen. Ich glaub aber ersteres, denn ich denke, AMD wird die 6750GRE mit 10 und 12GB vor allem in Mengen für China-Inet-Kaffees für Spottpreise verschleudern und damit die letzten N22 aus den Lagern bekommen.

Der_Korken
2023-09-12, 19:12:18
Eine 7600XT auf N32-Basis ist noch unwahrscheinlicher als es ein 70CU-N31 je war. Was AMD schon von der 7700XT hält, haben sie mit dem Preisschild gezeigt.

HOT
2023-09-12, 19:21:28
Offensichtlich nicht ;).

Linmoum
2023-09-12, 19:27:31
Von wegen AMD ist fertig mit RDNA3 . Da ist nur Chaos in der Bude. Die sollten echt mal ihr Führungspersonal adäquat informieren, bevor die ihre Fresse in die Kamera halten und irgendeinen BS behaupten

https://www.techpowerup.com/313541/powercolor-registers-radeon-rx-7600-xt-10-gb-12-gb-cards

Natürlich sind 7600XTs jetzt registriert worden, das bedeutet, die würden so im November etwa launchen. Endweder macht man noch mehr N32/31 mit 2 SEs (wie ich schon vor Monaten spekuliert hab) oder N22 bekommt schlichtweg nen neuen Namen. Ich glaub aber ersteres, denn ich denke, AMD wird die 6750GRE mit 10 und 12GB vor allem in Mengen für China-Inet-Kaffees für Spottpreise verschleudern und damit die letzten N22 aus den Lagern bekommen.Diese EEC-Registrierungen sind und waren schon immer völlig sinnloser Quatsch. Warum man sowas mehr Bedeutung schenkt als der Aussage von Herkelman zum Lineup, ist mir echt ein Rätsel.

Sapphire hat zur RDNA-Zeit dort mal 5950XT, 5950, 5900XT, 5900, 5850XT, 5800, 5750XT und 5750 registrieren lassen. Welche von den Karten sind eigentlich auf den Markt gekommen? Hätte ja alles sein müssen, wurden ja schließlich offiziell bei der EEC registriert. :rolleyes:

Ernsthaft jetzt, jedes Jahr kommt irgendjemand damit um die Ecke. Und es ist jedes Jahr so, dass da willkürlich einfach nur Produktnamen registriert werden ohne, dass es konkrete Anhaltspunkte dafür gibt. Das sind einfach nur Platzhalter.

So sehr man AMD auch zurecht insb. beim Marketing kritisieren darf (und muss...), aber hier jetzt ihnen irgendein Chaos vorzuwerfen, weil bei der EEC (:freak:) irgendein AiB Produktnamen hat registieren lassen, ist einfach albern.

maximus_hertus
2023-09-12, 19:41:53
oder N22 bekommt schlichtweg nen neuen Namen.

Das könnte ich mir am ehesten vorstellen.

N32 für ca. 350 USD? Das halte ich für eher unwahrscheinlich. Aber nicht unmöglich.


Trotzdem, wenn ich wetten müsste, würde ich auf ein Rebranding von N22 tippen.

Gerade um die Lücke zwischen 269 USD (7600) und 7700XT (449 USD) zu füllen. Das ist dann doch eine sehr große Lücke.

Agent117
2023-09-12, 20:03:31
Kann man N22 vielleicht einfach auf 6nm portieren ?
Denke da an sowas wie damals bei Polaris 10/20 auf 30 von 14 auf 12 nm, wobei ich nicht weiß, ob der genutze 12 nm Prozess damals Fake war.
Brachte jedenfalls immerhin gut 10 % mehr Performance bei gleichem Verbrauch und die späte Portierung über 2 Jahre nach P10 nachdem die RTX 2000er draußen waren impliziert ja, dass es AMD nicht wirklich viel gekostet haben sollte.

Man wäre so schneller als die 4060 Ti, hätte mit 12 Gb eine sehr passende Speicherausstattung und dank 6 nm wäre der Chip vmtl. nicht so teuer, um ihn agressiv in den Markt zu bringen.

vinacis_vivids
2023-09-12, 21:58:46
N31:
96CU - 384bit - 7900XTX 24GB
84CU - 320bit - 7900XT 20GB
80CU - 256bit - 7900GRE 16GB - New
70CU - 256bit - Pro W7800 32GB

N32:
60CU - 256bit - 7800XT 16GB
54CU - 192bit - 7700XT 12GB
48CU - 192bit - 7600XT 12GB - NEW
48CU - 160bit - 7600XT 10GB - NEW

N22:
40CU - 192bit - 6750XT 12GB - (Rebrand)
40CU - 192bit - 6700XT 12GB - OLD
36CU - 160bit - 6750GRE 10GB - NEW (Rebrand)
36CU - 160bit - 6700 10GB - OLD

N33:
32CU - 128bit - 7600 8GB
28CU - 128bit - Pro W7500 8GB
16CU - 96bit - 7500XT 6GB ?

Der_Korken
2023-09-12, 22:23:56
N31:
48CU - 192bit - 7600XT 12GB - NEW

Wie nennt man eine Karte, die 10% langsamer als eine 7700XT und 50% schneller als eine 7600 ist? 7600XT :facepalm:

HOT
2023-09-12, 22:47:04
Wenn es N32 ist, dann sicherlich nur 40CU, also 2x10 WGP würde ich sagen.

Der_Korken
2023-09-12, 23:00:19
Wenn es N32 ist, dann sicherlich nur 40CU, also 2x10 WGP würde ich sagen.

Warum nicht noch eine 7600GRE dazu mit 30CUs und 12GB?

vinacis_vivids
2023-09-13, 00:23:19
Aufgrund des möglichen Ausfalls von 3nm für die RDNA4 Gaming-Sparte, wird stattdessen für RDNA3 spekuliert. Ist nicht ganz neu, aber eine hypothetische RX 7970 XTX @ 3,0Ghz und 24Gbps Speicher passt ganz gut ins Portfolio in Anlehnung an die alte HD 7970 Ghz Edition.

RDNA 3 Refresh - 7970 XTX, 7950 XT, & 7850 XT
LczAQF7JfgU

Die Wahrscheinlichkeit steigt für einen RDNA3-Refresh, wenn RDNA4 sich weiter verzögert wegen AI-Fokus im HPC und fehlende 3nm-Kapazität.

HarryHirsch
2023-09-13, 00:26:02
krass, ist rdna3 dann zur hälfte gefixt oder komplett?

:freak:

BlacKi
2023-09-13, 00:42:14
kann man das doch refresh nennen, wenn die gpu 2 jahre später im besseren prozess kommt?

dargo
2023-09-13, 06:41:59
krass, ist rdna3 dann zur hälfte gefixt oder komplett?

:freak:
Da wäre gar nichts gefixt bei 450W. :lol:

robbitop
2023-09-13, 09:38:07
Geil ein weiterer Youtubedummschwätzer. Nur diesmal ohne Quellen. :up:

DrFreaK666
2023-09-13, 10:56:28
Wir sind im Speku-Forum. Wo ist das Problem?

vinacis_vivids
2023-09-13, 11:02:08
Im "gleichen" Prozess kann man schon noch mehr Taktraten rausholen.
Siehe Polaris:
Polaris 10 14nm (RX480) ~ 1266 Mhz @ 150W
Polaris 20 14nm (RX580) ~ 1340 Mhz @ 185W
Polaris 30 12nm (RX590) ~ 1545 Mhz @ 175W
Bei RDNA2 sah man parallele Nutzung von 7nm (N21) und 6nm (N24).


Ob AMD auf N4P umsteigt bei der RDNA3 uArch, hängt allein vom Preis (~ Ausbeute * Kosten pro N4P GCD) ab. Die spekulierten 3,0(5nm) 3,3-3,7Ghz (N4P) Taktraten wären in der Tat der erste Beweis, dass RDNA3 für >3,0Ghz konzipiert ist, also nicht nur in Compute, sondern auch Grafik.

Aktuell ist bei N31XTX@464W oftmals schon bei 2,8-2,9Ghz Shadertakt im UHD Schluss.

Das neue Asrock Aqua Extreme Bios erlaubt ~ 2,935 Ghz
https://abload.de/img/asrockaquabios7900xtxvui1j.png

Das Ding schluckt dann aber ~ 550W, also völliges Brute-Force weit jenseits jeglicher Effizienzen. Sehr gute Exemplare davon machen bestimmt 3,0Ghz. Leider gibs zu wenige Tests von der Karte.

Spekulation:

Bei N4P verspricht TSMC ~11% Leistungsplus. Das wäre Pi mal Daumen 2,5 * 1,11X ~ 2,77Ghz für N31XTX N4P MBA. Die teuren OC-Varianten kämen auf 2,8-2,9 * 1,11X ~ 3,1-3,2Ghz. Bei +6% density sind es für den GCD noch 45,4 Mrd. Tr / 304,35mm² ~ 149,17 * 1,06 (density +6%) ~ 158,12 Mio. Tr. / mm²

~ 287mm² GCD N4P 96CU N31XTX shrink
~ 3,1-3,2Ghz

Für ~3,3-3,7Ghz Shader müssten noch extra Takttransistoren verbaut werden und/oder die Clock-Domains beim Command Prozessor höher (und unabhängiger) takten oder eine Sonderedition mit H²O Kühlung auf dem Markt kommen mit ~550W (wie die Asrock Aqua Extreme).

Im Prinzip muss AMD das Ding 7970 XTX @ 3,0Ghz bringen, wenn sie es können. Dazu noch 3D-IF$ einbauen und mit 192MB IF$ antreten. ~3,0 Ghz ist halt auch ne starke psychologische Grenze.

robbitop
2023-09-13, 11:07:45
Wir sind im Speku-Forum. Wo ist das Problem?
IMO: Man kann im Forum spekulieren. Aber irgendein sinnloses Gequatsche von einem Niemand und Nichtswisser auf YT ist nicht wirklich ein sinnvoller Input.

Spekuforum heißt nicht Müll Input.

Der_Korken
2023-09-13, 11:27:53
AMD täte besser daran, RDNA3 einzustampfen und falls nötig lieber RDNA4 in 4nm zu bringen, wenn 3nm sich zu sehr verspäten. Zum einen kann man davon ausgehen, dass das "Leckstrom-Problem" dort vollständig gefixt ist und die zusätzliche BVH-Beschleunigung wird im Highend-Bereich imho drigend benötigt.

Nightspider
2023-09-13, 11:35:34
Eben, wozu sich nochmal mit der mittelmäßigen Architektur auseinandersetzen wenn man auch gleich die nächste RDNA4 Iteration beschleunigt herausbringen könnte.

Selbst mit kleinen Chips könnte AMD viele Käufer überzeugen, wenn die Effizienz und Leistung stimmt.

Falls RDNA4 gut wird könnte man auch mit relativ kleinen Chips in N4P oder N3 überzeugen und dank kleiner Chips könnte AMD auch relativ zeitig einen neuen N3(E ?) Prozess nutzen.

sun-man
2023-09-13, 11:43:42
Naja, 2024 wäre angepeilt und im August ging das Gerücht das RDNA4 eh aufgegeben wurde.
Da ist es doch nur logisch zu versuchen aus der Mitte Geld zu bekommen. Die MF Verkäufe sehen eher so aus als würden nicht alle den Untergang des Abendlandes mit der 7800 sehen.

Der_Korken
2023-09-13, 13:15:15
Das Gerücht war afaik, dass der Highend-Part von RDNA4 gestrichen wurde, nicht die Architektur an sich. Wenn AMD in 2024 noch kleine bis mittelgroße monolithische Chips in 4nm nachreichen will und RDNA4 auch für das Jahr geplant war, dann macht es imho wenig Sinn noch einen RDNA3-Aufguss zu verwenden, selbst wenn man den jetzt mit moderatem Verbrauch auf 3Ghz hochbekäme. Lieber schlechtem Geld kein gutes hinterher werfen und RDNA4 im Zeitplan halten. Es sei denn natürlich, die haben da auch irgendwas in der Architektur verkackt :freak:.

HOT
2023-09-13, 13:24:44
AMD täte besser daran, RDNA3 einzustampfen und falls nötig lieber RDNA4 in 4nm zu bringen, wenn 3nm sich zu sehr verspäten. Zum einen kann man davon ausgehen, dass das "Leckstrom-Problem" dort vollständig gefixt ist und die zusätzliche BVH-Beschleunigung wird im Highend-Bereich imho drigend benötigt.
Immer dieser Unsinn...

Lurtz
2023-09-13, 17:44:44
IMO: Man kann im Forum spekulieren. Aber irgendein sinnloses Gequatsche von einem Niemand und Nichtswisser auf YT ist nicht wirklich ein sinnvoller Input.

Spekuforum heißt nicht Müll Input.
Schwer nachzuvollziehen wo du da die Grenze ziehst. MLID ist ok, ein Youtuber, der zuletzt sogar von DF offiziell in einem ihrer Reviews gefeatured wurde, bezeichnest du dagegen als Dulli (nur weil er im Gegensatz zur Behauptung hier im Forum gar keinen Anti-Lag+ Test gemacht hat, sondern lediglich zusammengefasst und demonstriert hat was HyperX alles umfasst).

vinacis_vivids
2023-09-13, 17:47:45
AMD täte besser daran, RDNA3 einzustampfen und falls nötig lieber RDNA4 in 4nm zu bringen, wenn 3nm sich zu sehr verspäten. Zum einen kann man davon ausgehen, dass das "Leckstrom-Problem" dort vollständig gefixt ist und die zusätzliche BVH-Beschleunigung wird im Highend-Bereich imho drigend benötigt.

Ich würde sagen, dass NV lieber die Mittelklasse einstampfen sollte. Also alles unter der 4090 einstampfen, weil es alles Müll ist. Und die 6 Mio. Altmüllt auf der Halde 3050, 3060, 3060Ti will kaum einer mehr.

aufkrawall
2023-09-13, 17:50:59
Schwer nachzuvollziehen wo du da die Grenze ziehst.
Auf dem Kanal gibts regelmäßig relativ gescheite Tests + Frame Time-Graphen. Im Gegensatz zum 3DC-im Kreis-Gelaber ein echter Mehrwert.

davidzo
2023-09-13, 18:02:11
Ich würde sagen, dass NV lieber die Mittelklasse einstampfen sollte. Also alles unter der 4090 einstampfen, weil es alles Müll ist. Und die 6 Mio. Altmüllt auf der Halde 3050, 3060, 3060Ti will kaum einer mehr.

AD107, AD106 und AD104 sind in erster Linie Mobilchips und die Desktopkarten braucht man noch als Salvage für die Chips die die v/f Kurve für mobile nicht schaffen.

Der Mobilmarkt verkauft mehr Workstation GPUs und fast doppelt soviele "Highend" GPUs wie der Desktop. Im Desktop dagegen ist der Midrange am stärksten. Trotzdem ist der Markt für mobile dGPUs Stückzahlenmäßig leicht größer als der für Desktopkarten.

reaperrr
2023-09-13, 18:42:45
Das Gerücht war afaik, dass der Highend-Part von RDNA4 gestrichen wurde, nicht die Architektur an sich. Wenn AMD in 2024 noch kleine bis mittelgroße monolithische Chips in 4nm nachreichen will und RDNA4 auch für das Jahr geplant war, dann macht es imho wenig Sinn noch einen RDNA3-Aufguss zu verwenden, selbst wenn man den jetzt mit moderatem Verbrauch auf 3Ghz hochbekäme. Lieber schlechtem Geld kein gutes hinterher werfen und RDNA4 im Zeitplan halten. Es sei denn natürlich, die haben da auch irgendwas in der Architektur verkackt :freak:.
Ich versteh den Zusammenhang nicht.

Warum sollte sich ein etwaiger N31-Refresh in N4P, der von einem anderen Team umgesetzt wird als N43 und N44, auf den Zeitplan der beiden übrigen RDNA4-Chips auswirken?

Und N43 soll laut MLID mglw. nur 64 CUs haben und somit Performance-technisch eher N32-Nachfolger sein, damit kann man davon ausgehen, dass N43 so ziemlich in jeder Hinsicht nur 2/3 der N31-Specs haben wird.
Selbst wenn N43 20-25% vor N32 landet, würde in Raster noch immer einiges fehlen, um an einen 5-10% höher getakteten N31-Refresh ranzukommen. Insofern kann das schon Sinn machen, um trotz gecancelter HighEnd-RDNA4 ein volles Line-Up zu haben.

Beispiel:
849$ - 8900XTX (7900XTX-Refresh mit 5-10% höheren Taktraten in N4P)
699$ - 8900XT (7900XT-Refresh mit 5-10% höheren Taktraten in N4P)
549$ - 8800XT (N43-64CUs @3 GHz, 16GB G6@20Gbps@256bit, oder 18GB G7 @192bit)
479$ - 8700XT (N43-56CUs @3 GHz, 12GB G6@20Gbps @192bit oder 12GB G7 @192bit)
349$ - 8600XT (N44-32CUs @3.2 GHz, 12GB G7 @ 128bit)
299$ - 8600 (N44-28CU @2.9 GHz, 8GB G7 oder 8GB G6@20Gbps @128bit)

Der_Korken
2023-09-13, 19:06:23
Für mich fühlt sich ein Refresh von N31 wie verschwendete Zeit und Geld an. Ein N43 mit 64CUs und 3Ghz hätte knapp 30% mehr Rechenleistung als N32. Werden die in Leistung umgesetzt (z.B. durch 24Gbps VRAM und/oder mehr IF$), wäre eine 8800XT quasi schon an der 7900XT dran. In RT wäre sie vielleicht sogar 10-15% schneller (geschätzt anhand des Performance-Shifts zwischen AMD und Nvidia-Karten im Raster- und RT-Index). Damit wäre ein 7900XT-Refresh nur dann sinnvoll, wenn man N43 durch eine kleine VRAM-Config künstlich auf Abstand hält, z.B. weiterhin 20Gbps @256bit. Der 7900XTX-Refresh könnte sich um 20% absetzen, was für den Aufwand aber imho zu wenig ist. Erstens muss man sehen, ob man die 5-10% überhaupt so einfach bekommt, denn N31 fühlt sich schon deutlich mehr polished an als N32. Zweitens wäre ein Re-Layout extrem teuer und kostet sehr wohl irgendwo Zeit. Vielleicht nicht bei RDNA4, aber bei RDNA5 sicherlich.

Das ist so ein wenig wie damals die Radeon VII gegen die 5700XT. Ja, die VII war einen Tacken schneller, aber das wurde durch einen überproportional großen Chip, schlechtere Effizienz und massivst teureren HBM2 erkauft. Lässt man das obere Marktsegment halt aus und fertig.

Complicated
2023-09-13, 20:18:14
Oder man hat ganz einfach das Dual-GCD-Problem gelöst und kann 2xN43 nutzen.
Angenommen die N42 und N41 Designs sind nur als Backup mit entwickelt worden bis max Tapeout-Ready, für den Fall dass es nicht gelingt eine Dual-GCD Lösung ausreichend schnell zu machen.

In dem Szenario wäre das Canceln von N41 und N42 das Signal, dass AMD den Durchbruch bei GPU-Chiplets für Gaming geschafft hat. Ebenfalls interessant wäre, dass AMD mit einem N31-Respin die Dual-GCD Extras mit einbaut und N41/42 für ein N31-Dual-Design gestrichen hat - man spart sich 2 teure Designs und kann dennoch das Portfolio nach oben skalieren.

Nightspider
2023-09-14, 01:54:03
Warum sollte sich ein etwaiger N31-Refresh in N4P, der von einem anderen Team umgesetzt wird als N43 und N44


Denkst du die Ingenieure bei AMD wachsen auf Bäumen?

Glaubst du AMD will RDNA4 und RDNA5 nach hinten schieben nur um einen RDNA3 Refresh zu designen?
Und CDNA hat eine noch höhere Priorität.

Die Flucht nach vorne ist viel sinnvoller. RDNA5 soll vorgeschoben worden sein.

All die Kapazitäten die AMD für N41 und N42 gebraucht hätte können jetzt schon helfen N51 schneller fertig zu bekommen.

Bzw. wird man vielleicht erst Kapazitäten zu CDNA4 schieben und sobald CDNA4 fertig ist wieder Kapazitäten zu N51 schieben.

Aber wie flexibel solche Teams sind, wissen wohl nur die Leute aus den Firmen selbst. Also können wir da auch nur grob mutmaßen.

sun-man
2023-09-14, 06:43:26
Ich bin jetzt nicht ganz so aktuell. Aber RDNA4? Ist das alles diese TSCM 3nm Fertigung? Hat Apple da nicht gerade erstmal alles gekauft was da ist?

dildo4u
2023-09-14, 07:10:58
Ich bin jetzt nicht ganz so aktuell. Aber RDNA4? Ist das alles diese TSCM 3nm Fertigung? Hat Apple da nicht gerade erstmal alles gekauft was da ist?
Deswegen ist selbst Zen 5 noch 4nm, 3nm kommt für Nvidia und AMD vermutlich erst 2025.(Ausnahmen sind Server Produkte)

6800 lief 3 Jahre da wird 7800 Minium 2 laufen.

Strix Point APU ist 4nm die Zen 5 Chiplets 5nm (Fire Range)

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-8000-als-APU-mit-Zen-5-und-RDNA-3-5-1418150/galerie/3737214/

sun-man
2023-09-14, 07:20:58
Verstehe. Dann habe ich das falsch interpretiert.

dildo4u
2023-09-14, 07:26:18
Es kostet tonnen Kohle diese Chips in den Markt zu bringen so lange AMD massiv mehr Kohle als Intel mit ihre GPU macht gibt es wenig Grund sofort 3nm Modelle nachzuschieben.
AMD ist überhaupt er seit 3 Jahren in der Lage GPU bis 1000€ zu verkaufen, 2019 war RX 5700 XT das Maximale.

Leonidas
2023-09-14, 09:08:45
Von wegen AMD ist fertig mit RDNA3 :freak:. Da ist nur Chaos in der Bude. Die sollten echt mal ihr Führungspersonal adäquat informieren, bevor die ihre Fresse in die Kamera halten und irgendeinen BS behaupten :freak:

Sie haben es richtig gesagt (Chips fertig, Karten nicht). Die Presse hat es nur falsch wiedergegeben.

HOT
2023-09-14, 09:39:07
Sie haben es richtig gesagt (Chips fertig, Karten nicht). Die Presse hat es nur falsch wiedergegeben.
Dann hab ich die ja völlig umsonst angekackt ;). Sry for that.
Übrignes ist die "AMD verhindert FSR bei Starfield"-Story jetzt endgültig geplatzt ;). Wenn das so wäre, würde Bethesda jetzt nicht DLSS auch offiziell bringen (dürfen), die Story war also ebenfalls ein Presse-BS. Tom von MLID hat dafür ein paar Erklärungen, warum das so gelaufen ist. Grund ist die offenbar späte Umstellung auf DX12 und die Optimierung für die Konsole, welche ebenfalls FSR2 enthält. Da war einfach keine Zeit auch DLSS offiziell zu supporten.

EOVI
2023-09-14, 09:47:07
@Hot

Was ist bei dem sonst noch alles kaputt? Was soll bitte sonst der Grund gewesen sein? Hast du einen Link?

HOT
2023-09-14, 10:09:32
@Hot

Was ist bei dem sonst noch alles kaputt? Was soll bitte sonst der Grund gewesen sein? Hast du einen Link?
Es gibt keinen solchen Vertrag, sonst dürfte Bethesda das nicht machen, so einfach ist das ;). Kein Entwickler bei Verstand würde sowas auch unterschreiben, die ganze Story war von Anfang an einfach Absurd.

BlacKi
2023-09-14, 10:23:53
Dann hab ich die ja völlig umsonst angekackt ;). Sry for that.
Übrignes ist die "AMD verhindert FSR bei Starfield"-Story jetzt endgültig geplatzt ;). Wenn das so wäre, würde Bethesda jetzt nicht DLSS auch offiziell bringen (dürfen), die Story war also ebenfalls ein Presse-BS. Tom von MLID hat dafür ein paar Erklärungen, warum das so gelaufen ist. Grund ist die offenbar späte Umstellung auf DX12 und die Optimierung für die Konsole, welche ebenfalls FSR2 enthält. Da war einfach keine Zeit auch DLSS offiziell zu supporten.willst du mich verarschen? dlss kommt jetzt erstm weil weder amd noch bethesda bock auf den shitstorm haben. die wollen das jetzt beenden. mal davon abgesehen, das dlss von anfang an drin war, aber man sich entschieden hat es wiede raus zu nehmen. dlss entwickler hatten schon an starfield gearbeitet.

Platos
2023-09-14, 10:23:55
Ah ja, und die anderen 3 Entwickler, die DLSS nachträglich wegen Sponsorship entfernen mussten sind deswegen auch auf einmal kein Thema mehr;)?

Die Verträge wurden eben einfach entsprechend angepasst, so dass Bethesda nun DLSS einbauen soll, weil sie so dem Shitstorm aus dem Weg gehen wollen.

willst du mich verarschen? dlss kommt jetzt erstm weil weder amd noch bethesda bock auf den shitstorm haben. die wollen das jetzt beenden. mal davon abgesehen, das dlss von anfang an drin war, aber man sich entschieden hat es wiede raus zu nehmen. dlss entwickler hatten schon an starfield gearbeitet.

+1

robbitop
2023-09-14, 10:47:54
Schwer nachzuvollziehen wo du da die Grenze ziehst. MLID ist ok, ein Youtuber, der zuletzt sogar von DF offiziell in einem ihrer Reviews gefeatured wurde, bezeichnest du dagegen als Dulli (nur weil er im Gegensatz zur Behauptung hier im Forum gar keinen Anti-Lag+ Test gemacht hat, sondern lediglich zusammengefasst und demonstriert hat was HyperX alles umfasst).

MLID ist auch grenzwertig aber er hat nachweislich wenigstens Quellen. Aber ohne quellen einfach nur ein inhaltlich super dünnes Spekulations Video zu machen? Da müssen die Ansprüche schon super low sein.

Mag ja sein, dass er sonst brauchbare Tests macht (ich hab gerade mal 2 wuergeschaur und so dolle scheint mir das auch nicht zu sein und sein komisches albernes Gehabe macht ihn nicht gerade seriöser) - ich bewerte dieses Video aber alleinstehend weil es hier gepostet wurde. Und es enthält keinen Mehrwert - nichts recherchiert, keine insider Quellen sondern nur aus dem Finger gesauge. Als Forenbeitrag okay, als Video aber meh.

BlacKi
2023-09-14, 10:52:25
Die Verträge wurden eben einfach entsprechend angepasst, so dass Bethesda nun DLSS einbauen soll, weil sie so dem Shitstorm aus dem Weg gehen wollen.
in der hoffnung das wir so ne shitshow nichtmehr wieder sehen müssen.

Denniss
2023-09-14, 11:15:22
Bei Starfield gibt es aktuell soviele Baustellen die das Spielerlebnis negativ beinträchtigen das der Entwickler wohl erstmal wichtigere Sachen auf der Agenda hat als DLSS.
Die Story war von Anfang an Sommerloch-Clickbait.

HOT
2023-09-14, 13:04:39
willst du mich verarschen? dlss kommt jetzt erstm weil weder amd noch bethesda bock auf den shitstorm haben. die wollen das jetzt beenden. mal davon abgesehen, das dlss von anfang an drin war, aber man sich entschieden hat es wiede raus zu nehmen. dlss entwickler hatten schon an starfield gearbeitet.
Bullshit, es gibt keinen solchen Vertrag. Willst du mich verarschen? Besorg mir einen Beweis, der das belegt, dass AMD Bethesda untersagt hat, DLSS zu benutzen. Ihr macht euch das sooo leicht, mit diesen schwachsinnigen Behauptungen und nur weil es jeder jetzt nachlabert muss es ja stimmen. Aber es ist jetzt definitiv klar, dass es Quatsch war, da es keine derartige Vereinbarung gibt. Sonst könnte Bethesda nicht ankündigen, DLSS zu unterstützen. Ihr lagt falsch, HUB lag falsch, MLID lag die ganze Zeit richtig, ich auch. Erkennt die Realität an und lebt damit. Das ist ja wohl nicht wahr, dass man trotz dass es jetzt offensichtlich ist, immer noch diesen Schwachsinn glaubt.

Und hört auf mit der idiotischen Beweislastumkehr. Man kann nicht belegen, dass es etwas nicht gibt, das geht schon rein logisch nicht. Es muss immer derjenige was belegen, der so eine Behauptung überhaupt in den Welt setzt. Karl Popper und so, mal nachlesen und darüber nachdenken bitte. In der Justiz gilt nicht umsonst, dass der Ankläger beweisen musst, dass du was getan hat, nicht dass du beweisen muss, dass du was nicht getan hast.

aufkrawall
2023-09-14, 13:21:16
MLID ist auch grenzwertig aber er hat nachweislich wenigstens Quellen. Aber ohne quellen einfach nur ein inhaltlich super dünnes Spekulations Video zu machen? Da müssen die Ansprüche schon super low sein.

Wo spekuliert er denn da? Er fasst einfach mal zusammen, was das AMD-Marketing auf verwirrende Scheibchenweise für hypr-rx rausgegeben hat.

Ansonsten glaub ich nicht mal, dass irgendwelche Verträge angepasst werden mussten. Azor sprach von "FSR priorisieren". Da können andere Techniken halt zwei, sechs Monate oder zehn Jahre später kommen.

robbitop
2023-09-14, 13:41:28
Wo spekuliert er denn da? Er fasst einfach mal zusammen, was das AMD-Marketing auf verwirrende Scheibchenweise für hypr-rx rausgegeben hat.

Ich glaube du beziehst dich auf ein anderes Video als ich.

Ich bezog mich aus dem Video von v_v's Post von "graphically challanged" (ich glaube der ist eher an anderen Stellen "challanged"):
Aufgrund des möglichen Ausfalls von 3nm für die RDNA4 Gaming-Sparte, wird stattdessen für RDNA3 spekuliert. Ist nicht ganz neu, aber eine hypothetische RX 7970 XTX @ 3,0Ghz und 24Gbps Speicher passt ganz gut ins Portfolio in Anlehnung an die alte HD 7970 Ghz Edition.

RDNA 3 Refresh - 7970 XTX, 7950 XT, & 7850 XT
https://youtu.be/LczAQF7JfgU

Die Wahrscheinlichkeit steigt für einen RDNA3-Refresh, wenn RDNA4 sich weiter verzögert wegen AI-Fokus im HPC und fehlende 3nm-Kapazität.

DrFreaK666
2023-09-14, 14:02:55
willst du mich verarschen? dlss kommt jetzt erstm weil weder amd noch bethesda bock auf den shitstorm haben...

Immer schön wenn hier jemand mit Geheiminfos um sich wirft :ugly:

HOT
2023-09-14, 14:26:09
Lt MLID soll ja N43 nur ca. 200mm² haben und N44 ca 120mm². Also ein echter Nachfolger von N33 in N4, 40-48 CUs sind da wahrscheinlich, 32MB IF$ und 128Bit GDDR6 ebenfalls.
N44 ersetzt damit den glücklosen N24.

Es ist also ziemlich wahrscheinlich, dass N32 und N31 noch mals einen Refresh (Vielleicht in N4? Polaris ftw :D) erhalten, bis ein N51 irgendwann mal erscheint.

aufkrawall
2023-09-14, 14:29:47
Ich glaube du beziehst dich auf ein anderes Video als ich.

Ich bezog mich aus dem Video von v_v's Post von "graphically challanged" (ich glaube der ist eher an anderen Stellen "challanged"):
Ja, sorry. Der Müll sollte einfach von jedem ignoriert werden.

amdfanuwe
2023-09-14, 14:40:45
Es ist also ziemlich wahrscheinlich, dass N32 und N31 noch mals einen Refresh (Vielleicht in N4? Polaris ftw :D) erhalten, bis ein N51 irgendwann mal erscheint.
Da halte ich es für wahrscheinlicher, dass eher ein 400mm² N45 kommt damit Packaging Kapazitäten, die N31/32 belegt, frei werden.

davidzo
2023-09-14, 16:23:33
Sie haben es richtig gesagt (Chips fertig, Karten nicht). Die Presse hat es nur falsch wiedergegeben.

Ja und auch sonst schadet es nicht den Eindruck zu erwecken "wir sind jetzt komplett, sucht euch was aus", selbst wenn später noch weitere Salvagemodelle bzw. eine größere Auswahl kommen. Der Osborne-Effekt stellt sich ja nur beim umgekehrten Fall ein, also wenn man Modelle ankündigt, die aber dann für lange Zeit nicht auf den Markt bringt. Wirtschaftlich ist es besser wenn die Leute jetzt zugreifen und nicht zögern bevor eventuell noch ein passenderes, günstigeres Modell in die Lücken geschoben wird. Auch die Anleger werden sicher nicht klagen wenn AMD noch ein Modell mehr bringt als man geplant bzw. kommuniziert hatte. Umgekehrt würden sie schon einen Klagegrund haben.
Da kann man als C-level Manager also nichts falsch machen mit solchen Aussagen dass der Launch jetzt erstmal komplett ist, selbst wenn es nicht ganz stimmt.

Es kostet tonnen Kohle diese Chips in den Markt zu bringen so lange AMD massiv mehr Kohle als Intel mit ihre GPU macht gibt es wenig Grund sofort 3nm Modelle nachzuschieben.
AMD ist überhaupt er seit 3 Jahren in der Lage GPU bis 1000€ zu verkaufen, 2019 war RX 5700 XT das Maximale.

Eben. Die Masken, Validierung der Prototypen, schematics, boarddesigns, SW+firmwareanpassungen, Zertifizierungen, etc. sind so teuer und Aufwändig dass du das nicht mal eben so ohne Not machst. Zumal AMD eh nur ein paar Hunderttausend GPUs verkauft, während Nvidia jährlich Millionen absetzt. AMD hat also Faktor 5-10x höhere Chipdesign Abschreibungskosten pro verkauften Chip im Vergleich zu Nvidia. Deshalb macht es Sinn die Größe der Chipfamilie stärker zu begrenzen, siehe Navi1, mit nur 2Chips bzw. 3 wenn man den Apple custom chip mit HBM mitzählt.

Viel einfacher hingegen ist es die Golden Samples der N31 Chips beiseite zu legen und hinterher nochmal einen höhertaktenden Refresh hinterher zu schieben. Der Yield sollte ja generell einen aufwärtstrend haben, das werden mit der Zeit also mehr gute DIEs.

Aber an ein kompletten Respin in N4 glaube ich nicht wirklich. Dafür lässt sich zu wenig gewinnen und der Aufwand ist zu hoch. Da kann man auch bei den beisherigen N4 chips bleiben. Ein richtiger "fix" wäre wohl auch nicht ohne Anfassen der N6 MCDs und des SI-Interposers möglich, denn die besonders hohen Verbräuche treten ja bei ROP-Load und Memory Controller Load auf. Und das wäre wohl eine viel zu langwierige Angelegenheit.

dildo4u
2023-09-14, 16:49:07
Kein Plan wer die Rechnung bezahlt aber die 7800 zeigt zumindest in den USA Wirkung bei den 4070 Preisen.

https://wccftech.com/nvidia-geforce-rtx-4070-12-gb-gpus-are-now-available-for-549-us/

amdfanuwe
2023-09-14, 17:02:58
AMD hat also Faktor 5-10x höhere Chipdesign Abschreibungskosten pro verkauften Chip im Vergleich zu Nvidia.
Bei AMD waren es letztes Quartal 1,1 Millionen und bei Nvidia 5,1 Millionen, mit Mobile AMD 1,3, Nvidia 11,1 Millionen Stück.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-quartal-2023
Und da sind die iGPU in APUs und I/O nicht mit drin.
Zudem nutzt AMD auch einiges an den Entwicklungstools für CPU und FPGA.
Würde ich also nicht unterschreiben, dass AMD 5-10 mal höhere Entwicklungskosten pro Chip umlegen muss.

Bin mal gespannt, wie sich das auflöst wenn durch stärkere APUs und CPU/GPU Bundle Angebote für Nvidia zunehmend der Markt für kleine GPUs wegbricht.

sun-man
2023-09-14, 17:05:23
Ich denke da hilft schlichtes warten. Die Karten sind ja noch warm und kaum im Verkauf.
https://www.3dcenter.org/news/news-des-3-august-2023

https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+7800+XT.html

Das sind zumindest >800 verkaufte und ohne das jeder gleich zuschlägt.

Die 7700 ist halt der Looser in dem Spiel ^^
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+7700+XT.html

davidzo
2023-09-14, 17:11:55
Würde ich also nicht unterschreiben, dass AMD 5-10 mal höhere Entwicklungskosten pro Chip umlegen muss.


Okay, du sprichst in erster Linie von Architektur-Synergien, ich von Fertigung, also Maskenkosten, Prototypen, Validierung, etc.
Die Architekturentwicklung fällt ja heutzutage nicht mehr so stark ins Gewicht, da sind mittlerweile die physischen Tools, Masken, Verifizierung, etc. der deutlich größere Kostenfaktor. Und dort gibt es so gut wie keine Synergien, außer natürlich bei den MCDs.

Kommt halt drauf an auf was man die "Entwicklungskosten-Umlage" alles mit einbezieht. Ich ging von der Entwicklung eines weiteren N3x Refresh-Chips zum jetzigen Investitionszeitpunkt aus. Da ist das Ökosystem schon vorhanden und bloß ein Chip mehr oder weniger in der Familie. Die Entwicklungstools und Software habe ich da also bewusst nicht berücksichtigt weil die ja unabhängig ob ich 3x oder 4x N3X Chips baue bei AMD eh schon angeschafft sind.

Wenn man aber sogar noch die Software in die Entwicklungskosten mit einbezieht, dann kann man sich das natürlich viel schöner rechnen. Ein Großteil der Softwarekosten kann man dann in die APUs reinrechnen und über ein halbes Jahrzehnt abschreiben. Schließlich haben die APUs die größte Stückzahl, wenn man die Treiberentwicklung also damit schon zu 90% bezahlt hat, dann sind die Highend GPUs Softwaretechnisch richtig günstig herzustellen.

Es ist natürlich klar dass AMD in der Gesamt-Unternehmensrechnung nicht 5-10x über Nvidia liegt bei den Kosten. Wenn das so wäre hätte man die GPUsparte längst eingestellt, da man nicht kostendeckend produzieren könnte. Nvidias gross profit Margin ist auf einem Allzeithoch jetzt auch nur 70%.

Meine Rechnung kommt eher daher dass Nvidia derzeit von einem Chip-design mal eben 1-2Millionen pro Quartal absetzt, AMD aber froh sein kann wenn es 300K pro Chip sind. - Für AMD macht es also Sinn sich in der Anzahl an unterschiedlichen DIEs zu beschränken während es für nvidia mehr Sinn macht den Markt feingranularer zu bedienen und dadurch bei jeder SKU etwas Waferfläche zu sparen.

Ein Refresh mit einer ähnlichen Diegröße, features, Preissegment und marginal anderem Performanceziel, ausgerechnet in dem Highend-Segment in dem AMD eh schon den größten Stückzahlennachteil gegenüber nvidia hat, kann im Moment nicht in AMDs Interesse liegen. Da würde sich schon eher ein N32+ refresh lohnen oder ein N32,5 der die große Lücke zwischen N33 und N32 schließt. Die Masken und Upbringing-Kosten müssen sich bei N31 erstmal amortisieren und das dauert länger als bei N32 und N33. Um N31 wirklich abzulösen bzw. das Portfolio um ein höheres Preissegment zu erweitern, würde man dann schon eher einen N30 mit 128CU bringen müssen imo.

Langlay
2023-09-14, 17:34:15
mit Mobile AMD 1,3, Nvidia 11,1 Millionen Stück.


Würde ich also nicht unterschreiben, dass AMD 5-10 mal höhere Entwicklungskosten pro Chip umlegen muss.



Wenn man annimmt das die Entwicklungskosten ungefähr gleich sind, kann nach diesen Zahlen Nvidia die Entwicklungskosten auf 10x soviele Chips verteilen, also könnte passen.

Selbst wenn Nvidia Chipentwicklung doppelt so teurer wäre wie die von AMD, würde am Ende die auf den Einzelchip umgelegten Entwicklungskosten nur 20% vom dem betragen was AMD pro Einzelchip umlegen müsste.

Sind halt klassische Skalierungseffekte, der Motor unserer Wirtschaft.

Complicated
2023-09-14, 17:36:43
Aber an ein kompletten Respin in N4 glaube ich nicht wirklich. Dafür lässt sich zu wenig gewinnen und der Aufwand ist zu hoch. Da kann man auch bei den beisherigen N4 chips bleiben.
Ich denke N4P ist genau dafür gemacht:
https://pr.tsmc.com/english/news/2874
As the third major enhancement of TSMC’s 5nm family, N4P will deliver an 11% performance boost over the original N5 technology and a 6% boost over N4. Compared to N5, N4P will also deliver a 22% improvement in power efficiency as well as a 6% improvement in transistor density. In addition, N4P lowers process complexity and improves wafer cycle time by reducing the number of masks. N4P demonstrates TSMC’s pursuit and investment in continuous improvement of our process technologies.
TSMC customers often invest precious resources to develop new IP, architectures, and other innovations for their products. The N4P process was designed for an easy migration of 5nm platform-based products, which enables customers to not only better maximize their investment but will also deliver faster and more power efficient refreshes to their N5 products.

Ein N5 auf N4P zu portieren ist die günstigste Lösung für einen Respin nach Fix (wenn er bei N31 gefunden wurde) und zu dem fix +22% Effizienz. Diese geringere Kostenrisiko könnte auch mit eingeplant gewesen sein als Plan B.
Weniger Masken und geringere Durchlaufzeit sind ebenfalls gute Argumente für ein Respin.
Den Move von 7nm auf 6nm fand AMD auch sinnvoll bei einigen CPU-Modellen: https://www.amd.com/de/products/apu/amd-ryzen-7-6800u
Warum die kaum verfügbar waren wundert allerdings auch mich.

amdfanuwe
2023-09-14, 20:26:44
Den Move von 7nm auf 6nm fand AMD auch sinnvoll bei einigen CPU-Modellen: https://www.amd.com/de/products/apu/amd-ryzen-7-6800u
Warum die kaum verfügbar waren wundert allerdings auch mich.
Da war doch was mit Chipkriese...

Lurtz
2023-09-14, 21:11:03
MLID ist auch grenzwertig aber er hat nachweislich wenigstens Quellen. Aber ohne quellen einfach nur ein inhaltlich super dünnes Spekulations Video zu machen? Da müssen die Ansprüche schon super low sein.

Mag ja sein, dass er sonst brauchbare Tests macht (ich hab gerade mal 2 wuergeschaur und so dolle scheint mir das auch nicht zu sein und sein komisches albernes Gehabe macht ihn nicht gerade seriöser) - ich bewerte dieses Video aber alleinstehend weil es hier gepostet wurde. Und es enthält keinen Mehrwert - nichts recherchiert, keine insider Quellen sondern nur aus dem Finger gesauge. Als Forenbeitrag okay, als Video aber meh.
Es ging mir um Daniel Owen, den du die Tage als "Dulli" bezeichnet hast.

Und "Quellen" zu haben heißt auch nicht, dass man jeden Mist ungefiltert ins Internet weitertragen muss.

HOT
2023-09-15, 08:50:49
7nm ist ein blödes Beispiel, weil TSMC da auch große Kapazitäten hatte, die nach der Miningkrise dann auch nicht mehr voll ausgelastet waren.
AMD hat aber zwischendurch die Konsolen SoCs auf N6 umgestellt beispielsweise. Wenn RDNA3 bis Ende 25 oder gar bis 26 halten muss ist eine Umstellung auf N4P mit dem gleichen Maskenset, wie damals bei Polaris 30, sicherlich ne gute Idee. N32 und N31 mit mehr Takt, ergänzt nach unten hin von N43 und N44.
Ich nehme aber an, dass AMD das nicht mehr als Radeon 7000 vermarkten wird, sondern dafür gleich ne Radeon 8000-Serie auf den Markt bringt auf Basis der 4nm-N3x + N4x als komplett neues Lineup im Sommer.

mboeller
2023-09-15, 08:59:07
N32 und N31 mit mehr Takt, ergänzt nach unten hin von N43 und N44.


und N43/N44 sind dann bei RT aufgrund der Hardware-Beschleunigung schneller als N31/N32?

robbitop
2023-09-15, 08:59:18
Es ging mir um Daniel Owen, den du die Tage als "Dulli" bezeichnet hast.

Und "Quellen" zu haben heißt auch nicht, dass man jeden Mist ungefiltert ins Internet weitertragen muss.
Hä? Ist ein ganz anderer Thread, wo Daniel Owen erwähnt wurde. Ggf. nutzt du die Zitatfunktion im gleichen Thread um das zu addressieren. In diesem Thread wurde ein Video von "Graphically Challanged" referenziert und kommentiert.

Zu Daniel Owen und seinem Video: Und ja ein Video drehen, was null vorbereitet ist, zeigt, dass seine Ansprüche offenbar niedrig sind. Low Effort Content ist das. Da wird offenbar "blind" die Präsentation durchgelesen mit Facecam. Sinnvoll wäre es, die Slides im Vorhinein durchzuarbeiten und dann professionell die high points prägnant zu präsentieren.

Das ist hier OT und somit EoD. Du kannst ja deine eigene Meinung dazu haben.

HOT
2023-09-15, 09:17:41
und N43/N44 sind dann bei RT aufgrund der Hardware-Beschleunigung schneller als N31/N32?
Du weißt ja wie das ist. Die sind in RT dann schneller als N33, vielleicht stellenweise sogar schneller als N32, aber ich würde da keinen so gewaltigen Sprung erwarten, zumal die N4-Chips ja wahrscheinlich sowieso näher an RDNA3.5 sind, anders als die gecancelten N3-Varianten. Schon N33 unterscheidet sich von N31/32. Wer weiss, ob N43 und N44 überhaupt so große RT-Beschleunigung bekommen haben... kann durchaus sein, dass Hardware-Bhv nur mit N41 und 42 möglich gewesen wäre.

sun-man
2023-09-15, 11:08:52
Arg viele Informationen die ich nicht ganz zu beurteil weiß. Die 4070 ist ja auch umstitten, 609€ hab ich jetzt mal bei Ama eine Asus 4070OC mitgenommen. Schlimmstenfalls reicht das bis DLSS3.5 oder FG3 um mal neue Eindrücke mit einfließen zu lassen.

Complicated
2023-09-15, 17:21:52
7nm ist ein blödes Beispiel, weil TSMC da auch große Kapazitäten hatte, die nach der Miningkrise dann auch nicht mehr voll ausgelastet waren.
Das stimmt - doch die EUV-Belichter lassen sich für 5nm (noch mehr Layer) nutzen und entsprechend schneller ausbauen. Die 7nm haben ja hauptsächlich wegen Transfer der Kunden auf 5nm Kapazitäts-Rückgänge. Neue Kunden werden direkt auf 6nm gebracht.

Nightspider
2023-09-15, 17:45:19
Strix Point APU ist 4nm die Zen 5 Chiplets 5nm (Fire Range)

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-8000-als-APU-mit-Zen-5-und-RDNA-3-5-1418150/galerie/3737214/

Zen5 in 5nm? Wat?

Hast du dich vertippt?

Zen5 kommt ausschließlich in N4P/N3(X)

Complicated
2023-09-15, 20:11:23
N4P ist aber ein 5nm Derivat. Denke 3nm werden es sein.

HOT
2023-09-15, 21:25:31
Strix Point, Strix Halo/Sarlak und Granite Ridge sind alle N4. N3 soll nur das Zen5c-CCD bekommen und eben MI400 später.

Tobalt
2023-09-18, 20:10:35
Mal wieder reingeschaut nachdem AMD hier vor einigen Jahren komplett unter die Räder geraten war. Ein guter Fortschritt seit dem, und sie haben im Rohrasterizersegment ja bei Perf/W zumindest wieder eine ähnliche Dimension wie nV erreicht.

Aber mit schlechterem Upscaling und weniger Tensorpower bringt dann dieser Fortschritt letzlich nichts, weil sie den Epochenwechsel im Rendering scheinbar komplett verpennen.

vinacis_vivids
2023-09-18, 20:13:27
AMD hat schon aufgeholt, bitte keine Fake-News verbreiten:

k0P7G9KzaJQ

Oranje7
2023-09-18, 20:20:43
Finde eher Krass das seit 2018 überall die Raytracing Performance so schlecht geredet wird
https://www.gamestar.de/artikel/alle-spiele-mit-raytracing-und-dlss,3333695.html

Dann schau ich die Liste an und ich habe 4 Spiele! Control + Quake2 geschenkt. Doom Eternal ist es so minimal eingesetzt das es echt nicht nötig ist und Metro was als Vorzeigespiel von Nvidea gesponsert wurde.

Für mich ist immernoch Raster King. Falls in 3-4 Jahren alle Spiele irgendwie RT verwenden hab ich eh ne neue Graka

OgrEGT
2023-09-18, 20:22:05
RDNA3 ist mit RT@Normal auf Augenhöhe mit Ampere und je nach Spiel auch mit den Ada Karten über 4070ti...
https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/

Man ist einem Schritt zurück... verpennem ist nochmal was anderes...
Es gibt natürlich NV optimierte Showcases mit PT... da muss jeder selber entscheiden ob man sich da eine 4090 leisten möchte...