Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon RX 7900 XT & XTX
Leonidas
2022-12-20, 12:13:37
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-7900-xt-xtx
Link zur Umfrage zum Ersteindruck der 7900XTX:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7900-xtx
Link zur Umfrage zum Ersteindruck der 7900XT:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7900-xt
Link zum (gemeinsamen) Umfrage-Ergebnis:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-amds-radeon-rx-7900-xt-xtx
BlacKi
2022-12-20, 12:15:26
Zugriff verweigert
Sie haben keine Zugriffsberechtigung für diese Seite.:biggrin:
Leonidas
2022-12-20, 12:17:11
Das sind die Leute, die wieder zu schnell sind ;)
Aka: Ist nun online.
BlacKi
2022-12-20, 12:26:08
wo sind die balken hingekommen?
Leonidas
2022-12-20, 12:58:40
Welche Balken?
PS: Performance-Übersichts-Diagramm hinzugefügt:
https://www.3dcenter.org/abbildung/amd-vs-nvidia-performance-ueberblick-dezember-2022
Klasse Karten, danke AMD!
Als ich die 4080 gekauft hatte, hatte ich gehadert. Technisch super, aber 1400 Euro dafür hinlegen? Sehr teuer.
Ein lachendes und ein weinendes Auge daher.
Seit einer Woche weiß ich: Die 4080 ist nicht teuer, jedenfalls nicht im Vergleich zu AMD.
Dabei soll ja der neue Ansatz von AMD (jedenfalls laut dem Forum hier) die Produktionskosten senken.
Also ist das Angebot von nvidia eben doch sehr fair. 1400 Euro sond viel Geld - aber vermutlich ist Forschung und Entwicklung sowie Herstellung inzwischen eben so teuer geworden.
Ich war bisher zufrieden mit meiner 4080, aber nicht rundum glüclich (weil ich mich schon fragte: Ist das nicht zu teuer?).
Jetzt hat mich AMD bestätigt, mit Nvidia (mal wieder) alles richtig gemacht.
Ein schönes Geschenk kurz vor Weihnachten :)
Leonidas
2022-12-20, 13:06:37
Die 4080 ist eine überaus runde Karte. Nur als Nachteil eben ziemlich teuer für ein non-Spitzenprodukt.
BlacKi
2022-12-20, 13:12:34
Welche Balken?
PS: Performance-Übersichts-Diagramm hinzugefügt:
https://www.3dcenter.org/abbildung/amd-vs-nvidia-performance-ueberblick-dezember-2022danke, hast du noch welche für die effizienz wie sonst üblich?
Leonidas
2022-12-20, 13:18:50
Bei Grafikkarten eigentlich nicht. Die Energie-Effizienz ist die letzte Spalte bei der Stromverbrauchs-Tabelle.
BlacKi
2022-12-20, 13:28:48
ach stimmt, das machst du ja bei dem Grafikkarten-Marktüberblick
Leonidas
2022-12-20, 13:48:05
Stimmt! Der muß auch aktualisiert werden wieder einmal.
Da bleiben wohl noch ein paar Fragen offen, die man erst mit den nächsten AMD-Karten beantworten kann, wie Treiberverbesserungen und ob dem Chipletdesign hier noch ein Bug anhaftet. Treibertechnisch scheint hier noch einiges an Potential brachzuliegen, nVidia kann vermutlich eher auf der Treiberarbeit der 30er Serie aufbauen und hat denke ich nicht mehr so viel Potential, dafür aber schon recht solide Treiber.
MD_Enigma
2022-12-20, 14:56:22
Vielen Dank für die Analyse! Beim Fazit hast du es auf den Punkt gebracht: "unbefriedigend".
Wenn du die Zeit findest wäre es klasse, den GPU-Performance-Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022) zu ergänzen.
Ich hab meinem Bruder direkt mal ne 1660 Super ersteigert, die mit 140 Euro (und 1 Jahr Restgarantie) immer noch die beste Wahl ist.
Buddy Casino
2022-12-20, 15:02:22
Wie sieht eigentlich das Geschäftsmodell der Hersteller aus, wenn es keine Preis/Perf Verbesserungen mehr gibt? Als Gamer kauft man sich sicherlich weniger häufig eine neue Karte wenn das so bleibt. Nur noch an Cloud Betreiber verkaufen? Es doch noch mal mit Cloud-Gaming / GPU-Mieten versuchen? Das Geschäft auf Konsolen verlagern und versuchen mit Spielen das Geld zu verdienen?
Leonidas
2022-12-20, 15:03:42
Wenn du die Zeit findest wäre es klasse, den GPU-Performance-Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022) zu ergänzen.
Logisch, wird gemacht. Wegen der vielen Änderungen bei RX6000 & RTX30 habe ich damit auf diese Launch-Analyse gewartet.
bloodflash
2022-12-20, 15:18:39
Tja, habe jetzt mehr für eine neue Karte ausgegeben, als ich eigentlich vor hatte. Die Vorstellungen der neuen Karten fand ich jetzt eher mäh. Insbesondere wegen den hochgeschossenen Absolutverbräuchen. Das lässt nichts Gutes für die kleineren Karten erwarten.
Aber die aufgerufenen Preispunkte sind nach der Erhöhung bei der letzten Generation nur noch Gaga.
Statt N33, ist es jetzt eine 6700/10GB geworden. Damit bin ich wieder raus für die nächsten paar Jahre ; )
crnkoj
2022-12-20, 17:17:25
Herzlichen Dank für deine Arbeit und Mühe!
Ist schon ziemlich ernüchternd die ganze Situation...
Also wenn man eine der last gen Karten bis zur 6800xt/3080 hat,kann man sich diese zwei Karten glatt sparen...
Exxtreme
2022-12-20, 17:34:07
Herzlichen Dank für deine Arbeit und Mühe!
Ist schon ziemlich ernüchternd die ganze Situation...
Also wenn man eine der last gen Karten bis zur 6800xt/3080 hat,kann man sich diese zwei Karten glatt sparen...
Wenn du eine P/L-Whore wie ich bist dann ja. X-D Ich warte bis zu Q2/2023 und schaue wie die Grafikkartenpreise da aussehen werden.
Gastronom
2022-12-20, 17:54:54
Vielen Dank an Leo & 3dc für den tollen Artikel :)
Am launch Tag war ich etwas frustriert, nachdem ich die deutschen Testberichte gelesen habe. Deine Übersicht ist toll, und zeigt ein besseres Bild.
Hab ja schon mal wegen des Preises bei AMD & NV hier rumgenörgelt. Wenn man sich deine Preisübersicht ansieht, ist es schön zu sehen zu welcher UVP mal ursprünglich bei den 6800 und 3080 Karten standen, kaum 3 Jahre her. Dann kam der Mining boom und die Kartenpreise stiegen. Und jetzt will man stur so weitermachen. Aber ohne mich!
Hab mir eine PS5 bei Saturn bestellt. Mit Fifa 23, Lieferdatum 31.01.23 für 619 Euro. Mit dem gesperrten Geld fahr ich zum snowboarden.
edit: Mein selbst gebauter PC hat noch nen 7700k und ne 1080ti drinnen. Neben meinen macbook mit RX6600 reicht es eigentlich. Als Ü40 spielt man nicht mehr so viel. Aber ich würde so gern mal wieder einen neuen PC bauen. Ist einfach schön :) Der letzte hat komplett so um die 1600 Euro gekostet. Jetzt kostet das schon fast nur die Grafikkarte. Crazy
Also ist das Angebot von nvidia eben doch sehr fair. 1400 Euro sond viel Geld - aber vermutlich ist Forschung und Entwicklung sowie Herstellung inzwischen eben so teuer geworden.
Da nVidias EBIT-Marge wieder auf vor-Corona-Niveau liegt (zB Seite 38/62 https://s22.q4cdn.com/364334381/files/doc_financials/2023/q3/NVDA-F3Q23-Investor-Presentation_FINAL.pdf / https://investor.nvidia.com/financial-info/financial-reports/default.aspx) kann man so argumentieren. Allerdings ist da auch nur der Zeitraum bis 30-Okt-22 abgedeckt. Also mal gucken, was das letzte Quartal bringt. Unabhängig davon sind 30% und mehr EBIT-Marge mehr im Vergleich zu anderen Branchen (sehr) hoch
Platos
2022-12-20, 20:29:56
Danke für die Analyse
Man muss sich das mal vorstellen: nvidia bringt völlig überteuerte Grafikkarten. Völlig absurde Preise.
Aber AMD kommt nun mit einer 7900XTX (Strassenpreis gleich wie 4080) und bietet ziemlich genau die gleiche Rasterperfomance, aber deutlich schlechtere RT-Perfomance, kein DLSS 3.0, Stromverbrauch höher, Treiber unfertig (oder Teillast-Stromverbrauch ist tatsächlich so kacke)...
Und fas alles für den selben Strassenpreis? AMD ist eig. noch viel dreister. Ok, der Listenpreis ist niedriger, aber man bekommt auch deutlich weniger, abgesehen von 20GB (16 GB sind jetzt nicht wenig) und DP 2.1, das ist ein Vorteil. Ansonsten ist die Karte einfach schlechter.
Aber spielt eig. auch keine Rolle. Es sind momentan eig. alle auf dem Markt befindlichen Karten neu zu teuer. Ausnahmmen bilden Abverkäufe der alten Gen (aber die sind eig. schon zu ende).
Ich schaue mich nur noch auch gebrauchtportalen um und warte solange, bis ich 3090 Perfomance für max. 550 Euro kriege.
TheGood
2022-12-20, 21:20:03
Danke für die Analyse
Man muss sich das mal vorstellen: nvidia bringt völlig überteuerte Grafikkarten. Völlig absurde Preise.
Aber AMD kommt nun mit einer 7900XTX (Strassenpreis gleich wie 4080) und bietet ziemlich genau die gleiche Rasterperfomance, aber deutlich schlechtere RT-Perfomance, kein DLSS 3.0, Stromverbrauch höher, Treiber unfertig (oder Teillast-Stromverbrauch ist tatsächlich so kacke)...
Und fas alles für den selben Strassenpreis? AMD ist eig. noch viel dreister. Ok, der Listenpreis ist niedriger, aber man bekommt auch deutlich weniger, abgesehen von 20GB (16 GB sind jetzt nicht wenig) und DP 2.1, das ist ein Vorteil. Ansonsten ist die Karte einfach schlechter.
Aber spielt eig. auch keine Rolle. Es sind momentan eig. alle auf dem Markt befindlichen Karten neu zu teuer. Ausnahmmen bilden Abverkäufe der alten Gen (aber die sind eig. schon zu ende).
Ich schaue mich nur noch auch gebrauchtportalen um und warte solange, bis ich 3090 Perfomance für max. 550 Euro kriege.
Ist natürlich auch ein unfairer Vergleich den Straßenpreis nach 4 Tagen mit dem der 4080 nach ca. 20 Tagen zu vergleichen. Von dem mal abgesehen ging der ja niemals (ausser an den ersten beiden Tage) hoch, weil die KArte von Anfang an niemand haben wollte.
Das sollte Leo nach ca 4 Woche nochmals ansehen, natürlich für beide Karten.
Das gleiche Schicksal hat die 7090xt, die scheint auch niemand haben zu wollen. (aus gutem Grund, da sie im Verhältnis einfach zu teuer ist, im Verlgiech zur 4070 ti aber geradezu günstig werden wird/lässst :D)
Die Logik vom ersten Gast ist auch mal geil. DA sieht man mal wieder wie man sich dinge dumm schön reden kann. Zu teuer ist zu teuer, egal wie man es ins Verhältnis setzt, vor allem für Dinge die man nicht zum Leben braucht.
Die hoffnung wäre gewesen dass AMD die 7900XTX wenigstens ein bisschen besser dastehen lässt, aber durch die ganzen Problemchen die der Chip hat, ist der geringer UVP auch nur ein Nachlass fürs Schmerzensgeld....
Allerdings denke ich dass die Graka auf DAuer wieder sich locker von der 4080 absetzt, das sehen wir ja in jeder Generation und mit den verdoppelten FP32 Wavefront wird das noch deutlich aussehen. Man sieht das ja an den Tests die wirklich power brauchen und welche wohl von AMD auch schon dementsprechend optimiert wurden. Komisch dass das noch keiner gesehen hat oder sehen will...
Prinzenrolle
2022-12-20, 21:29:51
2 bis 3% mehr beim Rastern, dafür knapp 26% Punkte weniger bei RT.
Die RTX 4080 insgesamt deutlich in Effizienz und Leistung überlegen.
Preis-Leistung minimal zugunsten AMD.
16 GB RAM völlig ausreichend.
Nvidia wird sich wie geschnitten Brot verkaufen, wieder mal.
Kaum eine schlüssige Begründung zur 7900XTX zu greifen.
Was ist eigentlich bei PCGH los? Kriegen die neuerdings Werbegelder von AMD?
BlacKi
2022-12-20, 21:38:12
Aber AMD kommt nun mit einer 7900XTX (Strassenpreis gleich wie 4080) und bietet ziemlich genau die gleiche Rasterperfomance, aber deutlich schlechtere RT-Perfomance, kein DLSS 3.0, Stromverbrauch höher, Treiber unfertig (oder Teillast-Stromverbrauch ist tatsächlich so kacke)...
Und fas alles für den selben Strassenpreis? AMD ist eig. noch viel dreister. Ok, der Listenpreis ist niedriger, aber man bekommt auch deutlich weniger, abgesehen von 20GB (16 GB sind jetzt nicht wenig) und DP 2.1, das ist ein Vorteil. Ansonsten ist die Karte einfach schlechter.
du kannst die hersteller nicht für die straßenpreise verantwortlich machen. damit ist eigentlich dein ganzer post abgearbeitet.
uvp ist sportlich für das gebotene, erst recht bei der xt. aber zumindeste dlss3 ersatz wird nachgeliefert.
aber so im nachhinein ist der xtx uvp preis nicht verkehrt, wenn sie platz zum sinken lassen. die uvp preise von nv und amd für die kleineren karten sind durchaus als anti consumer marketing zu bewerten, und dieser kritik müssen stellen.
Linmoum
2022-12-20, 21:43:36
Wo sind eigentlich die ganzen XTX? Hatte Igor ja wohl doch recht. Und die Kunden treibt man damit alle zu einer 4080 für 13xx€.
Man hätte lieber mehr XTX statt so viele XT auf den Markt werfen sollen. Die bleiben alle liegen. Geizhals hat 27 (!) Angebote alleine für die MERC gelistet und nahezu alle sind in 1-4 Tagen lieferbar.
AMD will scheinbar echt nicht, dass man deren GPUs aktuell kauft.
Exxtreme
2022-12-20, 21:48:19
2 bis 3% mehr beim Rastern, dafür knapp 26% Punkte weniger bei RT.
Die RTX 4080 insgesamt deutlich in Effizienz und Leistung überlegen.
Preis-Leistung minimal zugunsten AMD.
16 GB RAM völlig ausreichend.
Nvidia wird sich wie geschnitten Brot verkaufen, wieder mal.
Also wenn man dem Video Glauben schenken darf:
https://youtu.be/OCJYDJXDRHw
sind die Verkaufszahlen der RTX4080 jetzt nicht so der Hit. Und jemand, der zwischen einer 7900XTX und RTX4080 schwankt, weiss wohl, dass AMD da noch 10% - 20% 5% - 10% rausholen wird. :)
Kaum eine schlüssige Begründung zur 7900XTX zu greifen.
Was ist eigentlich bei PCGH los? Kriegen die neuerdings Werbegelder von AMD?
Da gibt es sehr wohl Begründungen:
24 GB RAM, kein neues Gehäuse, keine Steckerproblematik, DP 2.0 etc.
BlacKi
2022-12-20, 21:48:25
AMD will scheinbar echt nicht, dass man deren GPUs aktuell kauft.
DOCH; ABER DIE xt:freak:
Linmoum
2022-12-20, 22:17:58
Also wenn man dem Video Glauben schenken darf:
https://youtu.be/OCJYDJXDRHw
sind die Verkaufszahlen der RTX4080 jetzt nicht so der Hit. Und jemand, der zwischen einer 7900XTX und RTX4080 schwankt, weiss wohl, dass AMD da noch 10% - 20% rausholen wird. :)Ich kenne den ein oder anderen, der nach den Reviews statt zu AMD dann doch zur 4080 gegriffen hat, obwohl eigentlich nicht gewollt. Aber AMD "zwingt" die Leute, die auf den Kauf einer neuen GPU warten bzw. gewartet haben, ja fast schon dazu. Hier im 3DCenter gab's ja auch einige, die dann doch zur 4080 gegriffen haben und da sind wir hier nicht das einzige Forum mit.
Ob AMD hier noch riesige Performance rausholen wird, ist auch nur Spekulation. Kann NV genauso, wie man zuletzt gesehen hat. Aber die Idle/Teilllasteffizienz wird in der Form auch nicht mit 10% mehr Performance besser. Selbst unter Volllast verliert man damit immer noch gegen eine 4080.
Inwiefern man die Verbrauchsproblematik angehen kann, bleibt auch abzuwarten. Da geht's ja nicht nur darum, den Verbrauch in diesen Situationen zu senken. Der muss massiv runtergeschraubt werden.
24 GB RAM
Naja, die 4080 hat immerhin 16GiB. War bei der 6900XT vs. 3090 auch kein Argument in Spielen für letztere.
kein neues Gehäuse
Gilt aber auch nur bedingt für die Referenz. Die Custom-Klopper nicht gesehen? ;) Die Referenz wird es irgendwann nur noch sporadisch geben, die Customs hingegen in vermutlich hohen Stückzahlen. Damit fällt das Argument auch weg, zumal die Customs halt auch deutlich leiser als das Ref-Design von AMD sind. Vom Spulenfiepen fang ich gar nicht erst an, da sind die Berichte ja sowohl von Usern, als auch von der Presse teilweise echt nicht schön.
keine SteckerproblematikWenn es Leute gibt, die deswegen Bauchschmerzen haben, sicherlich. Mittlerweile sind wir aber an einem Punkt, wo man das mit guten Kabeln direkt von den NT-Herstellern nicht mehr haben braucht. Lediglich den Adapter würde ich persönlich nicht nutzen, da die Fertigungsqualität bei dem unabhängig von dem ganzen Thema einfach undurchsichtig und Lotterie ist.
DP 2.0 etc.Dafür fehlt diesem Chip schon jetzt schlicht die Leistung, als dass das wirklich ein Argument ist. ;) Kommt im Prinzip eine Gen zu früh. Unabhängig davon natürlich trotzdem lächerlich, dass es DP 2.0 bei NV nicht gibt.
DOCH; ABER DIE xt:freak:Der Aufpreis auf dem Papier zur XTX ist geringer als das Performancedelta. :freak: Da greift doch nun wirklich keiner zur XT, der nicht auf mehr Performance zielt und das Geld auch hätte. Das Ding ist für den Kurs einfach Lagerware, weil es selbst im Vergleich zur alten Gen nicht attraktiv ist. Sowohl bei der Performance, als auch beim Verbrauch.
Prinzenrolle
2022-12-20, 22:23:59
Da gibt es sehr wohl Begründungen:
24 GB RAM, kein neues Gehäuse, keine Steckerproblematik, DP 2.0 etc.
Die Begründungen sind ziemliches Geschwurbel.Man redet es sich wieder schön. Unterm Strich hat die Radeon die 2 bis 3% mehr Rasterleistung.RT, VR, Anwendungen, Featureset deutlich schwächer. DP 2.0 braucht die nächsten 5 Jahre so schnell niemand, der RAM ist nice to have, wird aber 5 Jahre keine Rolle spielen.
Gehäuse braucht mankein neues es sei denn es muss eine Founders sein und das alte war klein..
TheGood
2022-12-20, 22:28:00
2 bis 3% mehr beim Rastern, dafür knapp 26% Punkte weniger bei RT.
Die RTX 4080 insgesamt deutlich in Effizienz und Leistung überlegen.
Preis-Leistung minimal zugunsten AMD.
16 GB RAM völlig ausreichend.
Nvidia wird sich wie geschnitten Brot verkaufen, wieder mal.
Kaum eine schlüssige Begründung zur 7900XTX zu greifen.
Was ist eigentlich bei PCGH los? Kriegen die neuerdings Werbegelder von AMD?
JA mit der RT Krücke 4080 kommt man auch nicht weiter und der Rückstand in RT wurde ja noch reduziert. Spätestens mit verfügbarkeit zu UVP gibts da keine große Diskussion mehr, welche Karte man kauft. Vor allem bei 24 GB RAM.
Und das geschnitten Brot bei der 4080 sieht man ja zu hauf... Die liegt wie blei im regal und keiner will sie haben....
TheGood
2022-12-20, 22:31:59
Die Begründungen sind ziemliches Geschwurbel.Man redet es sich wieder schön. Unterm Strich hat die Radeon die 2 bis 3% mehr Rasterleistung.RT, VR, Anwendungen, Featureset deutlich schwächer. DP 2.0 braucht die nächsten 5 Jahre so schnell niemand, der RAM ist nice to have, wird aber 5 Jahre keine Rolle spielen.
Gehäuse braucht mankein neues es sei denn es muss eine Founders sein und das alte war klein..
Ich glaube eher du redest dir hier eine 1400 Euro graka schön. Das ist das Grundproblem an der Diskussion...
Dabei kackt die um über 30% bei RT ggnüber der 4090 ab... muss echt ne müll Graka sein... für RT ;)
Bei den GPU-Preisen ist noch viel Luft nach unten wie jeder selbst ausrechnen kann:
https://web.archive.org/web/20190728001131/https://caly-technologies.com/die-yield-calculator/
Bei 16k $ pro 5nm Wafer und 10k $ pro 6nm Wafer kostet der 300mm² GCD etwa 120 $ und die 6 x 37mm² MCDs etwa 40$. Der 608 mm² AD102-Chip kostet etwa 230$. AMD und NV erzielen also hohe Gewinnmargen von ~60% als hätte es keinen Miningcrash gegeben.
Asaraki
2022-12-20, 23:28:48
Ich glaube eher du redest dir hier eine 1400 Euro graka schön. Das ist das Grundproblem an der Diskussion...
Dabei kackt die um über 30% bei RT ggnüber der 4090 ab... muss echt ne müll Graka sein... für RT ;)
Die Preise stimmen einfach nicht. Weder bei AMD noch nVidia.
Ich habe kein Problem damit, dass die Preise generell steigen -
Aber nicht in diesem Ausmass.
Und AMD hilft nicht, da dieses preisssegment Leuten vorbehalten ist, die nicht jeden taler umdrehen müssen und eher emotional kaufen. Da hätte AMD leider die 4080 deutlich übertreffen müssen. Featurebereinigt hat nV leider die beiden besten Karten….
Ganz ehrlich, selbst ich mit meinen „Vorzugspreisen“ fand die 40xx einen Tick zu teuer und wir reden von Preisen deutlich unter Strassenpreis…
Also entweder Füsse, äh, Kreditkarte stillhalten oder in den sauren Apfel beissen.
Freestaler
2022-12-20, 23:41:18
Die 7900xtx ist nen Fail. Ich befürchte da reicht weder ein Xmas treiber noch ne Rev1.1 Da wirts allenfalls die 8000 Serie dann richten. Das Paket zu dem Preis. Ne.
Linmoum
2022-12-20, 23:53:35
JA mit der RT Krücke 4080 kommt man auch nicht weiter und der Rückstand in RT wurde ja noch reduziert.
Der Rückstand ist größer geworden. Die 3090 war vorher laut CB ~50% vor einer 6900XT, die 4090 ist jetzt ~75% schneller als die 7900XTX. Und bei der 4090 sind noch mal 10-15% drin, die auch kommen werden mit dem Vollausbau.
Oder worauf bezieht sich das "Rückstand reduziert" sonst? 6900XT/3080 vs. 7900XTX/4080? Auch da ist der Abstand zu ungunsten von AMD größer geworden.
Spätestens mit verfügbarkeit zu UVP gibts da keine große Diskussion mehr, welche Karte man kauft. Vor allem bei 24 GB RAM.Wir können ja mal die Fakten aufzählen, die auch tatsächlich vorteilhaft für Spiele sind. Wozu 16GiB vs. 24GiB nicht zählen, das war wie gesagt schon vor zwei Jahren kein Pro-Argument für die 3090 mit Ausnahme für die Leute, die einfach das Maximum wollen. Also mal angenommen, es gibt die 7900XTX zur UVP:
7900XTX:
- Besseres P/L für Raster
- ???
4080:
- Besseres P/L für RT
- Deutlich effizienter (sowohl Volllast, als auch Teillast)
- Deutlich umfangreicheres und ausgereifteres Software-Ökosystem (wenn man alles einzeln aufzählen würde, kommen da noch mal 4-5 einzelne Punkte pro 4080 zusammen...)
Wenn AMD den Teillast-Verbrauch (also beispielsweise Spiele mit FPS-Cap, wie es mit VRR zuhauf vorkommt...) drastisch reduziert und genauso den Idle/Desktop-Verbrauch (ebenfalls drastisch...) reduziert, kann man vielleicht noch mal zu einem anderen Ergebnis kommen. Aber im Gesamtpaket ist auch UVP vs. UVP eine 7900XTX in der Form nicht attraktiv genug. Und den Verbrauch unter Volllast werden sie definitiv nicht fixen können, sonst würde die Karte nur langsamer werden. ;)
Und das geschnitten Brot bei der 4080 sieht man ja zu hauf... Die liegt wie blei im regal und keiner will sie haben....Er hat geschrieben, dass sich Nvidia wieder wie geschnitten Brot verkaufen wird. Was nun wahrlich keine steile These ist, wenn man sieht, was AMD als Konkurrenz anbietet. Das ist auch zur UVP nicht attraktiv gegenüber einer 4080 im Gesamtpaket. Leider, muss man aus Konsumentensicht so sagen.
Was vor allem im Regal liegen bleibt, ist aktuell die 7900XT. Wer sagt, dass die 4080 überteuert ist (was nicht falsch ist), muss dasselbe auch bei den AMD Pendants sagen. Und zwar auch deutlich, völlig egal ob XT oder XTX - und ja, das gilt auch für die UVPs.
Exxtreme
2022-12-21, 01:23:37
Ich kenne den ein oder anderen, der nach den Reviews statt zu AMD dann doch zur 4080 gegriffen hat, obwohl eigentlich nicht gewollt. Aber AMD "zwingt" die Leute, die auf den Kauf einer neuen GPU warten bzw. gewartet haben, ja fast schon dazu. Hier im 3DCenter gab's ja auch einige, die dann doch zur 4080 gegriffen haben und da sind wir hier nicht das einzige Forum mit.
Mag ja sein. Aber die Masse scheint das nicht zu sein. Die Preise gehen für die RTX 4080 runter. In Deutschland scheint sie sogar das bessere P/L-Verhältnis zu haben als die 7900 XTX. Bei Letzterer sind die Preise höher. Und zwar höher als die ~4% mehr Leistung beim Rastern.
Ob AMD hier noch riesige Performance rausholen wird, ist auch nur Spekulation. Kann NV genauso, wie man zuletzt gesehen hat. Aber die Idle/Teilllasteffizienz wird in der Form auch nicht mit 10% mehr Performance besser. Selbst unter Volllast verliert man damit immer noch gegen eine 4080.
Inwiefern man die Verbrauchsproblematik angehen kann, bleibt auch abzuwarten. Da geht's ja nicht nur darum, den Verbrauch in diesen Situationen zu senken. Der muss massiv runtergeschraubt werden.
Naja, den Begriff "fine wine technology" gibt es ja nicht umsonst. Ich denke sehr wohl, dass die 7900 XTX-Käufer damit rechnen, dass AMD noch so 10% nachlegt. Und den Stromverbrauch muss AMD unbedingt in den Griff bekommen, ja. Ist aber schon in den release notes des Treibers.
Naja, die 4080 hat immerhin 16GiB. War bei der 6900XT vs. 3090 auch kein Argument in Spielen für letztere.
Ja. Aber mit der Zeit steigen auch die RAM-Anforderungen.
Gilt aber auch nur bedingt für die Referenz. Die Custom-Klopper nicht gesehen? ;) Die Referenz wird es irgendwann nur noch sporadisch geben, die Customs hingegen in vermutlich hohen Stückzahlen. Damit fällt das Argument auch weg, zumal die Customs halt auch deutlich leiser als das Ref-Design von AMD sind. Vom Spulenfiepen fang ich gar nicht erst an, da sind die Berichte ja sowohl von Usern, als auch von der Presse teilweise echt nicht schön.
Naja, es gibt schon einige, die kleiner sind. Die von Biostar ist relativ kurz und viel kleiner als die Klopper.
Wenn es Leute gibt, die deswegen Bauchschmerzen haben, sicherlich. Mittlerweile sind wir aber an einem Punkt, wo man das mit guten Kabeln direkt von den NT-Herstellern nicht mehr haben braucht. Lediglich den Adapter würde ich persönlich nicht nutzen, da die Fertigungsqualität bei dem unabhängig von dem ganzen Thema einfach undurchsichtig und Lotterie ist.
Hält aber wohl trotzdem einige Leute ab das Ding zu kaufen. Sicherlich kein Thema wenn man einen neuen PC kauft. Aber jemand, der aufrüstet, der hat wohl etwas mehr Aufwand. Gehäuse abmessen und dann für gute Adapter sorgen.
Dafür fehlt diesem Chip schon jetzt schlicht die Leistung, als dass das wirklich ein Argument ist. ;) Kommt im Prinzip eine Gen zu früh. Unabhängig davon natürlich trotzdem lächerlich, dass es DP 2.0 bei NV nicht gibt.
Der Aufpreis auf dem Papier zur XTX ist geringer als das Performancedelta. :freak: Da greift doch nun wirklich keiner zur XT, der nicht auf mehr Performance zielt und das Geld auch hätte. Das Ding ist für den Kurs einfach Lagerware, weil es selbst im Vergleich zur alten Gen nicht attraktiv ist. Sowohl bei der Performance, als auch beim Verbrauch.
Die 7900 XT wird wohl keiner kaufen wenn sie nicht 200 € biliger wird. :) 1050 € sind zu viel. Die Verfügbarkeit auch ganz gut.
Und ob man DP 2.0 braucht, das hängt wiederum ab welche Spiele man spielt. Bei DP 1.4 gehen maximal 120 Hz unkomprimiert in 4K-Auflösung.
amdfanuwe
2022-12-21, 08:26:52
Bei den GPU-Preisen ist noch viel Luft nach unten wie jeder selbst ausrechnen kann:
https://web.archive.org/web/20190728001131/https://caly-technologies.com/die-yield-calculator/
Bei 16k $ pro 5nm Wafer und 10k $ pro 6nm Wafer kostet der 300mm² GCD etwa 120 $ und die 6 x 37mm² MCDs etwa 40$. Der 608 mm² AD102-Chip kostet etwa 230$. AMD und NV erzielen also hohe Gewinnmargen von ~60% als hätte es keinen Miningcrash gegeben.
Und die Entwicklungskosten von ~1Millarden bezahlt der Weihnachtsmann?
Das muss erst mal erwirtschaftet werden. Gibt Anfangs eben einen saftigen Aufpreis pro Chip.
etp_inxession
2022-12-21, 08:49:17
Wie geschnitten Brot verkauft sich in diesem Preissegment absolut überhaupt KEINE Grafikkarte.
Egal ob 4080 oder 7900 XT(x) ...
Es ist wie so oft.... AMD ist eine Alternative. Mehr aber auch nicht.
Die großen Verkaufszahlen werden die nächsten Jahre eh nicht erreicht.
Inflation und übertriebene Preise regeln ...
GerryB
2022-12-21, 08:49:50
Wo sind eigentlich die ganzen XTX?
Gab doch mal ein Gerücht das AMD 3/4 XT produziert hätte und nur 1/4 XTX.(x)
Logischerweise würde ich von den Temps her auch die XTX dann später den größeren Customs überlassen. (die hängen dann auch net mehr so stark im PL)
(x) ob AMD seine Klientel auch so in der Verteilung eingeschätzt hat, ... ist ne ganz andere Frage.
Kann schon sein, das da die Nachfrage der Fertig-PCs so ist, um z.Bsp. 2000€-PC´s noch anbieten zu können.
(wo z.Bsp. die werten Kollegen von PCGH noch ne 3070Ti drin haben, gänge mit der XT schon ein ganz anderes Kaliber beim selben Hersteller in der Konfig)
Bei 16k $ pro 5nm Wafer und 10k $ pro 6nm Wafer kostet der 300mm² GCD etwa 120 $ und die 6 x 37mm² MCDs etwa 40$. Der 608 mm² AD102-Chip kostet etwa 230$. AMD und NV erzielen also hohe Gewinnmargen von ~60% als hätte es keinen Miningcrash gegeben.
Und der Interposer, Platine, Kühler, RAM, eine Spannungsversorgung die 300W+ bereitstellen kann sind alle kostenlos....
Leonidas
2022-12-21, 08:57:18
Die mal genannte BOM von 400-500$ für N31-Karten erscheint mir realistisch. Dies bedeutet: Nein, so was ist nicht mehr zum Listenpreis einer HD7900 zu machen. Aber es muß auch nicht zwingend das doppelte sein. Mit echtem Wettbewerb würde eine Karte für $500 BOM eigentlich für $699 (vor Steuern) im Handel stehen können.
Exxtreme
2022-12-21, 09:15:21
Die mal genannte BOM von 400-500$ für N31-Karten erscheint mir realistisch. Dies bedeutet: Nein, so was ist nicht mehr zum Listenpreis einer HD7900 zu machen. Aber es muß auch nicht zwingend das doppelte sein. Mit echtem Wettbewerb würde eine Karte für $500 BOM eigentlich für $699 (vor Steuern) im Handel stehen können.
Wobei diese Zahl von Kepler_L2 stammt. Und der lag mit seinen AMD "Leaks" immer komplett daneben.
Linmoum
2022-12-21, 09:29:52
Er kann gar nicht immer komplett daneben gelegen haben, da eigentlich fast alles, was er nach außen trägt, über (in)offizielle Wege von AMD selbst kommt. Linux-Kernel, vBIOS etc. ;) Was er dann erstaunlich gut & schnell findet.
I
Die Logik vom ersten Gast ist auch mal geil. DA sieht man mal wieder wie man sich dinge dumm schön reden kann. Zu teuer ist zu teuer, egal wie man es ins Verhältnis setzt, vor allem für Dinge die man nicht zum Leben braucht.
Nein, zu teuer ist relativ.
Eine 4080 für 1400 Euro erscheint zu teuer, ja. Dachte ich ja auch.
Aber da AMD noch weniger bietet? Dann ist die Frage: Ist Nvidia zu gierig? Und AMD noch viel gieriger? Weniger Leistung fürs Geld und die Fertigung ist ja preiswerter, jedenfalls nach dem Forum hier.
Dann wäre AMD aber noch mal viel gieriger als Nvidia.
Möglich? Ja, natürlich.
Oder aber die Herstellung und die Forschung haben sich einfach so verteuert.
Dann wäre die Karte nach wie vor teuer - aber eben nicht zu teuer.
Natürlich werden beide Hersteller gutes Geld verdienen, das sollen sie auch. Aber wenn die Herstellung viel teurer wurde, muss eben auch der Verkaufspreis viel teurer werden.
Was davon stimmt? Das wissen AMD und Nvidia.
Natürlich kannst du dich entscheiden auf die bösen Firmen zu schimpfen und rumzuwüten, dass Nvidia viel zu teuer und AMD noch viel gieriger ist.
Vielleicht hast du recht, kann sein.
Nur: Was bringt dir das?
Ich habe mich entschieden den AMD Preis als Bestätigung zu sehen, dass die Karten 4080 teuer, aber eben nicht zu teuer ist.
Damit kann ich genauso recht haben - oder unrecht haben.
Aber das Leben ist sehr viel schöner, wenn man sich an etwas freut als wenn man über irgendwas rumwütet.
Und da sowieso keiner weiß was stimmt und du mit beiden Ansichten ebenso gut richtig wie falsch liegen kannst freue ich mich lieber.
Weniger Leistung fürs Geld und die Fertigung ist ja preiswerter, jedenfalls nach dem Forum hier.
7900XT(X) ist nicht günstiger zu produzieren als eine 4080, die liegt irgendwo zwischen 4080 und 4090.
Buddy Casino
2022-12-21, 12:48:57
Aber das Leben ist sehr viel schöner, wenn man sich an etwas freut als wenn man über irgendwas rumwütet.
Und da sowieso keiner weiß was stimmt und du mit beiden Ansichten ebenso gut richtig wie falsch liegen kannst freue ich mich lieber.
This is the way. Frohe Weihnachten!
Leonidas
2022-12-21, 12:50:40
:up:
larodar
2022-12-21, 12:57:26
Wirklicher sehr guter Launch Artikel, fast das Ganze bestens zusammen!
Ich habe zwar viele Einzeltests gesehen aber in der Zusammenschau sieht man deutlich besser dass die RT Performance stärker verbessert wurde als Raster Leistung.
Meine persönliche Enttäuschung war AMDs aufgeblähte Präsi vom 03.11.22 mit den "Seitenhieben" auf NV, wenn man das Stand jetzt anschaut, wirkt es eher traurig. Die Karten sind kein schlechtes Produkt aber besonders die versprochene Effizenzsteigerung von 50% wurde nun mal weit verfehlt. Wie du ansprichst sollte man hier Gleiches mit Gleichem vergleichen.
Bei den Strompreisen in der EU durchaus ein relevantes Thema, auch weil ich persönlich die Effizenzsteigerung immer als das Maß des Fortschritts sehe.
BlacKi
2022-12-21, 13:29:09
Meine persönliche Enttäuschung war AMDs aufgeblähte Präsi vom 03.11.22 mit den "Seitenhieben" auf NV, wenn man das Stand jetzt anschaut, wirkt es eher traurig.
wobei ich es gut fand, gegen die eigene HW zu benchen, nicht gegen den konkurenten. das wirkt wesentlich seriöser. gleichzeitig haben sie aber sachen versprochen, die ohne die endnotes jeder falsch verstehen muss.
Naja, den Begriff "fine wine technology" gibt es ja nicht umsonst.
Das nennt man weniger euphemistisch grünes Bananenprodukt, am Anfang ungenießbar reift nur mit viel Geduld und Glück beim Kunden.
bad_sign
2022-12-21, 13:45:45
Umfrage: Enttäuscht, Primär Preis
Aber! ohne AMDs Ankündigung würde ich die Karte neutraler betrachten. AMD hat viel zu viel versprochen, speziell Effizienz (größte Enttäuschung) und nicht geliefert.
Nahe der UVP ist sie OK (im Verhältnis der allgemeinen Preisübertreibung, nicht absolut gesehen)
Rabiata
2022-12-21, 13:52:20
Klasse Karten, danke AMD!
Als ich die 4080 gekauft hatte, hatte ich gehadert. Technisch super, aber 1400 Euro dafür hinlegen? Sehr teuer.
Ein lachendes und ein weinendes Auge daher.
Seit einer Woche weiß ich: Die 4080 ist nicht teuer, jedenfalls nicht im Vergleich zu AMD.
Dabei soll ja der neue Ansatz von AMD (jedenfalls laut dem Forum hier) die Produktionskosten senken.
Verkaufspreise hängen nur begrenzt von den Herstellungskosten ab, die meisten Firmen nehmen was der Markt her gibt. Und es könnte eine Woche nach Marktstart noch sein, daß die Hardcore AMD Fans die Preise hochtreiben.
Wie preiswert die RTX 7900 XTX wirklich in der Produktion ist, wird sich erst zeigen wenn AMD ernsthaft versucht über den Preis zu konkurrieren.
Blase
2022-12-21, 13:58:19
Hier auch die Diskussion der Umfrage?
Für mich nur ein durchschnittlicher Eindruck. Habe eine zu hohe Preislage angekreuzt, obwohl man umgekehrt auch argumentieren könnte, dass für den gegebenen Preis die Performance zu schwach ist. Aber das ist bei jede dieser Umfragen so.
Aber davon ausgehend, dass das Ziel der XTX die 4080 und nicht die 4090 ist, geht die gebotene Performance wohl grob iO - wenn man RT weglässt. Aber dafür in Summe dann halt noch zu teuer...
MfG Blase
Legendenkiller
2022-12-21, 14:13:08
Naja, langsamer als Angeteasert, Stromverbrauch nur ok, Treiber in Betastatus und auch bei AMD ein Nameschema das mehr sugeriert als geliefert wird. 7900XT und 7800XT wären imo deutlich passender.
größtenteils uninteressant :-/
AMD Center
2022-12-21, 14:18:55
Positiver Ersteindruck: beste Karte ever!
Gethvel
2022-12-21, 14:27:39
VR und RT Performance scheint ja grottig zu sein. Totalausfall.
Prinzenrolle
2022-12-21, 14:30:33
Jetzt hat mich AMD bestätigt, mit Nvidia (mal wieder) alles richtig gemacht.
Ein schönes Geschenk kurz vor Weihnachten :)
Das war bisher immer so, weil Nvidia bei Wahl der Preise weiß, wie stark das AMD Produkt ist. Es hat noch nie gelohnt auf AMD zu warten.
Jedenfalls kann ich mich nicht erinnern wann das mal so gewesen wäre, muss >15 Jahre her sein.
bad_sign
2022-12-21, 14:43:41
VR und RT Performance scheint ja grottig zu sein. Totalausfall.
Wo gibts Tests zu VR?
KriNemeth
2022-12-21, 14:50:12
VR und RT Performance scheint ja grottig zu sein. Totalausfall.
VR ja stimmt, aber RT grottig?
Man ist näher ran gekommen und auf Niveau der 3090 (TI), das war vor ein paar Wochen on top. Warum soll es dann jetzt grottig sein?
Wo gibts Tests zu VR?
Bei Babeltech.
https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/5/
Platos
2022-12-21, 15:39:08
AMD Center in der Goldstunde :D
Wie viele Leute bei so einem überteuertem Mist aucu noch Durchschnittlich oder gar positiv ankreuzen... Traurig.
Was für ein Müll die Karten.
bad_sign
2022-12-21, 15:41:52
Bei Babeltech.
https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/5/
vielen Dank!
VR ja stimmt, aber RT grottig?
Grottig ist die RT Leistung absolut sicher nicht. Nur relativ gesehen ist die Leistung schlecht:
Der Preis ist für das Gebotene viel zu hoch.
Würde die Karte nicht so abartig saufen, wären 1000-1100 Euro ein halbwegs angemessener Preis, falls man die 4080 als Standard nimmt.
Das + an RT Leistung ist locker nen hunderter Wert, DLSS ist mindestens +100 Wert, dazu ist die 4080 leiser, und im Gaming wird die Karte immer deutlich mehr ziehen als die 4080, was ein weiterere Nachteil ist.
Die 8GB mehr Ram ist auf dem Papier schön, aber in der Praxis reichlich wertlos, denn 16GB bei einer nvidia Karte reicht völlig aus.
Macht ca. 300 Euro Aufpreis den die 4080 wert ist.
Für den Preis wäre es dann "egal" was man kauft, beide Karten wären ungefähr gleich. Je nach Präferenz wäre für den einen die 7900XTX attraktiver, für andere die 4080.
(Da aber die 4080 als völlig überteuert gilt, müsste die 7900XTX natürlich weniger kosten um gut zu sein. Für 1100 wäre sie genauso gut (oder eher: miserabel) wie die 4080.)
Durch das Saufen bei Lowlast - und die hohen Stromkosten dadurch - muss man noch mal 200 Euro abziehen, das gibt man nämlich beim Betrieb in wenigen Jahren zusätzlich aus.
bad_sign
2022-12-21, 15:54:14
DLSS ist durch FSR2 ausgeglichen und per Mod in jedem DLSS Spiel verfügbar.
RT bleibt natürlich (wobei es immer noch keine Handvoll interessanter RT Spiele gibt)
Der neue Treiber hat auch am Idle geschraubt, wobei Multimonitor normales Gaming es immer noch zu viel Verbrauch ist.
Imo sind das 10%
Aber nachdem wir aktuell bei XTX vs 4080 bei Delta ~100€ sind, würde ich auch zur Geforce greifen. (wobei mir beide zu den Preisen nicht schmecken)
Denniss
2022-12-21, 16:22:50
Wer ne 4080 für den Preis kauft der merkt doch die Einschläge nicht mehr oder hat einfach zuviel Kohle.
Die 7900 Serie ist im momemtanen Zustand eigentlich auch nicht kaufbar, da sind einfach noch zuviele (Software-?) Fehler vorhanden um die Preise zu rechtfertigen.
DLSS ist durch FSR2 ausgeglichen und per Mod in jedem DLSS Spiel verfügbar.
Das stimmt so nicht.
z.B. Watch Dogs hat DLSS, aber kein FSR.
Es gibt generell deutlich mehr Spiele mit DLSS als mit FSR Unterstützung. (noch jedenfalls, das kann sich ändern.)
Außerdem ist die Bildqualität bei DLSS etwas besser. (FSR macht einen guten Job, nicht falsch verstehen!)
Generell gilt: Alle Nvidia Karten können FSR nutzen - falls sich also FSR in Zukunft stärker verbreitet ist das für Nvidia-Nutzer kein Nachteil.
Falls sich aber DLSS stärker durchsetzt hast du als AMD Nutzer davon nichts.
Und bei einem Marktanteil von 10% wo AMD gerade ist, ist es nicht unmöglich, dass DLSS sich durchsetzt.
Du bist bei Nvidia auf der sicheren Seite, bei AMD gehst du ein Risiko ein.
Sicherheit ist immer ein paar Euro wert - frag bei den Versicherungen nach ;)
GerryB
2022-12-21, 20:35:00
4000er NV=sichere Seite, aber nur mit ner megafetten CPU und sauteurem Ram
Der Userbenchmark bei CB für W3 zeigt da anscheinend nen Overhead bei NV!?
Prinzenrolle
2022-12-21, 20:51:23
AMD Center in der Goldstunde :D .
Man sieht ja die pro AMD Grundhaltung der Nutzer.
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4080
Bei dieser Umfrage haben gerade mal ~10% positiv abgestimmt, während für die klar schwächere Radeon 26% positiv abgestimmt haben, die in keiner Weise der bessere Deal ist, rein schon aufgrund der VR, RT Leistung Leistungsaufnahme und Features. P/L ist auch nicht besser.
Negativ stimmten 67%, bei AMD gerade mal 24%.:freak:
4000er NV=sichere Seite, aber nur mit ner megafetten CPU und sauteurem Ram
Der Userbenchmark bei CB für W3 zeigt da anscheinend nen Overhead bei NV!?
Steht jetzt ein einziges Spiel stellvertretend für alle?
Und wo ist da bitte ein relevanter Overhead zu sehen, wenn die minimal schnellere 3090 auf etwa dieselben FPS kommt?:confused:
Zudem ist die 6900XT übertaktet und das System nutzt besseren RAM, der 58000X3D packt halt nicht mehr Frames.
Egal ob auf einer 4090, 3090 oder 6900XT.
Exxtreme
2022-12-21, 20:57:35
Du bist bei Nvidia auf der sicheren Seite, bei AMD gehst du ein Risiko ein.
Sicherheit ist immer ein paar Euro wert - frag bei den Versicherungen nach ;)
Nur wenn man Bildverschlechterungsmaßnahmen wie DLSS/FSR trotzdem toll findet. Ist übrigens der Grund warum ich einer RTX 4090 liebäugele damit ich derartigen Schrott nicht nutzen muss. Und zweitens, wenn man in den DLSS-Thread reinschaut wie sie dort wild irgendwelche DLLs hin und her kopieren dann sieht die Sache für mich wie eine große Frickelbaustelle aus. Also nichts worauf ich mich überhaupt verlassen würde.
GerryB
2022-12-21, 21:05:52
Steht jetzt ein einziges Spiel stellvertretend für alle?
Und wo ist da bitte ein relevanter Overhead zu sehen, wenn die minimal schnellere 3090 auf etwa dieselben FPS kommt?:confused:
Wie man im CPU-Limit testet ist halt unter den Reviewern umstritten.
... nach m.E. ist 720p@low net allein zielführend, weil mit der größeren Auflösung u.U. noch mehr Objektdetails+Shadows eingeblendet werden in Game XYZ
und dann mehr CPU-Last erzeugen, von den bekannten Problemen mit RT ganz zu schweigen
insofern bringen Userbenchmarks mit verschiedenen CPU´s+Ram noch Einiges ans Licht
Eigentlich war ich überrascht das Lovelace da noooch schlechter agiert als Ampere, wtf!
--> Jetzt soll mal jeder potentielle Käufer in seine Kiste schauen, ob seine CPU+Ram für Lovelace reicht.
Mainstream sollte so ca. i5 12400 oder R5 5600(x) sein. Kein Wunder das Vielen dafür ne XT reichen würde.
(ob jetzt noch Leute befürchten für ne XTX das NT wechseln zu müssen, who knows)
Linmoum
2022-12-21, 21:10:07
Nur wenn man Bildverschlechterungsmaßnahmen wie DLSS/FSR trotzdem toll findet.Dieses Märchen stirbt aber auch nie aus, oder?
Exxtreme
2022-12-21, 21:11:41
Dieses Märchen stirbt aber auch nie aus, oder?
Ist kein Märchen. Das ist schon prinzipbedingt so, dass ein hochskalliertes Bild weniger Informationen enthält als ein nativ gerendertes.
Und die Entwicklungskosten von ~1Millarden bezahlt der Weihnachtsmann?
Das muss erst mal erwirtschaftet werden. Gibt Anfangs eben einen saftigen Aufpreis pro Chip.
Selbst um eine Milliarde höhere Entwicklungskosten gegenüber der vorherigen Generation wären keine Erklärung für die extremen Preiserhöhungen. Bei ~80 Mio. verkaufter GPUs würden diese über 2 Jahre nur ~12,50 $ Mehrkosten pro GPU bzw. 25 $ über 1 Jahr(d.h. bei späteren und unwahrscheinlichen Preissenkungen) bedeuten.
Und der Interposer, Platine, Kühler, RAM, eine Spannungsversorgung die 300W+ bereitstellen kann sind alle kostenlos....
Du baust einen Strohmann. Wäre das kostenlos, wären die Gewinnmargen bei ~85% und nicht ~60%. Die RAM-Preise sind außerdem deutlich gesunken.
Dass AMD und NV darauf achten, dass die Herstellungskosten möglichst niedrig sind, siehst du zum Beispiel am Chipletdesign bei Navi 31 und am billigeren RAM der sowieso schon stark beschnittenen 4090. Selbst beim Adapter hat NV offensichtlich noch einen möglichst billigen gewählt, um die Gewinnmarge zu erhöhen. Für 700$ gab es übrigens mal Dual-GPUs mit 2x520mm² bei NV und bei AMD 16 GB HBM.
Angesichts dessen zu leugnen, dass es bei den extremen Preiserhöhungen lediglich um Profitmaximierung geht, ist realitätsfremd. Es handelt sich schließlich um Aktiengesellschaften. NV hat selbst zugegeben, seine Lieferungen unterhalb des Nachfrageniveau zu verringern, um trotz Miningcrash weiterhin diese hohen Preise bzw. Preiserhöhungen durchzusetzen: "So we have been under-shipping. We have been under-shipping gaming at this time so that we can correct that inventory that is out in the channel."
Der Userbenchmark bei CB für W3 zeigt da anscheinend nen Overhead bei NV!?
Das 4090+5800X3D Ergebnis mit dem Pfeil ist tatsächlich meins. Ich kann mir ehrlichgesagt nicht ganz erkären warum ich da weniger FPS habe, als das andere System mit ebenfalls 4090+5800X3D weiter oben. Im CPU Limit sind bei mir allerdings auch die FPS Variationen ziemlich groß, jeder Durchlauf ist anders als der letzte, trotz gleicher Testszene. Da das andere 4090+5800X3D System mehr FPS erreicht als das 6900 XT+5800X3D System, würde ich aber auf jeden Fall nicht schlussfolgern, dass hier ein besonders großer Overhead bei NV vorliegt.
Ist kein Märchen. Das ist schon prinzipbedingt so, dass ein hochskalliertes Bild weniger Informationen enthält als ein nativ gerendertes.
DLSS und FSR nutzen allerdings Informationen mehrerer vorheriger Bilder, um hieraus durch geeignete Algorithmen ein neues, höher aufgelöstes Bild zusammenzusetzen. Hierdurch können im finalen Ergebnis dann eben doch mehr Information enthalten sein, als in einem nativ, ohne die Informationen mehrerer vorhergehender Bilder, gerenderten Bild. Schön zu sehen ist das häufig vor allem bei sehr dünnen Objekten wie Stromleitungen, die mit DLSS meistens vollständiger und glatter dargestellt werden. Deine Aussage gilt daher nur für Spacial Upscaling, wie es z. B. FSR 1.0 nutzt.
GerryB
2022-12-21, 21:56:55
Vllt. haben da Ram-Timings in der Szene nen großen Einfluss, who knows.
(das aus irgendnem Grund CL18 zu langsam war)
Das ist eigentlich auch Das was ich an den Userbenchmarks bei CB mag, das man sieht, wie Nuancen helfen.
mal spricht ein Game auf Bandbreite an und ein anderesmal eher auf Timings
etp_inxession
2022-12-22, 07:10:32
Bei der Umfrage fehlt für mich der Bezug auf den Energieverbrauch.
Neben dem Preis mitunter das Einzige was man bei den Radeon Karten wirklich kritisieren kann.
Bin absolut pro AMD.
Hat weniger mit AMD als solches zu tun, viel mehr weil nVidia einfach eine Kack-Firma ist.
Das geht moralisch nicht. Ü-berhaupt nicht.
Bei Intel ähnlich.
Aber die RX 7000 ist auch für mich unattraktiv.
Bin allerdings auch mit der RX 6800 noch bestens gerüstet.
Hoffe das Teil hält noch seeehr lang.
GerryB
2022-12-22, 07:31:54
Die 7000 sind momentan etwas ochsig beim Optimieren.(nach m.E. ab Werk too hot eingestellt)
Gerade den minTakt darf man beim OCen net zu hoch ziehen !!!
Und AMD sollte bitte wieder die Möglichkeit freigeben das MPT zu nutzen fürs UVen.
im Vgl. lassen sich derzeit die 4000er leichter UVen
aber,
um mal ein Bsp. aus dem OCN-Thread zu zeigen, mit PL=-10% und Volt=-10% im Treiberpaneel
geht keine Perf. verloren, ... OCen dagegen wird nur@h2o so richtig Spass machen (bei der XTX)
Wer ne AirRef OCed kommt sicher schnell in das Temp.-Limit.(throtteln)
und
noch ein Bsp. für ne OCte Custom-air mit aufgedrehtem Lüfter (Gurdi´s XFX im PCGH-Thread)
Vermutlich bremst da ein bisschen die CPU sogar schon im GrafikScore.
Legendenkiller
2022-12-22, 08:59:23
Korrigiert mich bitte wenn ich da ein Denkfehler habe..
60% Marge = 600$ Marge pro 1000$ Verkaufspreis ?
das bedeutet wenn Nvidia die Preise halbiert auf 500$ hätten sie immer noch 100$ Marge, also 20%...
Nur um mal zu verstehen wie krass 60% Marge sind. 60% Marge sind sind 250% Gewinn (allerdings nur auf den Chip).
Sie hatten letzes Jahr 40% Nettogewinn, also nach abzug von allen , wie F&E , Steuern, Prämien usw.
Gut laufende Autokonzeren sind stolz wie Bolle, wenn sie 10% Gewinn machen.
PS: wiegesagt, wenn sie die Preise bekommen.... anderrerseits machen solche Margen auch Platz für neue Player.
bad_sign
2022-12-22, 09:38:25
Das stimmt so nicht.
z.B. Watch Dogs hat DLSS, aber kein FSR.
Es gibt generell deutlich mehr Spiele mit DLSS als mit FSR Unterstützung. ;)
hä? Du hast mein Satz überhaupt nicht verstanden.
Du kannst für jedes DLSS Game einfach diesen Mod reinhauen
https://www.nexusmods.com/cyberpunk2077/mods/3001/
und es lässt sich FSR2 nutzen
Fertig.
Ähnlich, wie man bei Nvidia die .dll tauschen kann um eine neuere Version von DLSS zu Nutzen.
GerryB
2022-12-22, 10:11:05
Hast Du mal in der Neo-Demo die dll ausgetauscht oder brauchts dann auch die geä. ID, sprich fake NV-Graka?
(um auch auf RDNA2/3 als DLSS/FSR2 läuffähig zu sein)
https://www.youtube.com/watch?v=2W8S1V18bFw
(der downloadlink ist im txt vom YTer)
MiamiNice
2022-12-22, 11:33:55
AMD Center in der Goldstunde :D
Wie viele Leute bei so einem überteuertem Mist aucu noch Durchschnittlich oder gar positiv ankreuzen... Traurig.
Was für ein Müll die Karten.
Hey, das mein Text ;D:freak:
Haltet den Dieb :biggrin:
Wie viele Leute bei so einem überteuertem Mist aucu noch Durchschnittlich oder gar positiv ankreuzen... Traurig.
Der Neid muss schon groß sein.
Leonidas
2022-12-22, 12:02:50
anderrerseits machen solche Margen auch Platz für neue Player.
Wäre ja schön. Aber andere als Intel kommen da nicht rein. Benötigte Patente und Investitionssummen sind zu hoch. Die Chinesen machen es sicherlich auch nur mit Staatsknete.
Der Neid muss schon groß sein.
Das ist Mitleid.
Die meisten Leute bemitleiden andere, die z.B. in Sekten festhängen.
Eine 7900XT kann man auch als Intelligenztest verstehen.
Käufer haben leider nicht bestanden.
Iscaran
2022-12-22, 13:24:19
Korrigiert mich bitte wenn ich da ein Denkfehler habe..
60% Marge = 600$ Marge pro 1000$ Verkaufspreis ?
das bedeutet wenn Nvidia die Preise halbiert auf 500$ hätten sie immer noch 100$ Marge, also 20%...
Nur um mal zu verstehen wie krass 60% Marge sind. 60% Marge sind sind 250% Gewinn (allerdings nur auf den Chip).
Ne nicht ganz so krass.
Bei 1000 $ Verkaufspreis (vor Steuer!) sind 60% "Marge" ein Aufschlag von 375 $. D.h. Wenn die Herstellung 625 $ kostet und die Karte für 1.000 $ (vor MWst!) verkauft wird sind also 375 $ "Gewinn" bzw. "Marge" pro Karte (375/625 = 60%). Gewinn = Verkaufspreis - Verkaufspreis/((1+Marge%/100))
Also Hier eben: 1.000 - 1.000/(1+60/100)=1.000 - 1.000/1.6 = 1000 - 625 = 375 $ Gewinn.
Lehdro
2022-12-22, 14:24:23
Weiß gar nicht was ich da primär bei [x] Negativ ankreuzen soll, da das Gesamtpaket aus enttäuschender Leistungssteigerung gegenüber der Vorgängergeneration, Stromverbrauch, Treibersituation (stark fluktuierende Performance) und der Idle/Videoproblematiken so gar nicht mit dem Preis zusammenpassen will.
Grafikspachtel
2022-12-22, 14:41:01
Das ist doch nur noch absurd:
https://i.ibb.co/GHT8vxM/absurd.png
Durchschnittlicher Verkaufspreis: 1.427€ (sic!)
Dafür baue ich ein komplettes AM5-System, incl. Radeon 6700, teurem Mainboard, 32GB DDR5, Zen4, Gehäuse, Kühler und PCIe 4.0 SSD...
Tja, habe jetzt mehr für eine neue Karte ausgegeben, als ich eigentlich vorhatte.
Statt N33, ist es jetzt eine 6700/10GB geworden.
Dito. Von einer Vega56 kommend, die es zum Navi-Release für 260€ gab... das war der Preisleistungskracher schlechthin.
Die beste Karte der letzten Generation ist m.E. die 6800.
Wäre ja schön. Aber andere als Intel kommen da nicht rein. Benötigte Patente und Investitionssummen sind zu hoch. Die Chinesen machen es sicherlich auch nur mit Staatsknete.
Falls die GPUs von Innosilicon/IMG und MTT nicht dem US-Wirtschaftskrieg zum Opfer fallen, könnten diese die Situation verbessern. Bei AI-Beschleunigern gibt es übrigens dutzende Anbieter. Vielleicht expandiert von denen mal einer auf den Grafikmarkt. NV, AMD und Intel produzieren ihre Beschleuniger schließlich ebenfalls für AI und Grafik.
PS: wiegesagt, wenn sie die Preise bekommen.... anderrerseits machen solche Margen auch Platz für neue Player.
eben das wird interessant sein im nächstem Jahr da alle die Margen halten oder im idealfall erhöhen wollen. und da sieht es in meinen Augen besser für AMD aus.
ga102 3090 uvp marktstart USD1499 628mm2 8nm 3080 USD 699
AD102 4090 uvp USD 1599 602mm2 5nm 3080ti USD ???
GA104 3070 UVP USD 499 392mm2 8nm 3060ti USD 399
AD103 4080 UVP USD 1199 379mm2 5nm
AD104 3070ti UVP USD 899 295mm2 5nm preis noch nicht final
n21 5205mm2 7nm vs 300mm2 5nm + 133mm2 6nm
N21 6900XT UVP 999, 6800XT UVP 649 & 6800 uvp 579
N31 7900xtx UVP 999 7900xt 899
meint Nvidia hat bei der 4090 definitiv weniger Marge wie bei der 3090 aber da die eh nicht in der masse gehen wird die Marge bei den kleineren wohl höher sein.
interessant wird daher sein wie schnell die 4070ti wird denke die nur 12GB könnten sie begrenzen zumindest in 4k denke sie wird maximal gleich schnell wie eine 7900xt und hat 8GB weniger unter 16 GB darf man im 4k nicht mehr einsteigen ( meine Meinung ) und denke auch nvidia Fanboys werden nicht unter 16GB gehen wenn es denn UHD sein soll.
Navi 32 wird endscheidend sein für die marge beider
GerryB
2022-12-22, 21:28:06
Eine 7900XT kann man auch als Intelligenztest verstehen.
Käufer haben leider nicht bestanden.
oder
Die User müssen nur nen Plan fürs UV/Ocen haben: ... rechne mal TS-Grafikscore auf 1007€ und Points/€ um
(außerdem reicht i.d.R. die vorh.Cpu+Ram+NT weiterhin aus, vom Platz für den Einbau ganz zu schweigen)
Wer hier "dumm und dümmere " Bemerkungen macht, hat vermutlich net viel Praxis.(oder es ist nur Neid)
Außerdem wirds vermutlich mehr Leute mit UWQHD als 4k-Moni geben, wo dann die XT dicke reicht.
Bsp. aus dem PCGH-Thread: ... der Kollege kommt bis auf 5% an die XTX-Ref@stock ran
Rabiata
2022-12-22, 21:43:22
Eine 7900XT kann man auch als Intelligenztest verstehen.
Käufer haben leider nicht bestanden.
Der Treiber scheint noch etwas "beta" zu sein, aber das kann sich (hoffentlich) noch ändern. In der Vergangenheit waren auch meist noch einige Prozent Performance-Steigerung über die Jahre drin.
Momentan würde ich die 7900 XT auch nicht kaufen. Aber mit gefixtem Treiber und gesenktem Preis (ich denke, AMD wird nicht drum rum kommen), warum nicht.
GerryB
2022-12-22, 23:44:07
Der Treiber sperrt momentan Tools wie MPT aus, wo man bei der 6000er gut Zugriff hatte.
(falls Das dochmal demnächst gehen sollte, werden die User schon Was rausholen)
Was nur alle Besserwisser auf die XT schimpfen!?
die kleine Swift@1047€ ist superleise (4,6dB) und kann auch effizient uuund braucht net viel Platz
Ne nicht ganz so krass.
Bei 1000 $ Verkaufspreis (vor Steuer!) sind 60% "Marge" ein Aufschlag von 375 $. D.h. Wenn die Herstellung 625 $ kostet und die Karte für 1.000 $ (vor MWst!) verkauft wird sind also 375 $ "Gewinn" bzw. "Marge" pro Karte (375/625 = 60%). Gewinn = Verkaufspreis - Verkaufspreis/((1+Marge%/100))
Also Hier eben: 1.000 - 1.000/(1+60/100)=1.000 - 1.000/1.6 = 1000 - 625 = 375 $ Gewinn.
auch So wird kein Schuh daraus, denn die Marge macht Nvidia nicht die Karten Hersteller die liegen eher bei 10-30%
Angenommen Nvidia zahlt je Chip in der Herstellung zb. USD 200 und verkauft Ihn dann eben für 360, der Bordpartner kauft die restkomponenten und baut das zeug zusammen und haut dann seine Marge drauf, denn auch jeder Speicher, Kondensator, stecker Hersteller hat ja auch noch seine eigene Marge
oder
Die User müssen nur nen Plan fürs UV/Ocen haben: ... rechne mal TS-Grafikscore auf 1007€ und Points/€ um
(außerdem reicht i.d.R. die vorh.Cpu+Ram+NT weiterhin aus, vom Platz für den Einbau ganz zu schweigen)
Wer hier "dumm und dümmere " Bemerkungen macht, hat vermutlich net viel Praxis.(oder es ist nur Neid)
Außerdem wirds vermutlich mehr Leute mit UWQHD als 4k-Moni geben, wo dann die XT dicke reicht.
Bsp. aus dem PCGH-Thread: ... der Kollege kommt bis auf 5% an die XTX-Ref@stock ran
Das Problem ist doch nicht der Stromverbrauch beim zocken.
Das Problem ist, dass die Dinger saufen ohne Ende wenn du nur den Rechner anhast und am PC arbeitest. (Wenn der PC im Standby ist, ist es auch wieder nicht dramatisch.)
Also genau das, was viele Leute stundenlang am PC machen. Arbeiten. Surfen, YT schauen.
Ja, wenn du nur 2 Stunden am Tag spielst und exakt dafür den PC anmachst - in Ordnung, dann ist das Mehr an Stromverbrauch in Ordnung.
Tust du das aber nicht, sondern hast den PC auch so für ein paar Stunden an, kostet dich die Karte 50 Euro, 100 Euro pro Jahr mehr.
Nur weil sich die Karten nicht kontrollieren können und saufen als gäbe es kein morgen während du z.B. im 3DCenter unterwegs bist.
Du hast da 50-100W mehr Verbrauch wie bei nvidia.
Rechne das einfach mal hoch.
Und das ist ja nur Stromkosten.
Ich finde es nicht so geil, wenn ich im Sommer bei 30° arbeiten muss - muss ich aber, die wenigsten können den gesamten Sommer frei nehmen.
Wenn jetzt meine GraKa noch fröhlich 100W nuckelt während sie eigentlich 0 tun muss heizt das den Raum völlig unnötig auf. Darauf habe ich keine Lust.
Und das Ding ist dabei noch deutlich lauter.
Lautstärke ist ja das Dritte.
Auch hier: Beim zocken ist das meist völlig egal, wenn du Kopfhörer hast stört das gar nicht.
Aber beim Arbeiten, wo eine 4080 völlig lautlos ist, ist eine RDNA3 Karte eben sehr wohl hörbar.
Natürlich sind das alles nur Probleme, wenn du den PC öfter an hat und ihn auch außerhalb des Spielens verwendet.
Nutzt ihr AMD Fans euren PC denn wirklich so selten und zur zum zocken?
Oder warum stört euch das nicht?
Zu 7900XT vs 7900XTX - ich bin mir wirklich nicht sicher, ob allen Käufern der 7900XT klar ist, was sie da gekauft haben.
Eher glaube ich, dass ein großer Teil erwartet hat das gute Teil gekauft zu haben. Passt vom Preis ja zu dem was man so gehört hat.
Und XT, XTX, als ob das groß auffällt. Zumal XT bei AMD ja bisher immer die große Variante gewesen ist. Das XT plötzlcih die kastrierte Sparvariante ist, ist je nach Interpretation sicherlich nahe am Betrug.
Daher ja, ich denke da sind viele Leute auf den Namensscam reingefallen.
OpenVMSwartoll
2022-12-23, 16:07:54
Natürlich war das ein simplifiziertes Beispiel, nur mit Fokus auf Nvidia.
Ansonsten kann man Transportkosten, Verpackung, Marketing, Margen der Großhändler, der Einzelhändler, etc. noch involvieren.
Ist aber hier irrelevant.
GerryB
2022-12-23, 16:51:01
Das Problem ist doch nicht der Stromverbrauch beim zocken.
Das Problem ist, dass die Dinger saufen ohne Ende wenn du nur den Rechner anhast und am PC arbeitest.
Da musste schon ein ungünstiges Multimonisetup haben, damit rein gar nix geht!?
Derzeit würde der Main@144Hz und der Secondary@60Hz ganz normal sparsam arbeiten nach dem letzten Fix.
Solche unqualifizierten Kommentare ohne genauere Angaben sind eeh sinnlos!
Wende Dich am Besten an den Monithread.
Da musste schon ein ungünstiges Multimonisetup haben, damit rein gar nix geht!?
Derzeit würde der Main@144Hz und der Secondary@60Hz ganz normal sparsam arbeiten nach dem letzten Fix.
Solche unqualifizierten Kommentare ohne genauere Angaben sind eeh sinnlos!
Wende Dich am Besten an den Monithread.
Klingt hier irgendwie anders, als "alles tutti"
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/Neues-Treiber-Update-1410040/
Hast du irgendeine Quelle, dass "ganz normal sparsam" (bzw. was ist "normal" für dich?) jetzt Normalzustand ist?
Oder ist das einfach dein Gefühl oder dein Wunsch?
Convertible
2022-12-24, 00:43:14
Die 7900xtx ist nen Fail. Ich befürchte da reicht weder ein Xmas treiber noch ne Rev1.1
Beim Treiber gebe ich dir Recht. Was eine Potentielle Rev 1.1 angeht, bin ich da optimistischer. Da ist irgendwo ein Bug im Design.
Ich meine, schaut es euch doch nur an. 20 Prozent mehr CU, und mehr Takt hätten eigentlich gereicht um mit RDNA2 und 5nm-Fertigung auf die Performance zu kommen, die akutell die 7900 XTX liefert.
Die ganzen Optimierungen von RDNA3 (siehe AMD-Folien) schlagen quasi mit Null Prozent durch. Da stimmt doch was nicht, da ist irgendwo ein Nadelör, dass die ganzen Optimierungen zunichte macht.
Auch dass N32 erst in H2 2023 kommen soll, deutet entweder darauf hin, dass dieser in 4nm gefertigt werden soll, oder dass AMD diesen Bug bei N32 eben ausmerzen will. Vielleicht kommt N32 gar nicht als RX7800 XT, sondern direkt als RX7850 XT zusammen mit N31v2, das dann als RX7950 XT aufschlägt.
Ich finde es außerdem schade, dass hier im Forum sich alles nur um Preis dreht und keiner mal über die Technik spricht. Dachte das wäre ein Technik-Forum. Die Leistung passt doch gar nicht zu dem, was man von dem Chip erwarten würde...
KriNemeth
2022-12-24, 10:50:09
Nutzt ihr AMD Fans euren PC denn wirklich so selten und zur zum zocken?
Oder warum stört euch das nicht?
Ähm, nicht Wenige hier haben Zweit-, Dritt- oder gar Viert-PCs.
Ich selber habe einen Spiele-PC (ironischerweise mit 7900XT), 2xLaptop, Bastelrechner und einen expliziten Arbeits-PC.
Also ja mein Spiele-PC läuft keine 8h in der Woche.
Zu 7900XT vs 7900XTX - ich bin mir wirklich nicht sicher, ob allen Käufern der 7900XT klar ist, was sie da gekauft haben.
Eher glaube ich, dass ein großer Teil erwartet hat das gute Teil gekauft zu haben. Passt vom Preis ja zu dem was man so gehört hat.
Und XT, XTX, als ob das groß auffällt. Zumal XT bei AMD ja bisher immer die große Variante gewesen ist. Das XT plötzlcih die kastrierte Sparvariante ist, ist je nach Interpretation sicherlich nahe am Betrug.
Daher ja, ich denke da sind viele Leute auf den Namensscam reingefallen.
Ja, das AMD da ständig die Benamung leicht ändert und es XTX Versionen gibt und dann mal wieder nicht. Aber lass mal die Kirche m Dorf, wer sich für 4-stellig einen Grafikkarte kauft, weiß in der Regel, was er da kauft.
Und das Ding ist dabei noch deutlich lauter.
Der große Vorteil der Ref 7090XT, sie ist sehr leise, gegenüber der XTX und auch der 4080. Wobei das wahrscheinlich bei den Customs eh kein Problem sein wird.
ÄAber lass mal die Kirche m Dorf, wer sich für 4-stellig einen Grafikkarte kauft, weiß in der Regel, was er da kauft.
Ehrlich gemeinte Frage: Hast du das bei Nvidias 4080 16GB vs 4080 12GB auch einmal geschrieben?
Hier wurde viele Seiten lang sich über Nvidias Namensgebung aufgeregt.
Bei AMD liest man hier quasi gar nichts dazu.
KriNemeth
2022-12-24, 14:02:54
Hab das beiläufig mitbekommen. Aber beschäftige mich nicht groß mit NV, hab daher auch nix zu geschrieben. ;)
Da musste schon ein ungünstiges Multimonisetup haben, damit rein gar nix geht!?
Derzeit würde der Main@144Hz und der Secondary@60Hz ganz normal sparsam arbeiten nach dem letzten Fix.
.
ICH KAUFE MIR EINE 1K KARTE UM DANN DEN 144HZ AUF 60HZ ZU STELLEN?
Wo ist da der Mehrwert?
Leute geht's noch? Weil AMD zu blöd ist...und halbgares Zeug auf den Markt wirft.
Schlimmer geht's nimmer.
PS:...tut er nach dem Fix nicht.
bad_sign
2022-12-25, 10:58:25
.
Bei AMD liest man hier quasi gar nichts dazu.
Liegt daran dass die Karten größere Probleme als den Namen haben ^^
@GerryB
MPT geht nicht mehr? AMDs Treiber Lockdown machen die Karten immer weiter unattraktiv:(
Vorallem, weil die Powerslider nach unten hin so stark limitiert wurden, was soll der Mist!
Da musste schon ein ungünstiges Multimonisetup haben, damit rein gar nix geht!?
Derzeit würde der Main@144Hz und der Secondary@60Hz ganz normal sparsam arbeiten nach dem letzten Fix.
Solche unqualifizierten Kommentare ohne genauere Angaben sind eeh sinnlos!
Wende Dich am Besten an den Monithread.
Ich wiederhole meine Frage: Link dazu, dass das Problem gefixt ist?
Laut PCGH ist es das nämlich nicht.
Oder war das von dir ein unqualifizierter Kommentar?
Ehrlich, mit was AMD bei seinen Anhängern durchkommt ist atemberaubend.
Exxtreme
2022-12-25, 16:37:49
Ich wiederhole meine Frage: Link dazu, dass das Problem gefixt ist?
Laut PCGH ist es das nämlich nicht.
PCGH hat wohl nicht nachgemessen ob das Problem gefixt ist oder nicht.
Aroas
2022-12-25, 18:16:22
Sämtliche aktuelle Grafikkarten bekommen von mir allerhöchstens eine durchschnittliche Bewertung, weil sie allesamt schlicht zu teuer angeboten werden.
IchoTolot
2022-12-25, 18:35:40
Es gibt generell deutlich mehr Spiele mit DLSS als mit FSR Unterstützung. (noch jedenfalls, das kann sich ändern.)
Du kennst das hier?
https://github.com/MOVZX/CyberFSR2
Sämtliche aktuelle Grafikkarten bekommen von mir allerhöchstens eine durchschnittliche Bewertung, weil sie allesamt schlicht zu teuer angeboten werden.
Sie sind in der Tat zu teuer. AMD muss man da fast schon zu Gute halten, dass sie eben nicht die UVP mal eben verdoppelt haben wie nvidia bei der 3080 zur 4080 - gemessen an der last gen. Aber für mein Empfinden ist AMD einfach zu schwach. Geradezu enttäuschend. Ich hab bisher noch keinen Titel gesehen wo sie die doppelte Rechenleistung der 6900XT auf die Straße bringen kann. Und was wurde vor release sich da mit leaks zur 2-3x Leistung gegenseitig überboten. Was haben wir nun bekommen? Alle Karten enttäuschen quasi, ironischerweise bis auf die teure 4090 die noch das beste Preis- Leistungsverhältnis hat und wirklich wie next gen wirkt und Leistung bietet. Das kann man nur als einen Joke bezeichnen.
bad_sign
2022-12-25, 18:48:18
Umfrage 79XT
Negativ, die in allen Belangen schlechtere 79er.
Sämtliche aktuelle Grafikkarten bekommen von mir allerhöchstens eine durchschnittliche Bewertung, weil sie allesamt schlicht zu teuer angeboten werden.
Mögen sich die Läger damit füllen. ;) (Wie bei allen anderen hardware Produkten aktuell)
ChaosTM
2022-12-25, 19:06:57
Alles immer eine Frage des Preises.
Bei RT hat man doch aufgeholt und ist auf 3090 Level - mostly.
Um 800 Euro wäre das ein No-Brainer, wenn man DLSS3 nicht braucht.
Blase
2022-12-25, 20:25:05
Die XTX habe ich noch mit Durchschnittlich bewertet aufgrund des Preises - aber da die XTX kaum 10 Prozent mehr als die XT kostet, aber bald 20 Prozent schneller ist in 4K, hat die XT also ein noch schlechteres P/L Verhältnis - damit für mich nen klarer negativer Ersteindruck aufgrund des Preises...
MfG Blase
AMD Center
2022-12-25, 20:28:33
Postitiv weil man AMD unterstützen muss.
Schnitzl
2022-12-25, 20:40:46
- zu teuer
- zu stromhungrig
- Treiber nicht fertig
- (noch) keine Möglichkeit PT deutlich abzusenken
- bug in HW?
- falsche Namen, sollte imho 7800 und 7800XT heissen und nicht XTXTXTXTX was für lächerlicher Bullshit...
dabei wollte ich wirklich mal wieder ne AMD Karte :frown:
Du kennst das hier?
https://github.com/MOVZX/CyberFSR2
Ach so, ich vergass, bei AMD muss sich jeder noch irre mit beschäftigen und hier was tun, da was runterladen, da was modden.
Klar, das will man als User.
Ne halt, will man nicht, daher kauft 90% Nvidia...
Exxtreme
2022-12-25, 21:59:53
Ach so, ich vergass, bei AMD muss sich jeder noch irre mit beschäftigen und hier was tun, da was runterladen, da was modden.
Klar, das will man als User.
Ne halt, will man nicht, daher kauft 90% Nvidia...
Wenn man in den DLSS-Thread reinschaut und wie sie dort irgendwelche DLLs hin und her kopieren dann ist das womöglich kein exklusives AMD Problem.
Flusher
2022-12-26, 12:32:27
- falsche Namen, sollte imho 7800 und 7800XT heissen und nicht XTXTXTXTX was für lächerlicher Bullshit...
XT und XTX wurden schon mehrfach in AMDs bzw. ATIs Namensschema genutzt.
Radeon 9800 XT oder Radeon X1900 XTX um mal zwei Beispiele zu nennen - lang ists her...
Damals hat ATI auch NVIDIA noch ordentlich Feuer machen können an der Performancespitze.
SkybeAT
2022-12-26, 13:00:59
Ich finde ja, dass P/L heutzutage nicht mehr relevant sind.
Der Absolute Preis den ich im Laden zahlen muss zählt. Und da sind alle Karten der neuen Gen von AMD und NV zu teuer. Scheiss egal welche Leistungen sie erbringen können.
auch So wird kein Schuh daraus, denn die Marge macht Nvidia nicht die Karten Hersteller die liegen eher bei 10-30%
Angenommen Nvidia zahlt je Chip in der Herstellung zb. USD 200 und verkauft Ihn dann eben für 360, der Bordpartner kauft die restkomponenten und baut das zeug zusammen und haut dann seine Marge drauf, denn auch jeder Speicher, Kondensator, stecker Hersteller hat ja auch noch seine eigene Marge
Den Speicher müssen die AIB-Partner ebenfalls von NV kaufen. Laut Jon Peddie hat NV, das mit seinen FE mit den AIB konkurriert, deren Marge inzwischen auf nur noch 5% gedrückt. Deswegen hat EVGA auch das Interesse daran verloren.
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html
GerryB
2022-12-27, 12:20:03
btw.
Mittlerweile haben sich die User schon einbisschen eingegrooved bzgl. tweaken der 999€ XT-Ref: ein User im PCGH-Thread mit "schwacher" CPU
(zuerst Vram optimieren, dann mit den verbleibenden Watt UV/OCen beim GPU-Takt)
und
nach m.E. kaufen Leute mit 144Hz-4k-Monis eeh die TopDogs, aber für UWQHD reicht die XT dicke aus (oder nur Raster in W3-4k)
Schnitzl
2022-12-27, 12:48:11
XT und XTX wurden schon mehrfach in AMDs bzw. ATIs Namensschema genutzt.
Radeon 9800 XT oder Radeon X1900 XTX um mal zwei Beispiele zu nennen - lang ists her...
Damals hat ATI auch NVIDIA noch ordentlich Feuer machen können an der Performancespitze.
stimmt, die 9800XT hatte ich damals sogar (HIS IceQ)
Wenn man aber nur immer mehr X dem Namen hinzufügt, ohne dass die Karte dem wirklich gerecht wird, finde ich das eben scheisse.
Evtl. könnte Matrox oder PowerVR wieder anfangen bezahlbare Karten zu bauen.
user77
2022-12-27, 13:18:51
MMn. sollten die Karten ja 7800 XT und 7800 XTX heißen. :freak:
GerryB
2022-12-27, 13:35:12
So ein Quatsch!
Nur weil die 4090 "doppelt" so groß ist, die eher Titan light heißen sollte?
Prinzenrolle
2022-12-28, 10:17:44
So ein Quatsch!
Nur weil die 4090 "doppelt" so groß ist, die eher Titan light heißen sollte?
Die 4090 ist weit davon entfernt doppelt so groß zu sein.
Dann müsste die Karte ~1000mm² sein.
stimmt, die 9800XT hatte ich damals sogar (HIS IceQ)
Wenn man aber nur immer mehr X dem Namen hinzufügt, ohne dass die Karte dem wirklich gerecht wird, finde ich das eben scheisse.
Evtl. könnte Matrox oder PowerVR wieder anfangen bezahlbare Karten zu bauen.
Bei der nächsten Generation empfehle ich AMD das Namensschema zu perfektionieren.
Das ist dann eine 8950XTXTXX² und eine 8950XTXTXX.
Beide mit gleichem Ram und nur 50 Euro auseinander.
Die 8950XTXTXX² ist ein unbeschnittener Vollchip, der handselektiert wird und nur an ein paar Magazine und große YT Kanäle geht. Die können den dann testen und die Performance des Vollausbaus bewerten.
Im eigentlichen Handel kommt dann der beschnittene 8950XTXTXX raus und die 8950XTXTXX² maximal eine handvoll.
Das das Ding dann langsamer als die 8950XTXTXX² ist? Natürlichk, aber bei gleicher Speicherbestückung, quasi gleichem Preis und quasi gleichem Namen fällt das bestimmt keinem auf.
Besonders wenn es das Vollmodell nicht noch daneben im Shop gibt.
Jetzt müsste ich nur noch jemanden bei AMD kennen, ich bin sicher AMD würde diese Idee nur zu gerne aufgreifen. Wäre bestimmt ordentlich Kohle wert.
Mit dem Scammer-Namen der aktuellen Generation tun sie ja schon einiges (wie eben Nvidia mit 4080 16GB vs 4080 12GB), aber das lässt sich noch deutlich optimieren!
GerryB
2022-12-31, 18:10:37
Die 4090 ist weit davon entfernt doppelt so groß zu sein.
Dann müsste die Karte ~1000mm² sein.
Hää???
GCD bei der 7900XTX = 300mm²
vs
4090= 600mm²
AMDip
2023-01-01, 12:52:57
Hää???
GCD bei der 7900XTX = 300mm²
vs
4090= 600mm²
du rechnest nur einen teil des AMD Chip, mensch kann sich AMD ja den rest sparen wenn es auch ohne dem geht ;D
So aus dem Kopf haben beide AMD Karten ca 522, ansonsten müsstest du die dinge auch erst beim nvidia chip rausrechnen lol
Troyan
2023-01-01, 12:57:06
AD102 liegt bei 618mm^2 und liefert 100% mehr Leistung gegenüber dem 522mm^2 RDNA3 Chip. Muss man nicht mehr viel sagen, wie schlecht RDNA3 ist. Und dabei ist AD102 auch noch 30% effizienter. :eek::cool::freak:
Karma
2023-01-01, 13:05:32
https://www.youtube.com/watch?v=_2ggdOyzpYQ
Haha, wenn ich mir überlege was sich die Leute hier an Nvidias Stecker aufgegeilt haben und was für Wunschträume da waren.
Dann kam raus: Einfach nicht richtig eingesteckt.
Und jetzt das, der echte Murks, die nicht behebbaren Fehler sind (welch Überraschung) bei AMD.
Geschieht AMD nach dem was sie mit RDNA3 abziehen sehr recht.
Damit haben wir
- defekte Kühllösungen
- scheiß Treiber
- saufende Karten
- hohe Lautstärke
- gelogene Performance Angaben von AMD
- gelogene Effizienz Angaben von AMD
- absurd hohe Preise
- ein Namensschema, das scammy ist und was AMD - im Gegensatz zu Nvidia auch durchgezogen hat
Aber immerhin hat RDNA3 im 3DC bessere Bewertungen als die 4080.
Mal sehen ob AMD es schafft dauerhaft auf 10% Marktanteil oder sogar darunter zu kommen, sie sind auf einem guten Weg.
Falls Intel mit seiner nächsten Generation weniger Murks macht als mit der ersten könnte es tatsächlich sein, dass Intel relativ schnell AMD an Marktanteilen überholt.
Von AMD kann man keinerlei Konkurrenz zu Nvidia erwarten, dazu ist AMD viel zu gierig bei den Preisen. Unterm Strich für das gebotene mehr verlangen als Nvidia? Das muss man bei der "Qualität" (siehe oben) und vor allem bei dem Preis den Nvidia für die 4080 verlangt, erstmal schaffen. Das die überteuerte 4080 der klar bessere Deal ist, das ist einfach nur wow. AMD ist definitiv die beste Marketingabteilung, die Nvidia jemals hatte.
Eigentlich kann keiner eine 4080 gut aussehen lassen.
Aber AMD packt es natürlich.
Immerhin bei der Gier sind sie die Nummer 1, unangefochten.
Wird Zeit, dass AMD von Intel abgelöst wird, eventuell macht Intel bessere Preise.
AMDip
2023-01-01, 13:08:45
AD102 liegt bei 618mm^2 und liefert 100% mehr Leistung gegenüber dem 522mm^2 RDNA3 Chip. Muss man nicht mehr viel sagen, wie schlecht RDNA3 ist. Und dabei ist AD102 auch noch 30% effizienter. :eek::cool::freak:
Bei RT wird die Effizienz sogar noch besser weil die RT Einheiten scheinbar viel effektiver arbeiten als die AMD Methode.
Da war irgendein Bot aktiv. Anders ist das schlechte Ergebnis nicht zu erklären.
Bin zufrieden mit meiner XTX.
Läuft absolut stabil und in meinem Usecase bis UHD60Hz auch schön sparsam im Stromverbrauchsbereich einer RDNA1-RDNA2.
Fehlen nur noch gute Wasserkühler auf dem Markt.
Dass ich so viel für eine Grafikkarte ausgebe, wird jedoch eine Ausnahme bleiben.
Ich habe aber auch vor die nun eine ganze Weile zu nutzen. Dank 24GB VRAM gibt's dazu auch ein ordentliches Polster für 5 Jahre +, die wesentlich angenehmer zu bewältigen sein dürften als seinerzeit die 5 Jahre mit der HD5850 mit 1GB, die zuletzt in GTA5 komplett am VRAM verhungerte.
Schnitzl
2023-02-19, 21:48:28
Da war irgendein Bot aktiv. Anders ist das schlechte Ergebnis nicht zu erklären.
Teinehmer ~1500
unwahrscheinlich.
Bei 4090 und 4080 warens sogar ~1800
Leonidas
2023-02-20, 05:13:42
Da war irgendein Bot aktiv. Anders ist das schlechte Ergebnis nicht zu erklären.
Nach Jahren, wo AMD viel Kredit in diesen Umfragen gegeben wurde, erscheint mir dieses Ergebnis eher denn sehr ehrlich.
PS: Nebenbei setze ich bei solchen kritischen Umfragen gern ein (zeitliches) IP-Limit, wonach man nicht so schnell wieder voten könnte - oder halt eine Bot-Armee bräuchte.
MiamiNice
2023-02-20, 15:58:33
In Vergleich von jeweils zweitbester Lösung, sprich Radeon RX 6800 XT gegen Radeon RX 7900 XT, liegt die ältere Karte mit 77,6% zu 21,9% sogar um einige Dimensionen vor AMDs neuem Produkt. Als besonders beeinflußt von einem eventuellen AMD-Bias kann man zumindest diese (neuen) Umfrage-Ergebnisse nicht mehr bezeichnen, AMD wird hier fair negativ bewertet
Ich glaube, da ist ein Schreibfehler. Sollte, denke ich, "Im" heißen.
Abgesehen davon kann ich Deiner Argumentation nicht folgen. An den aktuellen AMD GPUs findet sich nicht ein gutes Haar, zum Release erst recht nicht. Also hat im Prinzip jeder der 21,9% bzw. 27,4% positiv Stimmen ein AMD Bias.
Mit der Zahl im Kopf rechnen wir noch, die hinzu, die aus Enttäuschung negativ gestimmt haben und natürlich die, die sich über den Preis entrüsten (kann ja nicht sein, dass AMD dieselbe Masche abzieht wie NV) und schon ist man auf weit über 50% 3DC User mit AMD Bias.
Leonidas
2023-02-21, 04:40:00
Schreibfehler gefixt.
Inhaltlich: Sicherlich ist der gewisse AMD-Bias nicht gänzlich weg. Ein gewises Maß an Mindest-Positiv-Wertung ergibt sich allerdings bei jeder Hardware. Ergo sind nicht die ganzen 22% bzw. 27% (möglicherweise) "übertrieben", sondern immer nur ein Teil davon.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.