Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13. Dezember 2022
Leonidas
2022-12-14, 07:58:04
Link zur News:
https://www.3dcenter.org/news/news-des-13-dezember-2022
Ich glaube da ist ein Typo in der zweiten Tabelle, oder sind es wirklich mehr performance Kerne?
konkretor
2022-12-14, 09:28:42
Woher kommt eigentlich diese Hinweise zu einem Hardware Bug bei den neuen Radeons?
https://twitter.com/All_The_Watts/status/1602698461283074049?s=20&t=7sLs-8pG72-Gavn4TOvqBg
Kann das nicht nachvollziehen. Wunschdenken das was besseres kommt?
Woher kommt eigentlich diese Hinweise zu einem Hardware Bug bei den neuen Radeons?
Vor allem was soll es für ein "Hardware-Bug" sein?
Irgendwann hieß es ja mal, dass die Taktraten aufgrund eines Hardwarebugs so niedrig sind. Seit gestern wissen wir aber, dass die Taktraten real überhaupt nicht niedrig sind.
Woher kommt eigentlich diese Hinweise zu einem Hardware Bug bei den neuen Radeons?
Auf irgend einer AMD Folie stand angeblich was von "RDNA3 kann über 3GHz Takt" erreichen. Und da wird halt jetzt rein interpretiert, dass es einen Bug gibt, der das aktuell verhindert.
Aber AMD sagt halt nicht, welche GPU die 3GHz wo erreichen kann. Computerbase hatte das wohl auch in einem kurzen Peak mal erreicht, aber es kann genauso auch Navi33 gemeint sein oder mit OC. Ich bezweifle, dass da was dran ist. Manche hoffen da halt, dass AMD noch einen Konkurrenten zur 4090 aus dem Hut zaubert, aber da ist man zu weit weg. Und Navi31 auch schlicht zu klein mit zu wenig Shadern, die man auch nicht gut ausgelastet bekommt. AMD hat wohl jetzt das Problem, was NVidia bei Ampere hatte. Da man bei den Shadern ein ähnliches Konzept verfolgt wie bei Ampere, auch kein Wunder. Je höher die Auflösung, desto besser steht es gegen die 4080, die kein Problem mit der Auslastung hat. Treiber sind wohl auch noch ne echte Baustelle, die Idle Verbrauche schwanken massiv von Test zu Test, auch der dual Monitor Verbrauch ist mal ok, mal Katastrophe.
Insofern kann sich durchaus noch was an der Performance von Navi31 ändern, aber wohl eher nicht durch einen Hardware Fix, sondern eher durch BIOS und Treiber und da auch im (für AMD) üblichen Rahmen.
AMD mal wieder, die unfähigste Firma whatever, mit den hohl'sten Versprechungen im Vorfeld. Bestätigen ihr Image mal wieder selbst.
1300 für eine 7900xtx (alias 7800xt) als das halbfertigste Produkt im Jahr 2022, ja klar. Man muss sich ehrlich fragen was die die 2 Jahre lang gemacht haben. Treiberperformance zum Launch komplett verbuggt, begleitet von Mondpreisen ala Nvidia. Lieferbarkeit zum Launch mit Monaten im Vorlauf = nada...sowas von lächerlich. Bei AMD muss man davon ausgehen das alles was sie im Vorfeld ankündigen nicht eintritt. Jetzt weiß man vllt., warum da Marketingchefs und Chefentwickler das Handtuch werfen.
Mit Mittelklasseprodukten verdient man nicht Umsummen und schon gar nicht hohe Margen, auch wenn man glaubt sie als Highend oder Enthusiast vermarkten zu können. Wollkragenpulover und Hinterhof haben sie wieder eingeholt. Alte Schwächen der Hardware sind zurück, die nie bereinigt werden inklusive. Sie werden einfach per Treiber kaschiert. Sah so gut unter RDNA2 aus, nun wieder das alt gleiche Spiel. Weniger für mehr, nicht weniger ist mehr.
Nvidia dürfte sich eins lachen. Die 4070ti für 1150 ist auf dem Weg. LOL AMD.
hardtech
2022-12-14, 10:28:19
@leo
wann kommt die launchanalyse zu den neuen amd karten?
insbesondere 3dc-index und undervolting interessiert mich.
ausserdem interessiert mich der nachtrag zum raptor lake launch:
https://www.3dcenter.org/artikel/launch-analyse-intel-raptor-lake
dort sind in den tabellen einige fragezeichen, die nach dem launch der non k cpus gefüllt werden können.
die frage steht im raum, was die 65w cpus jeweils an strom ziehen. also pl1 ist 65w und pl2 ist bisher ein fragezeichen. das auszuklären wäre klasse!
Wunschdenken das was besseres kommt?
Ja.
Wie üblich wird es der nächste Wundertreiber richten.
Oder die nächste Generation.
Jetzt mal was Neues - ein Bug, so dass schon innerhalb der gleichen Generation die nächste Wunderkarte kommt.
Eine gewisse Kreativität kann man nicht leugnen.
maximus_hertus
2022-12-14, 10:33:26
Müsste es nicht in der Intel-Tabelle +E-Kerne statt +P-Kerne heißen?
Hardwarebug Radeon: Das halte ich auch für Wunschdenken und den Versuch, die Enttäuschung über die 7900er irgwendwie zu erklären.
Es zeigt aber einmal mehr, dass sehr frühe Leaks und Performance-Angaben, sorry, kompletter Schwachsinn sind. Die Leaker haben sicherlich primär die Infos, die sie erhalten haben, weitergegeben (an uns), aber es waren halt keine, nennen wir es, "reale" Infos, sondern eher wir würden gerne und das sollte am Ende die Hardware können.
Es ist immer wieder faszinierend, wie AMD in early Leaks hochgejubelt wird und am Ende jedes Mal (Ausnahmen bestätigen die Regel) diese Erwartungen nicht erfüllen kann. Und zwar recht deutlich nicht erfüllen kann.
Ob es die Hypetrain "Ersteller" irgendwann mitbekommen? Ich glaube nicht. Mit Emotionen verdient man schlicht mehr.
Leo gehörte schon jeher zu den eher vorsichtigen, der eben nicht alles sofort gehypt hat, sondern immer versucht hat die Infos in den richtigen Kontext zu setzen.
Evtl. sollte man bei den early "Leaks" bei RDNA4 und RTX 5000 erstmal immer dazuschreiben, dass die Leaks zu RTX 4000 / RDNA3 bis recht kurz vor Launch ziemlich sehr falsch lagen und man dementsprechend eigentlich nicht sagen kann, wie viel Substanz bei den dann early Leaks vorhanden ist.
Es ist einfach verdammt Schade, dass AMD (teils selbst verschuldet, bevor man mich hier falsch versteht) immer wieder eine Erwartungshaltung vorgesetzt bekommt, die man in 9/10 Fällen niemals erfüllen kann. Ich glaube jedoch nicht, dass sich daran etwas ändert. Man muss nur aufpassen, dass Radeon / AMD nicht komplett Bedeutungslos werden. Bei dauerhaft 10% bzw. unter 10% Anteil bei Gaming GPUs (dGPU) könnte es leicht passieren, dass man sich nur noch um iGPU und maximal Mittelklasse (Einsteiger) kümmert (Abfallprodukt der iGPU).
Das wäre dann extrem bitter und damit hätte niemand gewonnen.
Gastxyz
2022-12-14, 10:45:18
Sie verbocken es immer wieder selbst. Da kann niemand helfen. Ja die Marktanteile sind schon derzeit übel und sie werden weiter schwinden. ATI ist tot, egal wie man es nehmen will. Das AMD diese damals übernommen hat, war für die Marke nichts Gutes. Sie schaffen es einfach nicht zu bündeln was wichtig ist. Denke ihnen ging nur um Patente für APUs und Konsolen, Hignend hatten die nie auf dem Zettel. Über kurz oder lang sind sie so dem Untergang geweiht. RTG wird sterben und damit auch ATI, oder zu einem Mittelklasseding verkommen, schade. Das ist das langsame sterben einer Tradditionsmarke für Spieler. Mir lässt das eine Träne runterrollen...Idi*ten.
Es sind nur noch die 10% die an ATI festhalten, AMD spielt dabei als Markennamen überhaupt keinen Rolle und birgt auch nicht für besondere Qualität. Egal wo. Seit dem Su da sitzt geht es nur ums Geld.
Da kann man nur noch auf Intel hoffen, aber die wollen sicher kein Highend oder Enthusiast.
Kleebl00d
2022-12-14, 11:08:46
Es zeigt aber einmal mehr, dass sehr frühe Leaks und Performance-Angaben, sorry, kompletter Schwachsinn sind. Die Leaker haben sicherlich primär die Infos, die sie erhalten haben, weitergegeben (an uns), aber es waren halt keine, nennen wir es, "reale" Infos, sondern eher wir würden gerne und das sollte am Ende die Hardware können.
Den Unmut kann ich schon verstehen. Aber was sonst soll der Gegenstand früher Leaks sein, wenn nicht zum Thema Designziel oder vorläufige Hardwaredaten?
Man kann ja schlecht Monate vorm Finalisieren und Erscheinen von Hardware genaue Aussagen über deren Leistungsfähigkeit treffen. Und dass man aus den verfügbaren, wenn auch vorläufigen, Hardwaredaten die falschen Performanceaussagen treffen kann ist leider im Bereich des Möglichen.
Und gerade wenn man, ohne Berücksichtigung von Chiplett-Ansatz und Pipapo, stumpf Transistorenanzahlen miteinander vergleicht kann man durchaus früh zu dem Schluss gelangen, dass die 7900er besser hätten performen können als sich das jetzt schlussendlich gezeigt hat.
Es ist einfach verdammt Schade, dass AMD (teils selbst verschuldet, bevor man mich hier falsch versteht) immer wieder eine Erwartungshaltung vorgesetzt bekommt, die man in 9/10 Fällen niemals erfüllen kann. Ich glaube jedoch nicht, dass sich daran etwas ändert. Man muss nur aufpassen, dass Radeon / AMD nicht komplett Bedeutungslos werden. Bei dauerhaft 10% bzw. unter 10% Anteil bei Gaming GPUs (dGPU) könnte es leicht passieren, dass man sich nur noch um iGPU und maximal Mittelklasse (Einsteiger) kümmert (Abfallprodukt der iGPU).
Das wäre dann extrem bitter und damit hätte niemand gewonnen.
Ich verstehe AMD da auch nicht.
Bei RDNA2 Release wusste man noch: Die Zahlen, die sie präsentieren passen.
Wenn AMD auf den Folien zeigt: X prozent schneller, dann wird das am Ende auch ungefähr das sein, was als Durchschnitt rauskommt.
Diese Ehrlichkeit kam glaube ich ziemlich gut an - auch bei jenen, die "Nvidia-Lager" waren.
Seit dem RDNA2 release lügt AMD aber, dass sich die Balken biegen.
Bei der 6600XT hieß es, dass RT etwa bei der 3060 sein soll - und war dann meilenweit dahinter.
RDNA3 Folien waren von vorne bis hinten gelogen. Es wird ein Performanceplus von über 50% suggeriert - was kommt raus? Gut die Hälfte.
Effizienzgewinne von über 50%? Wir haben ca. 1/3 davon.
AMD hat bis vor 2 Jahren ehrliche Zahlen gebracht.
Inzwischen lügen die schlimmer als es Nvidia und Intel jemals gemacht haben.
Warum, was soll das?
So kann man es sich natürlich auch kaputt machen.
Irgendwer hatte ja vor ein paar Tagen das Stichwort Kartellamt erähnt.
Ist das AMDs Masterplan? Den eigenen Marktanteil so niedrig zu drücken, dass das Kartelamt kommt um Nvidia zu zerschlagen?
Falls ja: Gratulation, zumindest das drücken des Marktanteils könnte bei der Preis- und Marketingpolitik vielleicht wirklich klappen.
Miesere Preis-Leistung als eine 4080 zu haben muss man erstmal schaffen.
Und ja, spätestens wenn du die horrenden STromkosten der 7900XTX einrechnest, ist die 4080 besser. Unterm Strich kostet die nämlcih auf Sicht von 2,3 Jahren nicht mehr als die 7900XTX, eher sogar weniger.
etp_inxession
2022-12-14, 11:32:17
Ja RDNA3 ist nicht der gewünschte Gamechanger.
Aber diesen kompletten Fail kann ich jetzt beileibe auch nicht erkennen.
Man kann den Stromhunger, die Lautstärke und mit Abstrichen den Preis bemängeln.
Aber gegenüber der Konkurrenz ist man "NICHT SO SCHLECHT" aufgestellt.
Für einen neuen Chiplet Ansatz als Pipecleaner war nicht mehr drin.
Ich hab vor Monaten schon geschrieben das RDNA 3 nicht an den Erfolg von RDNA2 anknüpfen wird.
Aber komplett schlecht sind die GPUs nicht.
Der Chiplet Ansatz säuft scheinbar wie Sau und daher keine höheren Taktraten möglich.
Das könnte natürlich in den nächsten Generationen ausgebadet werden.
Von einem reinen Hardware Bug würde ich aber auch nicht ausgehen.
Es ist einfach der Wechsel zu Chiplets und das steht nVidia erst noch bevor.
Die Preise sind eh jenseits von Gut und Böse ..
So viel Marktanteile wird AMD nicht verlieren ....
Nochmal an den Preis ran und die Alternative ist durchaus kaufbar.
Mich reizt RDNA3 aber auch nicht.
Meine RX 6800 tut ihren Dienst perfekt.
Würde ich im 4 stelligen Segment allerdings kaufen, wäre die RX 7900 XTX meine Wahl VOR der 4080.
Da mehr Speicher. RT Spiel habe ich kein einziges..
Leonidas
2022-12-14, 11:43:30
Ich glaube da ist ein Typo in der zweiten Tabelle, oder sind es wirklich mehr performance Kerne?
Oops, dicker Fehler. Allesamt nur mehr E-Kerne. Gefixt.
Woher kommt eigentlich diese Hinweise zu einem Hardware Bug bei den neuen Radeons?
https://twitter.com/All_The_Watts/status/1602698461283074049?s=20&t=7sLs-8pG72-Gavn4TOvqBg
Aus der Ecke kommen derzeit einige dieser Hinweise. Scheint kein Wunschdenken zu sein, aber beweisen läßt sich das nicht. Allerdings schreiben auch andere, bekannte Twitterer ähnliches.
wann kommt die launchanalyse zu den neuen amd karten?
Sobald fertig ;)
ausserdem interessiert mich der nachtrag zum raptor lake launch:
https://www.3dcenter.org/artikel/launch-analyse-intel-raptor-lake
Das gibt es keine Änderungen mehr dran. Was da was ist, klärt sich mit der CES 2023.
Evtl. sollte man bei den early "Leaks" bei RDNA4 und RTX 5000 erstmal immer dazuschreiben, dass die Leaks zu RTX 4000 / RDNA3 bis recht kurz vor Launch ziemlich sehr falsch lagen und man dementsprechend eigentlich nicht sagen kann, wie viel Substanz bei den dann early Leaks vorhanden ist.
Hinweis an mich.
Man kann den Stromhunger, die Lautstärke und mit Abstrichen den Preis bemängeln.
Aber gegenüber der Konkurrenz ist man "NICHT SO SCHLECHT" aufgestellt.
Prinzipiell ja richtig, aber:
Die 4080 gilt hier als eine der Grafikkarten mit dem schlechtesten Preis-Leistungs-Verhältnis aller Zeiten.
Die 4080 hat hier was, 90% negative Bewertungen bekommen?
Wie kann AMD jetzt Karten bringen, die sogar noch schlechter sind?
Es ist ja nicht so, dass nvidia ein tolles Angebot gemacht hätte.
Wäre die 4080 für 800 Euro auf dem Markt und dann käme jetzt ein Produkt von AMD das unterm Strich etwas schlechter wäre - ok, alles gut.
Aber Nvidia hat den Preis der 4080 quasi verdoppelt - und das Ding ist dennoch das attraktivere Angebot???
digidoctor
2022-12-14, 11:48:51
J
Der Chiplet Ansatz säuft scheinbar wie Sau und daher keine höheren Taktraten möglich.
Wieso scheinbar? Das kehrt die Aussage doch ins Gegenteil.
Denniss
2022-12-14, 11:57:20
Ist wohl eher kein Bug der Taktraten über 3Ghz verhindert sondern irgendein Problem im Design das den Chip zum massiven Saufen bringt wenn der Takt in hohe Regionen kommt.
KodeX
2022-12-14, 11:59:58
Ich bin tatsächlich maßlos enttäuscht von den neuen RDNA3-Grafikkarten. Zwei Jahre nach RDNA2 bringt man einfach einen viel zu kleinen Fortschritt - in jederlei Hinsicht. Die Karten sind nicht wirklich schnell, nicht wirklich sparsam und auch nicht wirklich günstig. Das sind schlimme Zeiten für alle Grafikkartenkäufer...
Buddy Casino
2022-12-14, 12:18:56
Die Karten sind nicht wirklich schnell, nicht wirklich sparsam und auch nicht wirklich günstig.
Ich frage mich ob AMD hier bedeutbar mehr Spielraum hat als Nvidia was die Preisgestaltung angeht. Das Chiplet Design sollte ja theoretisch günstiger zu produzieren sein als Nvidia's Monolith. Bin gespannt ob der hohe Startpreis bestehen bleibt, oder irgendwann doch noch ein Preiskampf stattfindet.
Exxtreme
2022-12-14, 12:20:44
Anscheinend kostet eine 7900XTX in der Produktion maximal 500 USD. Also Spielraum ist definitiv da.
Ja RDNA3 ist nicht der gewünschte Gamechanger.
Aber...
Ich habe es nur langsam satt, in jeder Gen zu hören, die Nächste wird besser. Es werden dann immer Ausreden gefunden warum es nicht so ist. Mir ist egal wenn AMD auf Chiplet umzustellen will oder muss (da geht es doch auch nur ums liebe Geld und hohe Marge). Ich erwarte für Produkte ab einer gewissen finanziellen Schwelle (über 700-800 Euro sowieso), dass sie perfekt sind und nahe der Konkurrenz. Vor allem wenn man sie im Vorfeld so bewirbt.
Die 20GiB der XT sind völlig übertrieben, die 24GiB der XTX sowieso (das waren auch die 16GiB der 6800 [habe die übrigens auch noch] die diese nie wird füllen können - das ist ein reiner Strohmann seitens AMD und weil GDDR6 einfach billig war zu dem Zeitpunkt und immer noch ist), jeder weiß das AMD IMMER mehr VRAM braucht als Nvidia, auch so eine Schwäche der Architektur.
Ich habe das Zeug jetzt Jahre lang gekauft, nun MUSS aber Schluss sein. Sie versprechen immer viel, halten aber nichts. Wenn sie ihre Arch technisch ständig umstellen müssen um konkurrenzfähig zu sein, ist das deren Problem. Dem Anwender hilft das bekanntlich nicht und der Treiber wird weiter mit Ballast vollgepumpt. Diesmal werde ich eine 4080 kaufen und AMD kann mich mal. AMD lügt einfach zu viel oder redet sich raus. Nicht für 1000$ AUFWÄRTS sry, das ist idiotisch sowas zu unterstützen. 100$ runter und die 4080 liegt im Einkaufswagen. AMD hat es selbst verbockt. Ich mache da nicht mehr mit.
Habe denen immer treu die Lanze gehalten, nun ist Schluss. Die 7900 Serie erinnert an die R9 290 bis Vega. Saufen ohne Ende (mit dem bekanntlichen Nachteil auf Kante genähter PV=Spulenfiepen ohne Ende), komplette Luftpumpe + Treiberbottlenecks die jahrelangen Support nötig machen. FSR3 soll erst noch kommen, irgendwann mal. Sowas für über 1000 Euro anzubieten ist eine Frechheit. Vega20 war damals mit 720 dabei, da habe ich das noch verstanden, gekauft...aber jetzt - NEIN.
DXR scheinen die fast schon stiefmütterlich zu behandeln, dass ist kein Enthusiast sondern das ist reiner Mainstream und mehr nicht (die hohe Speicherausstattung tüncht drüber hinweg, für das was die GPU leisten kann aber völliger Blödsinn und kostet im Idle nur Strom), dafür sind die Preise völlig überzogen. Nvidia hat man völlig unterschätzt.
Gut ausgedacht, wir packen für 40-60$ paar Module mehr aufs Layout und MC als MCM auf die GPU (6nm wird da kaum viel mehr kosten als bei RNDA2) und können gleich mal 350$ mehr verlangen. Komplette Mogelpackung ala AMD. Das Ganze ist einfach nur Margen optimiert, mehr nicht. Nvidia ist mit der 4090 MEILENWEIT davor, die 6900 konnte sich noch mit der 3090/3090ti anlegen. Gerade im Enthusiast zählt jedes Quäntchen Leistung und wiegt genauso schwer.
Was die Preise dafür angeht hat AMD komplett den Verstand verloren, die sind bei mir raus (und das nach jahrelanger Treue, irgendwann ist mal gut mit dieser dreisten Abzocke für halbgare Produkte). FY AMD.:P :udown: :ucrazy:
PS: ...auf das Gejammer in den Foren wie Schei*e das bei AMD nach Kauf doch alles wieder ist, wird man kaum lange warten müssen. Abstürze, Instabilitäten, fehlende Leistung, Bugs usw., alles der neuen MCM Arch bedingt - als Dauerbaustelle für die nächsten zwei Jahre. NEIN DANKE.
Ja und 600 Stück hatte AMDs Shop in Deu für den Launch. LOL.
MiamiNice
2022-12-14, 12:34:31
Ja.
Wie üblich wird es der nächste Wundertreiber richten.
Oder die nächste Generation.
Jetzt mal was Neues - ein Bug, so dass schon innerhalb der gleichen Generation die nächste Wunderkarte kommt.
Eine gewisse Kreativität kann man nicht leugnen.
Man kann noch viel besser schmunzeln wenn man die Vorab Lorbeeren Lobpreisungen der entsprechenden Clientel verfolgt hat :D
Ist wohl eher kein Bug der Taktraten über 3Ghz verhindert sondern irgendein Problem im Design das den Chip zum massiven Saufen bringt wenn der Takt in hohe Regionen kommt.
Was für ein "Problem"? Der Chip Taktet eh mehr oder wenige durchgehend über 2,8GHz, und wenn man die schnellere Taktdomain nimmt sind es sogar über 3.
Welcher Träumer hat denn wirklich noch höhere Taktraten erwartet?
Ich frage mich ob AMD hier bedeutbar mehr Spielraum hat als Nvidia was die Preisgestaltung angeht.
Im Verhältnis zu welcher Karte? Zur 4080 garantiert weniger, bzw. die 4080 ist garantiert günstiger zu produzieren.
Das Chiplet Design sollte ja theoretisch günstiger zu produzieren sein als Nvidia's Monolith.
Das einzige was sie sich einsparen ist Fläche im teureren 5nm Prozess. Im Gegenzug brauchen sie aber den Interposer, und das viel aufwändigere Packaging.
Und wenn wir mal ganz grob überschlagen und von einer Kostensteigerung/Area von 2x zwischen 7N/6N und 5N7/4N ausgehen sind es immer noch:
AD103: 380mm²
Navi 31: 300mm² + (6 * 37mm²)/2 = 411 "5N-Äquivalente" mm²
Also selbst wenn wir nur die DIEs alleine betrachten, dürfte AMD kaum günstiger rauskommen, und die Zusatzkosten durchs Packaging, sowie mehr VRAM kommen noch dazu.
NV könnte die 4080 garantiert günstiger anbieten, wollen sie aber nicht, da nehmen sie lieber die Margen mit.
Was für ein "Problem"? Der Chip Taktet eh mehr oder wenige durchgehend über 2,8GHz, und wenn man die schnellere Taktdomain nimmt sind es sogar über 3.
Welcher Träumer hat denn wirklich noch höhere Taktraten erwartet?
Um so schlimmer das die erwartbare Leistung daraus komplett verpufft.
Man spricht hinter vorgehaltener Hand von fehlender oder zurückgezogener Treiberzertifizierung seitens MS, alias Vega und macht draus einen Hardwarebug. Da hat sich AMD in der Entwicklung mal wieder nicht ans Protokoll gehalten oder schon zu weit in die Zukunft gedacht.
Platos
2022-12-14, 12:56:12
allerdings wenigens konnte ein gewisser Lagerbestand
Schreibfehler am Anfang.
Zumindest pushen sie mit diesem Auftritt so gerade den Abverkauf von Ampere. Nvidia wird's freuen. AMD mal wieder, komplett konfus deren Aussagen im Vorfeld.
Wir sind schnell=sind sie nicht
Wir sind effizient=sind sie nicht
Wir können alles besser und viel Rt=können sie nicht
Wir haben zum Launchtag viele kaufbare Modelle=haben sie nicht
Lustig ist was anderes.
Rabiata
2022-12-14, 13:10:46
Anscheinend kostet eine 7900XTX in der Produktion maximal 500 USD. Also Spielraum ist definitiv da.
Da würde ich gern mehr drüber lesen. Quelle?
Aber völlig überraschend kommt das nicht, bei Ryzen hat AMD schon deutlich niedrigere Kosten als bei Monolithen berichtet.
Am Markt nehmen sie aber auch, was gerade geht. AMD ist halt auch kein Wohltätigkeitsunternehmen. Dennoch scheinen mir die aktuellen Preise angesichts diverser kleinen Schwächen angemessen (behebbare Treiberprobleme? Hoffentlich). Wenn AMD das noch behoben bekommt, wäre für die 7900 XTX auch derselbe Preis wie für die RTX 4080 gangbar.
Für Linux-User außerdem noch nett wäre ein Wattman für Linux als GUI-Tool. Der aktuelle Ansatz zum Overclocking / Undervolting / Powertarget ändern erfordert Basteln an Konfigurationsdateien (Artikel in Englisch (https://unix.stackexchange.com/questions/620072/reduce-amd-gpu-wattage)). Aber immerhin scheint es mittlerweile zu gehen (ich habe es selbst noch nicht probiert).
maximus_hertus
2022-12-14, 13:14:42
Immer wieder interessant zu sehen, wie persöhnlich manche die Hardware von AMD und nVidia nehmen.
Beide wollen nur eines: Geld verdienen. Nichts anderes.
Aktuell ist es halt so, dass AMD die 7900er Karten zum aufgerufenen Preis wohl los bekommt. Ergo scheinen sie einen "guten" Preispunkt für den Launch gefunden zu haben.
Was leider oftmals komplett vergessen wird:
AMD kann halt auch nur so viel verkaufen, was produziert wird. Man kann nicht "mal eben" die Produktionmenge verdoppeln, weil man der Meinung ist, jetzt doch mit viel günstigeren / aggressiveren Preisen auf Jagd nach Marktanteilen zu gehen.
AMD hat wahrscheinlich nicht so viele 7900er, als das sich ein niedrigerer Launchpreis gelohnt hätte. MAn hat ja, zumindest zum Launch, alle XTX Karten los bekommen.
Ob es "uns" gefällt oder wir das verstehen können -> völlig egal. Am Ende interessiert sich AMD (wie auch nV und Co) nur dafür, die produzierten Chips mit möglichst hohen Margen zu verkaufen.
Hätte nV die 4070 Ti direkt als 70 Ti gebracht (und nicht dieser 80 12GB Stunt), wäre es wohl hochinterssant geworden. AD104 vs N31 Salvage direkt zum N31 Launch.
Aber auch so wird das interessant. In Raster sollte die 7900 XT einen kleinen Vorsprung (5-10%) vor der 4070 Ti haben, in RT rund 15-20% zurück liegen (also ein etwas positiveres Performancebild im Vergleich der XTX vs 80), der Stromverbrauchsunterschied sollte ebenfalls spürbar geringer ausfallen (im Vergleich zur XTX vs 4080).
Trotzdem wird die AD104 4070 Ti wohl das bessere Gesamtpaket besitzen und bei identischem Preis (899 USD vs 899 USD) den besseren Deal darstellen.
Ich könnte mir vorstellen, dass die 7900XT dann früh in 2023 inoffiziell (offiziell passiert sowas ja nicht mehr) im Preis sinkt, Richtung 799 USD.
Falls es so kommen sollte (Performance 104 vs N31 Salvage) wäre das natürlich bitter für AMD.
Grob gleiche Diezize, aber bei AMD kommen noch die 6 MCDs dazu (zusammen nochmal rund 75% der AD104 Die Size).
Immerhin, aus AMDs Sicht, danke der PReispolitik von nV bleibt eine relativ lukratve Nische für AMD, so dass sie trotzdem wohl noch gute Gewinne erwirtschaften werden können. Die Frage lautet aber, ob man mit RDNA4 die "Probleme" gefixt bekommt und wann RDNA4, gerade in Relation zur nVidia next, auf den Markt kommen kann.
Exxtreme
2022-12-14, 13:24:25
Da würde ich gern mehr drüber lesen. Quelle?
https://nitter.net/Kepler_L2/status/1600084574146629634#m
Und deshalb "anscheinend". :)
hardtech
2022-12-14, 13:36:55
Schreibfehler am Anfang.
WTF :freak:
lehrer haben hier nix zu suchen!
Leonidas
2022-12-14, 13:39:35
Schreibfehler am Anfang.
Gefixt.
lehrer haben hier nix zu suchen!
Nada. Ich bin dankbar über jeden dieser Hinweise.
Nada. Ich bin dankbar über jeden dieser Hinweise.
Dann erzähl uns doch auch gleich ma wie man mit einer UVP den Preis vorschreibt. Oder reden wir hier von einem EVP?
Leonidas
2022-12-14, 14:02:27
Gar nicht mit einer UVP, sie heisst schließlich "unverbindlich".
Aber der ganze Absatz drehte sich primär um ein ganz anderes Thema. Nämlich die Nicht-Bedeutsamkeit der UVP im Gegensatz zum US-MSRP.
Platos
2022-12-14, 14:07:55
https://nitter.net/Kepler_L2/status/1600084574146629634#m
Und deshalb "anscheinend". :)
Auf was bezieht sich das? auf die komplette Graka?
Weil dann kann man nochmals paar Euro abziehen für die unnötige Kühlung und ebenfalls dafür, dass man das Board so designen muss, dass es diese absurden Stromverbräuche mitmacht.
Würde man das anders machen, wäre sicherlich 450 in der Produktion drinn, mindestens.
Bei den kleineren Grafikkarten und den Chiplets kommt noch dazu, dass man im Grunde anstelle eines teuren 5nm Prozess auch nen weniger teuren 6nm Prozess nehmen könnte, dafür die Grafikkarte dann weniger absurd takten und man wäre wieder beim selben Stromverbauch und deutlich günstiger.
Ich hoffe ja wirklich, dass Samsung mit 3nm endlich mal einen Treffer landet.
MiamiNice
2022-12-14, 14:12:51
Wenn AMD das noch behoben bekommt, wäre für die 7900 XTX auch derselbe Preis wie für die RTX 4080 gangbar.
Nein, wäre sie nicht. AMD muss gut 20% günstiger sein, bei vergleichbarer Leistung. DLSS, RTX und den Namen NV muss man auf diesen Wert noch oben drauf rechnen.
7900XTX dürfte nicht mehr als 999€ kosten, die kleine 849€. Besser wären 899 und 749€ um mal was am Marktanteil zurecht zu rücken.
Es ist AMD - das Zeug will erstmal niemand (unter Gamern), es kann sich daher nur über den Preis verkaufen. Mit den aktuellen Preisen für diese Silizium Verschwendung verliert man nur weiter Marktanteile. Und schon jetzt ist AMD absolut unbedeutend am Markt. Ergo 899 und 749€. Auf gar keinen Fall 1300€+
Ich habe es nur langsam satt, in jeder Gen zu hören, die Nächste wird besser. Es werden dann immer Ausreden gefunden warum es nicht so ist. Mir ist egal wenn AMD auf Chiplet umzustellen will oder muss (da geht es doch auch nur ums liebe Geld und hohe Marge). Ich erwarte für Produkte ab einer gewissen finanziellen Schwelle (über 700-800 Euro sowieso), dass sie perfekt sind und nahe der Konkurrenz. Vor allem wenn man sie im Vorfeld so bewirbt.
Die 20GiB der XT sind völlig übertrieben, die 24GiB der XTX sowieso (das waren auch die 16GiB der 6800 [habe die übrigens auch noch] die diese nie wird füllen können - das ist ein reiner Strohmann seitens AMD und weil GDDR6 einfach billig war zu dem Zeitpunkt und immer noch ist), jeder weiß das AMD IMMER mehr VRAM braucht als Nvidia, auch so eine Schwäche der Architektur.
Ich habe das Zeug jetzt Jahre lang gekauft, nun MUSS aber Schluss sein. Sie versprechen immer viel, halten aber nichts. Wenn sie ihre Arch technisch ständig umstellen müssen um konkurrenzfähig zu sein, ist das deren Problem. Dem Anwender hilft das bekanntlich nicht und der Treiber wird weiter mit Ballast vollgepumpt. Diesmal werde ich eine 4080 kaufen und AMD kann mich mal. AMD lügt einfach zu viel oder redet sich raus. Nicht für 1000$ AUFWÄRTS sry, das ist idiotisch sowas zu unterstützen. 100$ runter und die 4080 liegt im Einkaufswagen. AMD hat es selbst verbockt. Ich mache da nicht mehr mit.
Habe denen immer treu die Lanze gehalten, nun ist Schluss. Die 7900 Serie erinnert an die R9 290 bis Vega. Saufen ohne Ende (mit dem bekanntlichen Nachteil auf Kante genähter PV=Spulenfiepen ohne Ende), komplette Luftpumpe + Treiberbottlenecks die jahrelangen Support nötig machen. FSR3 soll erst noch kommen, irgendwann mal. Sowas für über 1000 Euro anzubieten ist eine Frechheit. Vega20 war damals mit 720 dabei, da habe ich das noch verstanden, gekauft...aber jetzt - NEIN.
DXR scheinen die fast schon stiefmütterlich zu behandeln, dass ist kein Enthusiast sondern das ist reiner Mainstream und mehr nicht (die hohe Speicherausstattung tüncht drüber hinweg, für das was die GPU leisten kann aber völliger Blödsinn und kostet im Idle nur Strom), dafür sind die Preise völlig überzogen. Nvidia hat man völlig unterschätzt.
Gut ausgedacht, wir packen für 40-60$ paar Module mehr aufs Layout und MC als MCM auf die GPU (6nm wird da kaum viel mehr kosten als bei RNDA2) und können gleich mal 350$ mehr verlangen. Komplette Mogelpackung ala AMD. Das Ganze ist einfach nur Margen optimiert, mehr nicht. Nvidia ist mit der 4090 MEILENWEIT davor, die 6900 konnte sich noch mit der 3090/3090ti anlegen. Gerade im Enthusiast zählt jedes Quäntchen Leistung und wiegt genauso schwer.
Was die Preise dafür angeht hat AMD komplett den Verstand verloren, die sind bei mir raus (und das nach jahrelanger Treue, irgendwann ist mal gut mit dieser dreisten Abzocke für halbgare Produkte). FY AMD.:P :udown: :ucrazy:
PS: ...auf das Gejammer in den Foren wie Schei*e das bei AMD nach Kauf doch alles wieder ist, wird man kaum lange warten müssen. Abstürze, Instabilitäten, fehlende Leistung, Bugs usw., alles der neuen MCM Arch bedingt - als Dauerbaustelle für die nächsten zwei Jahre. NEIN DANKE.
Ich glaube du hast ein kleines Problem damit das du ein zu emotionales Kaufverhalten hast. Du hast bei NV genau die selben negativen Dinge wenn du pech hast. Und AMD Lügner zu nennen und dabei getrost den 4060ti als 408012Gb getarnt Stunt von Nv unerwähnt lassen - LoL. Versuch in Zukunft einach deine Kaufentscheidung an dein Usecase auszurichten und nicht an einem Branding.
Buddy Casino
2022-12-14, 14:19:04
https://nitter.net/Kepler_L2/status/1600084574146629634#m
Wenn das stimmt gibt es tatsächlich nicht allzuviel Spielraum. 500$ BOM bei einer Consumer-Karte, hätte ich nicht für möglich gehalten. PC master Race is not gonna make it, we got too cocky gamebros, its over, sneed & seethe & cope & dilate etc pp
Gastronom
2022-12-14, 15:08:26
Nein, wäre sie nicht. AMD muss gut 20% günstiger sein, bei vergleichbarer Leistung. DLSS, RTX und den Namen NV muss man auf diesen Wert noch oben drauf rechnen.
7900XTX dürfte nicht mehr als 999€ kosten, die kleine 849€. Besser wären 899 und 749€ um mal was am Marktanteil zurecht zu rücken.
Es ist AMD - das Zeug will erstmal niemand (unter Gamern), es kann sich daher nur über den Preis verkaufen. Mit den aktuellen Preisen für diese Silizium Verschwendung verliert man nur weiter Marktanteile. Und schon jetzt ist AMD absolut unbedeutend am Markt. Ergo 899 und 749€. Auf gar keinen Fall 1300€+
Gehe zu 100% mit der Aussage von MN mit! 899 und 749EUR.
Gibt es bei AMD eigentlich jemand, der die Karte mal selber probiert hat?
Ich finde es Schade. Meine Weihnachtsbeschäftigung wird sein: Eine PS5 zur UVP aufzutreiben.
Wenn AMD und NV ihren Aktionären so sehr gefallen möchten, dann sollen sie Bitteschön doch auch ihre Grafikkarten an diese verhökern!
Platos
2022-12-14, 15:30:57
Bei PS5 am besten bei Webseiten nachschauen, die über PS5 Drops berichten. So kurzfristig vor Weihnachten ist das aber sicher schwierig.
Eig. gibts keine Probleme, wenn man ein paar Monate Geduld hat. Dann kriegt man ne PS5 für 550Euro (ist ja jetzt teurer).
Aber so kruzfristig - viel Glück.
Aber auf jeden Fall dürfte ne PS5 Spieletechnisch das Sinnvollste sein als PC-Gamer. Die paar Microsoft-Exklusives kann man dann auf dem bestehenden PC Zocken, dann eben bisschen mit weniger fetter Grafik, aber muss ja nicht immer alles auf max sein.
IUnd AMD Lügner zu nennen und dabei getrost den 4060ti als 408012Gb getarnt Stunt von Nv unerwähnt lassen - LoL. Versuch in Zukunft einach deine Kaufentscheidung an dein Usecase auszurichten und nicht an einem Branding.
Du findest eine schlechte Namenswahl, bei der die Performanceangaben aber stimmen, ähnlich schlimm, wie offizielle Folien die vorne bis hinten gelogen sind???
BTW, eine 7900XT und 7900XTX ist nicht weniger verwirrend als 4080 12GB und 4080 16GB.
Ätznatron
2022-12-14, 19:10:23
Meine Weihnachtsbeschäftigung wird sein: Eine PS5 zur UVP aufzutreiben.
Und schon hast du ein Spielerlebnis auf AMD-Basis.
hardtech
2022-12-14, 19:47:04
Nada. Ich bin dankbar über jeden dieser Hinweise.
dadurch mischst du inhalt mit null relevantem dazu. formelles kann man besser über einen meldebutton für lehrer melden.
Rabiata
2022-12-14, 22:23:59
Aber auf jeden Fall dürfte ne PS5 Spieletechnisch das Sinnvollste sein als PC-Gamer. Die paar Microsoft-Exklusives kann man dann auf dem bestehenden PC Zocken, dann eben bisschen mit weniger fetter Grafik, aber muss ja nicht immer alles auf max sein.
Für hohe Performance-Ansprüche hab ich da meine Zweifel. Die Rohleistung der PS5 wurde seinerzeit als ähnlich zur RX 5700 XT eingeschätzt, das bekommst Du heute aus einer 6600 XT.
Praktische Vergleichstests gibt es nicht viele, aber ich hab einen gefunden (https://www.youtube.com/watch?v=CGuamkjmvBQ). Da tritt ein ziemlich starker PC (mit RTX 3080) gegen diverse aktuelle Konsolen an, getestetes Spiel ist Call of Duty: Modern Warfare 2. Die PC-Grafik sieht da deutlich überlegen aus.
Jetzt könnte man drüber spekulieren, um wieviel der PC abgespeckt werden müßte, um nur noch gleichauf mit der Konsole zu sein. Ich schätze, das Ergebnis wäre immer noch ein recht guter PC, aber nichts besseres als die meisten hier bereits haben. Von da aus kommend sehe ich nicht den Sinn in der Anschaffung einer Konsole.
Da kaufen wieder Fanbois. Die XT gammelt doch jetzt schon in den Shops der Händler und AMD hat noch nicht mal geliefert. Der Hardlaunch ging doch jetzt zum X-ten mal in die Hose.
Die Dinger werden zu solchen Preisen in den Regalen vergammeln, AMD wird sie dann wie Vega zum Herstellungspreis verkaufen. Bis dahin ist der Marktanteil von RTG auf 5% gesunken.
Ehrlich, wer kauft AMD ne Karte über 1k ab? Ich jedenfalls nicht.
Gast der Vernunft
2022-12-15, 01:45:17
Ehrlich, wer kauft AMD ne Karte über 1k ab? Ich jedenfalls nicht.
Im AMD Shop ist auch die XT für 1012 Euronen ausverkauft. Dürfte bald unter 1k fallen, da geht auch die weg wie geschnitten Brot, es gibt in der Preislage bei den Grünen bis zur CES: Nichts.
Gast der Vernunft
2022-12-15, 01:52:38
Zumindest pushen sie mit diesem Auftritt so gerade den Abverkauf von Ampere. Nvidia wird's freuen.
Die einzige Ampere Karte welche mit der kleineren XT mithalten ist die 3090 Ti, aber auch nur weil AMD noch ein paar negative Ausreißer bei einigen Games hat.
Wer sollte sich so ein Museumsstück, das 530 Watt beim Gaming verbraucht ernsthaft kaufen wollen, zumal von einem Abverkauf nichts zu sehen ist?
Im AMD Shop ist auch die XT für 1012 Euronen ausverkauft. Dürfte bald unter 1k fallen, da geht auch die weg wie geschnitten Brot, es gibt in der Preislage bei den Grünen bis zur CES: Nichts.
AMD hatte ganze 600 Karten für ganz Deutschland, wie hoch ist der Marktanteil noch? 600 Karten beim Launch, sowas von lächerlich. Aber so kann man zumindest vorgaukeln das die weggehen wie geschnitten Brot. Lol.
Davon gammeln jetzt 7900xt bei den Händlern. Werden nicht gekauft. Nun sind u1k Karten die keine 700-800 wert sind. dass neue Billig und werden reissend abgenommen. Ihr seit doch nicht mehr ganz klar im Kopf.
Wenn die Vergangenheit der letzten Monate etwas aufzeigt ist dies, dass 1k Karten jemand kauft und deshalb der Umsatz um 50% gefallen ist, AMDs Anteil iegt im dritten Quartal 22 bei 8%, extreme Einbrüche beim Absatz inklusive und dann kommt man mit weiteren ü1k Angeboten? Sowas von blöd und ignorant, geht es kaum.
Ich prophezeie das did Dinger bald in den Regalen liegen werden, keiner wills. Zumal man gegenüber Nv wieder nur deren Rücklicter sieht, dabei für das insgesamt schlechtere Produkt mehr verlangt.
Die Leute lassen sich einfach nicht mehr verarschen.
Leonidas
2022-12-15, 09:47:18
Quelle für die 600 Stück?
Habe es auch irgendwo gelesen, das AMDs hausinterner Shop wohl nur 600 Stck zu Verfügung hatte.
Sie scheinen massive Lieferengpässe zu haben, Partnerkartenverfügbarkeit wurde teilweise auf Januar verschoben. 200.000 Stck ist komplett unglaubhaft. In China wurde keine einzige Karte angeboten. Dafür überteuert im EU Raum und Scapler liegen schon wieder bei 2K. Man deckt man kann die EU Gamer melken. AMD macht nichts besser als Nv. Sie beeinflussen das Prinzip des Angebots und der Nachfrage mit schlechter Lieferbarkeit/Verfügbarkeit selbst und jubeln so die Preise hoch. Anscheinend ist denen der Marktanteil egal, Hauptsache die Marge stimmt. Kann man in den gleichen Sack stecken wie Nvidia und mit nem Knuppel draufschlagen, man trifft wie in der Politik nie den Falschen.
Siehe hier: https://www.golem.de/news/lieferengpaesse-bestehen-weiterhin-amds-radeon-7900-xtx-sind-ausverkauft-2212-170505.html
Über 1000$ ist imo trotzdem komplett übertrieben und anscheinend beflügelt das gerade den Abverkauf von Ampere. Nvidia wirds freuen, einfach nur dämlich von AMD. Man fragt sich was die die ganze Zeit gemacht haben. Treibergurke und null Verfügbarkeit zum Hardlaunch. Schlimmer geht es nicht. Der alte Trott.
Die einzige Ampere Karte welche mit der kleineren XT mithalten ist die 3090 Ti, aber auch nur weil AMD noch ein paar negative Ausreißer bei einigen Games hat.
Wer sollte sich so ein Museumsstück, das 530 Watt beim Gaming verbraucht ernsthaft kaufen wollen, zumal von einem Abverkauf nichts zu sehen ist?
Die Karte ist in wenigen Benchmarks schneller als eine 3090, unter RT mit DLSS sieht sie auch gegen die, die Sonne nicht. Immerhin ist Ampere zwei Jahre alt.
Getestet wurde teilweise nur was auf AMD gut läuft (vor allem hohe Rasterleistung unter shader dual-issue unterstützt und erzeugt, das hilft bei DXR null und verzerrt so die Leistung - denn Entwickler müssen es berücksichtigen), der Rest wurde in Reviews aussortiert, wie Igors Lab auch selbst berichtet. Die Performance ist daher so unterdurchschnittlich und massiv durchwachsen das man sich fragen muss, was AMD die ganze Zeit gemacht hat. Urlaub? Das ist eine der nächsten Dauerbaustelle beim AMD Treiberteam, mit vielen Unwägbarkeiten.
Eine 3090 verbraucht 320-375w und ist in RT schneller, in Nv optimierten RTX Spielen sowieso. Für 60Hz UHD reicht die alle male und kostet auf ebay deutlich unter 1000$, teilweise noch mit Werksgarantie (wobei dport die 7900 Serie die 2000 Euro erreicht). Die 7900xt ist nicht uneingeschränkt 4K tauglich, Blödsinn ist das. Das P/L ist schlechter als bei XTX und der 3090.
Die XTX ist fast genauso teuer wie eine 4080 und dann würde ich immer die nehmen, weil deutlich effizienter im Durchschnitt und unter RT ab 25% schneller. Für AMD spricht nur die Speicherausstattung, wobei 20 und auch 24GiB bei den Karten völliger Mumpitz sind. Das Ding kommt nicht mit Profitreibern. Man hat sie wohl draufgepackt um überhaupt irgendwelchen Fortschritt zu liefern. Im schlechten Fall ist die XTX 9% schneller als eine 6900xtx(h), dann kauft man lieber die, weil deutlich günstiger. Vermutlich geht es auch nur darum. RT Leistung bietet man auf dem Niveau der NVidia Vorgängergen und in vielen Fällen auch darunter. FSR2 ist qualitätstechnisch DLSS immer noch unterlegen. Da helfen auch nicht übertriebene Schärfefilter und gegen Framegeneration sehen die Karte die Sonne die nicht mehr, wobei Antilag auch noch aktiv ist. Muss ebenfalls durch Entwickler berücksichtig werden, sind aber Spiele bereits in Vorbereitung.
Derweil spricht also zusammenfassend absolut nichts für AMD. Dann wäre es zumindest wichtig gewesen, ausreichend Stückzahlen zu liefern. Chance vertan, der Rest kauft wieder NVidia. Wie man es jedenmal schafft einen imaginären Vorteil ins Negatiuve zu wandeln, müsste AMD mal erklären. Unfähigkeit inklusive, was an der Vertrauensbasis kratzt.
Schönreden hilft da wenig.
Rabiata
2022-12-15, 12:22:00
AMD hatte ganze 600 Karten für ganz Deutschland, wie hoch ist der Marktanteil noch? 600 Karten beim Launch, sowas von lächerlich. Aber so kann man zumindest vorgaukeln das die weggehen wie geschnitten Brot. Lol.
[...]
Ich prophezeie das did Dinger bald in den Regalen liegen werden, keiner wills. Zumal man gegenüber Nv wieder nur deren Rücklicter sieht, dabei für das insgesamt schlechtere Produkt mehr verlangt.
Die Leute lassen sich einfach nicht mehr verarschen.
Da fehlt eine Null. Es waren 6000, Quelle bei Igor (https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/).
Außerdem, in welchem Universum kostet die RX 7900 XTX mehr als die RTX 4080?
Da fehlt eine Null. Es waren 6000, Quelle bei Igor (https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/).
Außerdem, in welchem Universum kostet die RX 7900 XTX mehr als die RTX 4080?
Anschaffungskosten sind niedriger.
Aber da die 7900XTX so säuft zahlst du mehr Strom.
Über ein paar wenige Jahre hast du bei der 7900XTX keine Ersparnis mehr.
Jedenfalls wenn dein PC ein bisschen länger läuft. Klar, wenn du am Samstag und Sonntag mal für 3 Stunden zockst ist das irrelevant, dann zahlst du für die 7900XTX tatsächlich weniger.
Aber das saufen bei allem, auch bei nicht-spielen, macht die 7900XTX zu einem teuren Spass wenn du deinen PC regelmäßig an hast.
Oder wohnst du irgendwo, wo Strom fast nix kostet? Zahlst du 10 Cent pro kWh ist es natürlich auch egal ob du mehr oder weniger Strom verbläst.
Da fehlt eine Null. Es waren 6000, Quelle bei Igor (https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/).
Außerdem, in welchem Universum kostet die RX 7900 XTX mehr als die RTX 4080?
????
Der schreibt 3000 für ganz Deutschland, was wohl hinkommt und der Gast bezog sich auf den AMD Shop. 600 Referenzkarten waren es die man über AMD direkt in D ordern konnte, wobei die 7900xt lange verfügbar war. Der große Run blieb aus.
https://www.caseking.de/asus-radeon-rx-7900-xtx-tuf-o24g-24576-mb-gddr6-gcas-533.html
GerryB
2022-12-15, 14:54:09
https://www.guru3d.com/articles_pages/sapphire_radeon_rx_7900_xtx_nitro_review,30.html
(3,25 Gig liess sich schonmal problemlos@air einstellen, fehlen nur noch ein paar W mooore per MPT und h2o+LM, für Leute,
die die "höchst" getaktete Graka haben wollen)
btw.
Das NV bei Lovelace die OCer so dumm dastehen lässt mit dem 1,1V-Limit ist net funny.
Die sollen wohl dann demnächst auf die Ti wechseln?
(the more you buy the more you save)
Ob in der Takt+Preisregion sich die Leute für die W interessieren, ... eher net.
(glaube, da ist OC-Headroom gefragt)
Würde meinen, ne OCte XTX@h2o kommt in Game XYZ dann schon gut zurecht mit 10% mehr fps (?) und Das zum Kostenpunkt
einer 4080. (die 10% mehr fps ggü. der Ref. sollten ohne Probleme drin sein)
das aber cherrypicking, klick mal auf andere benchmarks. da sieht das für die 7900 gar nicht gut aus auch nicht mit oc und wieviel soll die noch saufen? erinnert irgendwie an die R9 Serie. mit der brechstange an nv vorbei, was diesmal nicht mal klappt für die xt.
Gast Ritis
2022-12-15, 21:02:17
Macht doch mal halblang.
Was ein richtig schlechter GPU-Start ist hat erst Intel mit der ARC vorexerziert. Hoffe doch dass sich hier einige ewige Nörgler mal den Kompass etwas geraderücken.
Ansonsten ist das die Radeon Technology Group wie zu den alten Zeiten. Die Hardware zeigt potential, aber die Performance ist nicht da wo man sie sich erhofft hat. Zen1 war jetzt auch kein Performance-Überflieger, aber der Preis für bestimmte Tasks war einfach gut. Bei den alten Games klappt das mit diesen GPUs zumindest noch nicht.
Gibt halt schon wieder mal kein Anlass für ne Party. So what.
Nach meinem Eindruck sind die Treiber aber dieses mal beim Launch durchweg stabil und es gibt keine Hardwaredefekte beim Kunden, wie zuletzt auch schon mal öfters bei "anderen" GPU-Starts passiert.
Also streitet man sich wer den Längsten mit der besten CPU hat, egal wie viel Sinn das jetzt im Moment gerade macht. Beim Test mit nem 5800X3D oder Intel-CPU ohne max GHz sieht das gar nicht so verkehrt für AMD aus hatte ich den Eindruck. Da muss aber jeder selber wissen was er für Ausbaupläne noch hat.
Wer jetzt die Nase voll hat dass AMD wieder den Launch verpennt muss halt ne 4090 kaufen und hoffen dass er nicht überbezahlt hat bis er die Leistung dann mal braucht. Dass die 4080 plötzlich in realistische Preisgefilde rutscht kann ich mir nicht vorstellen.
Der Preis XT vs. XTX ist nicht nachvollziehbar. Die Strassenpreise sind wieder übertrieben voll von Hoffnungen, dass das bald was Tolles werden würde. Leider drückt AMD wieder ein FineWine Produkt in den Markt obwohl man schon den Start verschoben hatte. Die haben noch immer viel zu wenige Entwickler.
Wie wollen die je kontra CUDA und im Gaming und auf Konsolen den notwenigen Softwaresupport auf die Beine stellen wenn am Ende Koduri vielleicht auch noch für Intel die wenigen Talente abwerben muss?
Besser die würden bei Nvidia Personal räubern, offensichtlich haben die genug davon.
Ja das sieht aus wie die alte rtg, Vega 2.0.
Entwrder performance unter der Erwartung, oder miserable Effizienz was man nun mu it den custom Modellen sieht, welche 430w+ ziehen und dabei die einigermaßen erwartete Performance hergeben.
Meh meh meh.
Hoffentlich ist es wirklich ein Silicon Bug und die neue Revision bzw auch n32 und n33 werden nicht darunter leiden.
Lustig wie sich die Leute über AMD aufregen. Aber eine RTX 4080 für 1400 Euro kaufen. Bravo Nvidia. Normal kostet die Karte ca. 700 Euro. Man hat ja bei Ampere Release gesehen was die 80 Karte kostete.
Wennd die Konsumenten mal nix kaufen würden eine Generation lang, damit das Zeug wie Blei im Regal liegen bleiben würde, würde der Preis massiv Rutschen.
So kann man den Firmen nur Gratulieren. Als Aktionär ist das Top. Hoffe das die nächste Generation noch mal gescheit teurer wird.
Ätznatron
2022-12-16, 09:08:24
Wennd die Konsumenten mal nix kaufen würden eine Generation lang, damit das Zeug wie Blei im Regal liegen bleiben würde, würde der Preis massiv Rutschen.
Lieber Gast, nix kaufen == nix Spass.
500,- oder mehr auszugeben für eine Grafikkarte würde ich niemandem ernsthaft empfehlen. Konsolen sind da die bessere Wahl.
Trotzdem gibt's noch ein paar Verrückte. Die leben halt ihr Hobby aus.
Trotzdem gibt's noch ein paar Verrückte. Die leben halt ihr Hobby aus.
Das geht aber zu Lasten aller und in einer Community nimmt soweit möglich, bei gleichen Interessen auf sich Rücksicht. Aber du hast Recht, in dieser Snobgesellschaft ist sich jeder nur der Nächste.
Heute bedeutet ja teuer gekauft, ob sinnfrei oder nicht, ich bin was Besseres. Das bestätigt die Strategie der Hersteller in hochpreisigen Segmenten Mittelklasseprodukte abzusetzen. Der verrückte Hobbyist bestätigt es ihnen ja.
Verzicht zum Wohle aller kennt diese Generation nicht mehr. Dabei wäre es so einfach, wie die Vergangenheit schon beweist, denn übertriebene Preise für GPUs gibt es nicht das erste Mal im Markt. Damals regelt es der Verzicht aller und man einigte sich die Preise bei um max 500$ zu deckeln. Dem Fortschritt tat das übrigens keinen Nachteil und auch den gewinnen nicht, es kauften dann deutlich mehr.
GerryB
2022-12-16, 11:38:34
Der hohe Preis für die XT würde ja nur Sinn machen, wenn der Yield so gut ist, das AMD mehr XTX verkaufen will.
btw.
Das Review zur Nitro und OCen ist doch in der Hinsicht erhellend, das es erstmal keine magische Taktobergrenze gibt wg. Siliconfehlern.
(also mit EVC2 geht dann auch noch mehr)
Was Effizienz angeht, ... abwarten, ob die Treiber noch besser werden oder obs derzeit einfach nur ein Auslastungsproblem ist in niedrigen Resis.
(sieht man gut bei XTX vs XT mit fps-limit)
bzgl. Cherrypicking
Welche Games derzeit AMD liegen ist ansonsten offensichtlich. (Da wo man die high Fps auch braucht)
Ob in Gamemurks-Games die Gen derzeit etwas schwächelt ist net so gravierend, weil da 5fps weniger net stören.
(merkwürdigerweise sind auch etliche aufgeboooohrte PS4-Konsolenports sehr auf Green zugesachnitten, who knows,
was sich Square Enix und Co. da denken)
Insgesamt sind die Fps/€ gerade noch akzeptabel, also kein kompletter Fail.
Glaskugel
Ich erwarte das FSR3 bzgl. Latenz sehr gut funzen wird. Traditionell ist AMD fluffiger mit der gefühlten Latenz.(vsync@Doublebuffer vs NV@Triplebuffer)
Ideal wäre es, wenn nativ ca. 45fps schon reichen, damit sich FG lohnt. (die 60fps bei Green ist so hoooch, das kleinere Grakas net profitieren)
Du meinst also, dass 220 statt 190 Fps bei CoD wichtiger sind als 60 statt 25 Fps beim Raytracing? ;)
MfG
Raff
Exxtreme
2022-12-16, 12:27:29
Du meinst also, dass 220 statt 190 Fps bei CoD wichtiger sind als 60 statt 25 Fps beim Raytracing? ;)
MfG
Raff
Die Frage ist halt ob man RT-Spiele überhaupt hat. Insgesamt gesehen ist RT immer noch eine winzige Nische.
Man muss die Spiele haben, das ist immer so - oder nicht? :D
Ich muss nur schmunzeln, wenn Unterschiede im Bereich "Voodoo Graphics an/aus" heruntergespielt werden und stattdessen ein bestenfalls (!) minimal fühlbarer Unterschied als wichtig erachtet wird. Jeder kann sich die Welt so machen, wie's ihm gefällt, Signifikanz ist aber anders definiert. ;) Zumal Call of Duty definitiv der aktuelle Radeon-Bestcase (nicht nur RDNA 3) ist.
MfG
Raff
Platos
2022-12-16, 13:03:00
Ja, also das wäre relativ einfach zu überschlagen. Man nehme mal die meist gespielten 100 Spiele und schaut, ob darunter DLSS Titel sind. wenn ja, dann ist es wohl relevant. Wenn nicht, dann wohl nicht (für die Masse, nicht als Einzelperson).
Aber hier im Nerd-Forum zu fragen, wo jeder Zweite uraltes Zeug spielt, ist wohl keine sinnvolle Stichprobe.
Ja, also das wäre relativ einfach zu überschlagen. Man nehme mal die meist gespielten 100 Spiele und schaut, ob darunter DLSS Titel sind. wenn ja, dann ist es wohl relevant. Wenn nicht, dann wohl nicht (für die Masse, nicht als Einzelperson).
Aber hier im Nerd-Forum zu fragen, wo jeder Zweite uraltes Zeug spielt, ist wohl keine sinnvolle Stichprobe.
Wenn du die 100 meistgespielten Spiele nimmst, wirst du vermutlich feststellen, dass 98% davon mit einer 1060 gut spielbar ist - das ist immerhin die am weitesten verbreitete Karte.
Per Definition sind die meistgespielten Spiele eher weniger anspruchsvolle Titel, von denen der Großteil vermutlich Multiplayer sein wird.
Singleplayer Titel können quasi gar nicht darunter sein, da diese Titel meist einmal durchgespielt werden und das war es dann.
Während man Fifa, Hearthstone, Valorant und Co eben ewig zockt.
Dein Fazit aus dieser Studie wäre, dass man überhaupt keine neuen Grafikkarten braucht und schon eine 1060 völlig ausreichend ist.
Und natürlich FullHD, vermutlich nur mit 60Hz.
MiamiNice
2022-12-16, 14:16:09
Der "10 % Schock“ muss recht schnell verdrängt worden sein, wenn sich die roten Herren schon wieder aus dem Häuschen wagen – wild um sich relativierend und schon wieder am Luftschlösschen bauen.
Ein scheinbar unbelehrbarer Mob.
Ätznatron
2022-12-16, 14:31:30
Der "10 % Schock“ muss recht schnell verdrängt worden sein, wenn sich die roten Herren schon wieder aus dem Häuschen wagen – wild um sich relativierend und schon wieder am Luftschlösschen bauen.
Ein scheinbar unbelehrbarer Mob.
Erzähl mehr.
Spring
2022-12-16, 15:02:15
Das geht aber zu Lasten aller und in einer Community nimmt soweit möglich, bei gleichen Interessen auf sich Rücksicht. Aber du hast Recht, in dieser Snobgesellschaft ist sich jeder nur der Nächste.
Heute bedeutet ja teuer gekauft, ob sinnfrei oder nicht, ich bin was Besseres. Das bestätigt die Strategie der Hersteller in hochpreisigen Segmenten Mittelklasseprodukte abzusetzen. Der verrückte Hobbyist bestätigt es ihnen ja.
Verzicht zum Wohle aller kennt diese Generation nicht mehr. Dabei wäre es so einfach, wie die Vergangenheit schon beweist, denn übertriebene Preise für GPUs gibt es nicht das erste Mal im Markt. Damals regelt es der Verzicht aller und man einigte sich die Preise bei um max 500$ zu deckeln. Dem Fortschritt tat das übrigens keinen Nachteil und auch den gewinnen nicht, es kauften dann deutlich mehr.
+1
Der "10 % Schock“ muss recht schnell verdrängt worden sein, wenn sich die roten Herren schon wieder aus dem Häuschen wagen – wild um sich relativierend und schon wieder am Luftschlösschen bauen.
Ein scheinbar unbelehrbarer Mob.
Bestes Bsp für den Beitrag des Gasts, diese :ugly: Antwort. Aber die (Troyan & co auch, gibt auch auf der AMD Seite solche Fanatiker) merken auch die Einschläge nicht mehr.
Das den Meisten mit den hohen Preisen und Fokus auf RT nicht geholfen ist, ist nun mal Fakt. Aber es gibt ja schon hier durchaus Leute, die behauptet haben,
nur Vermögende sollten Zocken & gaming betreiben. Daher wundert mich das hier alles nicht mehr.
Wenn du die 100 meistgespielten Spiele nimmst, wirst du vermutlich feststellen, dass 98% davon mit einer 1060 gut spielbar ist - das ist immerhin die am weitesten verbreitete Karte.
Per Definition sind die meistgespielten Spiele eher weniger anspruchsvolle Titel, von denen der Großteil vermutlich Multiplayer sein wird.
Singleplayer Titel können quasi gar nicht darunter sein, da diese Titel meist einmal durchgespielt werden und das war es dann.
Während man Fifa, Hearthstone, Valorant und Co eben ewig zockt.
Dein Fazit aus dieser Studie wäre, dass man überhaupt keine neuen Grafikkarten braucht und schon eine 1060 völlig ausreichend ist.
Und natürlich FullHD, vermutlich nur mit 60Hz.
+1
Das ist die Realität.
Die 7900xt ist mit 7 Modellen bei Mf immer noch lagernd und lieferbar.
AMD hat die XT anscheinend wie Zen4 zu hoch eingepreist. Zweitmodelle scheinen es für über 1000 Euro schwer zu haben.
Ich denke Customs werden es noch schwerer haben.
Robbson
2022-12-17, 13:47:06
Die Karte ist in wenigen Benchmarks schneller als eine 3090, unter RT mit DLSS sieht sie auch gegen die, die Sonne nicht. Immerhin ist Ampere zwei Jahre alt.
Getestet wurde teilweise nur was auf AMD gut läuft (vor allem hohe Rasterleistung unter shader dual-issue unterstützt und erzeugt, das hilft bei DXR null und verzerrt so die Leistung - denn Entwickler müssen es berücksichtigen), der Rest wurde in Reviews aussortiert, wie Igors Lab auch selbst berichtet. Die Performance ist daher so unterdurchschnittlich und massiv durchwachsen das man sich fragen muss, was AMD die ganze Zeit gemacht hat. Urlaub? Das ist eine der nächsten Dauerbaustelle beim AMD Treiberteam, mit vielen Unwägbarkeiten.
Eine 3090 verbraucht 320-375w und ist in RT schneller, in Nv optimierten RTX Spielen sowieso. Für 60Hz UHD reicht die alle male und kostet auf ebay deutlich unter 1000$, teilweise noch mit Werksgarantie (wobei dport die 7900 Serie die 2000 Euro erreicht). Die 7900xt ist nicht uneingeschränkt 4K tauglich, Blödsinn ist das. Das P/L ist schlechter als bei XTX und der 3090.
Die XTX ist fast genauso teuer wie eine 4080 und dann würde ich immer die nehmen, weil deutlich effizienter im Durchschnitt und unter RT ab 25% schneller. Für AMD spricht nur die Speicherausstattung, wobei 20 und auch 24GiB bei den Karten völliger Mumpitz sind. Das Ding kommt nicht mit Profitreibern. Man hat sie wohl draufgepackt um überhaupt irgendwelchen Fortschritt zu liefern. Im schlechten Fall ist die XTX 9% schneller als eine 6900xtx(h), dann kauft man lieber die, weil deutlich günstiger. Vermutlich geht es auch nur darum. RT Leistung bietet man auf dem Niveau der NVidia Vorgängergen und in vielen Fällen auch darunter. FSR2 ist qualitätstechnisch DLSS immer noch unterlegen. Da helfen auch nicht übertriebene Schärfefilter und gegen Framegeneration sehen die Karte die Sonne die nicht mehr, wobei Antilag auch noch aktiv ist. Muss ebenfalls durch Entwickler berücksichtig werden, sind aber Spiele bereits in Vorbereitung.
Derweil spricht also zusammenfassend absolut nichts für AMD. Dann wäre es zumindest wichtig gewesen, ausreichend Stückzahlen zu liefern. Chance vertan, der Rest kauft wieder NVidia. Wie man es jedenmal schafft einen imaginären Vorteil ins Negatiuve zu wandeln, müsste AMD mal erklären. Unfähigkeit inklusive, was an der Vertrauensbasis kratzt.
Schönreden hilft da wenig.
Schlechtreden bis zum Erbrechen aber auch nicht.
Dem Gast ging es um den Vergleich zur 3090 Ti, also dem Top-Modell der letzten Generation.
Und die is bei Rasterization on par mit der 3090 Ti:
https://tpucdn.com/review/amd-radeon-rx-7900-xt/images/performance-matchup.png
Und dabei sind die AMD Treiber noch nicht mal ausgereift für die neue Architektur. Sollten in den gebenchten Games ausschließlich aktuellste Titel berücksichtigt sein, wie bei PCGH zu sehen, gibt es für die Roten nochmal ein Performance-Plus von 5%.
Ach ja, nochmal zum Thema Stromverbrauch beim Gaming jenseits von 60Hz:
https://tpucdn.com/review/amd-radeon-rx-7900-xt/images/power-gaming.png
Die mehr als 500 Watt bei der 3090 Ti sind nicht wegzudiskutieren, entsprechend ist die Effizienz auch die miserabelste im ganzen Testfeld:
https://tpucdn.com/review/amd-radeon-rx-7900-xt/images/energy-efficiency.png
Schön ist auch, dass die 7900 XT als MBA mit einem < 2.5 Slot breiten und vor allem kurzen Kühler auskommt, ohne gigantische Kühlkörper geht bei nvidia ja gar nichts. Die nvidia-Schlachtschiffe passen in keins meiner Gehäuse.
Kürzlich konnte man die 7900 XT mal für 999 EUR bekommen, für 900 würde ich wohl zugreifen... soll mal endlich nvidia mit dem passenden Konkurrenten kommen.
War da noch was?
Ach ja: Die hohen Desktop-Verbräuche bei Multi-Monitor Betrieb oder hohen Frameraten etc. sind schade, tangieren mich 2023 aber nicht mehr :tongue:. Denn einen High Performance Gaming Rechner, der zu 90% fürs Arbeiten / Non-Gaming verwendet, ist bzgl. der Energie-Effizienz ohnehin völliger Bullshit, ganz unabhängig von der Grafikkarte, selbst wenn es sich um ein kleines ITX System handelt mit 80 Plus Platinum Netzteil. Hier in München steigen die Energiepreise im neuen Jahr um 120%. Mein Mini-PC mit betagter aber schneller 8-Core ZEN3 Technik braucht auf dem Desktop 6-8 Watt beim nichts tun. Mein X570 ATX Monster hingegen 75 Watt... und da ist noch nicht mal der Browser geöffnet... ein paar Tabs offen und es sind > 100.
Ich freue mich in 2023 auf effiziente APUs auf Basis effizienter mobiler Hardware in Desktop-tauglichen gut gekühlten und leisen Gehäusen... Phoenix kann kommen. Dann braucht es den separaten Gaming PC nur noch für wenige Titel.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.