Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
ChaosTM
2022-11-03, 23:13:33
8K165 - 4K480 -
Probier das mal mit einer NV GPU ;)
Daredevil
2022-11-03, 23:15:30
8K165 - 4K480 -
Probier das mal mit einer NV GPU ;)
Das man mit einer Schnittstelle flext, die man nicht mal annähernd bedienen kann, ist leider noch dämlicher als die 8K Demos mit der 3090, nur weil es technisch durch die Leitung geht. ;(
Klar muss man die Keynote füllen mit USPs die der Mitbewerber nicht hat, aber obs mit 4K480 oder 2x8Pin getan ist, schwierig.
dargo
2022-11-03, 23:16:32
Merkt euch Call of Duty: Modern Warfare 2 als RDNA-Showcase. Folgt man AMD, ist die RX 7950 XTX hier um Faktor 1,5 schneller als die 6950 XTX. Kleiner Teaser aus dem Techniktest (-> alle Werte gibt's morgen früh): Hier reicht es für 'nen Gleichstand zur RTX 4090.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81242&stc=1&d=1667512155
Aber wie gesagt: Bestcase für AMD.
MfG,
Raff
Komm doch nicht mit sowas. Ohne Raytracing ist das kein echtes Spiel. ;)
RitterRost
2022-11-03, 23:16:41
Wo ich auch nen Kasten Bier verwettet hätte...
kein PCIe5 ?!
Nicht, das man es brauchen würde.
Aber, womit will AMD denn seine AM5 Plattform bewerben/pushen? Mit den PCIe5 Karten die bei der nächsten Generation in 2 Jahren rauskommen?
Linmoum
2022-11-03, 23:16:55
Man darf nicht vergessen, womit man sich die extreme Leistung der 4090 erkauft. Allein dass ‚der Gerät‘ - derzeit - schlanke 1000€ mehr kostet, lässt einen Vergleich schon etwas seltsam wirken.Vergleiche in Europreisen sind seltsam, da AMD und NV beide US-Unternehmen sind und daher auch einzig der $-MSRP entscheidend ist. ;)
Der liegt bei der 4090 eben 60% höher. In Raster wird der Abstand deutlich kleiner sein, in RT wird man dafür häufig extrem weit darüber liegen. Gleicher Speicherausbau und wenn die 7900XTX ihre ~355W ziehen sollte, dann wird auch die Effizienz ähnlich sein.
w0mbat
2022-11-03, 23:16:57
Oh weh, jetzt noch etwas trolling by Dural und der Abend kann anfangen ;)
Digidi
2022-11-03, 23:17:51
Im Gegensatz zu Polygonen, die kleiner sind als Pixel, bringt Raytracing aber klare Vorteile und ist die einzige Möglichkeit in Richtung Fotorealismus.
MfG
Raff
Ich glaube UE5 hat uns das gegenteil gelehrt. Polygonen Polygonen Polygonen für realistische Oberflächen strukturen! Nur wenn du eine schöne Struktur hast kann diese schöne Schatten werfen.
dargo
2022-11-03, 23:18:02
Ist ja inzwischen bekannt, dass die Karte mit 2,5Ghz taktet.
Bei den Customs erwarte ich 2,7Ghz.
Logisch... nur säuft das Teil dann auch um die 400Watt. Also meh...
Thomas Gräf
2022-11-03, 23:18:28
Glaub bei AMD hat auch schlagartig die Inflation zugeschlagen...sparen sparen sparen.
DrFreaK666
2022-11-03, 23:18:32
Zusammenfassung: 522mm2 384bit vs 379mm2 256bit
AD102 mit RT mal eben doppelt so schnell.
Chiplet?!? Was für eine lachnummer! Ich würde gerne wissen was die Typen bei AMD die diesen Aufbau festgelegt haben genau genommen haben???
Doppelt so schnell. Hast gesoffen und siehst doppelt oder was ist los?
Ravenhearth
2022-11-03, 23:19:35
Es sind laut AMD übrigens 6144 SPs (https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx)
Es gibt gute Gründe dafür, warum sich Software-Ingenieure in aller Welt den Kopf über temporales Supersampling zerbrechen. Mittlerweile können wir bestenfalls 7 von 8 Pixeln pro Frame "einsparen" - und die Forschung geht weiter. Mit Brute Force kommen wir nicht ans Ziel, die Zeiten der tief hängenden Früchte durch Shrinks sind vorbei.
Ganz einfach: Es gibt zwei Taktdomänen statt bisher einer. Damit hat eine Radeon-GPU ziemlich viele Clock Domains (u. a. noch beim Infinity Fabric). Bei der 7900 XTX:
Front-End: 2,5 GHz
Shader/Cache/Rest: 2,3 GHz
Lustige Beobachtung bei AMD. Wo genau limitiert das Front-End? In Full HD und E-Sports-Settings? Sicher nicht in 4K und/oder Raytracing. :ugly: Wegen so einer geringen Differenz ein Fass aufzumachen ... also ich finde das sehr seltsam. Aber hey, ein Tuning-Schalter mehr. :D
MfG
Raff
Ich würd sagen, dass da einfach was nicht richtig gelaufen ist, wie bei den 2-CCD-Zen4. Ich nehme an, der Takt der Shader war höher geplant.
basix
2022-11-03, 23:20:36
Aber da sehen wir dass Nanite deutlich mehr bringt als RT zum jetzigen Zeitpunkt. Um das mal umzusetzen vergehen noch locker 10 Jahre..... Da die Leistung schlichtweg nicht da ist und auch nicht so schnell da sein wird.
Naja, Nanite schaut nur so gut aus, da es entsprechend gut mit RT beleuchtet wird (Lumen). Nanite für Spieler vor allem geil, da es für Entwickler schneller von der Hand geht, sehr detaillierte Assets zu generieren (das limitierte bis anhin den Detailgrad). Und dass es hinsichtlich LoD, Streaming und Speicherverbrauch sehr effizient ist (marginaler LoD Pop-In, geringe VRAM Anforderungen). Lumen und Fully Dynamic GI ist dann noch das was oben drauf kommt, um insgesamt mit wenig Aufwand qualitativ hochwertige Grafik zu erzeugen. Entwickleraufwand ist hier das Zauberwort.
Ich glaube UE5 hat uns das gegenteil gelehrt. Polygonen Polygonen Polygonen für realistische Oberflächen strukturen! Nur wenn du eine schöne Struktur hast kann diese schöne Schatten werfen.
Siehe obigen Kommentar. Nanite und Lumen gehen Hand in Hand. RT kann auch mit weniger Geometrie Details sehr gut aussehen. Und sehr detaillierte Geometrie geht auch ohne Nanite, nur mit deutlich mehr Aufwand. Beispielsweise die Unity Enemies Demo sieht exzellent aus, benutzt aber kein Nanite.
Mandalore
2022-11-03, 23:20:39
Doppelt so schnell. Hast gesoffen und siehst doppelt oder was ist los?
;D;D;D
GOLDwert :biggrin:
Linmoum
2022-11-03, 23:21:34
Doppelt so schnell. Hast gesoffen und siehst doppelt oder was ist los?
Wo landest du denn beispielsweise bei sowas mit AMDs eigenem Faktor 1.6x auf die 6950XT? ;)
https://i.gyazo.com/a8678b8a5890aa18ce8d311a70911eb3.png
Und das ist leider kein Einzelfall.
TheGood
2022-11-03, 23:22:09
Es gibt gute Gründe dafür, warum sich Software-Ingenieure in aller Welt den Kopf über temporales Supersampling zerbrechen. Mittlerweile können wir bestenfalls 7 von 8 Pixeln pro Frame "einsparen" - und die Forschung geht weiter. Mit Brute Force kommen wir nicht ans Ziel, die Zeiten der tief hängenden Früchte durch Shrinks sind vorbei.
MfG
Raff
ja gut und wie bringt und da realtime raytracing weiter? Das Stand heute schlichtweg nicht umsetzbar ist.
Wenn dann müssen wir halt immer mehr faken oder wir bleiben bei FullHD stecken...
Daredevil
2022-11-03, 23:22:57
Doppelt so schnell. Hast gesoffen und siehst doppelt oder was ist los?
Hatten wir doch schon.
Cherry Picking: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-Raytracing-Benchmarks-1405125/
6900XTX - 4090 - RT in 4k
Metro: 348%
Lego: 314%
Control: 261%
Cyberpunk: 363%
Dying Light: 379%
Ghostwire: 262%
Hitman: 264%
Minecraft: 356%
Quake2: 346%
Spider Man: 213%
Schnitt: 310%
Wenn eine 4090 im Schnitt 3x schneller in diesen Games ist als ne 6900xt, dann braucht ne 50% schnellere GPU 2x.
Natürlich nicht durchgängig und in jedem RT Szenario, aber offensichtlich in den oben nicht ganz unbekannten Spielen.
Berniyh
2022-11-03, 23:23:02
Was fürn bekackter Tradeoff. Da hat aber die BWL-Abteilung erheblichen Anteil an dieser Katastrophe würd ich sagen. Man hätte wirklich bei den 300mm² und dem "Packdichte ist unsere Designphilosophie" hellhörig werden sollen. Das Teil sollte vor allem eins werden: Billig!
Das hat man auch geschafft, das Teil ist billig und enthält auch nur das nötigste. Leider erreicht man aber so keine Enthusiasten, das hat man beim Pricing dann auch gemerkt, denn die 7900XTX sollte mit Sicherheit 1200$ kosten. Da hat man kurz vorher gesehen, dass man das gegen ne 4080 dann doch lieber nicht direkt entgegenstellen sollte und hat reagiert, heraus kam der Schwachsinn mit 900 und 1000$ :freak:.
Ich kapiers nicht, man hat nun wirklich ALLE Möglichkeiten in der Hand, einen echten Hit zu landen und man verkackt das dermaßen, nur weil man ein paar Buchhalter mitbestimmen lässt und Dollarzeichen in den Augen hat.
Ich hab es hier in den letzten Wochen schon ein paar mal geschrieben:
Für AMD sind die Desktop GPUs kein wirklich großes Standbein. Prozessoren, Mobile und vor allem die Custom Designs (Konsolen, mobile, Autos, Datacenter etc.), da spielt die Musik.
Massiv Ressourcen in eine riesige GPU zu investieren, die teuer in der Herstellung ist und die man dann – in der heutigen Zeit, wird ja alles teurer – entsprechend teuer verkaufen muss, das wäre ein sehr großes Risiko seitens AMD. Schließlich muss man ja damit rechnen, dass man gegen Nvidia trotz hohem Aufwand nicht anstinken kann und das Zeug nicht oder nur mit schlechter Marge losbekommt.
Mich wundert es daher kein bisschen, dass man nicht all-in gegangen ist.
Für Nvidia ist Desktop Gaming sehr groß, entsprechend ist es für Nvidia auch wertvoller da ein Halo Produkt hinzustellen. Wobei ich ehrlich gesagt auch bezweifle, dass man so viele 4090er verkaufen wird. Weder jetzt noch in Zukunft.
RT/4K interessiert mich null, ich will nur 1440p144+.
24/20GB empfinde ich als Waste, da meine 8GB bisher nie ausgereizt wurden.
Preislich positioniert sie ordentlich, wobei die XT einen Hunni günstiger sein müsste, um attraktiv zu sein.
Jetzt mal die Entwicklung des Straßenpreises beobachten und eventuell lege ich mir das Ding unter den Weihnachtsbaum.
Linmoum
2022-11-03, 23:23:50
Ich würd sagen, dass da einfach was nicht richtig gelaufen ist, wie bei den 2-CCD-Zen4. Ich nehme an, der Takt der Shader war höher geplant.Ich würde ja mittlerweile fast schon wetten, dass man tatsächlich mit Dual-GCD geplant hat, wie es Gerüchte anfangs behauptet haben. Aber das dann aus irgendwelchen Gründen verworfen wurde bzw. werden musste für den Moment.
Mandalore
2022-11-03, 23:23:58
Es sind laut AMD übrigens 6144 SPs (https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx)
Ich verstehe das nicht - entweder ist Ada richtig schlecht bei der Perf/Shader oder...
Ich würd sagen, dass da einfach was nicht richtig gelaufen ist, wie bei den 2-CCD-Zen4. Ich nehme an, der Takt der Shader war höher geplant.
Möglich, dass das Power Target kurzfristig so niedrig angesetzt wurde, um Nvidia in den Karren zu fahren. Die AMD-Präsentation strotzte nur so vor Seitenhieben. Kein neuer Stromstecker oder Adapter notwendig, passt in jedes Gehäuse, säuft wenig (und brennt/raucht nicht ;)) ... da nutzt man gezielt Nvidias Schwächen aus. Hoffentlich ist das Ding ein "Overclocker's Dream" - also nicht wie Fiji, sondern wirklich. Logisch wär's jedenfalls. =)
MfG
Raff
TheGood
2022-11-03, 23:24:45
Vergleiche in Europreisen sind seltsam, da AMD und NV beide US-Unternehmen sind und daher auch einzig der $-MSRP entscheidend ist. ;)
Der liegt bei der 4090 eben 60% höher. In Raster wird der Abstand deutlich kleiner sein, in RT wird man dafür häufig extrem weit darüber liegen. Gleicher Speicherausbau und wenn die 7900XTX ihre ~355W ziehen sollte, dann wird auch die Effizienz ähnlich sein.
Da wir in D sind vergleichen wir in Europreisen, da wir die Grakas nicht in US Dollar kaufen können.
Jetzt sollten wir vielleicht mal aufzählen wieviele AA und AAA Titel sinnvolles raytracing liefern und dann Stand heute ne neubewertung machen, wieviel die mehrprofrmance uns wert ist. Aber auch das bringt nichts, denn das Grundproblem ist, dass der preis für Grakas jetzt schon zu teuer ist. Das trifft auch auf die beiden 7900 zu...
w0mbat
2022-11-03, 23:24:52
Es sind laut AMD übrigens 6144 SPs (https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx)
Super spannend! Die Frage ist jetzt, was ist dieses "dual issue" genau? Und es ist auf klar, wie Navi33 "doppelt" so viele shader in ein ähnlich großes die wie Navi23 bringt, es sind nämlich gar nicht doppelt so viele shader, sondern gleich viel.
reaperrr
2022-11-03, 23:25:12
Es sind laut AMD übrigens 6144 SPs (https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx)
Dann besteht ein SP jetzt wohl aus zwei FP32-ALUs, anders als mit 12288 FP32-ALUs ist der TFLOP-Wert bei dem Takt nämlich nicht zu erreichen.
ChaosTM
2022-11-03, 23:25:48
Raytracing ist und wird immer kaum mehr als ein NV Marketing Vehikel bleiben..
...
prinz_valium_2
2022-11-03, 23:25:51
Haben wir hoffnung, dass N32 höher takten kann und trotzdem effizient bleibt?
Dann könnte das eine wirklich tolle Karte für einen tollen Preis werden.
dargo
2022-11-03, 23:26:14
Es sind laut AMD übrigens 6144 SPs (https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx)
Ist Unsinn... da hat ein Praktikant nicht aufgepasst. Bis zu 61 TFLOPs erreichst du niemals mit dieser Zahl bei bis zu 2,5Ghz.
Käsetoast
2022-11-03, 23:26:20
Also ich bin mit dem Gezeigtem zufrieden. Wollte nächstes Jahr eventuell was Neues anschaffen und da ist RDNA3 ein heißer Kandidat - gerade weil ich eher in der 500 € Region wildern werde und da könnte AMD was nettes bringen. NVIDIA ist für mich komplett raus - mit ihren vierstelligen Dollarpreisen selbst für xx70er-ish Karten brauch ich da nicht mal drüber nachzudenken.
Was RT angeht - joah, da hätte es schon was mehr sein dürfen. Ein wenig schade aber jetzt auch nicht total unerwartet - in der Hinsicht ist RDNA3 halt ein gepimptes RDNA2 Konzept und da war der große Fokus halt nie auf RT - das gab's nur auf NVIDIA und das dort auch weniger wegen der Gamer. Ist für mich auch immer noch ein Exoten-Feature. Welche Spiele setzen das denn sinnvoll ein so dass man grafisch auch wirklich was davon hat? Das sind nur ganz wenige - meistens ist das doch eher sowas wie in der AMD Präsentation gezeigt die Ankündigung von Raytracing in Halo. Als ob ich den besseren Schattenwurf je bemerken würde. Für mich absolut verschmerzbar wenn die RT Leistung ein wenig "meh" ist - würde ich in den meisten Spielen nicht vermissen. Hinzu kommt, dass mich der Großteil der Spiele, die was prominenter auf RT setzen (meist ja die ganz großen AAA Klopper) auch gar nicht mehr so sehr reizen...
Von daher finde ich RDNA3 bisher nicht ganz verkehrt. Hatte zwar ein wenig mehr erwartet aber preislich bewegt man sich in Regionen, die ich für ein Flagschiff für "realistischer" halte als das was NVIDIA da raus haut inklusive entsprechendem Stromverbrauch. Nichts dagegen wenn es auch den Porsche unter den GPUs gibt, aber gerade diese Generation wildert NVIDIA mir gerade was die Preise angeht zu sehr im Premium Segment - als Käufer der "Golf Klasse" fühle ich mich da nicht wirklich abgeholt. Da hinterlässt AMD bei mir momentan einen besseren Eindruck und die Hoffnung auf eine einigermaßen bezahlbare Karte im Mittelsegment, die was kann. Ansonsten bleibt die 5700 halt noch was länger im Einsatz...
vinacis_vivids
2022-11-03, 23:26:32
DAs ist so ja nicht richtig. Für Global Illumination ist das TOP, bringt den Entwicklern was und auch dem Nutzer, da das direkt sichtbar ist. Das war abe rimho bisher nicht die Schwäche von AMD...
Man sollte mal dedizierte RT Benchmarks nur auf die einzelnen RT Use Cases machen und das vergleichen.
Global Illumination wid auch das RT Feature sein was sich am schnellsten durchsetzt, da es viel Aufwand in der Entwicklung spart.
Alles richtig, RT Global Illumination wird doch von AMD auch unterstützt und da hat AMD auch aufgebohrt. UE5 Global Illumination Lumen ebenfalls.
Nur RTGI + RT-Reflections + RT-Shadows auf einmal ist native 2160p und dazu Raster ist nicht flüssig möglich bzw. derzeit unbezahlbar für die Meisten.
Die Spieleentwickler sind auch dazu bewegt die Ressourcen sinnvoll zu nutzen um auch für die Mittelklasse RT zugänglich zu machen. Und da landen wir dann auch bei Konsolen mit RDNA3. Da muss FSR 3.0 zugeschaltet werden um die Rechenlast zu reduzieren.
Konsolen für 1000-1500€ sind einfach zu teuer.
Thunderburne
2022-11-03, 23:27:02
Möglich, dass das Power Target kurzfristig so niedrig angesetzt wurde, um Nvidia in den Karren zu fahren. Die AMD-Präsentation strotzte nur so vor Seitenhieben. Kein neuer Stromstecker oder Adapter notwendig, passt in jedes Gehäuse, säuft wenig (brennt nicht ;)) ... da nutzt man gezielt Nvidias Schwächen aus. Hoffentlich ist das Ding ein "Overclocker's Dream" - also nicht wie Fiji, sondern wirklich. Logisch wär's jedenfalls. =)
MfG
Raff
So ist es wenn man die Teile in Richtung 3GHz bewegen kann und nix weiter limitiert dann könnte man noch mal gut was wett machen.
Daredevil
2022-11-03, 23:28:59
AMD hat quasi die Karte rausgebracht, wie Leute heute eine 4090 konfigurieren, also mit -10-20% Leistung bei 100w weniger Verbrauch im UV.
Dafür kann man die XTX als Custom dann auf 450w jagen und bekommt seine 10-20% mehr Leistung. Das wäre doch fair. :D
Edit: Ich bin SEHR gespannt, wie sich die Hitzeentwicklung macht durch die Chiplets. Nicht, dass man ne 7900xtx eh bei 350w kaum gekühlt bekommt, analog zu nem Chiplet Ryzen und mehr Saft eh keinen Sinn mehr machen.
Jupiter
2022-11-03, 23:29:39
OCh Gott, bei der Aussage braucht man erst gar nicht mehr weiter zu diskutieren....
Da bin ich mal auf die Liste von Spielen gespannt, die besser aussehen soll.
Aber da sehen wir dass Nanite deutlich mehr bringt als RT zum jetzigen Zeitpunkt. Um das mal umzusetzen vergehen noch locker 10 Jahre..... Da die Leistung schlichtweg nicht da ist und auch nicht so schnell da sein wird.
Warum soll Nanite deutlich mehr bringen? Materialien und Beleuchtung sind das Wichtigste.
Zumal Nanite viel Speicherplatz zu brauchen scheint und das könnte bei Spielen mit vielen verschiedenen Objekten vielleicht problematisch werden. Bei einigen aktuellen Titeln mangelt es auch nicht an Polygonen. Gerade wenn viele Objekte verwendet werden, welche von menschen gefertigt sind.
Ohne getrickse wie fsr oder dlss ist ein Spielbares Ergebnis bei allen Titeln eher die Ausnahme als die Regel. Entweder gibt's bei diesen Techniken noch einen massiven Durchbruch oder die HW muss noch deutlich potenter werden. Letzteres halte ich auch in den nächsten 2-3 Generationen für eher unwahrscheinlich. Eher bekommen wir wirklich gutes Upscaling mit temporalem AA, ich halte dlss und fsr noch nicht für gut genug, zu sehen oder RT wird weiter ein Nischendasein fristen.
DLSS ist kein Trick sondern eine sinnvolle Maßnahme. Natives UHD zu berechnen ist Verschwendung von Ressourcen. Control sieht da kaum besser aus und da investiere ich die Leistung viel lieber in revolutionäre Grafikeffekte.
Ravenhearth
2022-11-03, 23:30:47
Ist Unsinn... da hat ein Praktikant nicht aufgepasst. Bis zu 61 TFLOPs erreichst du niemals mit dieser Zahl bei bis zu 2,5Ghz.
Das stimmt schon, auf den Folien nennt AMD auch 64 SPs pro CU, aber die sind jetzt halt dual-issue
basix
2022-11-03, 23:31:09
ja gut und wie bringt und da realtie raytracing weiter? Das Stand heute schlichtweg nicht umsetzbar ist.
Wenn dann müssen wir halt immer mehr faken oder wir bleiben bei FullHD stecken...
Die Matrix Demo der UE5 läuft auf RDNA2 nicht viel schlechter als auf Ampere. Das ist kein Realtime RT? Hier auf der 4090 @ 4K nativ mit >70fps. Mit einer 7900XTX dann vermutlich ~60fps.
https://gamegpu.com/test-video-cards/the-matrix-awakens-demo-test-gpu-cpu
Für gut aussehendes Realtime RT ist eher die SW entscheidend und nicht die rohe HW-Performance. Klar, HW hilft. SW hilft hier aber mehr. Nvidias ReSTIR in dessen optimierter Form (3x Paper, das letzte von 2022) schafft mal so ~100x Performance-Sprüng bei RT verglichen mit Pathtracing.
https://benedikt-bitterli.me/restir/bitterli20restir.pdf
https://d1qx31qr3h6wln.cloudfront.net/publications/ReSTIR%20GI.pdf
https://d1qx31qr3h6wln.cloudfront.net/publications/hpg21_rearchitectingReSTIR.pdf
https://d1qx31qr3h6wln.cloudfront.net/publications/sig22_GRIS.pdf
https://tom94.net/data/publications/mueller21realtime/mueller21realtime.pdf
Thunderburne
2022-11-03, 23:31:58
AMD hat quasi die Karte rausgebracht, wie Leute heute eine 4090 konfigurieren, also mit -10-20% Leistung bei 100w weniger Verbrauch im UV.
Dafür kann man die XTX als Custom dann auf 450w jagen und bekommt seine 10-20% mehr Leistung. Das wäre doch fair. :D
Ich hatte ja eine 4090 Master hier da ist es er so gewesen das ich fast ohne Leistung Verlust und UV auf ca 350 W gekommen bin aber gut das wird wohlmöglich auch mit einer 7900XT/X gehen zu undervolten.
Linmoum
2022-11-03, 23:32:25
Bzgl. des Perf/Watt claims:
RX-816 – Based on AMD internal analysis November 2022, on a system configured with a Radeon RX 7900 XTX GPU, driver 31.0.14000.24040, AMD Ryzen 9 5900X CPU, 32 GBDDR4-7200MHz, ROG CROSSHAIR VIII HERO (WI-FI) motherboard, set to 300W TBP, on Win10 Pro, versus a similarly configured test system with a 300W Radeon 6900 XT GPU and driver 31.0.12019.16007. System manufacturers may vary configurations, yielding different results.
Also werden wir die +54% Perf/Watt in Reviews bzw. real dann wohl nicht sehen so, wie die Karten in den Handel kommen. Die XT ist zu langsam dafür, die XTX zieht default schon ~18% mehr. Haben sie sich aber einfach gemacht mit dem Vergleich, auch, wenn er per se natürlich nicht falsch ist. ;)
BiG OnE
2022-11-03, 23:33:00
Doppelt so schnell. Hast gesoffen und siehst doppelt oder was ist los?
Du hast Recht, dank DLSS 3.0 sogar 3 mal so schnell. :-)
w0mbat
2022-11-03, 23:33:09
Ist Unsinn... da hat ein Praktikant nicht aufgepasst. Bis zu 61 TFLOPs erreichst du niemals mit dieser Zahl bei bis zu 2,5Ghz.
Ich würde sagen, es stimmt. AMD nennt es "dual issue FP32", aber was genau das tut wissen wir noch nicht.
Navi33 sollte ja doppelt so viele shaders in ein kleiners die als Navi23 bringen (4096 vs 2048), und das ohne 5nm Prozess. Wurde ja lange spekuliert wie AMD das schaffen will, und jetzt ist klar: es sind gar nicht doppelt so viele SPs, sondern gleich viele. Nur können die mehr.
Möglich, dass das Power Target kurzfristig so niedrig angesetzt wurde, um Nvidia in den Karren zu fahren. Die AMD-Präsentation strotzte nur so vor Seitenhieben. Kein neuer Stromstecker oder Adapter notwendig, passt in jedes Gehäuse, säuft wenig (und brennt/raucht nicht ;)) ... da nutzt man gezielt Nvidias Schwächen aus. Hoffentlich ist das Ding ein "Overclocker's Dream" - also nicht wie Fiji, sondern wirklich. Logisch wär's jedenfalls. =)
MfG
Raff
Man hatte ja auch keine große Wahl. Mit der RT-Leistung und 450W wär das ja noch katastrophaler geworden ;).
Die Ingeneure für diese Desktop-GPUs waren sicherlich aber selbst nicht zufrieden mit diesen Einschränkungen, die da offensichtlich vorgegeben waren. Denn im Endeffekt ist das jetzt ein extrem geil effiziente Raster-GPU mit gleichem RT-Leistungsverhältnis wie vorher :freak:.
Aber Berniyh hatte da einfach vollkommen recht, für AMD reicht das schlicht und ergreifend aus. Und NV machts ihnen leicht, wer RT will muss >1000$ ausgeben. Alle anderen müssen sowieso mit Kompromissen leben. Das ist wohl kaum ein Motor für künftige Spiele besonders Rücksicht auf die Enthusiasten zu nehmen, so wie bisher bei RT.
Troyan
2022-11-03, 23:33:54
Hier hat AMD God Of War FPS veröffentlicht: https://www.amd.com/en/graphics/radeon-rx-graphics
Bei Techpowerup wäre die 4090 ca. 25% schneller...
Berniyh
2022-11-03, 23:35:18
Im Gegensatz zu Polygonen, die kleiner sind als Pixel, bringt Raytracing aber klare Vorteile und ist die einzige Möglichkeit in Richtung Fotorealismus.
Ich denke es steht außer Frage, dass Raytracing der richtige Weg ist um die optische Verteilung von Strahlen korrekt zu berechnen.
Aus dem Grund ist es ja auch in der Wissenschaft im Bereich optische Simulationen schon seit Jahrzehnten die Referenz.
Dennoch sprichst du ja selbst das wesentliche Problem an:
Es gibt gute Gründe dafür, warum sich Software-Ingenieure in aller Welt den Kopf über temporales Supersampling zerbrechen. Mittlerweile können wir bestenfalls 7 von 8 Pixeln pro Frame "einsparen" - und die Forschung geht weiter. Mit Brute Force kommen wir nicht ans Ziel, die Zeiten der tief hängenden Früchte durch Shrinks sind vorbei.
Denn genau das ist Raytracing in GPUs: Brute Force
Und genau das sagst du ja selbst ist nicht der Weg.
Ich verstehe durchaus, dass es einen gewissen Charme hätte – auch aus Sicht der Entwickler – die Beleuchtung in Echtzeit, komplett mit Raytracing zu berechnen. Es ist und bleibt aber eben eine absolute Brute Force Methode, für die man immens in die Hardware investieren muss, damit es realistisch wird.
Man verlagert also im Grunde die Problematik vom Entwickler auf den Endanwender.
In der Wissenschaft hingegen erstellt man sich extra neue "Fake" Modelle, damit man Rechenleistung einsparen kann. Diese werden dann natürlich gegen Raytracing geprüft um zu verifizieren, dass man es richtig macht. Die eigentlichen – komplexeren – Simulationen laufen dann aber oft in den "Fake" Modellen.
Im Gaming war es ja durchaus ähnlich, auch hier hat man jahrzehntelange mit Fake Modellen gearbeitet und ehrlich gesagt … wenn ich mir diverse RT ON/OFF Vergleiche auf Youtube anschaue … man ist ziemlich gut im faken von Beleuchtung geworden über die jahrzehnte.
Klar, man sieht die Unterschiede schon, insbesondere bei ganz altem Kram wie Quake, aber es gibt auch genügend Games, wo RT ON/OFF kaum anders aussieht, oder zumindest nicht so, dass es in bewegten Bildern wirklich auffallen würde.
Da hätten andere Technologien wie VR wesentlich mehr Potential für richtig gute Immersion zu sorgen. Da braucht es aber auf der HW Seite noch 1 oder 2 Generationen, bis es wirklich komplett ausgereift ist.
[MK2]Mythos
2022-11-03, 23:36:08
Also im Großen und Ganzen wäre die XTX ein guter Nachfolger für meine 6900XT. Allerdings bitte als Custom Watercool Edition mit 3 Stromsteckern um etwas "spielen" zu können. Ansonsten bin ich ausschließlich von der RT Performance enttäuscht. Und die dürfte auch maßgeblich der Auslöser für den recht überschaubaren Preis gewesen sein.
Mal sehen womit nvidia in dem Preisbereich kontert! :up:
dargo
2022-11-03, 23:36:15
Ich würde sagen, es stimmt. AMD nennt es "dual issue FP32", aber was genau das tut wissen wir noch nicht.
Navi33 sollte ja doppelt so viele shaders in ein kleiners die als Navi23 bringen (4096 vs 2048), und das ohne 5nm Prozess. Wurde ja lange spekuliert wie AMD das schaffen will, und jetzt ist klar: es sind gar nicht doppelt so viele SPs, sondern gleich viele. Nur können die mehr.
Puh... dann sind die TFLOPs-Angaben maximal verwirrend.
Linmoum
2022-11-03, 23:36:27
Merkt euch Call of Duty: Modern Warfare 2 als RDNA-Showcase. Folgt man AMD, ist die RX 7900 XTX hier um Faktor 1,5 schneller als die 6950 XT. Kleiner Teaser aus dem Techniktest (-> alle Werte gibt's morgen früh): Hier reicht es für 'nen Gleichstand zur RTX 4090.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81242&stc=1&d=1667512155
Aber wie gesagt: Bestcase für AMD.
MfG,
Raff
https://i.gyazo.com/d6e3ecc9b5c74883bb2581ba39e4e444.png
Erleuchte uns, oh großer Raff. Wie sieht's dann aus? :D
Digidi
2022-11-03, 23:39:10
@Raff
Du bist auf dem Holzweg mit Raytracing. Den Unterschied ist margina. UE5 ohne Raytracing sieht schon sehr echt aus und ich sag dir auch warum. Nicht die Texturen sind wichtig sondern detallierte objekte. Wenn es dort keine feine vertiefungen gibt. Gibt es auch nichts was einen schönen Schatten werfen kann. Je detallierter das Objekt um so realistischer wird es. Da braucht man nicht unbedingt Raytracing.
Hier gibt es eine Spielbare UE5 Demo zum Download (In der Videobeschreibung). Die hat kein Raytracing und sieht bombe aus weil alles so detalliert ist:
https://www.youtube.com/watch?v=JG1oWp0e9cg
Vielleicht etwas für euch zum Benchen Raffy ?
https://i.gyazo.com/d6e3ecc9b5c74883bb2581ba39e4e444.png
Erleuchte uns, oh großer Raff. Wie sieht's dann aus? :D
Erwartungsgemäß: Ada zerstört alles. Ich habe eine gemeine Szene (https://www.youtube.com/watch?v=rRo6KOeif9A), bei der eine RX 6950 XT nur 58,8 Fps erreicht. Mal 1,5 wären das ~88 Fps. Eine RTX 4090 kommt aber auf fast 103 ...
@Raff
Du bist auf dem Holzweg mit Raytracing. Den Unterschied ist margina. UE5 ohne Raytracing sieht schon sehr echt aus und ich sag dir auch warum. Nicht die Texturen sind wichtig sondern detallierte objekte. Wenn es dort keine feine vertiefungen gibt. Gibt es auch nichts was einen schönen Schatten werfen kann. Je detallierter das Objekt um so realistischer wird es. Da braucht man nicht unbedingt Raytracing.
Ich will da mal nur mild widersprechen. ;)
Die Beleuchtung ist das Wichtigste, also deren Dynamik. Ich war die Tage mal wieder in Teardown unterwegs, weil's da einige beeindruckende Mods gibt. Dieses Spiel sieht in Bewegung so un-fuckin-fassbar geil und "next-gen" aus, dass ich mich oft staunend vor dem Bildschirm vorfand. Wirklich. Nichts hat mich dieses (und letztes) Jahr so beeindruckt wie dieses wunderschön beleuchtete, super dynamische Klötzchenfest (https://www.youtube.com/watch?v=YCaXA0nvGZE).
MfG
Raff
Jupiter
2022-11-03, 23:39:53
Denn genau das ist Raytracing in GPUs: Brute Force
Und genau das sagst du ja selbst ist nicht der Weg.
Ich verstehe durchaus, dass es einen gewissen Charme hätte – auch aus Sicht der Entwickler – die Beleuchtung in Echtzeit, komplett mit Raytracing zu berechnen. Es ist und bleibt aber eben eine absolute Brute Force Methode, für die man immens in die Hardware investieren muss, damit es realistisch wird.
Man verlagert also im Grunde die Problematik vom Entwickler auf den Endanwender.
In der Wissenschaft hingegen erstellt man sich extra neue "Fake" Modelle, damit man Rechenleistung einsparen kann. Diese werden dann natürlich gegen Raytracing geprüft um zu verifizieren, dass man es richtig macht. Die eigentlichen – komplexeren – Simulationen laufen dann aber oft in den "Fake" Modellen.
Im Gaming war es ja durchaus ähnlich, auch hier hat man jahrzehntelange mit Fake Modellen gearbeitet und ehrlich gesagt … wenn ich mir diverse RT ON/OFF Vergleiche auf Youtube anschaue … man ist ziemlich gut im faken von Beleuchtung geworden über die jahrzehnte.
Klar, man sieht die Unterschiede schon, insbesondere bei ganz altem Kram wie Quake, aber es gibt auch genügend Games, wo RT ON/OFF kaum anders aussieht, oder zumindest nicht so, dass es in bewegten Bildern wirklich auffallen würde.
ist.
Ich sehe nicht, wie Reflexionen ohne Raytracing vernünftig umgesetzt werden sollen. SSR machten da in zehn Jahren kaum Fortschritte. So viel Leistung benötigt Raytracing auch nicht. Ich sah schon langsamere SSR.
Ich denke es steht außer Frage, dass Raytracing der richtige Weg ist um die optische Verteilung von Strahlen korrekt zu berechnen.
Aus dem Grund ist es ja auch in der Wissenschaft im Bereich optische Simulationen schon seit Jahrzehnten die Referenz.
Dennoch sprichst du ja selbst das wesentliche Problem an:
Denn genau das ist Raytracing in GPUs: Brute Force
Und genau das sagst du ja selbst ist nicht der Weg.
Ich verstehe durchaus, dass es einen gewissen Charme hätte – auch aus Sicht der Entwickler – die Beleuchtung in Echtzeit, komplett mit Raytracing zu berechnen. Es ist und bleibt aber eben eine absolute Brute Force Methode, für die man immens in die Hardware investieren muss, damit es realistisch wird.
Man verlagert also im Grunde die Problematik vom Entwickler auf den Endanwender.
In der Wissenschaft hingegen erstellt man sich extra neue "Fake" Modelle, damit man Rechenleistung einsparen kann. Diese werden dann natürlich gegen Raytracing geprüft um zu verifizieren, dass man es richtig macht. Die eigentlichen – komplexeren – Simulationen laufen dann aber oft in den "Fake" Modellen.
Im Gaming war es ja durchaus ähnlich, auch hier hat man jahrzehntelange mit Fake Modellen gearbeitet und ehrlich gesagt … wenn ich mir diverse RT ON/OFF Vergleiche auf Youtube anschaue … man ist ziemlich gut im faken von Beleuchtung geworden über die jahrzehnte.
Klar, man sieht die Unterschiede schon, insbesondere bei ganz altem Kram wie Quake, aber es gibt auch genügend Games, wo RT ON/OFF kaum anders aussieht, oder zumindest nicht so, dass es in bewegten Bildern wirklich auffallen würde.
Da hätten andere Technologien wie VR wesentlich mehr Potential für richtig gute Immersion zu sorgen. Da braucht es aber auf der HW Seite noch 1 oder 2 Generationen, bis es wirklich komplett ausgereift ist.
Wenn man das so liest, muss man an die bisherige Herangehensweise bei RT doch ein größeres Fragezeichen machen. Dass das so nicht weitergehen wird ist ja schon vorgezeichnet. Die jetzigen Konsolen werden bis 26/27 aktuell bleiben. Die RT-Implementierung wird über die Zeit "erwachsen" werden müssen, wenn man bei der Konsolengeneration auch von RT profitieren will.
Troyan
2022-11-03, 23:41:12
Garnicht. Reflektionen gibt es nur mit Raytracing. Planar Reflektionen werden nur auf begrenzten geraden Flächen eingesetzt und sind komplett unbrauchbar für Tranzparenz.
vinacis_vivids
2022-11-03, 23:42:15
https://i.gyazo.com/d6e3ecc9b5c74883bb2581ba39e4e444.png
Erleuchte uns, oh großer Raff. Wie sieht's dann aus? :D
https://abload.de/img/2022-11-0323_41_07-cagrfhk.png
30% schneller als 4090 ?
Jupiter
2022-11-03, 23:42:31
@Troyan
Voxel GI kann ebenfalls nicht mit RT GI mithalten. Flächenlicht funktioniert mit RT GI klasse.
Bei Schatten sehe ich ohne RT auch viele Fehler wie Peter Panning und Schattenakne. Dazu gibt es Probleme mit Halbschatten.
Ich sehe keine Alternative zu Raytracing, wenn man nicht ewig in 2014 Grafik verharren will.
iamthebear
2022-11-03, 23:43:20
In der Regel kann man bei jeder GPU ca. 1/3 der Verlustleistung sparen indem man den Takt um 10% absenkt, was auch um die 10% Spannung spart.
Das funktioniert bei Ampere, RDNA2 und Ada ca. gleich und wird deshalb vermutlich auch mit Ada funktionieren.
d.h. eine 4090 läuft wunderbar mit 300W, eine 3090 mit 250W, eine 6900 XT mit 200W und eine 7900 XTX dann vermutlich mit auch um die 250W.
Will man mehr als 1/3 sparen wird es kompliziert, da dort dann in der Regel keine ordentlich getunte Spannungskurve mehr hinterlegt ist.
Erwartungsgemäß: Ada zerstört alles. Ich habe eine gemeine Szene (https://www.youtube.com/watch?v=rRo6KOeif9A), bei der eine RX 6950 XT nur 58,8 Fps erreicht. Mal 1,5 wären das ~88 Fps. Eine RTX 4090 kommt aber auf fast 103 ...
MfG
Raff
Die 4090 ist nicht erreichbar damit. Die 7900 ist ein Gegner für die 4080. Agiert Preislich ja eher auf dem Niveau einer gecancelten 4080 12, die man mit Sicherheit in fast allem außer MinecraftRT, Doom2RT und Cyberpunk geschlagen hätte.
iamthebear
Ich betreibe meine 6800 grad mit 110-120W. Das wird zumindest mit der 7900XT auch gehen ;). Ob das mit den NV geht weiss ich nicht, aber für mich reichts meisten dicke aus. Und die Stromrechnung wird es honorieren bei 70ct pro kWh ;).
TheGood
2022-11-03, 23:43:58
Raytracing ist und wird immer kaum mehr als ein NV Marketing Vehikel bleiben..
...
das ist genauso blöd wie es als den heiligen Grad im jetzigen Zustand zu verkaufen.
Ravenhearth
2022-11-03, 23:44:46
Wenn die RX 7800 XT (N32) ein Drittel langsamer ausfällt als die 7900 XTX, wäre man nur knapp vor der 6950 XT und damit vielleicht 20% schneller als die 6800 XT. :redface: Dann darf der MSRP aber echt nicht steigen...
Tesseract
2022-11-03, 23:44:51
Ich würde sagen, es stimmt. AMD nennt es "dual issue FP32", aber was genau das tut wissen wir noch nicht.
nein, das hast du falsch verstanden. wavefront ist die anzahl der items die gruppenweise abgearbeitet werden. bei nvidia sind das seit ewigkeiten 32, bei GCN waren es 64, bei RDNA sind es native 32 mit 64 rückwärtskompatibel. RDNA3 kann scheinbar 2x32 was wohl den auslastungsgrad der shader etwas erhöt wenn der code ungünstig ist. das hat nix mit FP32 zu tun.
Linmoum
2022-11-03, 23:46:15
Die 4090 ist nicht erreichbar damit. Die 7900 ist ein Gegner für die 4080. Agiert Preislich ja eher auf dem Niveau einer gecancelten 4080 12, die man mit Sicherheit in fast allem außer MinecraftRT, Doom2RT und Cyberpunk geschlagen hätte.Wenn wir von Faktor 1.5x bei RT ausgehen im Mittel, dann wäre auch die geunlaunchte 4080 12GiB ein Problem geworden. Denn damit erreicht man häufiger nichtmals die 3090, teilweise würde man damit sogar hinter einer 3080 zurückliegen.
ChaosTM
2022-11-03, 23:46:16
Da hätten andere Technologien wie VR wesentlich mehr Potential für richtig gute Immersion zu sorgen. Da braucht es aber auf der HW Seite noch 1 oder 2 Generationen, bis es wirklich komplett ausgereift ist
Ja.. ;)
Leider eher 10-12 Generationen
dargo
2022-11-03, 23:46:36
Wenn die RX 7800 XT (N32) ein Drittel langsamer ausfällt als die 7900 XTX, wäre man nur knapp vor der 6950 XT und damit vielleicht 20% schneller als die 6800 XT. :redface: Dann darf der MSRP aber echt nicht steigen...
Jetzt ergibt das auch alles Sinn mit N33. Dass N33 N21 erreicht waren offenbar auch nur feuchte Träume.
amdfanuwe
2022-11-03, 23:46:39
Die 7900XT ist deutlich uninteressanter als die 7900XTX
Da würde ich doch glatt mehr RAM, Shader und Takt für die $100 mitnehmen.
verstehe das Preisgefüge absolut nicht.
Du verstehst den Markt nicht.
Mache das günstigere Produkt unattraktiv dann kaufen die Leute das teurere.
Gibt mehr Umsatz, Gewinn.
Exxtreme
2022-11-03, 23:47:10
Ist in etwa in dem Rahmen, den ich erwartet habe. Ist die Konterkarte zur RTX 4080 16 GB. Mal schneller, mal langsamer und viel günstiger.
iamthebear
2022-11-03, 23:47:22
30% schneller als 4090 ?
Nope 50% schneller als eine 6950 XT siehe Benchmarks von AMD.
fps Zahlen unterschiedlicher Quellen zu vergleichen macht wenig Sinn, da diese je nach Szene stark schwanken können.
Jetzt ergibt das auch alles Sinn mit N33. Dass N33 N21 erreicht waren offenbar auch nur feuchte Träume.
Ich hab doch gesagt, das ist der Nachfolger von N23 mit 2048 Shadern und ich hatte recht ;).
aceCrasher
2022-11-03, 23:49:29
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Mach dich doch bitte nicht lächerlich. Jeder der auch nur ein bisschen Ahnung von der Materie hat, weiß wie viel ein PCIe 8-Pin wirklich aushält. 500W mit einer 2x 8-Pin Karte sind absolut problemlos mit einem anständigen Kabel + Netzteil. Meine alte 8+6-Pin 290X hat 450W ohne Probleme gezogen. Die Customs werden eh alle mit 3x 8-Pin kommen um innerhalb der Spezifikationen zu bleiben. Was soll da die gespielte Aufregung??
Nakai
2022-11-03, 23:49:45
Puh... dann sind die TFLOPs-Angaben maximal verwirrend.
Der hauptsächlich skalierende Faktor sind die WGPs/CUs. Die sind um 20% gewachsen. Ergo kann man aber schon den Effizienzgewinn dieser Dual-Issue-SIMDs herausrechnen. Etwa 25~35%, je nach Usecase.
Wäre der Takt noch ein bisschen mehr, wäre das ganz nett gewesen. Dann würde man bei schon eher 100% mehr Performance rauskommen.
Der Schritt der unterschiedlichen Taktdomänen ist auch der Schritt in Richtung mehrere Chiplets. Ein FrontEnd/CommandProcessor-Chiplet z.B.
Ich finde die Chiplet Idee schon sehr nice. 7900XT hat einen MCD weniger schonmal, also ist 37mm² (6N) kleiner als 7900XTX.
Ich glaube wir sehen das alles noch ein bisschen falsch. Im Grunde ist es die erste GPU-Chiplet-Architektur.
Iscaran
2022-11-03, 23:50:33
Hmmm, leider etwas weniger als antizipiert und die Gerüchte hergaben...
1.) WTF nur 2.500 MHz ?!?, Das sind nur 7.5% mehr Takt als bei der von AMD selbst gewählten Referenz 6950 XT (2.325 MHz Game Clock, wenn ich das richtig habe).
Wieso zum Henker nur sowenig Clock? Irgendwas ist da strange.
2.) RT scheint erst mit FSR3 richtig zu "zünden", könnte sein, dass die neuen "AI-Cores" erst mit FSR3 überhaupt gehen?
Was dann ergibt, dass die RT-Performance nochmal um +50% zunehmen würde.
3.) aus den 6 Benchmark-Werten mit 1.5-1.7 würde sich ein Mittelwert von 1.55 ergeben
4.) die 1.55 beziehen sich auf die Basis 6950 XT
5.) 6950 XT hat 368% 4k-Index => x1.55 = 570% 4k-Index
6.) Rechnet man sich anhand dessen mal einen Architektur-Wert für RDNA 3 aus sind da magere 107.65 GFlops/Index%...das ist 70% schlechter als RDNA2 ! => WTF.
Hätte wirklich nicht mal Ansatzweise gedacht, dass man die Luftpumpe Ada in der Hinsicht noch toppen kann.
Aber RDNA2 => RDNA 3 skaliert NOCH schlechter (pro Flop) als Turing => Ampere bzw. Ampere => Ada ?!?
RDNA 2 = 63 GFlops/Index
RDNA 3 = 107.7
Ampere = 88
Ada = 112.7
ICh hätte ja RDNA 3 irgendwo um 90 erwartet, was eh schon schlecht wäre.
Tatsächlich hat RDNA2 => RDNA 3 also "nur" ein scaling von ~30% bezogen auf Flops...das ist wirklich mager.
=> Liegt das evtl. doch am "kastrierten" Cache? Vielleicht wären 192 MB hier doch deutlich besser gewesen?
7.) Trotzdem: Am Ende steht man bei 570% Index...das ist auch nur ~12% langsamer als die 4090.
Das ganze OHNE das "hickhack" mit Undervolting - einfach nur Out of the box und das zum nahezu halben Preis.
8.) Die Marge dürfte TROTZ des niedrigen Preises vermutlich nicht kleiner sein als die der 4090.
9.) AMD geht hier also ganz klar in den "Preiskampf" vs nVidia (trotz des kleinen Performance Gaps)=> da bin ich dann vor allem auf die kleineren Chips gespannt.
10.) Jetzt verstehe ich warum nVidia auf biegen und brechen 450 W in die 4090 reinbuttert....sonst wäre RDNA 3 nämlich gleichauf. (in Raster)
Digidi
2022-11-03, 23:51:13
Erwartungsgemäß: Ada zerstört alles.
Die Beleuchtung ist das Wichtigste, also deren Dynamik. Ich war die Tage mal wieder in Teardown unterwegs, weil's da einige beeindruckende Mods gibt. Dieses Spiel sieht in Bewegung so un-fuckin-fassbar geil und "next-gen" aus, dass ich mich oft staunend vor dem Bildschirm vorfand. Wirklich. Nichts hat mich dieses (und letztes) Jahr so beeindruckt wie dieses [URL="https://www.youtube.com/watch?v=YCaXA0nvGZE"]wunderschön beleuchtete, super dynamische Klötzchenfest (https://www.youtube.com/watch?v=rRo6KOeif9A).
MfG
Raff
Du solltest dir wirklich mal die beiden Mauwi Demo Herunterladen (In der Videobeschreibung unten drunter verlinkt)
Video mit den Links:
https://www.youtube.com/watch?v=dT7kztBJQD0&t
Das würde ich gerne auf einer 4090 und einer 6950XT gebencht sehen ;)
Und ein Video wie es dann aussieht:
rxfKa13p6co
dargo
2022-11-03, 23:51:44
Ich hab doch gesagt, das ist der Nachfolger von N23 mit 2048 Shadern und ich hatte recht ;).
Bekommst gleich einen Keks von mir. :rolleyes: Mir kamen übrigens von Anfang an zu viele Ungereimtheiten bei N33 auf. Da passte so Einiges nicht bzw. ergaben keinen Sinn.
Daredevil
2022-11-03, 23:51:48
Sagt mal, das sieht hier in dem Video so aus, als würden da in der Mitte auch "Zwei Einheiten" sein und das dies kein komplett eigenständiger Chip ist.
Das ist quatsch und nur fürs Video so dargestellt, oder?
https://abload.de/img/screenshot2022-11-032kjiy8.png
Nettes Video:
XAGFS8d_qLw
TheGood
2022-11-03, 23:53:05
Die Matrix Demo der UE5 läuft auf RDNA2 nicht viel schlechter als auf Ampere. Das ist kein Realtime RT? Hier auf der 4090 @ 4K nativ mit >70fps. Mit einer 7900XTX dann vermutlich ~60fps.
Ich bin zu wenig in der UE5 engine drin. Die original Dokumente sagen dass software RT als default genutzt wird in Lumen. Also hat Epic da irgendwas entwickelt.
Wie sich hardware RT in Lumen auswirkt ist mir nicht bekannt. Einzig dass es am Anfang wohl langsamer als das Software RT gewesen sein soll... Denke aber nicht dass das der aktuelle Stand ist.
ChaosTM
2022-11-03, 23:53:40
Die "4080" ist ein blödere NV Scherz , das Ding ist höchstens eine 4070(TI)
Linmoum
2022-11-03, 23:54:15
10.) Jetzt verstehe ich warum nVidia auf biegen und brechen 450 W in die 4090 reinbuttert....sonst wäre RDNA 3 nämlich gleichauf. (in Raster) Die 4090 ist mit 350W keine 5% langsamer als mit 450W. Also nein, daran liegt es nicht.
Davon ab ist die 4090 auch keine "450W-Karte". Das steht nur im Datenblatt, der Realverbrauch im Mittel ist klar niedriger.
https://www.igorslab.de/wp-content/uploads/2022/10/02d-UHD-Watts.png
iamthebear
2022-11-03, 23:55:41
Du verstehst den Markt nicht.
Mache das günstigere Produkt unattraktiv dann kaufen die Leute das teurere.
Gibt mehr Umsatz, Gewinn.
AMD hat erwähnt, dass der Bottleneck nun das Frontend ist und nicht die Shader.
Wenn das Frontend bei der 7900 XT gleich ist wie bei der 7900 XTX, dann wird der reale Performanceunterschied eventuell niedriger sein als es die TFlop Zahlen vermuten lassen.
DrFreaK666
2022-11-03, 23:56:32
Wo landest du denn beispielsweise bei sowas mit AMDs eigenem Faktor 1.6x auf die 6950XT? ;)
https://i.gyazo.com/a8678b8a5890aa18ce8d311a70911eb3.png
Und das ist leider kein Einzelfall.
Hab ich das behauptet? :P
Was sollen eigentlich die ständigen Vergleiche mit der 4090? Die kostet (wahrscheinlich) ca. 1000€ mehr. 1000€, das ist fast die 7900XT in der UVP :ugly:
prinz_valium_2
2022-11-03, 23:57:39
Du verstehst den Markt nicht.
Mache das günstigere Produkt unattraktiv dann kaufen die Leute das teurere.
Gibt mehr Umsatz, Gewinn.
Ja das Prinzip funktioniert. Aber in diesem Fall würde man mit der 7900XT mehr Marge erzielen. Also ergibt es trotzdem keinen Sinn. Die 100 mehr top line machen den Bock auch nicht fett, wenn darunter deine bottom line leidet.
Wenn die 7900XTX jetzt auch noch eine bessere marge hätte, klar.
So macht es nämlich Apple.
Du solltest dir wirklich mal die beiden Mauwi Demo Herunterladen (In der Videobeschreibung unten drunter verlinkt)
Video mit den Links:
https://www.youtube.com/watch?v=dT7kztBJQD0&t
Das würde ich gerne auf einer 4090 und einer 6950XT gebencht sehen ;)
Und ein Video wie es dann aussieht:
https://youtu.be/rxfKa13p6co
Ist tatsächlich längst in der Mache. :D
MfG
Raff
Sunrise
2022-11-03, 23:59:02
Erwartungsgemäß: Ada zerstört alles. Ich habe eine gemeine Szene (https://www.youtube.com/watch?v=rRo6KOeif9A), bei der eine RX 6950 XT nur 58,8 Fps erreicht. Mal 1,5 wären das ~88 Fps. Eine RTX 4090 kommt aber auf fast 103 ...
In diesem Fall (88 fps vs. 103 fps) wird sie dann aber nicht “zerstört”, um mal bei deiner Wortwahl zu bleiben.
Vollkommen andere Preispunkte bei anderer TDP oder? Da gibts sicher andere Beispiele, bei welchen diese Definition besser passt.
Berniyh
2022-11-04, 00:00:47
Wenn man das so liest, muss man an die bisherige Herangehensweise bei RT doch ein größeres Fragezeichen machen. Dass das so nicht weitergehen wird ist ja schon vorgezeichnet. Die jetzigen Konsolen werden bis 26/27 aktuell bleiben. Die RT-Implementierung wird über die Zeit "erwachsen" werden müssen, wenn man bei der Konsolengeneration auch von RT profitieren will.
Ich denke es wird wie so oft ein Mittelweg werden. evtl. ja auch eine Hybridlösung, in der man teilweise Raytracing einsetzt und mit bewährten Technologien kombiniert.
Neuronale Netzwerke könnten da eine Rolle spielen um den Raytracing Anteil so zu optimieren, dass es optisch nicht mehr gegenüber komplett-Raytracing auffällt.
Garnicht. Reflektionen gibt es nur mit Raytracing. Planar Reflektionen werden nur auf begrenzten geraden Flächen eingesetzt und sind komplett unbrauchbar für Tranzparenz.
Mit der Einstellung würdest du in der Wissenschaft aber nicht weit kommen. :D
Es gibt immer einen Weg. ;)
Dampf
2022-11-04, 00:00:59
Ist tatsächlich längst in der Mache. :D
MfG
Raff
Wartet lieber auf die neue Version. Die jetzige Demo nutzt noch kein Nanite und ist IMO auch nicht wirklich beeindruckend. Der Typ arbeitet daran, es auf 5.1 upzugraden mit Nanite für Foliage. Das sieht wirklich Hammer aus. https://www.youtube.com/c/MAWIUnitedGmbH/community
Wenn dann die Version mit 5.1 released ist, lohnt sich sicherlich auch ein Benchmark-Test auf verschiedenen Karten. Mich würde speziell interessieren, wie sich RDNA1 im Vergleich zu Turing schlägt, da ab 5.1 Mesh Shader benutzt werden.
bbott
2022-11-04, 00:02:56
Einige Fragen wurden durch die Präsentation beantwortet, aber mehr neue Fragen sind mMn entstanden :D Der Hype ist diesmal (primär) am Takt gescheitet, bei den Gerüchten mit ~3,0 bis 3,5 Ghz (+20-40%) sähe man gegen über der 4090 gar nicht so schlecht da.
Was wäre wenn AMD die in den Gerüchten genannten 7950XT(X) mit mehr Takt (~3,x Ghz), TDP (400-450W) und Cache bringen würde?!
Diese könnte dann (etwas) über der 4090 liegen und gegen über der 600W 4090Ti mit ~1500-1800$ attraktiv Positionieren.
Ich denke es wird wie so oft ein Mittelweg werden. evtl. ja auch eine Hybridlösung, in der man teilweise Raytracing einsetzt und mit bewährten Technologien kombiniert.
Neuronale Netzwerke könnten da eine Rolle spielen um den Raytracing Anteil so zu optimieren, dass es optisch nicht mehr gegenüber komplett-Raytracing auffällt.[...]
In dem Falle wäre die Lösung sogar adaptiv je nach RT-Leistung. Das würde man dann kaum noch sehen und wäre nicht mehr zu benchen.
Troyan
2022-11-04, 00:06:31
Mit der Einstellung würdest du in der Wissenschaft aber nicht weit kommen. :D
Es gibt immer einen Weg. ;)
Ja, nennt sich Raytracing.
Matrix316
2022-11-04, 00:10:15
Das hört sich alles irgendwie zu gut an. Wie es kommen wird: Release am 13.12... es gibt kaum Karten... alle gleich weg... Preise steigen ins unermessliche... in 2 Jahren kann man welche für 900 Euro kaufen. ;(
Also ich hoffe mal, dass die Karten möglichst zahlreich angeboten werden und nicht wie die 4090 oder 4080 (wahrscheinlich) nur tröpfchenweise zu Apotheken Skalper Aufpreise.
Slipknot79
2022-11-04, 00:11:30
999$ -> 1199 Euro
899$ -> 1069 Euro
Zu teuer
Straßenprice eher bei 1350-1400EUR. (y)
Savay
2022-11-04, 00:12:35
Sagt mal, das sieht hier in dem Video so aus, als würden da in der Mitte auch "Zwei Einheiten" sein
Das ist lediglich ein überlagertes stilisiertes Schema des internen Chipaufbaus mit den WGPs an der Seite und Frontend in der Mitte etc.
https://youtu.be/kN_hDw7GrYA?t=792
N21 ist ziemlich ähnlich aufgebaut.
https://pics.computerbase.de/9/6/1/5/5-467f78b7865c20b0/1-2160.24337746.jpg
vinacis_vivids
2022-11-04, 00:16:14
Sagt mal, das sieht hier in dem Video so aus, als würden da in der Mitte auch "Zwei Einheiten" sein und das dies kein komplett eigenständiger Chip ist.
Das ist quatsch und nur fürs Video so dargestellt, oder?
https://abload.de/img/screenshot2022-11-032kjiy8.png
Nettes Video:
https://youtu.be/XAGFS8d_qLw
https://abload.de/img/13-2160.43a5fddea7fq2.png
Das ist ein GCD.
Das in der Mitte ist der Command Prozessor mit L1 und L2 vermutlich.
https://abload.de/img/12-2160.cd634d2cy8ci1.png
Der_Korken
2022-11-04, 00:19:32
6.) Rechnet man sich anhand dessen mal einen Architektur-Wert für RDNA 3 aus sind da magere 107.65 GFlops/Index%...das ist 70% schlechter als RDNA2 ! => WTF.
Hätte wirklich nicht mal Ansatzweise gedacht, dass man die Luftpumpe Ada in der Hinsicht noch toppen kann.
Aber RDNA2 => RDNA 3 skaliert NOCH schlechter (pro Flop) als Turing => Ampere bzw. Ampere => Ada ?!?
RDNA 2 = 63 GFlops/Index
RDNA 3 = 107.7
Ampere = 88
Ada = 112.7
ICh hätte ja RDNA 3 irgendwo um 90 erwartet, was eh schon schlecht wäre.
Tatsächlich hat RDNA2 => RDNA 3 also "nur" ein scaling von ~30% bezogen auf Flops...das ist wirklich mager.
=> Liegt das evtl. doch am "kastrierten" Cache? Vielleicht wären 192 MB hier doch deutlich besser gewesen?
Ich würde einfach sagen, dass die Peak FP32-Rate von RDNA3 überhaupt nicht vergleichbar mit RDNA2 ist. AMD redet nach wie vor von 96 CUs und offensichtlich auch von 6144SPs. Es ist somit völlig unklar unter welchen Umständen die Verdopplung der FP32-Leistung pro CU überhaupt durchschlagen kann bzw. welchen Restriktionen sie unterliegt. Offensichtlich sind es eben nicht 4 statt 2 vollwertige SIMD32-Units, die unabhängig voneinander ihre Instruction Streams abarbeiten, weil dafür sowohl die Leistung als auch der Flächenbedarf viel zu gering sind. Man sollte es (auch wenn es technisch sicherlich absolut nichts miteinander zu tun hat) eher mit SMT vergleichen, welches aus einem CPU-Core in der Regel irgendwas zwischen 0 und 40% mehr Leistung rausholt: Ein Kniff, um aus wenig Transistoren-Investition einen netten Speedup für bestimmte Workloads rauszuholen.
Daredevil
2022-11-04, 00:19:44
Ja das ist mir schon klar, dass es von oben wie "ein" Chip aussieht, habe mich nur gefragt, ob es drunter nicht anders ist. Weil wenn AMD es hinbekommt die beiden "Einheiten" zusammen zu kleben, gelingt das vielleicht ja auch mit 4 "Einheiten".
Es gibt da ja jemanden in der Industrie, der quasi zwei SoCs zusammen geklebt hat ohne merklich Leistungseinbußen.
Hat mich so ein wenig an den M1 Ultra erinnert. ^^
https://cdn1.vogel.de/unsafe/fit-in/1000x0/images.vogel.de/vogelonline/bdb/1941300/1941383/original.jpg
Das ist lediglich ein überlagertes stilisiertes Schema des internen Chipaufbaus mit den WGPs an der Seite und Frontend in der Mitte etc.
https://youtu.be/kN_hDw7GrYA?t=792
N21 ist ziemlich ähnlich aufgebaut.
https://pics.computerbase.de/9/6/1/5/5-467f78b7865c20b0/1-2160.24337746.jpg
Ah jo, das sieht echt ähnlich aus. Danke. :)
Slipknot79
2022-11-04, 00:20:27
Die XT hat 24% weniger Rohleistung, ist aber nur 10% günstiger? Warum gibts zu der überhaupt keine Benchmarks? Das stinkt.
Vermute mal, die basteln noch am Treiber. Ist ja noch viel Zeit bis release.
ChaosTM
2022-11-04, 00:24:53
8k/165 oder 4k/480 nehm ich aber gerne mit . braucht man derzeit nicht aber (DCS) ? :D
MasterElwood
2022-11-04, 00:25:09
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81241&stc=1&d=1667511488
https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/post-2272138
Sind die ganzen Benches der 4090 nicht mit DLSS3?
Linmoum
2022-11-04, 00:25:35
N32 dürfte aber für AMD ein großes Problem durch den schon zwingend niedrigen Preis bei N31 sein.
Die 6800XT kam zum Launch nur $649, N32 wird man nicht dafür anbieten, ansonsten ist die Lücke zur 7900XT viel zu groß. Problem daran ist allerdings, dass N32 - ausgehend von N31 - nicht wirklich viel schneller als die 6900XT und damit auch 6800XT werden dürfte.
Sind die ganzen Benches der 4090 nicht mit DLSS3?Die sind sowieso Quatsch, >100fps mit RT Ultra in Metro? Ganz sicher nicht, ich hab das ja jetzt erst die Tage mit meiner 4090 gespielt. Da landest du auch problemlos mit im 5xfps Bereich in UHD. Dreistellige fps hast du vielleicht irgendwo in Gebäuden wo nichts los ist...
amdfanuwe
2022-11-04, 00:25:45
Ja das Prinzip funktioniert. Aber in diesem Fall würde man mit der 7900XT mehr Marge erzielen. Also ergibt es trotzdem keinen Sinn. Die 100 mehr top line machen den Bock auch nicht fett, wenn darunter deine bottom line leidet.
Wenn die 7900XTX jetzt auch noch eine bessere marge hätte, klar.
So macht es nämlich Apple.
Wieso sollte man bei der 7900XT mehr Marge haben, wenn die gerade mal 30$ billiger (1*GCD und 2* RAM gespart) zu produzieren ist und 100$ weniger einbringt?
w0mbat
2022-11-04, 00:29:21
nein, das hast du falsch verstanden. wavefront ist die anzahl der items die gruppenweise abgearbeitet werden. bei nvidia sind das seit ewigkeiten 32, bei GCN waren es 64, bei RDNA sind es native 32 mit 64 rückwärtskompatibel. RDNA3 kann scheinbar 2x32 was wohl den auslastungsgrad der shader etwas erhöt wenn der code ungünstig ist. das hat nix mit FP32 zu tun.
Wieso gibt AMD dann ganz offiziell 6144 SPs für die 7900 XTX an? Sind es jetzt 12288 oder 6144?
ChaosTM
2022-11-04, 00:29:31
@ Benchmarks - "Performance estimated" .. < Jesus
reaperrr
2022-11-04, 00:30:44
Haben wir hoffnung, dass N32 höher takten kann und trotzdem effizient bleibt?
Dann könnte das eine wirklich tolle Karte für einen tollen Preis werden.
Ein bisschen auf jeden Fall.
N32 ist ggü. N31 bei den Shadern etwas weniger (60% statt 50%), bei den ShaderEngines/ROPs genauso (50%) und bei L2/IF$/SI etwas stärker (66,6% statt 75%) beschnitten als es N22 ggü. N21 war.
Die Shader sind für den Verbrauch natürlich am wichtigsten, aber die Chancen stehen gut, dass es sich mit den erreichbaren Taktraten innerhalb einer bestimmten TDP zw. N31 und N32 ähnlich verhält wie zw N21 und N22.
Die 7900XTX hat nun mit 20W mehr TBP ggü. der 6950XT offiziell 200 MHz höhern Game- & Peak- und 400 MHz höheren Frontend-Takt erreicht.
Daraus würde ich ableiten, dass die 7800XT(X) mit 250W TBP wenigstens um die 200 MHz höhere Taktraten als die 7900XTX schaffen sollte.
Leistung ca. 3090 Ti (jedenfalls ohne RT) @ 6800 TBP klingt OK für mich, und gegenüber der 4080-12G - wenn sie denn erschienen wäre - hätte es außer in RT auch in jeder Hinsicht gut ausgesehen (etwas bessere Raster-Perf, mehr VRAM, bessere Perf/W, günstiger, denn N32XT(X) wird nach dem Preisgefüge wohl kaum mehr als 699$ MSRP haben).
Badesalz
2022-11-04, 00:31:18
Ich finde man hat auch gemerkt, dass die Menschen auf der Bühne nicht ganz so gehyped waren wie zB beim RDNA2 oder Zen3 launch.Weil das eigentlich erst Zen1 ist. Und die Forenblase tat so als wenn nun der Zen3 kommt ;)
Thomas Gräf
2022-11-04, 00:31:45
Nach Benchmarks egal...der Mond macht eh die Strassenpreise.
Troyan
2022-11-04, 00:32:09
Die Recheneinheiten wurden aufgebohrt und können im Bestfall 128 FP32 Operationen ausführen. Es sind aber weiterhin nur 6144 Recheneinheiten verbaut. Das ist ein Unterschied zu nVidia, wo per ComputeUnit individuell 2xFP32 Operationen ausgeführt werden können.
Wieso gibt AMD dann ganz offiziell 6144 SPs für die 7900 XTX an? Sind es jetzt 12288 oder 6144?
Es sind jedenfalls keine "normalen" 6.144 FP32-ALUs, ansonsten hätte man nur gut 30 TFLOPS (und entsprechend bestenfalls 40 Prozent mehr Leistung ggü. Navi 21).
MfG
Raff
vinacis_vivids
2022-11-04, 00:33:06
8k/165 oder 4k/480 nehm ich aber gerne mit . braucht man derzeit nicht aber (DCS) ? :D
Gibs überhaupt Monitore mit 4k@480hz oder 8k/165hz?
Das ist für mich eine total neue Dimension, vor allem mit HDR und 12bit Farben :eek:
DAS ist wirklich NEXT-GEN.
Da können gerne Leute (wie Raff) CP2077@8bit auf 23fps drücken und sich darüber freuen. ;D
Savay
2022-11-04, 00:33:54
Wieso gibt AMD dann ganz offiziell 6144 SPs für die 7900 XTX an?
Sind halt 48 WGPs (in nem 3*8er Block auf jeder Seite vom Command Processor) mit je 2*64 ALUs = 6144SPs...
Die aber jetzt im ggs zu RDNA1/2 unter bestimmten Umständen nen Peakdurchsatz vom doppelten erreichen können. :wink:
Wie die Peakrate zustande kommt...we will see.
Vielleicht hängt das auch mit diesen ominösen AI Instruktionen zusammen?!
Gibs überhaupt Monitore mit 4k@480hz oder 8k/165hz?
Das ist für mich eine total neue Dimension, vor allem mit HDR und 12bit Farben :eek:
DAS ist wirklich NEXT-GEN.
Da können gerne Leute (wie Raff) CP2077@8bit auf 23fps drücken und sich darüber freuen. ;D
Du solltest dringend mal deinen Stapel AMD-Aktien verkaufen, damit das hier aufhört. ;)
MfG
Raff
Thomas Gräf
2022-11-04, 00:34:42
Weil das eigentlich erst Zen1 ist. Und die Forenblase tat so als wenn nun der Zen3 kommt ;)
Jau der war gut.
ChaosTM
2022-11-04, 00:36:36
Du solltest dringend mal deinen Stapel AMD-Aktien verkaufen, damit das hier aufhört. ;)
MfG
Raff
ok.. dont do that.. ist die Karte wirklich so schlecht ?
vinacis_vivids
2022-11-04, 00:38:10
Du solltest dringend mal deinen Stapel AMD-Aktien verkaufen, damit das hier aufhört. ;)
MfG
Raff
Ja, bench nur weiter mit 8bit 4:2:2. :freak:
Ich davon schon seit 6 Jahren geheilt.
ok.. dont do that.. ist die Karte wirklich so schlecht ?
Quatsch, die ist prima, aber Herr Vivids wirkt ein wenig verstrahlt und braucht diese Erleichterung, wie mir scheint. :D
MfG
Raff
ChaosTM
2022-11-04, 00:40:00
Gibs überhaupt Monitore mit 4k@480hz oder 8k/165hz?
Das ist für mich eine total neue Dimension, vor allem mit HDR und 12bit Farben :eek:
DAS ist wirklich NEXT-GEN.
Da können gerne Leute (wie Raff) CP2077@8bit auf 23fps drücken und sich darüber freuen. ;D
Natürlich nicht. Das ist nur was DP 2.1 ermöglicht
Thomas Gräf
2022-11-04, 00:40:24
Manchmal muss man einfach nur n'paar Gummibärchen naschen ;)
Savay
2022-11-04, 00:40:48
Ja, bench nur weiter mit 8bit 4:2:2. :freak:
:uconf3:
Linmoum
2022-11-04, 00:41:43
Nicht mal horn ist so verstrahlt wie VV und der ist schon der Ober-Hardcore-AMDler. Sagt eigentlich schon alles. ;D
vinacis_vivids
2022-11-04, 00:42:19
AMD hat das Spielchen wirklich auf die Spitze getrieben mit den fps. WTF? ;D;D;D
@dargo
Was sagst du dazu als 1440p Experte :-D
https://abload.de/img/2022-11-0400_35_45-1aevce0.png
ChaosTM
2022-11-04, 00:43:25
DP 2.1
kann NV derzeit noch nicht ;)
w0mbat
2022-11-04, 00:47:19
Es sind jedenfalls keine "normalen" 6.144 FP32-ALUs, ansonsten hätte man nur gut 30 TFLOPS (und entsprechend bestenfalls 40 Prozent mehr Leistung ggü. Navi 21).
MfG
Raff
Würde doch Sinn machen:
Navi21 hat 5120 shader und die 6900 XT 2015MHz "game clock" und damit ca. 20 TFLOPS Rechenleistung.
Navi31 hat 6144 shader und die 7900 XTX 2500MHz "font-end clock" (AMD basiert ihre TFLOPS Berechnung darauf) und damit ca. 30 TFLOPS Rechenleistung.
Insg. gesamt sind das ca. 50% mehr Rechnenleistung und viele der Beispiele von AMD zeigen auch direkt 1,5x Leistung.
Jetzt ist das alles es ungenau, da AMD ja mit der 6950 XT vergleich, und RDNA2 Karten in Wahrheit schneller takten, was bei RDNA3 aber auch sein kann.
Insg. macht es so viel mehr Sinn: 50% mehr Rechenleistung und ca. 50% mehr Spieleleistung. Passt auch viel besser zu den Chipgrößen, vor allem Navi23 vs Navi33.
Diese 12288 shader sind sehr komisch, da muss AMD nocht mehr erklären.
Der_Korken
2022-11-04, 00:47:26
N32 dürfte aber für AMD ein großes Problem durch den schon zwingend niedrigen Preis bei N31 sein.
Die 6800XT kam zum Launch nur $649, N32 wird man nicht dafür anbieten, ansonsten ist die Lücke zur 7900XT viel zu groß. Problem daran ist allerdings, dass N32 - ausgehend von N31 - nicht wirklich viel schneller als die 6900XT und damit auch 6800XT werden dürfte.
Ich weiß nicht, ob N32 nicht der Geheimtipp dieser Gen werden könnte. Mich macht der hohe Preis der 7900XT sehr stutzig. Eventuell skaliert RDNA3 doch nicht so gut mit den vielen CUs und die 7900XT ist deutlich näher an der XTX dran als es die Rohleistung vermuten lassen würde. In diesem Fall stell sich automatisch die Frage, ob nicht auch die 7800XT verhältnismäßig gut abschneidet, weil die fehlenden Shader nicht so einschlagen, der Chip aber so hoch wie die 7900XTX oder gar höher takten kann. So wie damals der Namensvetter HD 7870 mit 20 vs 32 CUs (zufälligerweise das gleiche Verhältnis wie man für N32 vs N31 vermutet mit 60 vs 96 und ebenfalls 256bit vs 384bit). Auch würde einer 7800XT die fehlende RT-Leistung nicht ganz so weh tun, weil man in dieser Leistungsklasse noch eher an der Rasterizer-Performance hängt und RT weniger nutzt.
aufkrawall
2022-11-04, 00:48:43
Mehr als 144fps sind für jemanden mit 144Hz-Monitor zu 100% wertlos (den CS:GO Shit mal ausgenommen). Beispielhafte 100 statt 70fps mit RT wären unendlich wertvoller...
Savay
2022-11-04, 00:49:18
Diese 12288 shader sind sehr komisch, da muss AMD nocht mehr erklären.
Die wurden von AMD aber nirgends genannt soweit ich das erkenne...das ist wohl eher von den Peak FP32/FP16 Flops abgeleitet bei bekannter WGP Zahl.
WGPs sind seit RDNA wohl eh eher die korrektere Zählweise.
Badesalz
2022-11-04, 00:49:23
Mir ist schon klar, daß grad die jeden Cent bruchen werden, aber wenn man schon psychologisch vorgehen wollte, dann XTX für 989€ und XT für 849€ UVP.
Bis auf RT - und da es ja erst ein Zen1 ist ;) - keine Katastrophe. Auch wenn man jedem auf der Bühne ansah: Es wird gleich alles viel besser sein, wenn das hier vorbei ist :tongue:
Dei Forenblasen-Bläser die ständig irgendwelche Gleichungen Perf/€ vorführen: Ej, interessiert einfach keine Sau draußen. Die Frage ist immer was man ausgeben muss um in der eigenen Auflösung und Detailquali ruckelfrei zu spielen.
Niemand draußen interessiert sich für diese Einkaufsmathematik. Der absolute Preis ist erstmal die primäre Größe.
Und nicht irgendein Blödsinn über Transistorcount/Perf, Flop/$ und sontiger Schwachsinn.
@Der_Korken
Man wird erst herausfinden müssen wie hoch sich die XT und die 78 takten lassen ;)
KriNemeth
2022-11-04, 00:49:53
Ja, hab auch etwas mehr erwartet, aber < 1000€ I'am in.
Oder ich gönne mir eine 6950XT im Abverkauf.
Badesalz
2022-11-04, 00:55:08
Ich fand übrigens nicht die Leute, sondern die Veranstaltung lieblos. Und das war ein Produkt der mich betreffen könnte. Die Genoa & Co. Presentation fand ich 10x spannender, obwohl da widerum klar ist, daß ich niemals ein Epyc-System haben werde. Hmm...
Die Interaktion mit Publikum sollte man zukünftig weglassen. Das ist eh Blödsinn.
Thomas Gräf
2022-11-04, 00:55:26
Ja, hab auch etwas mehr erwartet, aber < 1000€ I'am in.
Oder ich gönne mir eine 6950XT im Abverkauf.
Poh, gugg mal bei GZ rein, kriegste ne Krise...da is nix mit "Abverkauf"
basix
2022-11-04, 01:01:54
Bei PCGH gibt es einen guten Die Shot:
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/RDNA-3-7900-XTX-XT-Preis-Leistung-1406605/
https://www.pcgameshardware.de/screenshots/original/2022/11/AMD-Radeon-RX-7900-Series-GPU-4-pcgh.jpg
Die Chiplet-to-Chiplet Verbindungen brauchen doch einiges an Platz. Für 5.3 TByte/s ist es aber ziemlich gut (Byte/mm2)
Troyan
2022-11-04, 01:03:52
Sind das weiterhin nur 4 Shader-Engines und somit Rasterizer?
/edit: Sind 6. Also 50% mehr.
Badesalz
2022-11-04, 01:03:54
Wow was sind wir jetzt schlauer ;)
aufkrawall
2022-11-04, 01:06:19
Nach welchem Post von dir war nochmal irgendjemand schlauer?
Badesalz
2022-11-04, 01:07:55
Nach welchem Post von dir war nochmal irgendjemand schlauer?Willst du mir sagen das ist dir alles zu hoch was ich schreibe? Soll ich bei den Bienchen anfangen, Jungfrau?
@all
Meint ihr Jensen ist grad voll am toben?
Ravenhearth
2022-11-04, 01:11:46
Jensen
https://i.imgflip.com/1qs5yd.jpg?a463056
aufkrawall
2022-11-04, 01:12:54
Willst du mir sagen das ist dir alles zu hoch was ich schreibe? Soll ich bei den Bienchen anfangen, Jungfrau?
Na, wenn du meinst, dass Geschlechtlichkeit von Pflanzen ein einfaches Thema wäre...
Thomas Gräf
2022-11-04, 01:16:21
Huch Bienchen haben doch Flügel und keine Blätter...:lol:
ChaosTM
2022-11-04, 01:16:49
Nach welchem Post von dir war nochmal irgendjemand schlauer?
Badesalz oder Troyan machen dein Leben nur leichter, wenn sie nichts posten.
Matrix316
2022-11-04, 01:17:21
Wenn man auf 4080 16 Niveau ist und billiger anbieten kann, dann hat man schon gewonnen finde ich.
Tesseract
2022-11-04, 01:17:26
Ja, hab auch etwas mehr erwartet, aber < 1000€ I'am in.
$899 und $999 sind ~1099€ und ~1249€ nach wechselkurs und steuer.
und streitereien bitte unterlassen @alle
Badesalz
2022-11-04, 01:29:48
Huch Bienchen haben doch Flügel und keine Blätter...:lol:Es gibt halt kein Thema wo er nicht... drin steckt :wink:
@Tesseract
Das muss sich auch erst zeigen (das mit den Preisen, meine ich)
===
@Ravenhearth
Naja, geht so oder? Forenblase?
Du hast bereits jetzt schon ein Produkt was du unter dem falschen Vorwand schon "unlaunchen" musstest, weil deine Infogathering in letzter Sekunde rausgefunden hat, daß du mit deiner RT40 nicht gegen eine vermeindlich dürftige RDNA3 konkurrenzfähig bist.
Und du hast ein zweites RT40 Produkt, mit dem es nicht nur Theater gibt, sondern der zu nichts konkurrenzfähig ist - da von einer anderen Welt - und den du auch locker erst in 11 Monaten hättest rausbringen können. Den hast du aber jetzt und zu einem Preis, den nur die mikrige Forenblase bedienen kann. Damit verdienst du über die Menge noch nicht einen Cent.
Obenrum hast du nur percentiles vom erhofften Gesamtertrag, in der Mitte bist du preislich auch nicht so richtig entspannt aufgestellt und untenrum hast du erstmal nichts. Gabs da nicht schon bequemere Situationen für NV? Oder übersehe ich was?
Wobei das auch spannend ist wo der N33 rauskommt. Wirtschaftlich ist der wichtig. Da bin ich auf die Preise und NVs Antworten gespannt. Die 4070 könnte wohl doch das allerwichtigste Produkt werden und genau da wo sie es nicht hätten sollen wird AMD vermöbelt.
===
edit@Chaos
Ich bin außerhalb der Forenblasen. Ich fall überall negativ auf und werde nirgendwo verstanden :( Außer im RL. Da läuft es genau umgekehrt ;)
Gott1337
2022-11-04, 01:32:25
11 watt. denn über der pcie dürfen nur 66w 12v.
hatte immer 70 Watt im Kopf, danke für die Info : )
Prinzenrolle
2022-11-04, 01:38:21
Hoffentlich ist das Ding ein "Overclocker's Dream" - also nicht wie Fiji, sondern wirklich. Logisch wär's jedenfalls. =)
MfG
Raff
Ganz bestimmt...
Mit der RT Leistung sind die Dinger ja wirklich extrem schwach, naja hat sich ja schon lange angekündigt.
Linmoum
2022-11-04, 01:46:18
Bei Nvidia liegen auch noch 10-15% Performance bei AD102 brach, die man problemlos mit demselben Chip wird drauflegen können. Die 4080 ist auch nur ein Salvage, wo noch mal rund 10% Performance dazukommen mit dem Vollausbau. Den AMD auf der anderen Seite mit der 7900XTX schon hat.
So ein gutes Fundament mit RDNA2, auf dem man mit RDNA3 jetzt hätte aufbauen können und sie schaffen es echt, dass sie in RT noch weiter zurückfallen und auch Raster sich der Abstand im Vergleich zur vorherigen Gen beider Hersteller deutlich vergrößern wird.
ja, war nicht unerwartet. Sie arbeiten mMn in in Richtung: "Wir verbessern unser Produkt" statt "Wir maximieren alles, um mit der Konkurrenz mitzuhalten."
DrFreaK666
2022-11-04, 01:48:56
bis zu 50% mehr RT-Performance pro CU.
Davon ist aber nicht viel zu sehen
Prinzenrolle
2022-11-04, 01:49:16
Jepp, wenn Nvidia möchte können sie AMD komplett zerstören.
Eine 4090 Ti wäre in RT doppelt so schnell und in Raster 40% vorne.
DrFreaK666
2022-11-04, 01:50:08
Jepp, wenn Nvidia möchte können sie AMD komplett zerstören.
Eine 4090 Ti wäre in RT doppelt so schnell und in Raster 40% vorne.
Und nochmal teurer und stromhungriger.
So wird AMD zerstört?
Auf das kleine Lineup kommt es an
Badesalz
2022-11-04, 01:50:12
Verstehe das immernoch nicht warum sie "zurückfallen", wenn wie gesagt eine RT40 schon aus dem Programm musse, weil sie nicht konkurrenzfähig ist.
Aber ok. Für heute reicht das wohl wirklich.
Und nochmal teurer und stromhungrigerGeld ist ja nur das eine. Eine 90Ti wie eine Titan kommen halt nicht, weil man dafür ATX4.1 bräuchte ;)
w0mbat
2022-11-04, 01:54:35
Ich glaube, AMD ist sich selbst nicht einmal sicher, wie sie die SPs jetzt zählen sollen. Die Folie im Video zeigt 2x pro SP und die für die Presse zeigt nur 1x pro SP:
DrFreaK666
2022-11-04, 01:54:50
Sollte nicht schon die Voodoo 5 6000 mit einem eigenen Netzteil kommen? Vielleicht greift Nvidia diese Idee ja auf :D
Badesalz
2022-11-04, 01:58:54
Jepp, wenn Nvidia möchte können sie AMD komplett zerstören.Jepp, das aber erst nachdem sie BQ, Enermax, Seasonic, Thermaltake und Corsair zerstört haben... :ulol:
Linmoum
2022-11-04, 02:00:40
wenn wie gesagt eine RT40 schon aus dem Programm musse, weil sie nicht konkurrenzfähig ist. Wer hat das gesagt? Jensen persönlich?
Ist natürlich Quatsch, da die 12GiB alleine eine höhere RT-Performance als die 7900XT bei identischem Preis gehabt hätte.
Nvidia hätte in den USA schlicht Probleme bekommen, da klagt nämlich jeder alles an, was nicht bei drei auf den Bäumen ist. Und hier wäre es Kundentäuschung bzw. irreführende Werbung gewesen.
Badesalz
2022-11-04, 02:01:43
Und da kam von denen über Monate keiner drauf... Wow. Aber ok. Ok. Allgemein ändert sich dadurch die Lage aber nicht...
w0mbat
2022-11-04, 02:12:58
PS
7900 XTX: 1,9GHz base, 2,3GHz game und 2,5GHz boost clock
7900 XT: 1,5GHz base, 2GHz game und 2,4GHz boost clock
Linmoum
2022-11-04, 02:14:14
Frag mal AMD und deren Behauptung, dass Bulldozer 8 Kerne hat. Das Klageverfahren deswegen war erst 2019 nach Einigung beendet worden. ;)
Edit:
Some people asked during the stream so I asked AIBs and they are saying about only 3% OC over the XTX with preliminary drivers (that have been used mostly for thermal testing, to be fair). If true then it looks like the XTX is already close to maxed out
https://mobile.twitter.com/coreteks/status/1588329053530251265
vinacis_vivids
2022-11-04, 02:25:28
Das ist die RX 7900 XTX Leistung bei CP2077 / Watch Dogs Legion: Mit etwas OC-Tuning wird die 4090 geknackt. :eek:
N31XTX wird ein absoluter Verkaufsschlager, geile Alientechnik.
https://abload.de/img/7900xtxcyberpunk-207723fwd.png
https://abload.de/img/7900xtxwatch-dogs-legqkdy1.png
Erst langsam dämmert es einem wie geil N31 XTX ist.
Nightspider
2022-11-04, 02:26:25
Der Takt für N31-Effizienz ist bei ~ 2,75-2,875Ghz (2,2-2,3Ghz * 1,25) 300-350W Normalbetrieb.
Der Takt für N31-OC-H²O ist bei ~ 3,25-3,375Ghz (2,6-2,7 * 1,25) 475-525W Kotzgrenze.
;D
Das ist die RX 7900 XTX Leistung bei CP2077 / Watch Dogs Legion: Mit etwas OC-Tuning wird die 4090 geknackt. :eek:
N31XTX wird ein absoluter Verkaufsschlager, geile Alientechnik.
https://abload.de/img/7900xtxcyberpunk-207723fwd.png
https://abload.de/img/7900xtxwatch-dogs-legqkdy1.png
Erst langsam dämmert es einem wie geil N31 XTX ist.Tjo und wie sich wohl einige Frühkäufer der 4090 wohl gerne selbst in den Allerwertesten treten würden. Für die Hälfte des Einstandspreises einer 4090 kriegst die kaum langsamere 7900XTX. Und vor allem, da fackelt nix ab ... ;D
Linmoum
2022-11-04, 02:35:38
Das ist die RX 7900 XTX Leistung bei CP2077 / Watch Dogs Legion: Mit etwas OC-Tuning wird die 4090 geknackt. :eek:
N31XTX wird ein absoluter Verkaufsschlager, geile Alientechnik.
https://abload.de/img/7900xtxcyberpunk-207723fwd.png
https://abload.de/img/7900xtxwatch-dogs-legqkdy1.png
Erst langsam dämmert es einem wie geil N31 XTX ist.Watch Dogs läuft deutlich unterdurchschnittlich auf Nvidia.
https://www.computerbase.de/2021-04/watch-dogs-legion-benchmark-treiber-patch/#abschnitt_geforce_rtx_lernt_fliegen
Und Cyberpunk ohne RT ist wie Fußball ohne Ball. ;D
Du lernst es aber auch nie. Nachdem AMD selbst heute deine Hype-Luftschlösser völlig zerstört hat, fängst du jetzt von neuem an. Bei Reviews wird wieder dasselbe passieren und du wirst dir dann sicher wieder was neues suchen... Seufz.
^^ jetzt werden verzweifelt Gründe gegen AMDs preislich attraktivere RDNA3-Produkte gesucht. Also ich bin um diese starke Konkurrenz froh, Nvidia wird die Preise mehr oder weniger anpassen müssen, davon bin ich überzeugt.
Linmoum
2022-11-04, 02:52:04
Nvidia muss gar nichts machen und wird auch nichts tun, dafür ist die Performance von RDNA3 mit RT viel zu desaströs. Muss man so klar sagen, anhand von AMDs eigenen Benchmarks vergrößert sich der Abstand zur Konkurrenz sogar statt sich zu verkleinern.
AMD setzt den Preis nicht so niedrig an, weil sie die Wohlfahrt sind. Sondern weil sie wissen, dass sie realistisch nicht (viel) mehr ob ihrer Defizite verlangen können.
vinacis_vivids
2022-11-04, 02:53:20
Hier der AVG von TPU: 7900XTX rockt die Bude. Die wird wochenlang ausverkauft sein :eek:
Mit bissel OC Fähigkeiten ist das ein Game-Changer. :eek::eek::eek:
https://abload.de/img/rx7900xtxaverage-fps_9rfbb.png
DrFreaK666
2022-11-04, 02:53:47
"The idea that the chip is going to go down in price is a story of the past." — Jensen Huang
Nvidia muss gar nichts machen und wird auch nichts tun, dafür ist die Performance von RDNA3 mit RT viel zu desaströs...
Du mit deinen Übertreibungen :rolleyes:
Vor der 4090 war die RT-Performance der 3090 noch super. Ist sie jetzt auch desaströs?
Geldmann3
2022-11-04, 02:54:49
Die Preise sind ja mal Hammer, nur die RT-Performance enttäuscht mich etwas.
Scheint so, als wäre die 7900 XTX rund 15% langsamer als eine RTX 4090 in Rasterizing und rund 40% langsamer in Raytracing, dafür allerdings auch rund 40% günstiger.
Im Prinzip also ähnlich bepreist wie Lovelace, wenn man nur die Raytracing-Performance betrachtet, die immer wichtiger wird.
Nightspider
2022-11-04, 02:58:33
Ziemlich entäuschend die ganze Vorstellung.
AV1 enoding in 8K und Displayport 2.1 sind super aber die Leistung fehlt.
Die Taktraten entäuschen auch.
Wo hat AMD die ganzen Transistoren verbraten, wenn am Ende nur 50-70% mehr Leistung herauskommt?
Fühlt sich fast so an, als hätte AMD keine Zeit gehabt neben der Zen und CDNA Weiterentwicklung eine highend Gaming-GPU zu entwickeln.
DrFreaK666
2022-11-04, 03:09:59
Was haben wir daraus gelernt: Glaub nicht jeden Mist, den jemand im Internet postet.
Greymon55 hat den "2x Performance..."-Tweet inzwischen gelöscht :ugly:
Nvidia muss gar nichts machen und wird auch nichts tun, dafür ist die Performance von RDNA3 mit RT viel zu desaströs. Muss man so klar sagen, anhand von AMDs eigenen Benchmarks vergrößert sich der Abstand zur Konkurrenz sogar statt sich zu verkleinern.
AMD setzt den Preis nicht so niedrig an, weil sie die Wohlfahrt sind. Sondern weil sie wissen, dass sie realistisch nicht (viel) mehr ob ihrer Defizite verlangen können.
Warten wir's ab, RT beim allgemeinen Spieler steht indes nicht so hoch im Kurs, wie hier bei manchem Forenmember. RDNA3 liefert ausreichende FPS mit RT, keine Weltrekorde zwar, aber mal ehrlich, wer braucht die schon. Das wird alleinig über den Preis geregelt, zumindest bei denen, die noch über ausreichenden Verstand verfügen und denen das Gaming nicht der wichtigste Lebensinhalt darstellt.
DrFreaK666
2022-11-04, 03:54:15
Der "allgemeine Spieler" gibt keine 1000+€ für eine Grafikkarte aus
w0mbat
2022-11-04, 04:03:25
Wo hat AMD die ganzen Transistoren verbraten, wenn am Ende nur 50-70% mehr Leistung herauskommt?
Das fragt man sich bei allen aktuellen GPUs.
AD102 hat 2,7x so viele Transistoren wie GA102, ist aber nur 60-70% schneller.
Navi31 hat fast 2,2x so viele Transistoren wie Navi21, ist aber nur 50-70% schneller.
Wobei die 4090 fast 11% beschnitten ist, am Ende wirds auf ähnliche Werte rauskommen.
DrFreaK666
2022-11-04, 04:05:28
ASUS reveals Radeon RX 7900 TUF series with triple 8-pin power connectors
https://videocardz.com/newz/asus-reveals-radeon-rx-7900-tuf-series-with-triple-8-pin-power-connectors
BlacKi
2022-11-04, 04:19:21
Ich weiß nicht, ob N32 nicht der Geheimtipp dieser Gen werden könnte. Mich macht der hohe Preis der 7900XT sehr stutzig.
oder 5nm ist scheiße teuer, sodass man wie bei nv nichts zu verschenken hat.
mir scheints so, falls man die xt für 799 anbieten würde, die karten dauerhaft ausverkauft wären und nur die scalper/shops aufgrund des hohen straßenpreises daran verdienen würden. das will man wie bei nv diesmal abstellen.
das problem hatten 6800(xt) und die 3080 für die hersteller.
Nightspider
2022-11-04, 04:28:43
Waren die Gerüchte mit stacked IF$ jetzt eigentlich auch Fake oder kommt da noch was?
Wenn AMD den GCD knapp 400mm² groß designed hätte, und den Takt+Spannung vielleicht um 5-7% gesenkt hätten, hätten sie 20% mehr Leistung und viel näher an der 4090 landen können.
Man muss halt auch sehen das die 4090, welcher sich die N31 ergeben muss, schon einen relativ stark kastrierten Chip hat.
Ich kapiers nicht, man hat nun wirklich ALLE Möglichkeiten in der Hand, einen echten Hit zu landen und man verkackt das dermaßen, nur weil man ein paar Buchhalter mitbestimmen lässt und Dollarzeichen in den Augen hat.
Geht mir genuaso.
Nach der Ankündigung der extrem komplexen Instinct MI200 vor einem Jahr habe ich mir da jetzt deutlich mehr erhofft.
Gegen MI200 ist N31 langweilig³.
N31XTX wird ein absoluter Verkaufsschlager, geile Alientechnik.
Von deinem Planeten aus muss das wohl so wirken. :D
Kommst du dir nicht bisschen blöd vor sowas zu schreiben? Ist dir das nicht peinlich? :confused:
DrFreaK666
2022-11-04, 04:54:07
Grobe Hochrechnungen von Hardwarecanucks, die natürlich nicht stimmen müssen (z.B. wegen anderen Benchmarkszenen)
https://abload.de/img/screenshot_20221104_0vncxf.jpg (https://abload.de/image.php?img=screenshot_20221104_0vncxf.jpg)
https://abload.de/img/screenshot_20221104_0d1dfp.jpg (https://abload.de/image.php?img=screenshot_20221104_0d1dfp.jpg)
https://abload.de/img/screenshot_20221104_0e0dln.jpg (https://abload.de/image.php?img=screenshot_20221104_0e0dln.jpg)
https://abload.de/img/screenshot_20221104_0r5i4k.jpg (https://abload.de/image.php?img=screenshot_20221104_0r5i4k.jpg)
https://abload.de/img/screenshot_20221104_0bodt6.jpg (https://abload.de/image.php?img=screenshot_20221104_0bodt6.jpg)
https://abload.de/img/screenshot_20221104_08eeo4.jpg (https://abload.de/image.php?img=screenshot_20221104_08eeo4.jpg)
Quelle: https://youtu.be/HFR0pyXtVrU
vinacis_vivids
2022-11-04, 04:58:07
@Nightspider
An den Verkaufszahlen von 7900XTX und 7900XT wirst du es sehen. Das sind hervorragende Karten. Die gehen weg wie warme Semmeln.
Zumal mit 2,3Ghz-2,5Ghz Takt sehr viel Luft nach oben ist mit OC.
Insgesamt sind die 7900XTX 24GB und 7900XT 20GB sehr ausgeglichen und für high-fps Gaming perfekt.
Ich bin mehr als begeistert und freue mich auf Customs OC Modelle wo ich +30% Leistungsgewinn rausholen kann. Im Raster ist die 7900XT mit ner Feintuning auf Augenhöhe der 4090FE, die 7900XTX mit ordentlichen OC dann schneller als 4090FE.
Auch die AI-Cores, Display-Engine, FSR 3.0 ist alles sehr geil. Bin positiv überrascht und finde den tradoff super, also Verzicht auf hohen Takt und dafür die Features bei geiler Leistung und fairer Preis.
Vor allem freue ich mich auf auf 4K@240hz, das ist der absolute Hammer. 8K@120hz ist auch geil mit HDR-10bit oder auch 12bit Farben.
Das ist für mich ein rundum gelungenes Paket. Erinnert sehr an Zen1. Wird auf jeden Fall gekauft 😉
Nightspider
2022-11-04, 05:13:17
Ich bin mehr als begeistert
Das ist für mich ein rundum gelungenes Paket. Erinnert sehr an Zen1. Wird auf jeden Fall gekauft
AMD hätte auch einen Blecheimer mit geschredderten Miningkarten präsentieren können und du wärst trotzdem noch begeistert gewesen oder?
und freue mich auf Customs OC Modelle wo ich +30% Leistungsgewinn rausholen kann
Wenn die Referenzkarten bei 2,5Ghz schon bis 350 Watt saufen kannst du glücklich sein, wenn du durch OC 10% herausholen kannst.
Vor allem freue ich mich auf auf 4K@240hz, das ist der absolute Hammer. 8K@120hz ist auch geil mit HDR-10bit oder auch 12bit Farben.
Hast du schon mal 10 Bit auf einem Monitor gesehen?
Oder Games mit 120Hz auf 4K gezockt?
Ich glaub nämlich das du keien Ahnung hast.
Selbst auf einem arschteuren QD-OLED Monitor siehst du kaum einen Unterschied von 8 zu 10 Bit und du fantasierst hier von 12 Bit.
Du hast einfach keine Ahnung.
Genauso ist der Unterschied zwischen 240Hz und 144 Hz minimal. Das spüren vielleicht professionale E-Sportler aber ich gehe mal davon aus, das du gar nichts davon merken wirst.
//
Warum gehe ich überhaupt auf diesen Troll ein?....
Edgecrusher86
2022-11-04, 05:23:52
ASUS reveals Radeon RX 7900 TUF series with triple 8-pin power connectors
https://videocardz.com/newz/asus-reveals-radeon-rx-7900-tuf-series-with-triple-8-pin-power-connectors
Die Temps werden sicher Bombe sein mit dem 4090 Kühler. Ich tippe auf 60 Grad maximal (bei 1000RPM) - wenn überhaupt! Das PCB wird sicher sehr aufgeräumt sein bei 34,5cm. :biggrin:
Generell überrascht es mich doch, dass man so auf DP 2.1 herum reitet. Schön und gut, aber das hätte ich als Hersteller erst gemacht, wenn ich 8K60 nativ (ohne RT) im Schnitt hin bekomme und somit dreistellig mit FSR/DLSS mit hohen Qualitätsstufen läge.
Auch für 4K240 ist man viel zu langsam - es sei denn mit sehr unschönen Low Quality Settings und FSR Performance.
Preislich wird es wohl zwischen 1300-1700€ werden für die 7900XTX Ref und Customs.
Ja, also ich hatte BF damals im MP mal mit 144Hz getestet (war ja kein Problem Dank 2-way SLI), bin dann aber wieder zurück auf 120Hz, weil es mir langte und ich keinen wirklichen Unterschied mehr feststellen konnte. ^^
Leonidas
2022-11-04, 06:11:01
Nur mal so, die zahlen sind alle mit FSR, da haben sich die AMDler ja bei der Nvidia Präsentation beschwert : )
Laut RX-822 sind die Raster-/RT-Tests der ersten Performance-Präsentations-Slide ohne FSR.
https://www.3dcenter.org/abbildung/amd-radeon-rx-7900-xtx-offizielle-performance-1
Laut RX-832 sind die RT-Tests der zweiten Performance-Präsentations-Slide mit FSR "Performance Mode", ergo kein FSR3. Ist nicht perfekt, aber hier sollte es keine große Differenz geben. Kann im schlimmsten Fall sogar zuungunsten von RX7000 gehen, Upscaler verwischen teilweise die Performance-Unterschiede.
https://www.3dcenter.org/abbildung/amd-radeon-rx-7900-xtx-offizielle-performance-2
dildo4u
2022-11-04, 06:16:18
Das fragt man sich bei allen aktuellen GPUs.
AD102 hat 2,7x so viele Transistoren wie GA102, ist aber nur 60-70% schneller.
Navi31 hat fast 2,2x so viele Transistoren wie Navi21, ist aber nur 50-70% schneller.
Wobei die 4090 fast 11% beschnitten ist, am Ende wirds auf ähnliche Werte rauskommen.
Die Karten haben KI Einheiten möglich das die wie bei Nvidia für das Gen 3 Upsampling genutzt werden.
Sardaukar.nsn
2022-11-04, 06:22:39
@Edgecrusher86: Die ASUS TUF sieht 1-zu-1 aus wie meine 4090 TUF. Vielleicht hat man das ganze Aluminium Außengehäuse inkl. Lüfter übernommen um Kosten zu sparen. Nur den Kühler darunter an die RX 7000 angepasst.
Für die Wasser Freunde vielleicht interessant. Alphacool sucht noch Karten zum vermessen. Also wer früh dran ist mit seiner RX 7000 kann hier vielleicht einen Wasserblock for free bekommen: https://www.alphacool.com/shopware.php?sViewport=ticket&sFid=141
EKWB ist da schon etwas weiter...
https://cdn.videocardz.com/1/2022/11/EK-Quantum-Vector2-RX-7900-XTX-D-RGB-PR2.jpg
https://videocardz.com/press-release/ek-announces-first-water-blocks-for-radeon-rx-7900-xtx
robbitop
2022-11-04, 06:24:48
IMO schwach bei der Menge an Transistoranstieg. Ich hätte an AMDs Stelle N31 nicht 7900 genannt. Wenn die höchste SKU schlecht dasteht sollte man dessen Namen nicht verbrennen. Dann wäre es besser eine 7800 geworden weil sie sich maximal mit der 4080 anlegen kann.
Bei Naffziger hat man gemerkt dass er stark enttäuscht gewesen ist. Wenn man die Zahlen nur mit dem eigenen Vorgängerprodukt vergleichen kann und nicht mit dem neusten Wettbewerbsprodukt ist was falsch gelaufen.
Ich kann überhaupt gar nicht nachvollziehen, wie man Ende 2022 zumindest in der relativen Performance praktisch keinen Fortschritt eingeplant hat. Dann macht doch für die Top SKU das GCD größer. So ist es IMO gerade mal eine 7800 und es gibt keine 7900. Unschlau von AMD die 900er Bezeichnung zu verbrennen. Wenn man mit RDNA4 zurück kommen will braucht man jedenfalls ein neues Branding. Mal wieder. :-/
robbitop
2022-11-04, 06:27:59
Aber da sehen wir dass Nanite deutlich mehr bringt als RT zum jetzigen Zeitpunkt. Um das mal umzusetzen vergehen noch locker 10 Jahre..... Da die Leistung schlichtweg nicht da ist und auch nicht so schnell da sein wird.
Äpfel bringen mehr als Birnen. Das sind zwei total verschiedene und unabhängige Dinge. Nanite ist Geometrie. Raytracing hat vor allem mit Licht zu tun (Reflexion, Schatten, Beleuchtung). Beides sind sinnvolle Innovationen.
robbitop
2022-11-04, 06:29:51
Was fürn bekackter Tradeoff. Da hat aber die BWL-Abteilung erheblichen Anteil an dieser Katastrophe würd ich sagen. Man hätte wirklich bei den 300mm² und dem "Packdichte ist unsere Designphilosophie" hellhörig werden sollen. Das Teil sollte vor allem eins werden: Billig!
So konditioniert sind wir schon dass 1000 USD netto „billig“ sind.
robbitop
2022-11-04, 06:32:15
Ich glaube UE5 hat uns das gegenteil gelehrt. Polygonen Polygonen Polygonen für realistische Oberflächen strukturen! Nur wenn du eine schöne Struktur hast kann diese schöne Schatten werfen.
UE5 nutzt mit Lumen genauso RT. So ein Unsinn. Geometrie und Beleuchtung sind zwei völlig verschiedene Paar Schuhe und beides profitiert unabhängig voneinander von Innovation. Nanite UND Lumen
Niall
2022-11-04, 06:35:38
So konditioniert sind wir schon dass 1000 USD netto „billig“ sind.
This.
Mortalvision
2022-11-04, 06:39:10
Ich denke nicht, dass die 900er Bezeichnung so derb daneben ist. Es ist natürlich eine Anlehnung an nvidia mit ihrer 4090, und damit das Top-Modell ihrer Klasse.
Ganz allgemein scheint bei AMD und nvidia zu gelten, dass die Rohleistung nicht im erhofften Ausmaß auf der Straße ankommt. Treiberprobleme? Vermute ich weniger. Architekturprobleme? Mag sein, dass die Chiplets 5-10% kosten statt dem Mega-Die von nvidia, aber machts Kraut nicht fett. Speicherbegrenzung? Nun ja, 800 GB/sec hatten wir ja schon mal mit der VII mehr, nämlich 1 TB/sec dank HBM2. Von HBM sieht man garnix mehr im Consumer Markt. Würde es vermutlich auch nicht richten. Zudem sollte auf kleinerer Strukturbreite die Signalzeit zwischen den Einheiten doch abnehmen, kann es ja irgendwo auch nicht sein. Letzten Endes kann es nur so sein, dass sich im Verhältnis der Subeinheiten (Shader, Compute, etc.) sowie deren Anbindung untereinander irgendwas nicht optimal bewegt, ebenso bei nvidia (wo es nicht ganz so derb auffällt).
@price rants: Nein, und nochmals nein! Die Karten werden teurer, weil die Entwicklungskosten bei AMD und nvidia und deren Auftragsfertigern durch die Decke schießen. Die aktuelle 5nm Generation hat viele Milliarden € / USD gekostet, nur damit man die Produktionslinien (auch die der Zulieferer) überhaupt erstmal aufsetzen konnte. Bei theoretischen 1 nm sind wir dann bei einem Vorabinvestment von 100 Milliarden Dollar. Das ist - relativ gesehen - der Preis der amerikanischen Mondlandemissionen 1969-1974..., wohlgemerkt ohne dass eine Karte überhaupt gebaut sein wird.
So konditioniert sind wir schon dass 1000 USD netto „billig“ sind.
Ich hab doch nicht den Preis gemeint
X.Perry_Mental
2022-11-04, 06:47:27
IMO schwach bei der Menge an Transistoranstieg. Ich hätte an AMDs Stelle N31 nicht 7900 genannt./
Ich gehe davon aus, dass das Ding nur wegen dem Preis 7900 heißt. Bei einer 7800 für 1000$ wäre das Gejammer zu groß.
genervt
2022-11-04, 07:07:58
Ok, näher dran an der 4090 wäre wünschenswert gewesen. Dafür bleibt der Preis bei 999$.
Damit ist die 4080 die Konkurrenz und die zersägt die 7900XTX doch klar oder?
Freestaler
2022-11-04, 07:08:37
Noch kurz für mich zum einordnen:
RZ. ca. 50% mehr Frames pro Dollar als 4090. RT ungefähr 4090 pro Dollar. RZ in der Region von 4090, RT weit weg -40%. RT aber noch immer ungefähr so schnell wie die zweit schnellste nv Graka im JahresEnde 2022, der 4080 16GB.
Wenn ein Game also wegen RT nicht läuft, setzt das Teil zwingend eine 4090 vorraus. Ich erwarte nicht allzuviele Games die so sein werden. RT Power der 7900 wird reichen um RT Effekte auf Hoch zu spielen. Der RT Regler, von Ultra auf Hoch kriege ich hin. ;-).
Tut also nicht so, als ob wegen der RT Perf. die Karte nicht RT Tauglich ist. Echt lächerlich. In eueren Augen wäre ja selbst 4080 16gb gaminguntauglich.
dildo4u
2022-11-04, 07:09:48
Ok, näher dran an der 4090 wäre wünschenswert gewesen. Dafür bleibt der Preis bei 999$.
Damit ist die 4080 die Konkurrenz und die zersägt die 7900XTX doch klar oder?
Raster ja Raytracing nein kann also jeder so kaufen nach was ihm wichtig ist wie bei RDNA2 vs Ampere.
Das RT Plus scheint nicht höher als die allgemeine Leistung.
https://abload.de/img/30-1080.c30708a3wzdpo.png
Janos
2022-11-04, 07:10:33
So konditioniert sind wir schon dass 1000 USD netto „billig“ sind.
Wenn ich in meinem Bekanntenkreis erzähle, dass ich mir eine 1000€ Grafikkarte gekauft habe, halten die mich für bescheuert :rolleyes:
][immy
2022-11-04, 07:20:44
IMO schwach bei der Menge an Transistoranstieg. Ich hätte an AMDs Stelle N31 nicht 7900 genannt. Wenn die höchste SKU schlecht dasteht sollte man dessen Namen nicht verbrennen. Dann wäre es besser eine 7800 geworden weil sie sich maximal mit der 4080 anlegen kann.
Bei Naffziger hat man gemerkt dass er stark enttäuscht gewesen ist. Wenn man die Zahlen nur mit dem eigenen Vorgängerprodukt vergleichen kann und nicht mit dem neusten Wettbewerbsprodukt ist was falsch gelaufen.
Ich kann überhaupt gar nicht nachvollziehen, wie man Ende 2022 zumindest in der relativen Performance praktisch keinen Fortschritt eingeplant hat. Dann macht doch für die Top SKU das GCD größer. So ist es IMO gerade mal eine 7800 und es gibt keine 7900. Unschlau von AMD die 900er Bezeichnung zu verbrennen. Wenn man mit RDNA4 zurück kommen will braucht man jedenfalls ein neues Branding. Mal wieder. :-/
Naja, abwarten. Die letzte high end Karte könnte sich auch mit der von Nvidia messen. Wobei es immer vom Spiel ab hing.
Beim Ray tracing erwarte ich keine Wunder, dies will AMD wohl einfach mit der Zeit und Hardware "erschlagen" und ganz ehrlich, wenn die Spiele es wirklich nutzen sie es so oder so schlecht aus mit hohen frameraten.
Bei den Preisen kann man aber nur hoffen das diese auch so am Markt ankommen.
$1000 für ultra high end ist letzten Endes "Normalpreis". Irgendwo muss die Inflation dort auch Mal durch kommen. Das gute an dem Preis ist auf jeden Fall das die kleineren Karten deutlich darunter liegen dürften. Aber hier muss man halt abwarten was der Markt draus macht.
Nvidia ist halt mit dem gigantischen Chip gekommen und verlangt dafür auch einen gigantischen Aufschlag.
Raster ja Raytracing nein kann also jeder so kaufen nach was ihm wichtig ist wie bei RDNA2 vs Ampere.
Das RT Plus scheint nicht höher als die allgemeine Leistung.
https://abload.de/img/30-1080.c30708a3wzdpo.png
oh, das sind ja schon werte mit FSR...
dildo4u
2022-11-04, 07:23:03
Die Karten werden doch auch hier wegen dem Euro absurd teuer 1200 bis 1300€?Mal sehen in 12 Monaten im Abverkauf wie eine 6900XT könnte es sich lohnen.
[immy;13158102']
oh, das sind ja schon werte mit FSR...
Klar die wollen nicht 20 vs 40fps in CP77 zeigen.
Thunderburne
2022-11-04, 07:28:03
Die 7900XT Ref wird wohl um die 1049 -1100 € starten und die die XTX bei um die 1249 -1300€.
Die etwas besseren Custom dann bis 1300 bei der XT und die XTX dann bis an die 1500€.
Wen Verfügbarkeit schlecht ist über all noch mal bis 200€ drauf auf das jeweilige Modell!
Das wird doch nix vernünftig was zu kaufen sein vor Weinachten werden die Boots alles weg schnappen!
wolik
2022-11-04, 07:32:23
Ich fand die Präsentation des 7900XTX sehr ansprechend.
Leider scheinen mir die 1000 Dollar kein gutes P/L zu sein.
Hat jemand eine Idee (Igor?), warum der Takt so niedrig ist?
Damit der Kühler/Stromverbrauch kleiner bleibt?
Korvaun
2022-11-04, 07:34:44
Prinzipiell sind Namen uninteressant für informierte und selbstbewusste Käufer. Mir völlig egal wie das Teil heißt solange Preis/Leistung stimmen. Leider ist heutzutage nur noch das Sensationellste/Größte/Beste ne Meldung wert und das Ego der Masse ist auf Statussymbole getrimmt. Wer nicht den TopDog von was auch immer hat ist nen Loser...
Egal, die Karten werden sich trotzdem gut verkaufen solange kein Preiswucher einsetzt durch geringe verfügbare Verkaufsmengen...
Was die Dinger wirklich leisten können werden wir bei den Customs mit 3x8Pin sehen, wird ja nicht umsonst verbaut sein.
marc-05
2022-11-04, 07:41:08
Ray Tracing kann man das essen ? Wird vieleicht 2-3 Jahren intressant . Was zockt ihr den an aktuellen Ray Tracing Games ? Und wie lang zockt ihr solche Games .
Mich intressieren bezahlbare Grakas und vielleicht noch was an Dose genuckelt wird ... Raytracing 0
user77
2022-11-04, 07:59:59
Hat jemand eine Idee (Igor?), warum der Takt so niedrig ist?
Damit der Kühler/Stromverbrauch kleiner bleibt?
Evtl der Sweetspot? Damit man bei 5% Mehrleistung nicht 20% mehr verbrauch hat?
Adam D.
2022-11-04, 08:03:32
Die Reaktionen hier lassen mich schon etwas ernüchtert zurück. Das trifft es nicht mal: Ich hab echt das Gefühl, die Leute hier haben jeden Kontakt zur Realität verloren.
N31 landet exakt genau da, wie ich es erwartet habe. Ich verstehe einfach nicht, wie man sich von diesen völlig belanglosen Rohperformance-Daten so blenden lassen kann, wenn man doch schon bei NV gesehen hat, wie eingeschränkt das Aussagen über die echte Performance zulässt.
Die Lücke zwischen 4080 und 4090 ist riesig und genau da platziert AMD die Karten - und das noch zu einem halbwegs akzeptablen Preis und Betriebspunkt. Wie man sich darüber beschweren kann, erschließt sich mir überhaupt nicht. Wer ein Heizkraftwerk zum Preis von nem Gebrauchtwagen in seinen Rechner stecken will, kann das doch mit der 4090 machen. Was juckt das den Rest der Menschheit? :rolleyes:
Der IMO einzig gerechtfertige Kritikpunkt Stand jetzt ist die RT-Performance, die deutlich hinter den Erwartungen zurückbleibt. Das verstehe ich ehrlich gesagt auch nicht, aber da muss ich erstmal genaue Tests abwarten.
MSABK
2022-11-04, 08:04:15
Ich bin mal auf die Verfügbarkeit gespannt, die Situation um N5 und N6 sollte nicht so angespannt sein.
Zusätzlich hoffe ich, dass RDNA2 so 50-100€ im Preis fällt. So hat Amd ein gutes Portfolio mit RDNA2 und 3 in jedem Preisbereich.
BigKid
2022-11-04, 08:05:42
Mal ne ernst gemeinte Frage und ich hoffe das auch die eingefleischten Fans ne objektive Antwort hinbekommen: Wenn man den Fokus mal auf Gaming Laptops legt - wer steht da am Ende bei Perf/Watt besser da? In dem segment ist das mit das wichtigste finde ich…
Der nächste Lt 2023 dann eher mit ner Readon 7xxx oder ner RTX 4xxx ?
Und bitte nicht einfach nur mit “die 4090 braucht über 500 Watt kommen” da macht man es sich zu einfach wenn man schauen will was in LTs gehen wird…
Bei der (jetzt) letzten Gen schien mir NV die Nase noch leicht vorne gehabt zu haben (und ich hatte beides da und hätte gerne AMD Only genommen - hab dann doch die Ryzen/RTX Combi genommen - war einfach noch nen ticken runder).
dildo4u
2022-11-04, 08:08:01
Mal ne ernst gemeinte Frage und ich hoffe das auch die eingefleischten Fans ne objektive Antwort hinbekommen: Wenn man den Fokus mal auf Gaming Laptops legt - wer steht da am Ende bei Perf/Watt besser da? In dem segment ist das mit das wichtigste finde ich…
Der nächste Lt 2023 dann eher mit ner Readon 7xxx oder ner RTX 4xxx ?
Die Gerüchte sind das Nvidia 4nm und AMD 6nm im Notebook nutzt weil 5nm für Midrange Dies noch zu teuer ist.(Aus AMD Sicht)
Daher würde ich auf Nvidia wetten.
Rolsch
2022-11-04, 08:16:17
Ja alles wie erwartet. 50% Mehrleistung zur letzten Generation sind völlig in Ordnung. Mal schauen wo die Straßenpreise hinwandern. Ich vermute die 79xx und auch 4080 Karten werden bald deutlich billiger zu haben sein.
Freestaler
2022-11-04, 08:18:28
50% mehr bei gleichem Preis umd ungefähr gleichem Powerlimts ;-).
Relic
2022-11-04, 08:25:42
Die Gerüchte sind das Nvidia 4nm und AMD 6nm im Notebook nutzt weil 5nm für Midrange Dies noch zu teuer ist.(Aus AMD Sicht)
Daher würde ich auf Nvidia wetten.
Nvidias 4N ist immernoch ein leicht angepasster TSMC 5nm Process und hat nichts mit 4nm zu tun... reines Marketing...
gruntzmaker
2022-11-04, 08:26:30
Die Reaktionen hier lassen mich schon etwas ernüchtert zurück. Das trifft es nicht mal: Ich hab echt das Gefühl, die Leute hier haben jeden Kontakt zur Realität verloren.
N31 landet exakt genau da, wie ich es erwartet habe. Ich verstehe einfach nicht, wie man sich von diesen völlig belanglosen Rohperformance-Daten so blenden lassen kann, wenn man doch schon bei NV gesehen hat, wie eingeschränkt das Aussagen über die echte Performance zulässt.
Die Lücke zwischen 4080 und 4090 ist riesig und genau da platziert AMD die Karten - und das noch zu einem halbwegs akzeptablen Preis und Betriebspunkt. Wie man sich darüber beschweren kann, erschließt sich mir überhaupt nicht. Wer ein Heizkraftwerk zum Preis von nem Gebrauchtwagen in seinen Rechner stecken will, kann das doch mit der 4090 machen. Was juckt das den Rest der Menschheit? :rolleyes:
Der IMO einzig gerechtfertige Kritikpunkt Stand jetzt ist die RT-Performance, die deutlich hinter den Erwartungen zurückbleibt. Das verstehe ich ehrlich gesagt auch nicht, aber da muss ich erstmal genaue Tests abwarten.
Es wäre zumindest schön gewesen, wenn man die Ampere in Sachen RT schlägt. Ich denke, hier zieht man immerhin knapp gleich. Man muss aber auch bedenken, dass die RX7000er Serie für den Preispunkt einfach ein durchweg rundes Produkt sein können. Mit etwas OC Spielraum zudem.
Das Produkt passt in die heutige Zeit sowas von perfekt rein. "Gürtel enger und vernünftiger" eben.
Offenbar wollte AMD für einen bestimmten Preis das bestmögliche Produkt bauen. Vernunft löst aber kaum Emotionen aus, das kann man wunderbar hier beobachten.
Zumindest keinen Enthusiasmus! ;).
dargo
2022-11-04, 08:27:54
N32 dürfte aber für AMD ein großes Problem durch den schon zwingend niedrigen Preis bei N31 sein.
200mm² @N5 + 148mm² @N6 sollen jetzt wo genau ein Problem sein?
unl34shed
2022-11-04, 08:30:05
Die Gerüchte sind das Nvidia 4nm und AMD 6nm im Notebook nutzt weil 5nm für Midrange Dies noch zu teuer ist.(Aus AMD Sicht)
Daher würde ich auf Nvidia wetten.
Nvidia nutzt ebenfalls 5nm, die nennen den Prozess nur 4N weil er eben ein "for Nvidia" angepasster 5nm Prozess ist.
https://www.techgoing.com/nvidia-clarifies-the-tsmc-4n-used-by-the-rtx-40-gpu-is-a-5nm-process/?amp=1
dildo4u
2022-11-04, 08:38:41
Das war nicht der Punkt sondern das AMD nicht die beste Fertigung für ihre Notebook Modelle nutzen wird also Nachteile hat.
Einfach lesen was gefragt wurde.
Cubitus
2022-11-04, 08:38:51
Der Preis ist von AMD gut gewählt und bringen die kommende kleine 4080 (4070) definitiv in die Bredouille, und zerhageln Jensens Preisvorstellungen
sogar die kommende 4080 GTX für die Nvidia 1600 Euro möchte, bietet die XTX für den Preis das bessere Paket, wenn Rasterizing und 4K bevorzugt werden.
Wer jetzt noch mit 1440p zockt, der kann auch problemlos RT zuschalten und hat ebenfalls Spaß mit der Karte.
Also ich sage das zwar als Nvidianer, aber soo schlecht ist die neue AMD-Genration auch nicht.
Halt kompromissbelastet, wer alle neusten Features (RT) in höheren Auflösungen nutzen möchte.
Aber das war mir schon von vornherein klar.
basix
2022-11-04, 08:39:46
IMO schwach bei der Menge an Transistoranstieg.
Anhand der N21 Transistor-Density hätte das GCD bei +165% Dichte ~136 MioTr/mm2 ;)
RZ Performance finde ich aber nicht als zu schwach, auch pro Transistor nicht. Und die zusätzlichen Verbesserungen wie Display/Media Engines sowie die AI Accelerators kommen noch dazu. Von dem her ist das OK. Wie bereits von anderen angetönt, einzig die relative RT-Performance ist deutlich hinter den Erwartungen zurückgeblieben. Jetzt geht AMD hier halt über den Preis und bei P/L bietet man in RT in etwa das, was eine 4090 bietet. Von dem her also auch OK. Schade ist es bei RT nicht mehr geworden und ich glaube, jeder von uns hier ist diesbezüglich etwas überrascht.
Exxtreme
2022-11-04, 08:40:51
Offenbar wollte AMD für einen bestimmten Preis das bestmögliche Produkt bauen. Vernunft löst aber kaum Emotionen aus, das kann man wunderbar hier beobachten.
Was ja nicht falsch ist. Radeon 7000 XTX ist in den meisten Spielen eine bessere/schnellere RTX 4080 16 GB für einen viel geringeren Preis. Nur die RT-Schwäche ist weiterhin da. Andererseits ist diese Schwäche auch relativ. Denn auftreten wird sie wohl in irgendwelchen Demos von Nvidia oder bei Spielen, die Nvidia unter der Hand sponsort. Aber das werden auch nichteinmal eine Handvoll sein. In so Dingen wie Schattenberechnung oder Beleuchtung sind auch die Radeons ziemlich schnell. Nur sobald es in Richtung Reflexionen geht kacken sie richtig ab.
dargo
2022-11-04, 08:41:48
$899 und $999 sind ~1099€ und ~1249€ nach wechselkurs und steuer.
Würde ich eigentlich auch so sehen. Allerdings ist das momentan schwer abzuschätzen. Ein 5800X3D hat aktuell eine UVP von 329$ und kostet hier ab 364€ in DE. Der Unterschied ist nur der, bei den AM4 CPUs ist der Markt ziemlich gesättigt, bei neuen Grafikkarten eher nicht. Insofern dürften die Straßenpreise dann also höher als +11% ausfallen. Was aber noch mehr den Preis nach oben imho treiben wird sind die Customs. Die erwarte ich bei +100-200$ vs. Referenz.
Cubitus
2022-11-04, 08:43:47
Was ja nicht falsch ist. Radeon 7000 XTX ist in den meisten Spielen eine bessere/schnellere RTX 4080 16 GB für einen viel geringeren Preis. Nur die RT-Schwäche ist weiterhin da. Andererseits ist diese Schwäche auch relativ. Denn auftreten wird sie wohl in irgendwelchen Demos von Nvidia oder bei Spielen, die Nvidia unter der Hand sponsort. Aber das werden auch nichteinmal eine Handvoll sein. In so Dingen wie Schattenberechnung oder Beleuchtung sind auch die Radeons ziemlich schnell. Nur sobald es in Richtung Reflexionen geht kacken sie richtig ab.
Reflexionen sind nett, aber die RT-Beleuchtung halte ich für essenzieller und immersiver. Dying Light 2 sieht mit statischer Beleuchtung einfach schrecklich aus. Das Spiel lebt von dunklen Räumen und schummrigen Arealen ohne RT-Beleuchtung ist das fast ein anderes Spiel.
Das werden die neuen AMD-Karten schon auch können, wie gesagt unter 4K sehe ich da bei AMD auch weniger das Problem.
Rasterizing Perfomance ist da, nutze ich 1440p als Auflösung bzw. 3K (was ich aktuell ja tue) Wäre die AMD-Karte durchaus auch interessant.
prinz_valium_2
2022-11-04, 08:44:24
Zumal mit 2,3Ghz-2,5Ghz Takt sehr viel Luft nach oben ist mit OC.
Insgesamt sind die 7900XTX 24GB und 7900XT 20GB sehr ausgeglichen und für high-fps Gaming perfekt.
Das muss sich erst noch zeigen.
Wenn der Takt nur wegen der Effizienz so niedrig angesetzt ist, kann das durchaus möglich sein.
Aber vllt gibt es ja negative andere Gründe.
Wäre aber toll, wenn es mal wieder ein OC Monster wie damals Pascal gab.
Dann wäre die Karte auf jeden Fall ein instand Kauf. So bin ich noch unschlüssig. Bei ADA high end ist ja nicht viel zu machen und der Nutzen steht in keinem Verhältnis. Da ist eher TDP Begrenzen das Sinvolle.
Optimistisch bin ich aber nicht, dass man es schafft die Karte bei 2.8 bis 3GHz in Spielen laufen zu lassen.
Taigatrommel
2022-11-04, 08:46:20
Am ehesten enttäuscht mich die RT Performance, gut es gibt noch keine unabhängigen und genaueren Benchmarks, dennoch zeichnet sich ja kein gutes Bild ab. Inzwischen kommen mehr und mehr RT Titel und in vielen davon ist der visuelle Mehrwert absolut vorhanden, RT wird in den kommenden zwei Jahren sicher weiterhin wachsen. Von daher ist es schade, dass man hier die Leistung nicht noch weiter verbessern konnte.
Ich werde jedenfalls erste Tests abwarten und dann entscheiden, ob ich meine 6900 XT ersetze.
dildo4u
2022-11-04, 08:47:33
Am ehesten enttäuscht mich die RT Performance, gut es gibt noch keine unabhängigen und genaueren Benchmarks, dennoch zeichnet sich ja kein gutes Bild ab. Inzwischen kommen mehr und mehr RT Titel und in vielen davon ist der visuelle Mehrwert absolut vorhanden, RT wird in den kommenden zwei Jahren sicher weiterhin wachsen. Von daher ist es schade, dass man hier die Leistung nicht noch weiter verbessern konnte.
.
Die Preise scheinen schon an die RT Performance angepasst worden zu sein die AIB Preise werden sich mit der 3090 decken.
MSABK
2022-11-04, 08:48:37
Wurde die 4080 eigentlich vorgestellt?
Cubitus
2022-11-04, 08:50:13
Wurde die 4080 eigentlich vorgestellt?
Ne wenn AMD geil drauf wäre, würden Sie Ihre Vorstellung mit genügend Benches einen Tag davor am 15.11 bringen.
Und sagen hier die Perfomance unserer Karte verfügbar ab Dezember. :freak:
Ich denke wirklich nicht das die AMD so schlecht gegen die 4080 abschneiden wird.
Wir haben da den Preis und die Karte an sich, welches in jedes PC-Case passen wird.
Und in Rasterizing wird die AMD gut sein und der 4080 einheizen.
mironicus
2022-11-04, 08:54:03
Hey, die neuen Karten haben sogar wieder einen USB-C Port. Das ist pures Gold wert für VR-Gamer.
dargo
2022-11-04, 09:00:34
Ich kann überhaupt gar nicht nachvollziehen, wie man Ende 2022 zumindest in der relativen Performance praktisch keinen Fortschritt eingeplant hat. Dann macht doch für die Top SKU das GCD größer. So ist es IMO gerade mal eine 7800 und es gibt keine 7900. Unschlau von AMD die 900er Bezeichnung zu verbrennen. Wenn man mit RDNA4 zurück kommen will braucht man jedenfalls ein neues Branding. Mal wieder. :-/
So konditioniert sind wir schon dass 1000 USD netto „billig“ sind.
Finde den Fehler.
Offenbar sieht AMD weit über 999$ keinen nennenswerten Markt im Gamingbereich.
SamLombardo
2022-11-04, 09:02:23
Ich finde sie auch nicht übel. Wurde halt zu sehr gehypt vorher, da kann man auf den ersten Blick nur enttäuscht sein. Wenn man mal genauer hinschaut ist es ein schönes Upgrade. Und bezüglich RT.... 3090 Leistung war bis vor ein paar Wochen noch das Nonplusultra, dass das jetzt von AMD erreicht wird finde ich ordentlich. Zumindest wird RDNA3 Raytracing Entwicklung in Spielen nicht bremsen, ja im Gegenteil. 3090 Leistung ist als quasi kleinster gemeinsamer Nenner ist doch ein schöner Sprung. Nvidias 4090 ist dann halt Luxus obendrauf.
dargo
2022-11-04, 09:05:46
Raster ja Raytracing nein kann also jeder so kaufen nach was ihm wichtig ist wie bei RDNA2 vs Ampere.
Das RT Plus scheint nicht höher als die allgemeine Leistung.
https://abload.de/img/30-1080.c30708a3wzdpo.png
Das RT-Scaling finde ich noch etwas komisch. Sowohl RT in CP77 als auch DL2 hauen sehr stark rein. Und komischerweise legt CP77 bei RT nur 48% zu während DL2 85% zulegt.
robbitop
2022-11-04, 09:07:56
Anhand der N21 Transistor-Density hätte das GCD bei +165% Dichte ~136 MioTr/mm2 ;)
RZ Performance finde ich aber nicht als zu schwach, auch pro Transistor nicht. Und die zusätzlichen Verbesserungen wie Display/Media Engines sowie die AI Accelerators kommen noch dazu. Von dem her ist das OK. Wie bereits von anderen angetönt, einzig die relative RT-Performance ist deutlich hinter den Erwartungen zurückgeblieben. Jetzt geht AMD hier halt über den Preis und bei P/L bietet man in RT in etwa das, was eine 4090 bietet. Von dem her also auch OK. Schade ist es bei RT nicht mehr geworden und ich glaube, jeder von uns hier ist diesbezüglich etwas überrascht.
58 Mrd Transistoren für N31 gegen 26.8 Mrd bei N21. 2,15x Transistoren für 1,5-1,6x Performance und null RT Anstieg. Das ist nicht so dolle. Ja AV1 Encoding und DP2.1 sind nett. Das ist Fixed Function Kram - der wird bei den Transistorzahlen kaum in's Gewicht fallen.
Ich hätte noch eine größere SKU rausgebracht und geschaut, dass ich RT Hardware verbessere. Mit special function Hardware bekommst du viel mehr Performance pro mm2 und pro Watt wenn du sie nutzt.
Ich bin gespannt auf echte Tests. AMD hat doch eigentlich erzählt, dass sie die RT HW aufgebohrt haben und dann soll wirklich nichts dabei rauskommen? Ich finde das seltsam.
robbitop
2022-11-04, 09:13:18
Finde den Fehler.
Offenbar sieht AMD weit über 999$ keinen nennenswerten Markt im Gamingbereich.
Es gab auch schon riesen GPUs für unter 1000 USD. IMO ist da auch eine Menge Finanzierung von Yachten und Ferraris dabei.
Außerdem hätte man ja optional eine SKU darüber machen können. Gibt vielleicht nicht mehr viele Millionen Käufer aber einen Haloeffekt bringt das schon.
Und aller allerwenigstens hätte man im Jahr 2022 (fast bald schon 2023..) was an der RT Performance machen müssen.
vinacis_vivids
2022-11-04, 09:13:41
@robbitop
RT sind hauptsächlich propiätäre NV-optimierte Demos. Ähnlich wie X64 Hairworks, PhysiX, X64 Tessellation. AMD steht für freie Software, warum erwartest du unter solchen Umständen dass AMD da sinnlos Transistoren verballert für nichts?
dargo
2022-11-04, 09:18:18
Es gab auch schon riesen GPUs für unter 1000 USD.
Witzbold... was haben die Fertigungsprozesse damals gekostet? Und wieviel Vram wurde damals verbaut? :rolleyes:
robbitop
2022-11-04, 09:19:03
@robbitop
RT sind hauptsächlich propiätäre NV-optimierte Demos. Ähnlich wie X64 Hairworks, PhysiX, X64 Tessellation. AMD steht für freie Software, warum erwartest du unter solchen Umständen dass AMD da sinnlos Transistoren verballert für nichts?
Das sehe ich nicht so. Raytracing ist für Beleuchtung einfach der nächste Schritt. Das ist konzeptionell schon seit Jahrzehnten klar - nur war die Leistung nie ausreichend dafür.
Rasterizing hat viele Stärken aber Licht und Beleuchtung gehört nicht dazu. Deshalb ist RT für diesen Teil die ideale Ergänzung und ist in meinen Augen einfach einer der nächsten Schritte in der Evolution der 3D Grafik. Wie damals programmierbare Pixelshader.
Nanite ist auch eine Innovation - aber eben auf einem anderen Feld - das es aber auch schon IMO lange lange nötig hat. (LoD Poppen und z.T. immer noch sehr limitierte Geometriedetails in modernen spielen - gerade Dinge die Kreisrund sein sollen sind in vielen Spielen klar sichtbare Polygonenenzüge - Vielecke)
dargo
2022-11-04, 09:21:05
Das sehe ich nicht so. Raytracing ist für Beleuchtung einfach der nächste Schritt.
Ja... ein noch sehr langer für den Mainstream. Und wenn du es etwas verkürzen willst legst du einfach 2,5k auf den Tisch und gut ist. ;)
robbitop
2022-11-04, 09:22:28
Witzbold... was haben die Fertigungsprozesse damals gekostet? Und wieviel Vram wurde damals verbaut? :rolleyes:
Ian hat es doch vor kurzem vorgerechnet, was ein AD102 bei TSMC kostet. 200 USD. Die Mehrkosten ggü früheren Modellen müssen sich also zwischen 1 und 200 USD aufhalten. Aber trotzdem kostet AD102 einfach mal eben viel viel mehr als das Delta mehr. RnD Budgets sind sicher auch gestiegen die man abschreiben muss. Aber man sieht hier ganz klar wie groß der Einfluss der teureren Fertigungsprozesse ist: kleiner (bezogen auf den Grafikkartenpreis) als man denkt. N31 ist inkl aller chiplets nur IIRC nur 20 USD billiger für das was von TSMC kommt.
TSMC ist nicht so ein großer Einfluss wie man denkt.
Preis/Leistung ist einfach nicht mehr wo es war. Ich will nicht nur linear mit dem Preis die Leistung skalieren. (weil P/L dann gleich bliebe). P/L muss wieder besser werden. Dank N31 kann NV sich im Top Segment schön auf sonnigen Margen ausruhen.
Das mit dem Augenrollen kannst du dir übrigens sparen. Arroganz steht niemandem.
dildo4u
2022-11-04, 09:23:55
Ja... ein noch sehr langer für den Mainstream. Und wenn du es etwas verkürzen willst legst du einfach 2,5k auf den Tisch und gut ist. ;)
UE5 hat immer RT Beschleunigung mit Lumen, ich würde garantiert keine 1000€ + hinlegen bevor man nicht weiß wie 7900XTX vs 4080 dort Performt.
dargo
2022-11-04, 09:27:01
Ian hat es doch vor kurzem vorgerechnet, was ein AD102 bei TSMC kostet. 200 USD.
Und die 24GB GDDR6 sind bestimmt umsonst + die Platine und alles was dazu gehört?
UE5 hat immer RT Beschleunigung mit Lumen, ich würde garantiert keine 1000€ + hinlegen bevor man nicht weiß wie 7900XTX vs 4080 dort Performt.
Was meinst du was mir egal ist ob du dir einen N31 holst oder nicht? :tongue:
robbitop
2022-11-04, 09:27:55
Und die 24GB GDDR6 sind bestimmt umsonst + die Platine und alles was dazu gehört?
Du hast die Fertigungsprozesse als Variable angeführt und ich habe aufgezeigt, dass dessen Einfluss kleiner ist als man denkt. Und jetzt kommst du mit dem nächsten Thema? Erstmal sollte man das andere Argument abschließen. Und so teuer ist VRAM IIRC auch nicht. ~10 USD pro GB. Also in Summe etwa ~240 USD für den RAM. Aber bisherige Karten hatten ja nicht null RAM.
vinacis_vivids
2022-11-04, 09:29:06
Ja, Global Illumination gibs auch bei FarCry6 und Resident Evil ohne große Einbußen in der Framerate. Auch UE5 hat schönes Global Illumination und da sehe ich Gleichstand.
Shadows und Reflections wird AMD im Treiber am besten begrenzen wie "AMD-Tessellation" und gut ist. Der optische Gewinn ist da gering und der Aufwand zu teuer. Gilt genauso wie für Hairworks X64, Tessellation Steine usw. totaler Schrott-Code.
Wenn ich Brute-Force will, mache ich Furmark an.
dargo
2022-11-04, 09:29:36
:rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13158167&postcount=6222
Beim Kühler wird heute auch wesentlich mehr investiert als noch vor vielen Jahren.
Linmoum
2022-11-04, 09:29:43
Seh ich ja jetzt erst, dass die FSR-RT-Benchmarks von AMD nur im Performance-Mode gemacht worden sind.
Really AMD?
Crazy_Chris
2022-11-04, 09:30:50
Hey, die neuen Karten haben sogar wieder einen USB-C Port. Das ist pures Gold wert für VR-Gamer.
Bringt das irgendeinen Vorteil im Vergleich zu den "VR Ready" USB-C Ports auf den Mainboards. :confused:
robbitop
2022-11-04, 09:31:01
:rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13158167&postcount=6222
Hab das Posting schon erweitert. Lass dein bescheuertes Augenrollen. So clever wie du zu denken scheinst bist du nicht, dass du dir das leisten kannst. Oder du bist nur ein Kotzbrocken?
:rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13158167&postcount=6222
Beim Kühler wird heute auch wesentlich mehr investiert als noch vor vielen Jahren.
60 fps bei cp in ultra gibt's halt nur in fhd. Die 4090 packt die 60 auch nur mit dlss q iirc.
Rancor
2022-11-04, 09:34:49
Also ich werde mir ziemlich sicher eine 7900XT oder XTX holen. Das ist bei den Preisen doch ein No-Brainer. Selbst wenn die RT Perfromance "nur" auf Ampere Niveau liegen sollte.
dildo4u
2022-11-04, 09:34:54
Und die 24GB GDDR6 sind bestimmt umsonst + die Platine und alles was dazu gehört?
Was meinst du was mir egal ist ob du dir einen N31 holst oder nicht? :tongue:
Ist halt Blödsinn zu behaupten RT wäre nicht Mainstream wenn das in der wichtigsten Engine überhaupt mit Lumen fest verankert ist.
Ist halt Blödsinn zu behaupten RT wäre nicht Mainstream wenn das in der wichtigsten Engine überhaupt mit Lumen fest verankert ist.
Rt ist nicht mainstream.
Linmoum
2022-11-04, 09:39:27
RT ist natürlich nicht Mainstream, bei seinen High-End-Produkte allerdings solche riesigen Defizite in der Hinsicht zu haben ist einfach fail.
Juckt bei N33 zurecht niemanden, der kostet aber auch nicht (fast) vierstellig.
dildo4u
2022-11-04, 09:41:40
Rt ist nicht mainstream.
Aha Unreal ist also nicht die wichtigste Engine und die näste Version nutzt RT Beschleunigung für Beleuchtung.
Sehr interessant was so gepostet wird.
AMD hat übrigens selber die UE5 Demo bei der Präsentation gezeigt.
Linmoum
2022-11-04, 09:44:27
Aha Unreal ist also nicht die wichtigste Engine und die näste Version nutzt RT Beschleunigung für Beleuchtung.
Sehr interessant was so gepostet wird.Du redest wirres Zeug. Nicht mal bei Nvidia gibt's unterhalb der 3050 und deutlich über 200€ RT-Performance. Genau da ist aber der relevante Massenmarkt.
Berniyh
2022-11-04, 09:45:27
was an der RT Performance machen müssen.
Oder was sonst?
Mal ernsthaft, was sollen die Konsequenzen sein? Dass sich jetzt alle ne 4090 kaufen? Sicher doch …
Ok, vermutlich ist die 4080 auch noch über RDNA3, aber wird ja scheinbar auch über $1000 kosten. Wohin soll sich denn RT in dem Ausmaß hinbewegen, wenn man über $1000 investieren muss um es wirklich genießen zu können? Dazu wird doch eh nur ein kleiner Teil der Gamer bereit sein. Insofern wird sich da in den nächsten Jahren nicht sonderlich viel bewegen und die Musik wird weiter bei klassischem Rasterizing spielen.
Oh und ist es nicht am Ende sogar so, dass AMD (insbesondere durch die Konsolen) festlegt wo die Musik in den nächsten Jahren spielt?
Klar, gibt auch PC-only Titel, aber die großen Umsätze und Verkaufszahlen sind dennoch eher auf der Konsole beheimatet.
(Sage ich als Konsolenverweigerer …)
Ravenhearth
2022-11-04, 09:46:20
Was haben wir daraus gelernt: Glaub nicht jeden Mist, den jemand im Internet postet.
Greymon55 hat den "2x Performance..."-Tweet inzwischen gelöscht :ugly:
Nicht nur den Tweet, Greymon hat seinen ganzen Twitter-Account gelöscht ;D
vinacis_vivids
2022-11-04, 09:46:30
4k@480hz@12bit und Konsolen sind ein viel viel größerer Markt als CP2077 psycho @ 23fps.
mironicus
2022-11-04, 09:46:43
Die Presse reagiert überwiegend positiv.
YSAismB8ju4
dargo
2022-11-04, 09:49:08
Ist halt Blödsinn zu behaupten RT wäre nicht Mainstream wenn das in der wichtigsten Engine überhaupt mit Lumen fest verankert ist.
Du hast eine sehr seltsame Vorstellung von Mainstream. Ich habe mir mal angeschaut was so an Games für 2023 kommt. Selbst da gibt es viele AAA Titel die noch für die alten Konsolen erscheinen. Bis UE5 Games flächendeckend den Gamingmarkt erreichen sind wir wahrscheinlich schon bei den Nachfolgern von Ada und RDNA3.
Berniyh
2022-11-04, 09:49:39
Die Presse reagiert überwiegend positiv.
Die Presse reagiert eigentlich immer recht positiv. Man will sich ja nicht mit den Herstellern schlecht stellen, sonst gibt es keine Testmuster mehr. ;)
dildo4u
2022-11-04, 09:50:44
Du redest wirres Zeug. Nicht mal bei Nvidia gibt's unterhalb der 3050 und deutlich über 200€ RT-Performance. Genau da ist aber der relevante Massenmarkt.
Die Konsolen/Mainstream Karten lassen diese High-End Games einfach@30fps laufen, siehe das neue Plagues Tale.
Dafür kommt ja auch der neue UE5 Upscaler,der von 1080p hoch skaliert.
Genau das wurde bei der Matrix Demo gemacht,RT Beleuchtung 30fps + Upscaling von 1080p.
Aha Unreal ist also nicht die wichtigste Engine und die näste Version nutzt RT Beschleunigung für Beleuchtung.
Sehr interessant was so gepostet wird.
AMD hat übrigens selber die UE5 Demo bei der Präsentation gezeigt.
Jo UE5 wird auch kein Problem für RDNA3 ;). Das wird schon perfekt optimiert sein hinterher, allein schon wegen der Konsolen, darum würd ich mir keine Sorgen machen, das wird alles problemlos skalieren.
Für den künftigen Bedarf in eben solchen Engines für RT sehe ich auch kein Problem für RDNA3, das wird eh alles sehr stark optimiert sein. Die jetzigen Spiele sind da viel problematischer aus meiner Sicht.
Relic
2022-11-04, 09:50:55
:rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13158167&postcount=6222
Beim Kühler wird heute auch wesentlich mehr investiert als noch vor vielen Jahren.
Ka warum du Nvidia so verteidigen musst aber die gestiegenen Preise stehen in keiner Relation zu den gestiegenen Kosten. Schau dir einfach die Entwicklung der Margen der Nvidia Geschäftszahlen an.
vinacis_vivids
2022-11-04, 09:54:19
Ka warum du Nvidia so verteidigen musst aber die gestiegenen Preise stehen in keiner Relation zu den gestiegenen Kosten. Schau dir einfach die Entwicklung der Margen der Nvidia Geschäftszahlen an.
Du kannst das selbst nur verhindern, indem du das Zeug einfach nicht kaufst.
Dampf
2022-11-04, 09:54:39
IMO hat AMD alles richtig gemacht. Die RT Performance ist schon enttäuschend, dafür kommt sie in Raster aber nah an die 4090 ran und der Preisunterschied ist gigantisch ($1699 vs $999) wir reden nicht mehr von ein paar Scheinen wie bei RDNA1 versus Turing (RDNA1 hatte außerdem eine extrem veraltete Architektur im Vergleich zu Turing) sondern von einem massiven Preisunterschied. Hätte AMD das RT deutlich aufgebohrt, wäre die Architektur mit Sicherheit deutlich teurer geworden.
AMD weiß, wie es ihre Käufer überzeugen kann. Außerdem bekommt man 24 GB VRAM, was es in dieser Preisklasse noch nie gab.
Erst wenn Spiele RT vorraussetzen, dann wird Preis/Performance in Richtung Nvidia rücken. Aber das könnte noch einige Zeit in Anspruch nehmen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.