Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
DrFreaK666
2022-10-08, 18:33:35
Hier ist übrigens der Navi 3x-Thread ;)
bbott
2022-10-08, 18:51:42
Gabs das schon?
https://abload.de/img/2022-10-0622_02_05-ambccix.png
Die effektiv verfügbare Bandbreite von bis zu 4TB/s bei N31 sind krass. Die CoWos IO von TSMC erlaubt wohl noch höhere Taktraten für den IF.
Bei N21XT ist die effektive Bandbreite bei 1986,56 GB/s bei 1940Mhz FLCK, bei N31 ist also die doppelte effektive Bandbreite zu erwarten von 4TB/s, was einem FLCK von ~2600Mhz FLCK entspricht 3993,60 GB/s , also beim N31XTX.
Die Salvage Variante würde niedriger Takten, vllt. 2200Mhz bei 3379,20 GB/s.
Der IF$ und damit verbunden FLCK ist mit die größte Errungenschaft zur Lösung des Bandbreitenproblems bei RDNA uArch. 8K output-Auflösung (mit FSR 3.0) kann wohl langsam zum Standard mutieren dank RDNA3.
Wird noch interessant ob Zen4-3D einen direkten Zugriff auf den IF$ der N31-GPU erlaubt und eine Kohärenz erzeugen kann.
Die Aussichten beim AMD sind hervorragend, insbesondere für den Gamer-Nerd am Desktop.
Das immer noch keine Benches gelaked ist echt schade. Die Performance Prognose würde nach würden (kalkuliert) folgende 3DMark Werte erreicht:
GPU 3DMark Grapic Faktor N31 %
6900XT 14333 2,25 32249,25
6950XT 15038 2,25 33835,5
RTX 4090 - 25256 33,97%
3DMark Time Spy N31 %
6900XT 9952 2,25 22392
6950XT 10644 2,25 23949
RTX 4090 - 18892 26,77%
3DMark Prot Royal N31 %
6900XT 10398 2,25 23395
6950XT 10788 2,25 24273
RTX 4090 - 24886 -2,46%
Quelle:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090
Damit würde NV nach dem Release von Navi 31 eine 4090 Ti benötigen, um die Krone zuhalten
Badesalz
2022-10-08, 19:13:23
Damit würde NV nach dem Release von Navi 31 eine 4090 Ti benötigen, um die Krone zuhaltenWas wäre aber gewesen, wenn AMD in der jeweiligen Klasse 10% Raster wie RT langsamer ist (Preise also entsprechend), sich dafür aber 25% weniger Strom reinzieht? Hmm... ;)
Gut, die Forenblase sind ja das eine. Was würde aber die normale Welt dazu sagen? Flop? :rolleyes:
bbott
2022-10-08, 20:02:58
Was wäre aber gewesen, wenn AMD in der jeweiligen Klasse 10% Raster wie RT langsamer ist (Preise also entsprechend), sich dafür aber 25% weniger Strom reinzieht? Hmm... ;)
Gut, die Forenblase sind ja das eine. Was würde aber die normale Welt dazu sagen? Flop? :rolleyes:
Die Marktanteils zahlen 80% vs. 20% sagen alles. Bisher war der Stromverbrauch uvm. total egal (u. a. HD5000 vs. RX400). Ich persönlich sehe es anders.
Ich bin davon überzeugt das AMD mindestens 2-3 Generationen das Topmodell (Raster + RT bzw. zumindest als deutlich überlegen wahrgenommen werden) stellen muss, damit wir wieder Richtung 50:50 Markanteil kommen.
Intel schadet mMn eher mehr dem Markt geschehen, weil wohl änlich vlee Kunden von AMD als auch NV zu Intel wechseln. Ein ~ 70/15/15 Markt hilft auch nicht weiter, für einen gesunden Markt. Zumal Intel bisher null Innovation gebracht hat und ich generell nicht als Innovatives Unternehmen sehe.
Intel GPUs
- kein Feature was die Konkurrenz nicht auch schon hat
- keinen Hardware Vorteil
- viele Treiber & Software Probleme
- kein Preis Vorteil
- nur Low- bis Mid GPU Performance
Ich sehe nur eine sehr optimistische Annahmen, dass durch Intel es zu einem Preiskampf kommen würde. Selbst wenn es zu einem kommen sollte würde einer der drei Aufgrund der ungleichen Marktanteile einer wieder (relativ schnell/mittelfristig) verdrängt werden.
Es sind nicht umsonst schon so viele GPU Hersteller verschwunden sind, das gleiche gilt auch für x86.
Aber vielleicht kommt es nun doch zu Preisnachlässen aufgrund der schwachen Nachfrage aufgrund der schwächenden Konjunktur. :D
Platos
2022-10-08, 20:21:30
AMD kann nicht liefern. Das ist das Problem. Wenn sie was gutes bringen würden, dann wäre es einfach nicht lieferbar :D
bbott
2022-10-08, 20:31:43
AMD kann nicht liefern. Das ist das Problem. Wenn sie was gutes bringen würden, dann wäre es einfach nicht lieferbar :D
Stimmt, aber das ist (auch) (k)ein TSMC Problem. Soll doch mal NV AMD ein paar Waver sponsern. :freak:
Badesalz
2022-10-08, 20:43:30
Die Marktanteils zahlen 80% vs. 20% sagen alles. Bisher war der Stromverbrauch uvm. total egal (u. a. HD5000 vs. RX400). Ich persönlich sehe es anders.
Ich bin davon überzeugt das AMD mindestens 2-3 Generationen das Topmodell (Raster + RT bzw. zumindest als deutlich überlegen wahrgenommen werden) stellen muss, damit wir wieder Richtung 50:50 Markanteil kommen.Du meinst von oben runterdrücken. Ist der Grakamarkt so anders? Weil... beim Ryzen sind sie mal für mal an den Blauen einfach nur ruhig irgendwann vorbeigegangen (meinem Eindruck nach)
Ich glaub diese ganzen Halos und Überflieger (Storys), um was bewirken zu können, das ist auch nur ein Teil der allgemeinen Forenblase. Bei CPUs haben sie nur mal für mal immer bisschen besser geliefert. Wohl ohne eine einzige Voraussage in einem Forum zu lesen ;)
edit:
Nebenbei: Die 770 zieht sich für ihre Leistung übrigens knapp über 190W rein.
Ravenhearth
2022-10-08, 21:32:33
edit:
Nebenbei: Die 770 zieht sich für ihre Leistung übrigens knapp über 190W rein.
Das gilt für die GPU, die ganze Karte braucht ~225W.
Badesalz
2022-10-08, 21:33:08
...ok... :|
AMD kann nicht liefern. Das ist das Problem. Wenn sie was gutes bringen würden, dann wäre es einfach nicht lieferbar :D
Was für ein Unsinn...
Nazar
2022-10-08, 22:32:50
Hat er relativiert, er meinte explizit 5nm Samsung, also 5LPP. Nur die Prognose sollte auf dem Verhalten von 8LPP +x (also eben 5LPP) bestehen. 4N ist aber nochmal 1/4 effizienter als diese Prognose. Darum ging es.
Naja, auch mit der Relativierung ist das über den Zeitstrahl gesehen wohl eher Wunschdenken und Marketing.
Keiner entwickelt vor der Fertigstellung des Platinen Designs, wo dann auch schon die möglichen Verlustleistungen in sämtlichen Bereichen festgelegt sind, einen Kühler! Das wäre absoluter Blödsinn.
Die GPU war fertig designt. Selbst ein Schritt von Samsung 5nm auf TSMC 4nm, ist ein massiver Schritt.
In dieser Entwicklung gibt es keine "Puffer" für Abweichungen, beim Signal- und Energiefluss.
Das, was Igor erzählt, mag ja seine Überzeugung sein, hält aber einer Analyse der Fakten nicht stand.
Dass Kühler schon Monate vor der Fertigstellung des Chipdesigns gebaut werden, ist absoluter BS. Dieser Grund ist einfach nur blah. :rolleyes:
Ich würde mich schämen, so etwas zu spekulieren!
Natürlich lag es daran, dass nVidia die Verlustleistungen ganz anders angesetzt hatte. Der Grund war aber zu 100% nicht der Umstieg zu TMSC, es muss ein anderer gewesen sein, und zwar, dass nVidia dann Probleme mit den Geäuseherstellern und anderen IT-Produzenten bekommen hätte, wenn 600+ Watt aus einem Miditowergehäuse oder selbst BigT abgeführt werden sollten, und zwar nur von der GPU. Wenn dann noch bis zu 350 Watt Verlustleistung von CPUs kommen, dann grillt das die M2 SSDs und den RAM.
Ich bin schon jetzt am Schmunzeln, wenn nächstes Jahr im Sommer die Boards abrauchen, sich verformen, GPUs sich samt MB-Slot verbiegen und andere Temperaturprobleme auftreten werden.
Es kann natürlich, wie von Igor spekuliert, auch daran liegen, dass AMD einfach nicht mehr so schnell wird, wie Lisa gesagt hat, was ich aber (s.o.) ausschließe.
Einfach mal den exponentiellen Wärmeentwicklunksverlauf bei Verlustleistungserhöhungen ansehen und dann staunen, was so alles bei knapp bei 800 Watt Dauerlast so an Wärme im Gehäuse "gefangen" wird und wie schnell man das aus einem "geschlossenen" System entfernen muss, damit es keinen Hitzestau geben kann, und eventuell erkennt man dann, dass die Reduzierung der Verlustleistung seitens nVidia einfach 0,0 mit dem Umstieg von Samsung auf TSMC zu tun haben kann. ;)
Nazar
2022-10-08, 23:09:42
Wobei programmierbare Shader schon mit der Geforce 3 Einzug hielten. (Allerdings brachte SM2.0/DX9 kompatible shader das ganze auf ein ganz anderes Level. Radeon 9700 pro / Geforce FX 5800 in 2002.)
Ich sehe das übrigens komplett genauso. Raytracing ist der logische nächste Schritt in der Evolution der 3D Grafik. So wie damals der Einzug frei programmierbarer Shader (der auch irre Leistung und Transistoren gefressen hat).
Langsam wachsen die Transistorbudgets auch genug, um eine ordentliche RT Hardwarepipeline zu bieten. Volles Level 5 (gem. IMGTec) bietet aber nicht mal Ada. Soweit ich weiß ist IMG der einzige der das hat. Ada und Xe sind bei Level 4. Übrigens auch interessant wie NV mit dem SER etwas als neue Revolution vermarktet, was Intel bereits implementiert hat und IMG seit vielen Jahren als Level 4 definitiert hat und auch noch länger dazu bereits Hardware hat. :D
https://blog.imaginationtech.com/introducing-the-ray-tracing-levels-system-and-what-it-will-mean-for-gaming/
In ein paar Jahren wird jede GPU Level 5 haben und stark genug für RT sein und es wird wie heute Shader Alltag sein und kein Mensch will zurück zu reinem Rasterizing.
Der Hybridansatz Raster/RT macht ja auch Sinn. (je nach Konfiguration) - so kann man jeweils das nutzen was das Verfahren gut kann.
Ganz einfache Frage: "Warum glaubst du das?" :confused:
Ich konnte zum Gen 5 Raytraycing nichts finden, außer etwas von nVidia. Was ist dieses Gen 5 Raytraycing?
Das Problem ist, dass die reine Raytraycingleistung noch mindestens Faktor 10 zu niedrig ist, um in Echtzeit echtes RTRT in schon gewohnter RZ Qualität und Geschwindigkeit anbieten zu können.
Immer noch ist RT ist den allermeisten Spielen auf kleinste Bereiche begrenzt und/oder nur eine stark begrenzte Anzahl von Strahlen, darf nur eine sehr stark begrenzte Anzahl von Bounds machen. Selbst in den meisten aktuellen RTRT Spielen, haben wir pro Pixel nur einen Strahl, mit eben noch stärker begrenzten möglichen Sprüngen, weshalb diese Spiele auch immer noch sehr altbacken wirken, oder nur deshalb dafür genommen werden, weil es eben bei so wenigen Pixeln für die Originalgrafik nicht so auffällt, dass es kaum "realistischer" aussieht, als wenn man das Spiel mithilfe von modernen RZ Effekten aufbohren würde. ;)
Ich wundere mich immer wieder bei der Präsentation solcher RTRT Spiele, es keinerlei Hinweise auf diesen Umstand gibt. :freak:
In vielen heutigen RT Spielen ist es zwingend notwendig, mit stilistischen Hilfsmitteln RT in irgendeiner Form herauszuarbeiten, selbst dann, wenn das Ergebnis vollkommen deplatziert wirkt.
Ohne Pfützen, würde es vermutlich bis heute kein RTX in Spielen geben!? :freak:
Zumindest würde es kaum jemanden auffallen.
So ähnlich verhält es sich mit Schwimmbädern, zumindest wirken viele Innenräume "moderner" Spiele wie frisch gewässert oder vereist.
Spiegelungen auf Fensterscheiben, sind plötzlich derart gut, wie bei einem gut ausgeleuchtetem Spiegel. Schattenwürfe von Blättern von dichte bewachsenen Bäumen, sehen aus, als ob der Schatten von einer dreckigen aber durchsichtigen Plastiktüte erzeugt wurde. Und dann diese ominösen Schattenwürfe in Gebäuden, wenn die Sonne direkt durch eine 2x2Meter große Öffnung hereinscheint. 2 Zentimeter neben dem Schattenriss des Fensterrahmens auf dem Boden, erkennt man keine Farben mehr und Objekte entschwinden in der so "realistischen" RT-Schwärze.
Wenn es um BQ und Realismus geht, wäre es extrem schlimm, wenn sich diese Art von RT in den nächsten 5 Jahren als Standard in Spielen durchsetzen würde, denn mehr würde auch in 5 Jahren einfach nicht gehen, was Ada gerade eindrucksvoll aufzeigt. Die Leistungssprünge sind einfach viel zu klein, um RT in den nächsten 5 Jahren so homogen in Spielen anzubieten, dass es nicht mehr als unnatürlich/anders/störend/falsch wahrgenommen wird und wirklich eine Verbesserung für die BQ, bei guten Bildraten ist. Und nein, DLSS ist in puncto BQ und Realität dafür auch keine Lösung.
ChaosTM
2022-10-08, 23:13:14
textwall !
C`mon get to the point !
du hörst dich gerne reden, so do I, but shut the fuck up ;)
get to da point
Nazar
2022-10-08, 23:26:47
So I do. ;)
Ja, du hast recht. Der Trick ist, du musst es ja nicht lesen. ;)
Badesalz
2022-10-09, 00:24:39
@Nazar
Raytracing ist ja auch nicht das Synonym für Spiegelung. Das werden die Entwickler irgendwann auch peilen. Hoffe die Kundschaft auch ;)
@robbitop
Ja ich weiß. Du willst alles spätestens morgen haben und sehen ;) Das wird aber nicht "in ein paar Jahren" sein. Das sind alles Forenblasen. Während irgendwelche Foristen sich nun gegenseitig was in die Tasche erzählen, wann es endlich von 4k/60 auf 4k/120 gehen kann, sind von den 3 mit Abstand meistverkauften Gamermonitoren in DE, der erste FHD, der zweite 1440, der dritte wieder FHD. Das sieht meine ich EU-Weit ähnlich, nur die Modelle varieren leicht.
Änhlich dem, haben die Leute in ein paar Jahren noch lange keine ausreichende Leistung für pures RT-Vergnügen. Und sie werden mit der Zeit auch immer weniger Kohle dafür haben. Das verlangsamt das zusätzlich.
Den normalen Leuten/Teenies, die spielen, ist das eigentlich auch alles egal, welcher Level wo sich wann hinlevelt.
Ich hab in meiner privaten völlig unrepresentativn Studie :wink: im Umfeld, und im Umfeld des Umfelds, damals etlichen etlichen Zockern das UE5 Demo für die PS5 entsprechend präsentiert :tongue: Die sind in keinen Foren angemeldet und lesen sich nur grob was durch:
Die waren alle einfach nur begeistert und schwärmten davon was für ein traum das wäre, wenn jedes Spiel so wäre. Da interessiert sich keiner für HW-Level...
Come on, guys. Kommt runter.
ChaosTM
2022-10-09, 00:25:38
Das ist das schöne daran., Ich muss gsd nicht
Thomas Gräf
2022-10-09, 03:09:02
...
Ich konnte zum Gen 5 Raytraycing nichts finden, außer etwas von nVidia. Was ist dieses Gen 5 Raytraycing?
...
Nazar ich glaub er meint das hier...
https://f.hubspotusercontent10.net/hubfs/2426966/Gated%20Files/imagination-raytracing-primer-sept2020.pdf
Redneck
2022-10-09, 09:02:26
Bin da voll bei Nazar.
Dieses gebetsmühlenartige herunterspulen von pro RT Argumenten spiegelt sich einfach nicht in der Realität wider und es scheint wesentlich wahrscheinlicher, daß der Weg zu "gutem" RT noch Jahre dauern wird als das wir diesen Punkt bereits mit der next Gen (nach Ada) erreichen könnten (die von Nazar aufgeführten Punkte fallen ja nicht nur ihm auf sondern vielen Usern, weshalb es eine starke Spaltung in pro und contra gibt.. Wobei contra das falsche Wort ist. Niemand ist generell gegen RT. Es geht um die Art und Weise und das Erscheinungsbild).
Die UE5 Demo hat mir jedenfalls aufgezeigt, daß das Steigern von Details wichtiger ist und einen größeren WOW Effekt erzeugt, als die RT Effekte es auf aktueller Hardware zu leisten vermögen).
Das man mit der Implementation von RT in Hardware irgendwann anfangen muß ist klar,allerdings scheint mir da viel zu viel Focus auf ausschließlich RT zu liegen, obwohl es für ein IMO ansehnliches RT auf Jahre hinaus nicht reichen wird.
Mal sehen.. Vielleicht kommt alles auch ganz anders.
TheGood
2022-10-09, 09:08:53
Bin da voll bei Nazar.
Dieses gebetsmühlenartige herunterspulen von pro RT Argumenten spiegelt sich einfach nicht in der Realität wider und es scheint wesentlich wahrscheinlicher, daß der Weg zu "gutem" RT noch Jahre dauern wird als das wir diesen Punkt bereits mit der next Gen (nach Ada) erreichen könnten (die von Nazar aufgeführten Punkte fallen ja nicht nur ihm auf sondern vielen Usern, weshalb es eine starke Spaltung in pro und contra gibt.. Wobei contra das falsche Wort ist. Niemand ist generell gegen RT. Es geht um die Art und Weise und das Erscheinungsbild).
Die UE5 Demo hat mir jedenfalls aufgezeigt, daß das Steigern von Details wichtiger ist und einen größeren WOW Effekt erzeugt, als die RT Effekte es auf aktueller Hardware zu leisten vermögen).
Das man mit der Implementation von RT in Hardware irgendwann anfangen muß ist klar,allerdings scheint mir da viel zu viel Focus auf ausschließlich RT zu liegen, obwohl es für ein IMO ansehnliches RT auf Jahre hinaus nicht reichen wird.
Mal sehen.. Vielleicht kommt alles auch ganz anders.
Dem kann man nur voll und ganz zustimmen. Wenn die ersten Titel dieses Jahr mal erscheinen, dann kommt der große WOW Effekt und von RAytracing spricht niemand mehr, da es einfach untergeht, selbst wenn es da ist :)
DAs Problem von Raytracing ist, dass man das alels gut faken konnte, sodass es des meisten nicht auffiel.
DAss es zukünftig die richtige TEchnologie ist und irgendwann zum STandard wird (zumindest für beleuchtung und reflexxionen) ist auch klar.
Platos
2022-10-09, 09:19:51
Das sehe ich auch so. Mehr Polygone wie in UE5 ist m.M.n das deutlich wichtigere, wie Hardware-RT.
aufkrawall
2022-10-09, 09:25:02
Damit Spiele deutlich näher an vorgerenderte Resultate herankommen, sind beide Techniken ziemlich wichtig.
robbitop
2022-10-09, 09:25:30
Ganz einfache Frage: "Warum glaubst du das?" :confused:
Ich konnte zum Gen 5 Raytraycing nichts finden, außer etwas von nVidia. Was ist dieses Gen 5 Raytraycing?
Das Problem ist, dass die reine Raytraycingleistung noch mindestens Faktor 10 zu niedrig ist, um in Echtzeit echtes RTRT in schon gewohnter RZ Qualität und Geschwindigkeit anbieten zu können.
Immer noch ist RT ist den allermeisten Spielen auf kleinste Bereiche begrenzt und/oder nur eine stark begrenzte Anzahl von Strahlen, darf nur eine sehr stark begrenzte Anzahl von Bounds machen. Selbst in den meisten aktuellen RTRT Spielen, haben wir pro Pixel nur einen Strahl, mit eben noch stärker begrenzten möglichen Sprüngen, weshalb diese Spiele auch immer noch sehr altbacken wirken, oder nur deshalb dafür genommen werden, weil es eben bei so wenigen Pixeln für die Originalgrafik nicht so auffällt, dass es kaum "realistischer" aussieht, als wenn man das Spiel mithilfe von modernen RZ Effekten aufbohren würde. ;)
Ich wundere mich immer wieder bei der Präsentation solcher RTRT Spiele, es keinerlei Hinweise auf diesen Umstand gibt. :freak:
In vielen heutigen RT Spielen ist es zwingend notwendig, mit stilistischen Hilfsmitteln RT in irgendeiner Form herauszuarbeiten, selbst dann, wenn das Ergebnis vollkommen deplatziert wirkt.
Ohne Pfützen, würde es vermutlich bis heute kein RTX in Spielen geben!? :freak:
Zumindest würde es kaum jemanden auffallen.
So ähnlich verhält es sich mit Schwimmbädern, zumindest wirken viele Innenräume "moderner" Spiele wie frisch gewässert oder vereist.
Spiegelungen auf Fensterscheiben, sind plötzlich derart gut, wie bei einem gut ausgeleuchtetem Spiegel. Schattenwürfe von Blättern von dichte bewachsenen Bäumen, sehen aus, als ob der Schatten von einer dreckigen aber durchsichtigen Plastiktüte erzeugt wurde. Und dann diese ominösen Schattenwürfe in Gebäuden, wenn die Sonne direkt durch eine 2x2Meter große Öffnung hereinscheint. 2 Zentimeter neben dem Schattenriss des Fensterrahmens auf dem Boden, erkennt man keine Farben mehr und Objekte entschwinden in der so "realistischen" RT-Schwärze.
Wenn es um BQ und Realismus geht, wäre es extrem schlimm, wenn sich diese Art von RT in den nächsten 5 Jahren als Standard in Spielen durchsetzen würde, denn mehr würde auch in 5 Jahren einfach nicht gehen, was Ada gerade eindrucksvoll aufzeigt. Die Leistungssprünge sind einfach viel zu klein, um RT in den nächsten 5 Jahren so homogen in Spielen anzubieten, dass es nicht mehr als unnatürlich/anders/störend/falsch wahrgenommen wird und wirklich eine Verbesserung für die BQ, bei guten Bildraten ist. Und nein, DLSS ist in puncto BQ und Realität dafür auch keine Lösung.
Mit immer größerem Hardwarelevel (fixed function / specific function hw) wird Raytracing immer schneller. Schau dir an, wie viel schneller Ampere (Level 3) als RDNA 2 (Level 2) ist bei Raytracing. Einfach weil mehr in Hardware gegossen. Ada soll dank Level 4 Leistungsnormiert(!) nochmal Faktor 2 drauflegen (dazu muss die Software die entsprechenden Hardwareblöcke nutzen). Im neuen Cyberpunk build wo alles an konventionellen lighting rausgeschmissen wurde und durch RT ersetzt wurde (was ein riesen Schritt ist) schaft AD102 4K mit hohen Frameraten. Es ist klar ersichtlich, dass höhere Hardwarelevels und mehr grunt RT sukzessive immer nutzbarer machen. Level 5 legt dann nochmal einen oben drauf und wer sagt, dass es darüber hinaus nicht noch viele andere Optimierungen gibt? NV hatte in Ada neben dem was für level 4 notwendig ist noch einige andere speedups verbaut.
Man schaue sich den Fortschritt in Echtzeitraytracing die letzten Jahre an und extrapoliere das in die Zukunft. Und man schaue sich die Limitationen von Rasterizing an dann wird einem mit etwas Erfahrung klar, dass das der logische nächste Schritt ist.
Schaut man sich die Hardware der IHVs an: auch die sehen das so - was da an r&d ausgegeben wird für RT und hardwareblöcke. Man schaue sich NV seit Turing an, Intel ARC auch bereits level 4 (Intel hatte die Vision eigentlich schon in den 2000ern mit Larrabee aber es war noch zu früh). Und auch bei AMD fresse ich einen Besen, wenn rdna 3 und 4 nicht such in die Richtung gehen.
The writing is clearly on the wall. ;)
All die Argumente gegen RT hätten damals auch gegen Pixelshading gesprochrn. Kostet unglaublich Leistung und Transistoren und man kann auch ohne ordentlich was nettes hinfaken. Und es hat mehrere Gens gedauert - eigentlich bis 2006 mit Crysis und Oblivion bis dann wirklich allen klar wurde dass das die Zukunft war. Und der Grundstein wurde damals 2001 mit der Gefroce 3 gelegt. (Den grafischen Sprung konnte RT noch nicht hinlegen weil die Performance und Verbreitung im Markt noch nicht da war - Spiele brauchen nach wie vor die Möglichkeit ohne zu laufen - aber das wird sich ändern und wenn wir dann konsequente RT renderpipelines in Spielen sehen, ist dieser Punkt erreicht)
Und damals waren die Leistungssprünge pro Zeiteinheit noch viel größer! (Gens kamen schneller raus und waren in der regel fast immer grob doppelt so schnell wie die Vorgängern - außer natürlich refreshes)
Wobei ich damit nicht sagen will, dass rasterizing stirbt. Beide Verfahren haben Stärken und Schwächen. Man kombiniert sie also am besten so, dass hauptsächlich die Stärken beider Verfahren genutzt werden.
@Badesalz
Es wird schleichend kommen. IMO wird es so sein, wie einige Vorredner es schon geschrieben haben. Die nächste Konsolengeneration wird das erst konsequent und überall einleuten. Das sind sicher noch gut 5 Jahre. Und bis dahin ist es auf dem PC optional.
Platos
2022-10-09, 09:29:22
Damit Spiele deutlich näher an vorgerenderte Resultate herankommen, sind beide Techniken ziemlich wichtig.
Bisher gab bei mir ein RT Spiel aber nie diesen WoW Effekt einer Next-Gen (auch keine RT Demos). Da ist UE5 deutlich besser. Da war ich deutlich mehr gebannt von der Grafik, wie in jeder RT-Demo.
robbitop
2022-10-09, 09:31:41
Das sehe ich auch so. Mehr Polygone wie in UE5 ist m.M.n das deutlich wichtigere, wie Hardware-RT.
Essen ist wichtiger als Trinken. :| beides ist wichtig dafür. Nanite (und ähnliches) aber eben auch raytracing für entsprechende Beleuchtung und Schatten.
robbitop
2022-10-09, 09:32:39
Bisher gab bei mir ein RT Spiel aber nie diesen WoW Effekt einer Next-Gen (auch keine RT Demos). Da ist UE5 deutlich besser. Da war ich deutlich mehr gebannt von der Grafik, wie in jeder RT-Demo.
Wir sind einfach noch nicht da. Bei Pixelshadern hat es 6 Jahre bis Crysis gedauert bis es dem letzten klar wurde.
AffenJack
2022-10-09, 09:39:22
@Nazar
Raytracing ist ja auch nicht das Synonym für Spiegelung. Das werden die Entwickler irgendwann auch peilen. Hoffe die Kundschaft auch ;)
@robbitop
Ja ich weiß. Du willst alles spätestens morgen haben und sehen ;) Das wird aber nicht "in ein paar Jahren" sein. Das sind alles Forenblasen. Während irgendwelche Foristen sich nun gegenseitig was in die Tasche erzählen, wann es endlich von 4k/60 auf 4k/120 gehen kann, sind von den 3 mit Abstand meistverkauften Gamermonitoren in DE, der erste FHD, der zweite 1440, der dritte wieder FHD. Das sieht meine ich EU-Weit ähnlich, nur die Modelle varieren leicht.
Änhlich dem, haben die Leute in ein paar Jahren noch lange keine ausreichende Leistung für pures RT-Vergnügen. Und sie werden mit der Zeit auch immer weniger Kohle dafür haben. Das verlangsamt das zusätzlich.
Den normalen Leuten/Teenies, die spielen, ist das eigentlich auch alles egal, welcher Level wo sich wann hinlevelt.
Ich hab in meiner privaten völlig unrepresentativn Studie :wink: im Umfeld, und im Umfeld des Umfelds, damals etlichen etlichen Zockern das UE5 Demo für die PS5 entsprechend präsentiert :tongue: Die sind in keinen Foren angemeldet und lesen sich nur grob was durch:
Die waren alle einfach nur begeistert und schwärmten davon was für ein traum das wäre, wenn jedes Spiel so wäre. Da interessiert sich keiner für HW-Level...
Come on, guys. Kommt runter.
Gerade wegen den Monitoren zeigst du doch auf, wieso RT für die Leute machbar ist. In Full HD kannst du sogar mit einer 3060 schon halbwegs RT nutzen, je nach Spiel und das wird mit der neuen Gen noch besser werden.
UE5 ist in der Qualität auch erstmal eine Grafikdemo und die Anforderungen sind auch nicht gerade gering. Du tust so, als wenn RT erst in zig Jahren möglich wäre, dabei ist das das aktuell mögliche in Tech Demos:
https://www.youtube.com/watch?v=au4cPLuEpNM&t=2562s
Da sind wir schon bei pathtracing mit 10-30 Bounces mit einer 3090 und 30-40fps. Ist noch nicht perfekt, aber die Softwareentwicklung geht auch weiter. Mit den neuen Features von Ada plus reiner Rohleistungssteigerung dürftest du da noch Faktor 3-4 höher landen. Und neben Nvidia hast du intel die ebenso sehr starke RT Fähigkeiten in ihre Karten packen.
DrFreaK666
2022-10-09, 10:00:28
Essen ist wichtiger als Trinken. :| beides ist wichtig dafür. Nanite (und ähnliches) aber eben auch raytracing für entsprechende Beleuchtung und Schatten.
Trinken ist tatsächlich wichtiger ;)
Redneck
2022-10-09, 10:19:29
Damit Spiele deutlich näher an vorgerenderte Resultate herankommen, sind beide Techniken ziemlich wichtig.
Da hast du absolut Recht.. Es geht ja auch nicht um ein schwarz weiß Bild.. Um ein RT ja oder nein sondern um die Gewichtung. RT bekommt zuviel Aufmerksamkeit für das,was es mit aktueller Hardware vollbringen kann.
Die Frage muss sein, womit man (Mit derzeitigen Stand der Technologie) den größten Bang heraus bekommt. Mit vollständigem RT ist da eher nicht zu rechnen aber diese Sau wird andauernd durchs Dorf getrieben.
Da ich derzeit fast ausschließlich in VR spiele und somit die Grafik quasi durch Lupe betrachte, fallen mir die Details am ehesten auf.
Ich habe 2 Spiele mit RT Unterstützung: Cyberpunk und Control. Bei beiden bin ich von RT (um es mal freundlich auszudrücken) nicht weggeblasen von der RT Qualität.
robbitop
Hö? Die Werte aus der Präsentation nicht mehr präsent? Da lief Cyberpunk auf Psycho IIRC (nicht der neuen Einstellung!) auf 4k grad mal mit ca. 25 FPS. Also wird das bei der neuen Einstellung noch weniger sein. Also so starken RT-Einsatz wie in Cyberpunk kann auch Ada in 4k nicht leisten, sondern benötigt dafür DLSS (also ne kleinere Auflösung).
DLSS3 ist eh Rotze in der Hinsicht, oder wolltest du Cyberpunk mit seinen Shooterelementen mit 40-50FPS spielen? Da ändert DLSS3 ja nichts dran, die Engine läuft nunmal so mit all ihren Latenzen. NV hat daraus ja " wir sparen CPU-Leistung ein" gemacht, aber das ist purer Marketing-BS, also wirklicher BS.
Ich sehe das eher so, dass RT bei Ada einen Gewissen Mehrwert erfährt, aber du übertreibst das völlig.
Neurosphere
2022-10-09, 10:28:46
robbitop
Hö? Die Werte aus der Präsentation nicht mehr präsent? Da lief Cyberpunk auf Nightmare (nicht der neuen Einstellung!) auf 4k grad mal mit ca. 25 FPS. Also wird das bei der neuen Einstellung noch weniger sein. Also so starken RT-Einsatz wie in Cyberpunkt kann auch Ada in 4k nicht leisten, sondern benötigt dafür DLSS (also ne kleinere Auflösung).
Nur sieht man nicht was bei der NV Demo die Frames kostet. Ab RT Einstellungen auf "Mittel" bei 2077 oder auch bei vielen anderen Games ist der Qulitätsgewinn durch RT so klein das man häufig auf Screenshots nach den Unterschieden suchen muss.
Rt erschafft ein deutlich realistischeres Bild und kann auch aus alten Engines viel rausholen was man ja zB auch an Quake usw sieht. Aber in der derzeitigen Hybrid Lösung sieht man irgendwann keine Verbesserung mehr.
Platos
2022-10-09, 10:32:35
Beides ist wichtig dafür. Nanite (und ähnliches) aber eben auch raytracing für entsprechende Beleuchtung und Schatten.
Das bestreite ich ja nicht. Ich sage nur, dass für mich mehr Polygone ein wesentlich grösseren Effekt ausmachen, wie RT derzeit irgendwo zu sehen.
Dass RT, wenn die RT-Leistung steigt, die Zukunft ist, bestreite ich nicht. Stand heute ist es einfach nur maximal für Enthusiasten ein Ding. Für alle anderen ist es einfach kein gutes Verhältnis zwischen Grafiklast und erbrachte Grafik. Hier im Forum denken alle immer nur "in Top-Dog".
Aber die RT-Leistung ist zu niedrig, um Massentauglich zu sein. Hätte diese Generation (Ada) nicht die Preise mindestens verdoppelt (ne 4080 16GB ist maximal 699$ Wert und ne 4080 12GB maximal 499$), wäre das vlt. sogar in der nächsten Gen möglich gewsen (also RT Massentauglich zu machen).
So wird das aber nicht der Fall sein. Bis 3090-Perfomance, also Top-Dog, (das absolute Minimum an RT-Perfomance) im Mainstream ankommt, ging es früher mal noch 2 Generationen. Also vor Pascal. Von Pascal zu Ampere ging es 6 Jahre (3060 zu 1080Ti - die Preise sind erst jetzt auf Listenpreisniveau).
Jetzt sind die Preise aber am Arsch. Jetzt wird es mindestens 3 Generationen gehen (also so, wie von der 1080Ti auf 3060). Und dann sind wir bei 350$ angekommen, also das absolut obere Maximum, um es noch Mainstream zu nennen. Eigentlich ist Mainstream eher 150-250$. Bis dahin gehts dann nochmals eine zusätzliche Generation.
Also bis die Masse das hat, sind mindestens 3, eher 4 Generationen à 2 Jahre vergangen.
Edit: Und die Next-Gen Konsolen kommen vermutlich nicht so schnell. Es hiess ja bei der PS5, dass die länger halten soll, wie die PS4 (und die hielt 7 Jahre).
amdfanuwe
2022-10-09, 10:36:59
Kann man den Thread mal in "RT Gelaber" umbenennen?
Badesalz
2022-10-09, 10:40:46
Bin da voll bei Nazar.
Dieses gebetsmühlenartige herunterspulen von pro RT Argumenten spiegelt sich einfach nicht in der Realität wider und es scheint wesentlich wahrscheinlicher, daß der Weg zu "gutem" RT noch Jahre dauern wird als das wir diesen Punkt bereits mit der next Gen (nach Ada) erreichen könnten (die von Nazar aufgeführten Punkte fallen ja nicht nur ihm auf sondern vielen Usern, weshalb es eine starke Spaltung in pro und contra gibt..Man muss aber auch zwischen den Möglichkeiten und ihrer Nutzung unterscheiden ;) Die meisten Studios nutzen RT aktuell für schwachsinnige Spiegeleungen. Damit der User merkt, daß RT genutzt wird.
Während aber der eigentliche Coup von RT die Szenenbeleuchtung ist. Hier traut man es dem Kunden aber nicht so wirklich zu es geistig zu erfassen und scheut die mögliche Kritik, das Spiel macht kaum was aus RT.
AffenJack
2022-10-09, 10:42:11
Kann man den Thread mal in "RT Gelaber" umbenennen?
Zu RDNA3 gibt's ja leider nix. Hatte gehofft wird ein richtiger launch am 3.11, aber es gibt dafür zu wenig Infos zu dem Zeitpunkt. Hardlaunch dürfte wohl erst später sein
Platos
2022-10-09, 10:45:48
Man muss aber auch zwischen den Möglichkeiten und ihrer Nutzung unterscheiden ;) Die meisten Studios nutzen RT aktuell für schwachsinnige Spiegeleungen. Damit der User merkt, daß RT genutzt wird.
Während aber der eigentliche Coup von RT die Szenenbeleuchtung ist. Hier traut man es dem Kunden aber nicht so wirklich zu es geistig zu erfassen und scheut die mögliche Kritik, das Spiel macht kaum was aus RT.
Das ist der nächste Punkt.
Das beeinflusst auch die Spielewelt. Man kann schliesslich nicht spiegeln lassen, wo es nichts zu spiegeln gibt. Dann entstehen Spielewelten, die eben überall spiegeln. Das kann einem gefallen, muss aber nicht...
Es gibt aber schon auch ein paar, die nicht nur Spiegelungen haben.
Badesalz
2022-10-09, 10:46:44
Gerade wegen den Monitoren zeigst du doch auf, wieso RT für die Leute machbar ist.Das ist nicht so ganz der Kontext. Das zeigt nur die Mühen der JEWEILIGE Marktdurchdringung.
Ja. Leute mit FHD und einer 4090 könnten schon richtig goil RT haben. Ja...
@alll
Und dann gäbe es da andererseits auch NeonNoir :usweet:
Jedenfalls, für mich selbst zeigt das Naniten-Demo für mich die Richtung in die man gehen sollte. Und damit das Verhältnis.
Wirklich schlimm ist es wie erwähnt, daß ich außerhalb der Forenblase noch keinen getroffen habe der darüber diskutieren wollte an welcher Stelle er mehr wovon mehr bräuchte ;)
Platos
2022-10-09, 10:50:31
Vor allem die Leute, die in FullHD zocken, denen gehts sicher immer um Grafik. Die ganzen Leute, die Shooter zocken, und alle Regler nach links drehen. Die werden sicher RT einschalten :D
Genau das sind aber ein Teil der Leute, die 1080p Monitore haben. Und ein Grossteil des Rests sind Leute, die ne 1060/1050Ti im Rechner haben. Die werden also, da das P/L (gerade im unteren Bereich) nur noch langsam steigt, auch nicht so schnell RT einschalten (wollen).
DrFreaK666
2022-10-09, 10:57:30
Leute! RT bitte hier rein: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590214&page=149
Wenn es keine Infos zu RDNA3 gibt, dann gibt es eben keine Infos
nordic_pegasus
2022-10-09, 10:59:03
Zu RDNA3 gibt's ja leider nix. Hatte gehofft wird ein richtiger launch am 3.11, aber es gibt dafür zu wenig Infos zu dem Zeitpunkt. Hardlaunch dürfte wohl erst später sein
kann mir mal jemand die Marketing-Strategie von AMD erklären. Vor 2 Jahren war es ähnlich, Nvidia legt mit Ampere vor. Jedoch waren die Nvidia Karten kaum verfügbar, darum konnten viele willige Kunden gar nicht kaufen und mussten zwangsläufig warten. Darum konnte der AMD Launch noch in die Kaufentscheidung einfliessen, wobei dann RDNA2 auch gestaffelt gelauncht wurde. Die 6900XT kam als letztes Anfang Dezember. Das war dann für meisten Custom-Modelle zu knapp vor Weihnachten.
Diesen Launch hat auch wieder Nvidia den Vortritt erhalten. Allerdings wird die Verfügbarkeit deutlich besser sein (mutmaßlich). Wer also kaufen will, kann wohl kaufen. Ferner werden die Reviews zur 4090 ohne Konkurrenz sein ("schnellste Karte am Markt"). Dies wird dann auch so stehen bleiben, egal was AMD einen Monat später präsentiert. AMD präsentiert dann am 3.11. (mutmaßlich weniger Verbrauch, aber auch weniger FPS als Nvidia), der große Buzz wird es nicht sein, weil die Presse und Käufer erstmal mit Nvidia gesättigt sind.
Ich habe wirklich gehofft, das AMD analog dem Zen4 Launch vor Raptor Lake (mit der Option auf Konter mit 3D-Cache Modellen) dieses mal zumindest vor dem Verkaufsstart der 4090 handfeste Informationen rausgibt. Mit den Gerüchten um die insgesamt bessere Effizienz von AD102 (vgl. Video von Igor zu 600W vs. 450W) wird auch hier nicht mehr soviel positiver Buzz entstehen können. Sofern hier AMD nicht doch bei der Raster/RT-Leistung positiv überrascht, womit soll Kunde am 3.11. von Nvidia abgelenkt werden? I don't get it.
Neurosphere
2022-10-09, 11:07:46
Zu RDNA3 gibt's ja leider nix. Hatte gehofft wird ein richtiger launch am 3.11, aber es gibt dafür zu wenig Infos zu dem Zeitpunkt. Hardlaunch dürfte wohl erst später sein
Laut Greymon ist Verkaufsstart am 22.11., am 3. also nur Vorstellung:
https://twitter.com/greymon55/status/1577951472209498112
dargo
2022-10-09, 11:09:57
Mit immer größerem Hardwarelevel (fixed function / specific function hw) wird Raytracing immer schneller. Schau dir an, wie viel schneller Ampere (Level 3) als RDNA 2 (Level 2) ist bei Raytracing. Einfach weil mehr in Hardware gegossen. Ada soll dank Level 4 Leistungsnormiert(!) nochmal Faktor 2 drauflegen (dazu muss die Software die entsprechenden Hardwareblöcke nutzen). Im neuen Cyberpunk build wo alles an konventionellen lighting rausgeschmissen wurde und durch RT ersetzt wurde (was ein riesen Schritt ist) schaft AD102 4K mit hohen Frameraten.
Was ist das denn bitte für ein bullshit wieder? :| Die RTX 4090 schafft gerade mal 20+fps in 4k. :lol:
https://youtu.be/V-DGyMRP-E0?t=207
OgrEGT
2022-10-09, 11:14:10
Ich finde auch da es mit ADA nun Frame generation/insertion gibt dass wenn man von Frameraten spricht aus Transparenz Gründen dazu erwähnen sollte ob man sich auf +/- DLSS3 bezieht...
Badesalz
2022-10-09, 12:01:17
@nordic_pegasus
Bin bei dir. Ist alles richtig was du erzählt hast.
vinacis_vivids
2022-10-09, 12:15:37
Das immer noch keine Benches gelaked ist echt schade. Die Performance Prognose würde nach würden (kalkuliert) folgende 3DMark Werte erreicht:
GPU 3DMark Grapic Faktor N31 %
6900XT 14333 2,25 32249,25
6950XT 15038 2,25 33835,5
RTX 4090 - 25256 33,97%
3DMark Time Spy N31 %
6900XT 9952 2,25 22392
6950XT 10644 2,25 23949
RTX 4090 - 18892 26,77%
3DMark Prot Royal N31 %
6900XT 10398 2,25 23395
6950XT 10788 2,25 24273
RTX 4090 - 24886 -2,46%
Quelle:
https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090
Damit würde NV nach dem Release von Navi 31 eine 4090 Ti benötigen, um die Krone zuhalten
Bei den gezeigten Games Resident Evil Village , Assasins Creed und Division 2 sind es Faktor 1,5-1,75 ausgehend von der 3090ti zur 4090. Also da wo harte fp32 Raster-Leistung gefragt ist ohne irgendwelche NV-Optimierungen sind es gerade mal Faktor ~ 1,6
Da lacht sich AMD kaputt :biggrin:
Wundert mich auch gar nicht, dass AMD vllt. doch nur 96MB IF$ spendiert statt 192MB IF$ oder gar 384MB IF$. Das Pferd muss nicht höher springen als es muss. Als AMD die NV-Folien gesehen hat, wurden die 192MB bzw. 384MB Versionen sofort wieder ins Schubfach gesteckt. Wozu die Mehrkosten, wenn ich sowieso mehr verkaufen kann mit einem etwas niedrigeren Preis?
Da NV sowieso versucht mit geringerer Rechenpräzision den Leistungsoutput zu maximieren, wird das auch der Pfad sein, der AMD in die Hände spielt (cut des IF$)
Bei einigen Games sehe ich N31 tatsächlich 25-30% vorne, also ausgehend von 3090Ti ungefähr Faktor 2. Die gezeigten 600W bei der 4090 sind ein Witz. Das geht auch mit 350-400W bei RDNA3.
Es gibt 0 Gründe wieso AMD irgendwelche Leaks durchlassen sollte, dafür ist das gezeigte von NV einfach zu schwach.
Nazar
2022-10-09, 12:18:24
kann mir mal jemand die Marketing-Strategie von AMD erklären. Vor 2 Jahren war es ähnlich, Nvidia legt mit Ampere vor. Jedoch waren die Nvidia Karten kaum verfügbar, darum konnten viele willige Kunden gar nicht kaufen und mussten zwangsläufig warten. Darum konnte der AMD Launch noch in die Kaufentscheidung einfliessen, wobei dann RDNA2 auch gestaffelt gelauncht wurde. Die 6900XT kam als letztes Anfang Dezember. Das war dann für meisten Custom-Modelle zu knapp vor Weihnachten.
Diesen Launch hat auch wieder Nvidia den Vortritt erhalten. Allerdings wird die Verfügbarkeit deutlich besser sein (mutmaßlich). Wer also kaufen will, kann wohl kaufen. Ferner werden die Reviews zur 4090 ohne Konkurrenz sein ("schnellste Karte am Markt"). Dies wird dann auch so stehen bleiben, egal was AMD einen Monat später präsentiert. AMD präsentiert dann am 3.11. (mutmaßlich weniger Verbrauch, aber auch weniger FPS als Nvidia), der große Buzz wird es nicht sein, weil die Presse und Käufer erstmal mit Nvidia gesättigt sind.
Ich habe wirklich gehofft, das AMD analog dem Zen4 Launch vor Raptor Lake (mit der Option auf Konter mit 3D-Cache Modellen) dieses mal zumindest vor dem Verkaufsstart der 4090 handfeste Informationen rausgibt. Mit den Gerüchten um die insgesamt bessere Effizienz von AD102 (vgl. Video von Igor zu 600W vs. 450W) wird auch hier nicht mehr soviel positiver Buzz entstehen können. Sofern hier AMD nicht doch bei der Raster/RT-Leistung positiv überrascht, womit soll Kunde am 3.11. von Nvidia abgelenkt werden? I don't get it.
Ja, da hast du vollkommen recht. Das lange Schweigen von AMD ist irgendwie seltsam. Anstatt die Gunst der Stunde zu nutzen, um seine Produkte rechtzeitig zu platzieren, schweigt sich AMD aus.
Kann es sein, dass Igor am Ende doch recht hat (AMDs N31 nur zwischen 4080 12GB u. 16GB)?
Eigentlich kann man nur hoffen, dass AMD noch weiter zurück liegt als angegeben und der Verkaufsstart erst Ende Dezember oder Anfang nächsten Jahres startet. Das würde für mich die bisher fehlenden Leaks und das Schweigen AMDs erklären, denn ansonsten müssten die Karten schon längst bei den Produzenten und auf dem Weg zu den Händlern sein. So eine "Auslieferung" dauert schließlich auch seine 4 Wochen und länger. Oder sind sie noch auf dem Meer?
Trotzdem sollte AMD schon mal einen raushauen, wenn sie es denn können.
AffenJack
2022-10-09, 12:19:16
kann mir mal jemand die Marketing-Strategie von AMD erklären.
Das ist nicht die Marketingstrategie, sondern eher das inventory. Amd hat das gleiche Problem wie Nvidia, nur im kleineren Maße. Man will noch soviele N21 loswerden wie möglich und hat ja schon Abschreibungen angekündigt. Daher gut möglich, dass man deshalb den Launch ein wenig nach hinten verschoben hat. Hoffentlich gibt's dann wenigstens genug.
Laut Greymon ist Verkaufsstart am 22.11., am 3. also nur Vorstellung:
https://twitter.com/greymon55/status/1577951472209498112
Danke, das hatte ich verpasst.
DrFreaK666
2022-10-09, 12:19:21
... der große Buzz wird es nicht sein, weil die Presse und Käufer erstmal mit Nvidia gesättigt sind...
Sofern hier AMD nicht doch bei der Raster/RT-Leistung positiv überrascht, womit soll Kunde am 3.11. von Nvidia abgelenkt werden? I don't get it.
Hast du die Preis-Diskussion verpasst?
Badesalz
2022-10-09, 12:24:25
Kann es sein, dass Igor am Ende doch recht hat (AMDs N31 nur zwischen 4080 12GB u. 16GB)?Mit 160W Boardpower :wink: Ja.
Das wäre entsprechend bepreist übrigens der absolute Renner am Markt (Forenblasen ausgenommen).
Neurosphere
2022-10-09, 12:49:26
Evtl. werden die "Leaks" die kommenden Tage zunehmen die N31 in einem guten Licht dastehen lassen.
Andererseits muss man sagen, das NV mit der Preisgestaltung bis auf die 4090, die aber nur innerhalb des Portfolios gut aussieht und 99% aller User nicht interessiert, sich selbst ein Bein gestellt hat.
AMD hat also nicht direkt Zugzwang, selbst wenn man 4090 Leistung erreicht, aber das ganze wirklich für 1200$ anbieten kann wird man Käufer finden, eben die die nicht bereit sind 1600$+ auszugeben und sich deshablb noch keine Karte gekauft haben.
Wenn man halbwegs Hardware interressiert ist weiß man das die 4080 12GB verbrannt ist und die 4080 16 GB maßlos zu teuer.
Nazar
2022-10-09, 12:52:56
Das ist nicht die Marketingstrategie, sondern eher das inventory. Amd hat das gleiche Problem wie Nvidia, nur im kleineren Maße. Man will noch soviele N21 loswerden wie möglich und hat ja schon Abschreibungen angekündigt. Daher gut möglich, dass man deshalb den Launch ein wenig nach hinten verschoben hat. Hoffentlich gibt's dann wenigstens genug.
Danke, das hatte ich verpasst.
Wäre es dann aber nicht besser, wenn an AMDs Stelle deren alten Karten !!und!! nVidias alte und neue Karten nicht verkauft würden, wenn der Kunde wüsste, dass AMD etwas zumindest gleichwertiges zu einem leicht besseren Preis hätte?
nVidia kommt mindeste 1 Monat früher mit dem neuen Produkt auf den Markt und kann ab da anfangen den Markt zu sättigen. Geld wird immer weniger wert und die Energiekosten steigen immer weiter.
Wer kaufen möchte, der macht das so früh wie irgend möglich. Es wäre fatal, dem direkten Konkurrenten das Feld einfach so komplett zu überlassen, egal wie gut das eigene Produkt dann sein wird. Schweigen würde nur dann Sinn ergeben, wenn man weiß, dass man eh nichts gegen den Konkurrenten ausrichten kann.
Und selbst wenn es nicht so wäre, dann wird von vielen Kunden das Schweigen so verstanden.
Das Verhalten von AMD ergibt eigentlich nur bei einer Schwäche Sinn.
Linmoum
2022-10-09, 12:58:01
Mögliches Inventar nicht verkaufen zu können ist immer schlecht, das will niemand.
Ansonsten verhält sich AMD nicht anders als damals bei RDNA2. Auch da hat Nvidia im September gelauncht, ohne, dass AMD irgendwelche Anstalten gemacht hat, etwas zu teasern. Viel ist nicht immer gut und weniger ist oftmals mehr.
Nvidia macht das umgekehrt genauso, die fangen auch nicht plötzlich an ganz redselig zu werden, weil die Konkurrenz irgendwelche neuen Produkte hat.
why_me
2022-10-09, 13:07:34
Ein Leak diese Woche wäre aber auch nicht so klug gewesen, das hätte Nvidia Zeit gegeben noch Einfluss auf die Revies zu nehmen, mit Treiber/Bios updates in letzter Sekunde.
Vielleicht sehen wir ja morgen oder am Dienstag etwas, darauf kann Nvidia dann nicht mehr reagieren, die Karten sind dann schon getestet.
Exxtreme
2022-10-09, 13:15:35
Ein Leak diese Woche wäre aber auch nicht so klug gewesen, das hätte Nvidia Zeit gegeben noch Einfluss auf die Revies zu nehmen, mit Treiber/Bios updates in letzter Sekunde.
Vielleicht sehen wir ja morgen oder am Dienstag etwas, darauf kann Nvidia dann nicht mehr reagieren, die Karten sind dann schon getestet.
Japp, das wäre high quality trolling wenn morgen eine Folie von AMD erscheint mit irgendwelchen relativen Werten wie schnell RDNA3 ist. :D
unl34shed
2022-10-09, 13:22:02
Es dürfte doch auch ein Tweet reichen mit "Congratulations to the launch, but we expected more" oder "So much Watt for that performance, interesting" mit Hinblick auf den Perf/W Blogpost. Sollte RDNA3 wirklich besser als die 4080 werden, wovon auszugehen ist.
Platos
2022-10-09, 13:35:06
Das werden sie vermutlich nich tun. Ich denke kaum, dass AMD bei RT mithalten und ein FSR 3.0 haben.
Denn ansonsten wäre das schnell ein Schuss ins eigene Bein.
DrFreaK666
2022-10-09, 13:37:13
Die werden womöglich schon was tweeten, und wenn es nur eine kryptische Zahl ist. Das beschäftigt die Leute
AffenJack
2022-10-09, 13:38:25
Es dürfte doch auch ein Tweet reichen mit "Congratulations to the launch, but we expected more" oder "So much Watt for that performance, interesting" mit Hinblick auf den Perf/W Blogpost. Sollte RDNA3 wirklich besser als die 4080 werden, wovon auszugehen ist.
Ist doch erstmal nur 4090 und die könnte sowohl von der Leistung,als auch preis oberhalb von AMD Zielen liegen. Wenn die 4080 kommt, dann könnte man eher reagieren.
robbitop
2022-10-09, 14:19:25
Was ist das denn bitte für ein bullshit wieder? :| Die RTX 4090 schafft gerade mal 20+fps in 4k. :lol:
https://youtu.be/V-DGyMRP-E0?t=207
Aber mit dlss 3 wirds doch spielbar (98 fps). Framegeneration muss man erstmal testen - aber ansonsten ist Rechenleistung viel zu schade um einfach nur stumpf so viele Pixel rechnen zu lassen wenn es moderne upsampling Verfahren gibt.
—————
Am Ende kann das jeder heute so sehen wie er will. Ich gehe jede Wette ein, dass RT die mittelfristige Zukunft ist und ein ähnlicher Schritt wie damals Pixelshader. Die Transition wird einfach nur länger werden (aus bereits genannten Gründen). Die Argumente waren damals 1:1 die gleichen gegen Pixelshader. Es bedarf etwas Weitsicht und nicht nur den Blick auf das hier und jetzt um das erkennen zu können. Ist vielleicht nicht jeder Manns Sache. Aber ganz sicher wird RT nicht mehr weggehen und sich immer mehr verbreiten und in 5-6 Jahren werden Spiele in Entwicklung sein, dessen Kontent darauf ausgelegt sein wird und kein Mensch wird mehr zurückwollen. Das Commitment in der Hardware und die Vorteile des Verfahrens sind IMO offensichtlich um das zu erkennen.
dargo
2022-10-09, 15:10:16
Aber mit dlss 3 wirds doch spielbar (98 fps).
Jetzt fängst du auch schon mit dem Blödsinn an Äpfel mit Orangen wie Nvidia zu vergleichen? Von dir hätte ich da echt mehr erwartet.
PS: an den 20+fps der RTX 4090 sieht du wie lahm ein stromhungriger Ada immer noch für Raytracing ist. Darum gehts und um nichts anderes wenn ihr schon das RT-Thema wieder aufgreifen wollt.
Kann es sein, dass Igor am Ende doch recht hat (AMDs N31 nur zwischen 4080 12GB u. 16GB)?
Keine Ahnung welche Drogen Igor da genommen hat. Aber vielleicht kannst du mir logisch erklären wie ein N31 mit den spekulierten SPs und mehr Takt nur ~30% schneller als N21 sein soll.
robbitop
2022-10-09, 15:39:37
Es geht um Perspektive - nicht um das hier und jetzt dargo. Denke einfach 5-6 Jahre weiter. 4K nativ zu berechnen ist Rechenleistungsverschwendung die man besser in BQ pro Pixel stecken kann. Ob das jetzt DLSS, XeSS oder FSR ist, spielt keine Rolle. Und wenn Framegeneration gut funktioniert warum nicht?
Außerdem war das soweit ich weiß Settings in einen Bereich gepusht wo der Nutzen gegenüber der Leistung fraglich ist.
vinacis_vivids
2022-10-09, 16:09:46
Interessant ist die 7950XT SKU.
Bei den spekulierten SPs ist der Tenor schon von 15360 (3x5120) auf 12288 (3x4096) runtergegangen, was mit der Kostenreduktion und der erhöhten Ausbeute zu tun hat. Auch der IF$ ist von 512MB auf 384MB auf 256MB und nun auf 192MB (3D IF$) bzw. 96MB geschrumpft.
Der Takt liegt bei max. 3.72Ghz, gesund sind wohl ~3.3-3.5Ghz (OC) und 3.0-3.2Ghz (OEM).
N31XTX
7950XT - 12288SP, 3,3Ghz ~ 81,10 Tflop/s fp32
192MB IF$ @ 2.6Ghz ~ 3,99 TB/s
384bit SI - 24GB - 20Gbps ~ 960 GB/s
N31XT
7900XT - 12288SP, 3,0Ghz ~ 73,72 Tflop/s fp32
96MB IF$ @ 2.2Ghz ~ 3,37 TB/s
384bit SI - 24GB - 18Gbps ~ 864 GB/s
Ich denke der Leistungsunterschied ist so groß genug zwischen N31XTX und N31XT. Und seien wir mal ehrlich, wenn es NV schafft für 2000-2200€ zu verkaufen ist AMD locker bei 1600-1800€ dabei. Da sagt keiner nein, ich hab nix für euch :tongue:
Thunderburne
2022-10-09, 16:13:40
7950XT???
https://wccftech.com/nvidia-geforce-rtx-4070-rtx-4060-amd-radeon-rx-7950-xt-7900-xt-7800-xt-7700-xt-graphics-cards-listed-by-enermax/
Neurosphere
2022-10-09, 16:32:53
Hmm, doch Dual N32?!?
Wobei, wenn N32 erst so spät kommt, dürfte das dann auch mehr ein Refresh ala 6950XT oder ähnlich sein. Zumindest vermutlich erst wenn N32 auch Marktreif ist.
Edit:
Der Unterschied zwischen 7900 und 7950 ist laut dem Link aber schon beachtlich und man ist nahe dran an der 4090 und möchte Effiziensieger sein...
Sagen wir AMD hält ein was versprochen wurde und ist, wenn auch minimal, Effizienzsieger:
NVIDIA GeForce RTX 4090 (733W)
NVIDIA GeForce RTX 4080 (600W)
NVIDIA GeForce RTX 4070 (565W)
NVIDIA GeForce RTX 4060 (478W)
AMD Radeon RX 7950 XT (702W) -> N31 oder N31x2 oder N32x2
AMD Radeon RX 7900 XT (610W) -> N31
AMD Radeon RX 7800 XT (580W) -> N31
AMD Radeon RX 7700 XT (478W) -> N32, deshalb auch der größere Abstand beim Verbrauch
Dann hätte Igor auch recht, die 7800XT mit N31 würde sich zwischen den beiden 4080 positionieren. Die 7900XT zwischen 4080 und 4090, die 7950XT zwischen 4090 und einer wahrscheinlichen 4090ti.
why_me
2022-10-09, 16:41:00
Woher sollte enermax das heute schon wissen? Das werden sehr sicher nur Platzhalter sein.
Iscaran
2022-10-09, 17:12:05
Sagen wir AMD hält ein was versprochen wurde und ist, wenn auch minimal, Effizienzsieger:
NVIDIA GeForce RTX 4090 (733W)
NVIDIA GeForce RTX 4080 (600W)
NVIDIA GeForce RTX 4070 (565W)
NVIDIA GeForce RTX 4060 (478W)
AMD Radeon RX 7950 XT (702W) -> N31 oder N31x2 oder N32x2
AMD Radeon RX 7900 XT (610W) -> N31
AMD Radeon RX 7800 XT (580W) -> N31
AMD Radeon RX 7700 XT (478W) -> N32, deshalb auch der größere Abstand beim Verbrauch
Wenn ich den Calculator aufmache und die 7950X eintrage erscheint bei mit nur 538 W.
Bei der 4090 dann 569 W.
Wenn die 7950X ne 2xN32 ist, wischt die aber mit der 4090 auf bei praktisch gleicher Wattage.
Denke mal eher das sind irgendwelche "numbers" - für die RTX sind die vielleicht sogar schon realistisch, für die RDNA3 aber glaub ich das eher nicht.
Neurosphere
2022-10-09, 17:16:24
Wenn ich den Calculator aufmache und die 7950X eintrage erscheint bei mit nur 538 W.
Bei der 4090 dann 569 W.
Wenn die 7950X ne 2xN32 ist, wischt die aber mit der 4090 auf bei praktisch gleicher Wattage.
Denke mal eher das sind irgendwelche "numbers" - für die RTX sind die vielleicht sogar schon realistisch, für die RDNA3 aber glaub ich das eher nicht.
Hatte die Zahlen von WCCF genommen. Der Link dort führt nun aber auch ins Leere, zumindest kann ich ihn nicht öffnen.
Edit: Geht doch
Wenn du nur die Karte nimmst sinds 538 zu 569 Watt, das Verhältnis ist also gleich. Du siehst aber das WCCF mit einem System gemessen hat.
dargo
2022-10-09, 17:24:42
Es geht um Perspektive - nicht um das hier und jetzt dargo. Denke einfach 5-6 Jahre weiter.
Wow... Breaking News. In Zukunft werden Games immer stärker RT verwenden weil die Hardware dafür auch schneller wird. :freak: Ich verrate dir mal was, denn offensichtlich kapieren das die ganzen PC-Nerds hier immer noch nicht (jetzt nicht auf dich bezogen). Raytracing wird erst eine große Rolle spielen wenn es im Mainsteam angekommen ist. Und das ist eine Konsole mit einem ~200W SoC.
4K nativ zu berechnen ist Rechenleistungsverschwendung die man besser in BQ pro Pixel stecken kann.
Ist ein Overdrive Mode @RT in einem zwei Jahre alten CP77 auch. Dennoch war sich Nvidia nicht zu schade so einen Bullshit bei CDPR fürs Marketing von Ada zu "bestellen". ;)
mboeller
2022-10-09, 17:41:28
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-94#post-2267492
Wenn man sich das zugehörige Patent US20220320042 von AMD durchliest dann könnte das wirklich die Konfiguration vom N31 sein.
Es wären sogar 7 "Chiplet" wenn AMD beim "702 MCM" einen aktiven Interposer benutzt (edit: I/O + 2x Brücke + 3x GPU-Chiplet + Interposer). Und die Info, das N33 "kein" Chiplet-Design ist stimmt dann auch, zumindest irgendwie... ist ja nur 1 Chiplet ohne activen Interposer, aber + I/O Chiplet. Die Bandbreite zw. I/O und N33 ist wahrscheinlich so gering, dass man das einfach mit einem normalen Substrat hinbekommt.
Ich bin schon gespannt, was es denn nun wird. Das System aus dem Patent, oder doch das was angstronomics.com geschrieben hat.
Nakai
2022-10-09, 17:58:42
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-94#post-2267492
Wenn man sich das zugehörige Patent US20220320042 von AMD durchliest dann könnte das wirklich die Konfiguration vom N31 sein.
Es wären sogar 7 "Chiplet" wenn AMD beim "702 MCM" einen aktiven Interposer benutzt (edit: I/O + 2x Brücke + 3x GPU-Chiplet + Interposer). Und die Info, das N33 "kein" Chiplet-Design ist stimmt dann auch, zumindest irgendwie... ist ja nur 1 Chiplet ohne activen Interposer, aber + I/O Chiplet. Die Bandbreite zw. I/O und N33 ist wahrscheinlich so gering, dass man das einfach mit einem normalen Substrat hinbekommt.
Ich bin schon gespannt, was es denn nun wird. Das System aus dem Patent, oder doch das was angstronomics.com geschrieben hat.
Egal, was es wird, aber das Patent ist imo eine der wenigen Möglichkeiten Computergrafik über mehrere Dies zu skalieren.
iamthebear
2022-10-09, 20:15:01
Keine Ahnung welche Drogen Igor da genommen hat. Aber vielleicht kannst du mir logisch erklären wie ein N31 mit den spekulierten SPs und mehr Takt nur ~30% schneller als N21 sein soll.
Wenn die Architektur komplett anders ist und es sich nur um VLIW2 handelt, dann sagen die TFlops nicht unbedingt viel aus.
Generell sehe zu RDNA3 2 verschiedene Geschichten:
Story1: AMD baut ein riesiges Dual GCD Monster mit ca. 2x400mm² GCDs und 512MB IF$, dieses ist jedoch auf Energieeffizienz getrimmt und kommt mit weniger Speicherbandbreite aus.
Navi31 wird selbst die Full AD102 mit 600W in den Boden stampfen, da der Chip in Summe eben viel größer ist. Deswegen pusht Nvidia so verzweifelt die Verlustleistung um noch irgendwie mitzukommen.
Navi32 ist dasselbe etwas kleiner zwischen 4080 und 4090.
Und Navi33 ist in 6nm und 400-450mm² immer noch schneller als Navi21.
Story2:
AMD hat einen möglichst kleinen und flächeneffizienten 5nm Chips als GCD designed, da sie nicht genug 5nm Kapazität haben weil die muss man vorfinanzieren wofür AMD die Kohle fehlt. Ziel ist es die Produktionskosten möglichst niedrig zu halten, dass man mit günstigen Preisen möglichst viel Marktanteil holen kann. Der Die ist wie bei Navi24 abgespeckt wo es nur geht, Energieeffizienz ist durchschnittlich.
Der IF$ ist mit 96MB auch relativ klein gehalten.
Gesamtfläche: 300mm² GCD + 6x40mm² MCDs aber die 6nm Fertigung bekommt man sowieso nachgeworfen, da man von der wieder zu viel bestellt hat.
Das Topmodell dürfte auf AD103 Niveau landen, abgespeckt auf AD104 Niveau. Navi32 so ca. auf Navi21 Niveau. Navi33 liegt zwischen 6650 XT und 6700XT.
Beide dieser Geschichten gab es schon in Leakform und sie hören sich beide in sich sehr schlüssig an.
Was aber meiner Meinung nach extrem spießt ist die Idee, dass es die Performance von Geschichte1 mit der Die Size aus Geschichte2 gibt.
Wenn die Dual GCD Leaks Fake waren, dann waren es auch die Performanceprognosen aus derselben Zeit von denselben Leakern.
Entweder liegen Angstronomics und Igor daneben oder MLID mit seinen wilden Performanceprognosen. Ich würde aus dem Bauch aber mal sagen MLID hat Schwachsinn erzählt. Das merkt man schon daran, wie er teilweise schon anfängt zurückzurudern. Dasselbe gilt für Greymon.
nordic_pegasus
2022-10-09, 22:01:09
Hast du die Preis-Diskussion verpasst?
wenn die Anmerkungen von Igor, MLID etc. stimmen, wird wohl die Effizienz der 4090 deutlich besser sein als vorher befürchtet. Die Reviews werden wohl deutlich wohlwollender ausfallen. Unter dem Motto "4090 ist teuer aber auch verdammt schnell und dafür auch bedingt effizient".
Wenn AMD hier weder bei Raster noch RT überholen kann und der Verbrauch auch nicht so signifikant unter der 4090 sein wird, bzw. die 4090 weniger als befürchtet, womit soll das AMD noch punkten am 3.11.? Mit DP2.0, PCIe 5.0? 5/6nm sieht auf dem Papier für Normal-User auch schlechter aus als 4nm von Nvidia. Und Nvidia hat mit DLSS 3.0 erstmal eine Nebelkerze geworfen, die in den Reviews vielleicht auch voll zündet.
Nochmal, aus meiner Sicht ist es die falsche Strategie von AMD zunächst Nvidia den Vortritt zu lassen, falls man nicht signifikant kontern kann (im Sinne von mehr Leistung).
Das wir jetzt wohl bis zum 22.11. warten dürfen (Reviews wohl maximal 1 Woche vorher, vielleicht auch nur 1-2 Tage), nervt einfach nur. Zumal man dann Ende November schon voll im Weihnachtsgeschäft ist. Anfang Oktober finde ich da deutlich sinnvoller.
Hat AMD hier den AM5 Launch so stark überschätzt, dass man soviel TSMC Ressourcen in Zen4 gesteckt hat und darum RDNA3 erst später hochfährt?
Badesalz
2022-10-09, 22:13:57
Es dürfte doch auch ein Tweet reichen mit "Congratulations to the launch, but we expected more" oder "So much Watt for that performance, interesting" mit Hinblick auf den Perf/W Blogpost. Sollte RDNA3 wirklich besser als die 4080 werden, wovon auszugehen ist.Das ist nicht das wie Lisa denkt. Mal davon ab, daß hier schon beim nächsten Mal der Spieß ggf. bitterböse umgedreht werden könnte ;)
Zum klugen Geschäftsverhalten gehört es eine Gegenseite nicht zu natzen und damit intern die Motivation steigern. Das Gefühl was man idealerweise erzeugen wollen sollte, ist Ohnmacht. Nicht eine Gereiztheit die zur Selbstmotivierung und mehr Ehrgeiz führt.
Den Leitern eine zusätzliche Gelegenheit selbst in die Hand mit welcher sie intern besser antreiben könne ist einfach nur saublöd. Alles klar? ;)
Lisa ist eben durch und durch ein IBM-Profi.
@nordic_pegasus
wenn die Anmerkungen von Igor, MLID etc. stimmen, wird wohl die Effizienz der 4090 deutlich besser sein als vorher befürchtet. Die Reviews werden wohl deutlich wohlwollender ausfallen. Unter dem Motto "4090 ist teuer aber auch verdammt schnell und dafür auch bedingt effizient".
Wenn AMD hier weder bei Raster noch RT überholen kann und der Verbrauch auch nicht so signifikant unter der 4090 sein wird, bzw. die 4090 weniger als befürchtet, womit soll das AMD noch punkten am 3.11.?Das Problem ist, daß du dich aus deiner Forenblase nur selbst befreien kannst. Das kann von draußen leider keiner tun.
Die 4090 interessiert theoretisch (mehr doer weniger wage Kaufabsicht) 0,05% der PC-Spieler. Der Groß davon aber, interessiert sich nen feuchten für die Effizienz und wieviel sie damit ein Frame in Overwatch2 kostet. Oder Perf/Watt. Was sollen das dann bitte für "positive Tests" sein? Sie sehen und nehmen nur die absoluten Zahlen. Die heißen Verbrauch und Preis. Verbrauch ist auch nicht unbedingt gleich gretabezogen/krisenbezogen. Man muss dafür halt das Gehäuse haben und das Netzteil haben.
Ein Wallossek, ein Raff wie alle anderen solchen auch, können auch 3x deutlichst zeigen und klar belegen, daß die 4090 die "effizienteste" GPU ist die NV jemals rausgebracht hat. Quantitativ gesehen interessiert das keine Sau und spielt bei der Wegfindung was und ob überhaupt man neues kaufen sollte, "niemanden". Außer den paar wenigen Forenheinis.
DIE MEISTEN, haben auf gute 4070 und 4080 gewartet. Nicht um sie zu kaufen, sondern damit sich der Markt für gebrauchte RT30 endlich für sie positiv entwickelt. Genau solche Dinger fehlen aber :usweet:
Die 1000 Leute pro Land die "Effizienz" wichtig finden oder die eh einfach nur immer den TopDog haben wollen egal was wer sonst noch schreibt, spielen wirtschaftlich gesehen keine müde Rolle. Mitziehen kann die 4090 aber auch keinen. Es ist den meisten die nachschauen mittlerweile klar, daß die 4080/16 viel zu teuer ist und die 4080/12 den klar falschen Namen trägt.
AMD muss mit garnichts vorpreschen. Bis auf die Topdog-Fanboys warten eh alle was die 7000er bringt. In Ruhe. Für das rare Geld die man mit Spielegrakas noch machen kann, muss man in dem Segment gut sein für den sich ein Tester eben nicht bückt...
Exxtreme
2022-10-09, 23:17:20
Wenn AMD hier weder bei Raster noch RT überholen kann und der Verbrauch auch nicht so signifikant unter der 4090 sein wird, bzw. die 4090 weniger als befürchtet, womit soll das AMD noch punkten am 3.11.? Mit DP2.0, PCIe 5.0? 5/6nm sieht auf dem Papier für Normal-User auch schlechter aus als 4nm von Nvidia. Und Nvidia hat mit DLSS 3.0 erstmal eine Nebelkerze geworfen, die in den Reviews vielleicht auch voll zündet.
Ich glaube nicht einmal, dass AMD mit der 4090 konkurrieren will. Die 4080 wird eher das Ziel sein. AMD meinte mal, die machen das Rennen um die absolute Leistungskrone nicht mit.
Slipknot79
2022-10-09, 23:21:53
Nachdem AMD wieder mal mit perf/watt angekackt kam, kann man davon ausgehen, dass die TOP GPU nicht gerade der Burner sein wird um die 4090 zu schlagen. (y)
why_me
2022-10-09, 23:47:57
Wie kommst du denn von der perf/Watt Ankündigung auf so was? :confused:
Man muss zwangweise die perf/Watt steigern um schneller zu werden, ohne hätten heutige Karten einen verbrauch von >1MW.
Slipknot79
2022-10-09, 23:50:30
Weil man offensichtlich sonst nichts anderes zu bieten hat.
Auch Intel haut eine CPU raus mit "fastest gaming CPU" oder sowas in der Art.
Und AMD? perf/watt. Was dann für Krücken rauskommen, sieht man die letzten Jahren. (y)
why_me
2022-10-09, 23:55:13
Eine Karte die in RZ workload so schnell ist, wie Nvidias Topdog? :|
dargo
2022-10-10, 00:06:20
Und AMD? perf/watt. Was dann für Krücken rauskommen, sieht man die letzten Jahren. (y)
Ja... das sind schon richtige Krücken die AMD da mit 300W ausliefert vs. den 450W Ampere Heizofen.
https://abload.de/img/cb_1zlidq.jpg https://abload.de/img/cb_2budul.jpg
Slipknot79
2022-10-10, 00:11:41
Wen interessieren die Watt außer AMD und seine fans? Es ging um was anderes.
why_me
2022-10-10, 00:24:46
Um was denn? Dein gebashe wegen den Perf/Watt ergibt einfach keinen Sinn.
Übrigens wurden die +50% Perf/Watt für RDNA3 schon Ende 2020 genannt. Also als Designziel für die Architektur. Du tust gerade so, was hätte das AMD vor wenigen Stunden/Tagen als reaktion auf Ada gesagt. :wave:
Slipknot79
2022-10-10, 00:33:08
Ich tu hier gar nix. Es wird hier vor mir schon fantasiert, dass sich N31 im Bereich oder sogar über 4090 platzieren wird.
Dann habe ich erklärt, warum das nicht passieren wird. Alleine schon deswegen, weil es AMD selbst aussagt im dem der Laden wieder einen auf perf/watt macht statt "fastest GPU ever". Mal schauen ob es tatsächlich +30% Krücken vs N21 werden lol. Das ist etwas, das ich aber auch nicht glauben can. Wird schon dicker werden, aber nicht +4090. (y)
why_me
2022-10-10, 00:50:29
Aber das ist eben einfach BS. Wir wissen überhaupt nicht wo N31 rauskommen wird. Kann über der 4090 sein, aber auch darunter.
Aber aus dem Designziel von vor 2 Jahren solche Rückschlüsse zu ziehen, ist schon sehr gewagt.
Warum du Perf/Watt Steigerungen negativ siehst, verstehe wer will.
Übrigens Intel schreibt "fastest gaming CPU" auch erst bei Release auf ihre Folien, (mit abenteuerlichen Balken darunter), nicht 2 Jahre vorher als Ausblick auf die nächsten Generationen. ;)
Slipknot79
2022-10-10, 01:02:41
Warum perf/watt negativ ist, werde ich jetzt nicht erklären, ist mir zu mühsam und geht Richtung Philosophie und Autovergleiche. ;) :redface:
Wäre es nicht mehr aktuell, hätte AMD eben genug Möglichkeiten gehabt, was anderes rauszuballern, unabhängig davon wann Intel so ne Info rausballert. Daher ist es eben aktuell. Ist aber auch die Frage, wenn man sich so nen Ziel vor 2 Jahren gesetzt hat, ob man dann noch "schnell" am Design und Ziel was ändern wird können. Es sieht überhaupt nicht danach aus (y).
why_me
2022-10-10, 01:09:02
Mach dir doch bitte die Mühe und erklär es. Ich bin mit sicherheit nicht der Einzige, der nicht verstehen kann, was an einer perf/watt Verbesserung schlecht sein soll.
DrFreaK666
2022-10-10, 01:23:06
Wen interessieren die Watt außer AMD und seine fans?...
Wo lebst du denn? Willkommen im Herbst 2022. Effizienz und Verbrauch interessieren deutlich mehr Menschen als noch vor zwei Jahren
iamthebear
2022-10-10, 01:29:03
Also rein aus "performance/watt" negative Schlüsse zu ziehen halte ich für zu voreilig.
Für AMD ist Performance/Watt generell ein wichtiges Thema, da:
a) Dies einer der großen Pluspunkte im CPU Bereich gegen Intel ist man man deshalb diese Metrik verwendet. Intel hat dies nach Prescott auch immer gemacht.
b) Man in den Gaming Notebookmarkt will wo derzeit fast ausschließlich Intel+Nvidia vertreten sind und hier zählt bei GPUs in erster Linie Performance/Watt.
c) Es viele gibt, doe von den 600W+ Leaks bei Nvidia abgeschreckt wurden und man diese Käufer einsammeln will.
d) Strom schweineteuer geworden ist und das ist nur eine Frage der Zeit bis dies an die Endverbraucher weitergegeben wird.
Aber ja ich denke auch, dass Navi31 nicht einmal annähernd an die 4090 ran kommt. zumindest nicht wenn die 300mm² GCD von Angstronomics korrekt sind.
Slipknot79
2022-10-10, 02:00:26
Wo lebst du denn? Willkommen im Herbst 2022. Effizienz und Verbrauch interessieren deutlich mehr Menschen als noch vor zwei Jahren
Wenn es so wäre, würde das 3dc kosequent am smartphone oder Apple M1 ballern und Lederjacke müsste ein komplettes Geschäftsfeld aufgeben. :wink:
horn 12
2022-10-10, 03:21:10
Nun, sollten langsam Benchmark Werte und Bilder der Karte kommen,- um die Vorstellung und Fall des NDA und Verfügbarkeit der 4090 zu stören.
Rechne dass Morgen, Dienstag Mittags bis 15 Uhr maximal was kommen sollte,- um die Leute bei Laune zu halten.
Badesalz
2022-10-10, 06:28:40
Ich tu hier gar nix.Das wäre in der Tat der Idealfall. Leider stimmt das irgendwie auch nicht oder?
Wen interessieren die Watt außer AMD und seine fans? Es ging um was anderes.Wen interessieren TopDogs? Leute die zusammengetrommelt nichtmal in eine Handvoll passen? Aktuell ist es am schlechtesten mit Spielegrakas Geld zu verdienen. Da kann man sich schon auf den Segment konzentrieren wo das noch am meisten was bringt. Mit Eigenschaften die in jenem auch gefragt sind.
Wer einen TopDog haben will soll sich ruhig 4090 holen. Nur zu.
Auch Intel haut eine CPU raus mit "fastest gaming CPU" oder sowas in der Art.Dann hol dir das nächste Teil mit 270W und ergötz dich an den 3% mehr. Ist doch genau das richtige für Spielkinder. Kauf nen 2kW Netzteil, mach Waküs überall drauf, Glykol rein und ab geht die Post.
@dargo
Gut ausgesucht. Das ist aber... Realität. Das ist nicht unbedingt das was den Slipknot erfreut. Hast du nicht auch irgendwas verzerrtes? ;)
boxleitnerb
2022-10-10, 07:45:49
Mit Top perf/Watt hat man DIE Möglichkeit, auch die absolut schnellste Karte zu stellen.
Vorausgesetzt:
Sie taktet hoch genug
Sie hat genug Shader
Man hat den Willen dazu als IHV
Sehe das bei AMD durchaus als möglich an.
robbitop
2022-10-10, 07:55:21
Wow... Breaking News. In Zukunft werden Games immer stärker RT verwenden weil die Hardware dafür auch schneller wird. :freak: Ich verrate dir mal was, denn offensichtlich kapieren das die ganzen PC-Nerds hier immer noch nicht (jetzt nicht auf dich bezogen). Raytracing wird erst eine große Rolle spielen wenn es im Mainsteam angekommen ist. Und das ist eine Konsole mit einem ~200W SoC.
Da kann ich nur 100%ig zustimmen und ich meine ich habe, das sogar mind. 2x schon so gepostet. Next Gen Konsolen werden es dann konsequent für die Masse bringen. Am PC darf man wie immer Pionier mit blutender Kante sein.
Ist ein Overdrive Mode @RT in einem zwei Jahre alten CP77 auch. Dennoch war sich Nvidia nicht zu schade so einen Bullshit bei CDPR fürs Marketing von Ada zu "bestellen". ;)
Ich kenne die spezifischen Settings jetzt nicht und schätze mal, da lässt sich was optimieren. Aber was dennoch interessant ist: wenn man das komplette herkömmliche Lighting rausschmeist und gegen RT ersetzt. Das ist super hardwarehungrig aber sieht dann auch richtig gut und korrekt aus. Ein anderes Beispiel gab es IIRC mit Metro Exodus Enhanced Edition. Alex Bataglia von DF war begeistert von den Ergebnissen und ich finde, das kommt im DF Video sehr gut rüber.
Jetzt brauchen wir nur mehr Grunt.
Und ehrlich gesagt statt immer höheren Auflösungen wäre es schön, mehr Fortschritte in der Grafik zu sehen. RT ist ein Baustein. Systeme wie Nanite sind andere. Ansonsten wäre auch ein Fortschritt in der Spielphysik mal schön. Da sind PC Spiele seit 10-15 Jahren IMO stehen geblieben. Und das obwohl es mittlerweile CPUs mit drölf Cores gibt. :)
vinacis_vivids
2022-10-10, 08:01:16
Weiß gar nicht wieso hier so ein Tamtam gemacht wird. Die 4090 4N ~ 450W erreicht gerade mal ~1.6 Faktor beim harten Raster ggü. der 6900XT 7nm. Bei 4090 @ 600W vllt. Faktor ~ 1.65.
Da braucht AMD gerade mal 350W für die gleiche Leistung. Wozu aufregen um nichts?
dargo
2022-10-10, 08:15:49
Wen interessieren die Watt außer AMD und seine fans?
Vielleicht die Hersteller von Notebooks? Vielleicht MS und Sony bei den nächsten Konsolen? Ich empfehle mal öfter über den Tellerrand zu schauen und nicht immer nur in der PC-Desktop-Blase zu hocken wo die Nerds über Stromkabel/Netzteil bei neuen Grafikkarten wieder diskutieren müssen oder ob die neue Graka überhaupt in das eigene Gehäuse passt.
https://abload.de/thumb/4090_customgudox.jpg (https://abload.de/image.php?img=4090_customgudox.jpg)
Dieser Vergleich sagt auch vieles aus in welche verrückte Richtung sich gerade der PC entwickelt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13131361&postcount=7170
Und ehrlich gesagt statt immer höheren Auflösungen wäre es schön, mehr Fortschritte in der Grafik zu sehen. RT ist ein Baustein. Systeme wie Nanite sind andere.
Diese werden automatisch kommen wenn sich DEVs bei Multiplattformern von den alten Konsolen trennen. Noch ist der Zeitpunkt für die DEVs aus finanzieller Sicht offenbar nicht optimal.
Schnitzl
2022-10-10, 08:31:11
(...)
sorry fürs rauskürzen ;)
Die 4090 interessiert theoretisch (mehr doer weniger wage Kaufabsicht) 0,05% der PC-Spieler. Der Groß davon aber, interessiert sich nen feuchten für die Effizienz und wieviel sie damit ein Frame in Overwatch2 kostet. Oder Perf/Watt. Was sollen das dann bitte für "positive Tests" sein? Sie sehen und nehmen nur die absoluten Zahlen. Die heißen Verbrauch und Preis. Verbrauch ist auch nicht unbedingt gleich gretabezogen/krisenbezogen. Man muss dafür halt das Gehäuse haben und das Netzteil haben.
Ein Wallossek, ein Raff wie alle anderen solchen auch, können auch 3x deutlichst zeigen und klar belegen, daß die 4090 die "effizienteste" GPU ist die NV jemals rausgebracht hat. Quantitativ gesehen interessiert das keine Sau und spielt bei der Wegfindung was und ob überhaupt man neues kaufen sollte, "niemanden". Außer den paar wenigen Forenheinis.
DIE MEISTEN, haben auf gute 4070 und 4080 gewartet. Nicht um sie zu kaufen, sondern damit sich der Markt für gebrauchte RT30 endlich für sie positiv entwickelt. Genau solche Dinger fehlen aber :usweet:
Die 1000 Leute pro Land die "Effizienz" wichtig finden oder die eh einfach nur immer den TopDog haben wollen egal was wer sonst noch schreibt, spielen wirtschaftlich gesehen keine müde Rolle. Mitziehen kann die 4090 aber auch keinen. Es ist den meisten die nachschauen mittlerweile klar, daß die 4080/16 viel zu teuer ist und die 4080/12 den klar falschen Namen trägt.
AMD muss mit garnichts vorpreschen. Bis auf die Topdog-Fanboys warten eh alle was die 7000er bringt. In Ruhe. Für das rare Geld die man mit Spielegrakas noch machen kann, muss man in dem Segment gut sein für den sich ein Tester eben nicht bückt...
da bin ich anderer Meinung.
Die Top-Karte interessiert immer, die Leute kaufen die dann zwar nicht aber lassen sich von der Psychologie verfführen "nVidia hat die schnellste Karte und ich hab auch ne nVidia"
Ob die jetzt schlechter oder besser ist als die Konkurrenz [in dem jeweiligen Preis/Perf.-Segment] ist unwichtig weil ist ja nVidia und nVidia hat das schnellste.
Quasi wie bei Autos, z.B. Audi hat 6- und 8-Zylinder Fahrzeuge und den R8, kaufen tun die Leute dann nen A4 2,0l oder A3 1,5l, weil das ist ja fast so geil wie der R8 :freak:
Ist schon ein komisches Gefühl, so komplett ohne Infos und Ideen wie AMD diesmal rauskommt. Würde AMD wünschen dass sie diesmal die 4090 nassmachen, aber selbst das wäre nur ein kleiner Schritt für AMD.
Kann auch überhaupt nicht einschätzen, wie weit sie das Watt-Rennen mitgehn... :conf2:
dargo
2022-10-10, 08:37:29
Ist schon ein komisches Gefühl, so komplett ohne Infos und Ideen wie AMD diesmal rauskommt. Würde AMD wünschen dass sie diesmal die 4090 nassmachen, aber selbst das wäre nur ein kleiner Schritt für AMD.
Kann auch überhaupt nicht einschätzen, wie weit sie das Watt-Rennen mitgehn... :conf2:
Ich hoffe sehr, dass AMD diesen Wattage-Wahnsinn nicht mitgeht. Befürchte aber, dass ich mich irre nachdem ich gesehen habe, dass die TDP/PPT bei Zen4 ab 24-Threader erhöht wurde.
vinacis_vivids
2022-10-10, 08:38:45
@Schnitz
Das stimmt so nicht mit den Autos. Nur weil Verstappen mit RedBull jetzt Weltmeister wird, wird sich keiner in Deutschland RedBull Autos kaufen. Das ist zum größten Teil einfach BS.
Nazar
2022-10-10, 08:50:10
Ich tu hier gar nix. Es wird hier vor mir schon fantasiert, dass sich N31 im Bereich oder sogar über 4090 platzieren wird.
Dann habe ich erklärt, warum das nicht passieren wird. Alleine schon deswegen, weil es AMD selbst aussagt im dem der Laden wieder einen auf perf/watt macht statt "fastest GPU ever". Mal schauen ob es tatsächlich +30% Krücken vs N21 werden lol. Das ist etwas, das ich aber auch nicht glauben can. Wird schon dicker werden, aber nicht +4090. (y)
Du hast rein gar nichts erklärt, warum das so nicht sein kann. Dazu benötigst du, wie jeder andere auch, Fakten, die du, ebenso wie bisher alle anderen, !!nicht!! hast. Selbst deine angeblichen Mutmaßungen, wurden nicht einmal von dir logisch begründet. Zu sagen: "Das war schon immer so und wird deswegen wieder so passieren." ist keine Begründung.
Aber bitte, !!erkläre!! doch mal im Detail, welche !!logischen!! Schlüsse dich zu deiner These veranlasst haben. ;)
basix
2022-10-10, 09:11:29
Perf/W ist eine der wichtigsten Metriken überhaupt. Wenn man den Top Dog liefern will, geht das schlecht mit ineffizienten Karten (man erinnere sich an Vega) ;)
Und dass AMD Stand heute nicht irgendwas rausposaunt ist sogar smart. Lieber die Reviews abwarten wo man dann weiss, was Sache ist. Dann kann man entsprechend die finale Marketing Story zurechtlegen. Nvidia gewährt AMD sogar einen Bonus-Tag, da die Reviews morgen kommen und erst am Mittwoch die Karten kaufbar werden.
+50% Perf/W sind eine gute Ansage. Nach aktuellem Kenntnisstand würde es mit diesen Werten für eine 4090 aber knapp nicht reichen, auch wenn N31 mit 350W daherkommt. Man wäre aber recht nah dran. Wäre das schlecht? Ganz und gar nicht.
Cyberfries
2022-10-10, 09:15:28
Generell sehe zu RDNA3 2 verschiedene Geschichten:
Story1: Navi31 wird selbst die Full AD102 mit 600W in den Boden stampfen
Story2: Das Topmodell dürfte auf AD103 Niveau landen, abgespeckt auf AD104 Niveau.
Auch wenn ein Computer nur ein Nullen und Einsen kennt, gibt es in der Realität meist mehr als nur zwei Optionen.
Ich halte beide von dir skizzierten Szenarien für unrealistisch.
Aber ja ich denke auch, dass Navi31 nicht einmal annähernd an die 4090 ran kommt. zumindest nicht wenn die 300mm² GCD von Angstronomics korrekt sind.
Hört doch endlich mal auf mit den 300mm² rumzuwedeln. Das ist nicht der komplette Chip.
Die letzte Gen waren 520mm² (N21) gegen 628mm² (GA102), jetzt ca. 530mm² (N31) gegen 608mm² (AD102).
Die GCD-Anteile bei N21 waren ebenfalls etwa 300mm²
weil es AMD selbst aussagt im dem der Laden wieder einen auf perf/watt macht statt "fastest GPU ever".
Es ist schwierig zu behaupten "Wir sind die Besten", wenn die Konkurrenz noch nicht da ist.
Die Aussage war immerhin vor dem nVidia-Launch, abwarten was AMD am 3.11. sagt.
Wenn es so wäre, würde das 3dc kosequent am smartphone oder Apple M1 ballern
Wenn ich mir anschaue, ob die Waschmaschine von Miele oder die von Siemens weniger Wasser braucht
hilft es mir nicht wenn du mit einem Geschirrspüler ankommst.
Redneck
2022-10-10, 09:24:39
Perf/W ist eine der wichtigsten Metriken überhaupt. Wenn man den Top Dog liefern will, geht das schlecht mit ineffizienten Karten (man erinnere sich an Vega) ;)
Und dass AMD Stand heute nicht irgendwas rausposaunt ist sogar smart. Lieber die Reviews abwarten wo man dann weiss, was Sache ist. Dann kann man entsprechend die finale Marketing Story zurechtlegen. Nvidia gewährt AMD sogar einen Bonus-Tag, da die Reviews morgen kommen und erst am Mittwoch die Karten kaufbar werden.
+50% Perf/W sind eine gute Ansage. Nach aktuellem Kenntnisstand würde es mit diesen Werten für eine 4090 aber knapp nicht reichen, auch wenn N31 mit 350W daherkommt. Man wäre aber recht nah dran. Wäre das schlecht? Ganz und gar nicht.
Sie gehen mit der TDP ja auch hoch.. 50%+
wären es bei N21 TDP. Alle Spekus und Gerüchte (MLID) gingen bei Ada und N31 von ca Verdopplung aus (und sogar höher).. Das geht bei Nvidia durch DLSS 3 ja auch auf. AMD muss auch liefern..zumindest das was in den Folien angegeben wurde.
Finde diese Warterei und Salami NDA Taktik von NV zum Kotzen.. Wenn man schon ein Produkt bestellbar macht, soll man bitte auch schon die Reviews öffentlich machen dürfen. Ich habe mir kein einziges unboxing angesehen und werde es auch nicht.
aceCrasher
2022-10-10, 09:26:17
Die letzte Gen waren 520mm² (N21) gegen 628mm² (GA102), jetzt ca. 530mm² (N31) gegen 608mm² (AD102).
Die GCD-Anteile bei N21 waren ebenfalls etwa 300mm²
Letzte Gen war allerdings auch 520mm² (7nm) vs 628mm² (8nm/10nm). Den Vorteil bei der Dichte hat AMD dieses Mal verloren. Ich würde N31 tendenziell auch leicht unter AD102 einordnen, aber definitiv über AD103 - alles Andere wäre ein Trauerspiel.
Wenn es so wäre, würde das 3dc kosequent am smartphone oder Apple M1 ballern und Lederjacke müsste ein komplettes Geschäftsfeld aufgeben.
Das nicht, aber CPU und GPU laufen jetzt undervolted statt übertaktet :redface:
Badesalz
2022-10-10, 09:30:03
da bin ich anderer Meinung.
Die Top-Karte interessiert immer, die Leute kaufen die dann zwar nicht aber lassen sich von der Psychologie verfführen "nVidia hat die schnellste Karte und ich hab auch ne nVidia"Das ist Marketingsmüll, herbeifantasiert von Marketingheinis. Wiederholt von Leuten die sich das mal durchgelesen haben und dann der Meinung sind, sie sind voll im Thema und können es klug anderen erzählen. Es kaufen sich ja auch alle einen 1.4T Golf, weil es den Golf R gibt. Natürlich. Klar :comfort:
vinacis_vivids
2022-10-10, 09:31:24
Für alle die träumen, dass AMD im Desktop-Bereich top notch sein wird:
Die big-big Navi3X BruteForce Version mit 2xGCD = 2x8192SP = 16384SP ist mit hoher wahrscheinlich rausgefallen, weil es für Kunden nicht bezahlbar ist. Technisch machbar ist es, aber nicht wirtschaftlich. So eine große GCD-Version ist einfach zu teuer.
Bei den Q3-2022 Nachrichten für fallende Absatzahlen und hohe Lagerbestände der GPU-Chips ergibt ein keinen Sinn für ein paar Nerds am Desktop solche riesen Chips zu produzieren.
Dann lieber in FSR 3.0 investieren und kleine Matrix-Cores in die CUs einzubauen, das ist wesentlich billiger und hat den gleichen Effekt. Vor allem spart es Bandbreite. AMD kann es dann als AI-Beschleunigung verkaufen.
8K native fp32 Rendering wird es kaum geben, weil zu teuer, sondern eben nur mit Techniken wie FSR 3.0 aka fp16, vllt. noch mit packed fp32. Der Anteil von fp32 wird auf jeden Fall gesenkt, der Anteil von fp16 erhöht. Eventuell von fp32 1:2 fp16 auf fp32 1:4 fp16 verdoppelt.
Ich denke RDNA3 wird uArch mäßig analog zu CDNA2 auch Matrix-Cores einbauen, also int8 und bf16. Das gehört wohl mit zu den größten Veränderungen bzw. Weiterentwicklung zu RDNA2. Der Umbau der CUs am Desktop GPU wird dann "Ray-Tracing Core" der zweiten Generation bedeuten.
Alle diese technischen Details interessieren dem gemeinen Kunden 0,0.
Cubitus
2022-10-10, 09:32:41
Wenn man von dem "Enermax Leak" ausgeht, und weiß das der N31 nicht so viele Transistoren wie das NV-Pendant hat, ist doch von sehr hohen Taktraten auszugehen?
robbitop
2022-10-10, 09:33:47
https://de.wikipedia.org/wiki/Halo-Effekt
Es ist aus der psychologischen Forschung evident, dass verwandte Produkte aufeinander abfärben. Starke Produkte stärken die ganze Marke.
Tangletingle
2022-10-10, 09:35:52
Wenn es so wäre, würde das 3dc kosequent am smartphone oder Apple M1 ballern und Lederjacke müsste ein komplettes Geschäftsfeld aufgeben. :wink:
Um von "deutlich mehr" auf "alle" zu kommen bedarf schon ganz schöner Hirnakrobatik zu der wohl nur ein gewisser Teil von Menschen fähig ist.
Linmoum
2022-10-10, 09:36:09
Bondrewd hat schon mehrfach gesagt, dass es keine Matrix-Cores mit RDNA3 geben wird.
Dass man Dual-GCD aus Kostengründen plötzlich cancelt, ist auch albern. Das erfährt man nicht erst kurz vor knapp. Und deswegen hat irgendwas aktuell Q3-mäßiges auch nichts damit zu tun. Wahrscheinlich war Dual-GCD für den ersten MCD-Schritt - für den Desktop - nie ernsthaft ein Thema. Gaming hat ganz andere Anforderungen als HPC/AI. Das hatte Wang auch schon mal betont.
vinacis_vivids
2022-10-10, 09:37:25
Wenn man von dem "Enermax Leak" ausgeht, und weiß das der N31 nicht so viele Transistoren wie das NV-Pendant hat, ist doch von sehr hohen Taktraten auszugehen?
Was sind denn für dich hohe Taktraten? AMD kann alles hochtakten, es kommt auf die Auslastung und Anwendung an. Bei 8k native Rendering sind die Taktraten garantiert niedriger als 1440p.
Derzeit liegt AMD bei 2.9Ghz unter 6nm und die geleakte Grenze bei 3.72Ghz bios-lock. Such dir ne Zahl zwischen 2.9 und 3.72 aus.
aceCrasher
2022-10-10, 09:47:07
Derzeit liegt AMD bei 2.9Ghz unter 6nm und die geleakte Grenze bei 3.72Ghz bios-lock. Such dir ne Zahl zwischen 2.9 und 3.72 aus.
2.9GHz bei einem winzigen Chip, kleinere Chips takten bei gleicher Fertigung und Architektur bekanntlich besser als große Chips, diese Information können wir wohl kaum auf N31 anwenden. N31 sehe ich zwischen 3.3 und 3.5GHz.
Slipknot79
2022-10-10, 10:02:04
Vielleicht die Hersteller von Notebooks? Vielleicht MS und Sony bei den nächsten Konsolen? Ich empfehle mal öfter über den Tellerrand zu schauen und nicht immer nur in der PC-Desktop-Blase zu hocken wo die Nerds über Stromkabel/Netzteil bei neuen Grafikkarten wieder diskutieren müssen oder ob die neue Graka überhaupt in das eigene Gehäuse passt.
Die Hersteller von Notebooks interessieren Absatzzahlen und das geht sicher auch gut mit Lederjackes Notebookschips.
Vielleicht MS oder Sony, vielleicht auch nicht. Aber ja, wer Effizienz will, der kauft sich neben dem smartphone oder dem Apple M1 dann eben eine Konsole oder nen Notebook. Aber sicher keine GPU von AMD oder Lederjacke. AMD macht hingegen Theater mit perf/watt und Lederjacke ist wenigstens so ehrlich und haut gleich ungeniert 600W raus.
Was gibts da zu diskutieren. Neues größeres Gehäuse und gut ist. Nen V12 Motor braucht eben Platz, so muss das sein und nicht anders. (y)
vinacis_vivids
2022-10-10, 10:19:02
Im mobilen Geschäft zählt Perf/Watt und Perf/$ , da wird die Phoenix APU mit RDNA3 uArch schon noch einige Anhänger finden. Das ist allerdings ein anderes Schlachtfeld als Desktop GPU.
dargo
2022-10-10, 10:37:16
+50% Perf/W sind eine gute Ansage. Nach aktuellem Kenntnisstand würde es mit diesen Werten für eine 4090 aber knapp nicht reichen, auch wenn N31 mit 350W daherkommt. Man wäre aber recht nah dran. Wäre das schlecht? Ganz und gar nicht.
Nochmal... das Ziel ist/war >50% Perf/W.
https://www.pcgameshardware.de/screenshots/original/2022/06/EDNA-3-AMD-1--pcgh.jpg
Das lässt viel Interpretationsraum. Insbesondere soll so eine Angabe imo die Konkurrenz auch verunsichern.
Bin ich der Einzige, welcher von den kolportierten 4 TByte/s GPU-interner Transferrate nicht beeindruckt ist? Sieht toll aus, ist aber das Mindeste - Navi 21 schaufelt bereits mit 2 TByte/s und Navi 31 wird ja deutlich mehr Rechenleistung im Gepäck haben. Immer alles schön ins Verhältnis setzen. :)
MfG
Raff
dargo
2022-10-10, 10:46:06
Bin ich der Einzige, welcher von den kolportierten 4 TByte/s GPU-interner Transferrate nicht beeindruckt ist?
Offenbar schon, denn die meisten interessieren irgendwelche schnöden Bandbreitenzahlen nicht sondern was am Ende dabei rauskommt.
Offenbar schon, denn die meisten interessieren irgendwelche schnöden Bandbreitenzahlen nicht sondern was am Ende dabei rauskommt.
Dann wird die RTX 4090 mit ihren unveränderten 1 TByte/s (VRAM-Durchsatz) extrem beeindrucken.
MfG
Raff
dargo
2022-10-10, 10:49:01
Dann wird die RTX 4090 mit ihren unveränderten 1 TByte/s (VRAM-Durchsatz) extrem beeindrucken.
Nee... die ist komplett unterversorgt. Schließlich müsste sie 4TB/s bekommen wenn Nvidia von 4x facher Performance spricht. ;D
Badesalz
2022-10-10, 10:56:13
https://de.wikipedia.org/wiki/Halo-Effekt
Es ist aus der psychologischen Forschung evident, dass verwandte Produkte aufeinander abfärben. Starke Produkte stärken die ganze Marke.Werden wir dann sehen wie die 4090 die 4080er stärken kann :rolleyes: Nochmals. solche Studien sind Marketingsmüll.
Bin ich der Einzige, welcher von den kolportierten 4 TByte/s GPU-interner Transferrate nicht beeindruckt ist? Sieht toll aus, ist aber das Mindeste - Navi 21 schaufelt bereits mit 2 TByte/s und Navi 31 wird ja deutlich mehr Rechenleistung im Gepäck haben.Bist du in der letzten Zeit leicht biased? Warum sollte eine Verdopplung eines der Eckdaten schwer beeindrucken ODER ABER für Schulterzucken sorgen? Wer behyped das denn? Ist das etwas anderes als das was man sonst auf Ryzens oder Intels Folien findet? Inwiefern muss man ausgerechnet das jetzt besonders relativieren? Hätte man das seitens AMD lieber unerwähnt gelassen?
Persönlich und objektiv kannst du dir wegen den 4 TB/s ruhig nen Keks freuen. Wenn sie vernünftig die ganze Breite der Mitte bedienen können, werden vielleicht wieder mehr Leute Bock haben am PC zu zocken. Das bedeutet einen sicheren Job für dich.
DrFreaK666
2022-10-10, 11:02:50
Wenn es so wäre, würde das 3dc kosequent am smartphone oder Apple M1 ballern und Lederjacke müsste ein komplettes Geschäftsfeld aufgeben. :wink:
Wen interessiert das 3DC? Bilden wir den Durchschnitt der Menschen ab? :ugly:
why_me
2022-10-10, 11:05:28
Bin ich der Einzige, welcher von den kolportierten 4 TByte/s GPU-interner Transferrate nicht beeindruckt ist? Sieht toll aus, ist aber das Mindeste - Navi 21 schaufelt bereits mit 2 TByte/s und Navi 31 wird ja deutlich mehr Rechenleistung im Gepäck haben. Immer alles schön ins Verhältnis setzen. :)
Ich nehme mal an, du beziehst dich auf das Bild, das vor ein Paar Seiten gepostet wurde (@AMDGPU_).
4TByte/s sind mehr als das 4 Fache der Speicherbandbreite. Da sollte auch bei N3x zwischen Infinity Cache und dem restlichen System ausreichen. Um von den 4TByte/s limitiert zu werden, braucht es eine sehr hohe Hitrate.
Was der Äpfel-Birnen vergleich mit der 4090 jetzt soll, verstehe wer will. Du vergleichst hier Cache- vs Speicherbandbreite ;)
PS: Will jetzt nichts unterstellen, aber müsst ihr das von Seiten Nvidias aus eigentlich machen? In AMD Threads die 4090 anteasern? Hab letztens von Igor was in Richtung perf/W gegenüber der 3090ti wird einen überraschen gelesen, etwas später genau das gleiche von dir,....
DrFreaK666
2022-10-10, 11:09:23
https://de.wikipedia.org/wiki/Halo-Effekt
Es ist aus der psychologischen Forschung evident, dass verwandte Produkte aufeinander abfärben. Starke Produkte stärken die ganze Marke.
Hast du den Link den auch angeklickt?
Bei einer positiven Verzerrung spricht man auch vom Heiligenschein-Effekt, bei einer negativen vom Teufelshörner-Effekt
Die 4090 hat nicht nur positive Aspekte.
Badesalz
2022-10-10, 11:12:45
@why_me
Das ist auch was mich gelegentlich rumtreibt. Völlig unbiased, hasse ich trotzdem diese hinterf... Unaufrichtigkeit.
Voodoo6000
2022-10-10, 11:15:42
Viel wichtiger als ein Halo-Effekt wäre bei dieser Generation ein gutes Preis-Leistungs-Verhältnis im High-End-Bereich. Nvidia hat da mit der "4070Ti" und 4080 den Bogen weit überspannt. Die Frage ist ob AMD lieber Merkanteile gewinnen möchte bzw. kann(Fertigungskapazität) oder lieber wenig GPUs mit hoher Gewinnmarge verkauft.
Linmoum
2022-10-10, 11:22:38
Wichtig ist vor allem die RT-Performance. Ampere sollte man tunlichst deutlich schlagen, da RDNA3 (mindestens) bis 2024 am Markt bleiben wird und Intel bis dahin sicher schon Battlemage parat hat.
Wenn man bei RT dann sogar nur noch auf Platz 3 zurückfällt, wäre das mehr als nur suboptimal.
robbitop
2022-10-10, 11:23:46
Werden wir dann sehen wie die 4090 die 4080er stärken kann :rolleyes: Nochmals. solche Studien sind Marketingsmüll.
Kannst du das belegen, dass es nur "Marketingmüll" ist aber faktisch völlig wirkungslos? Soweit ich das beobachten kann, wird das in unterschiedlichsten Sektoren gemacht. Und wenn man sich mal die große Masse anschaut - wie informiert die meisten sind - mich würde es absolut nicht wundern, wenn das Prestige eines Flaggschiffproduktes auf das eines Mainstreamproduktes abfärbt. Da wird ziemlich sicher nach Marke gekauft und die Marke wird nunmal durch Halo Produkte gestärkt. Völlig unabhängig von der GPU Branche.
robbitop
2022-10-10, 11:29:36
Die 4090 hat nicht nur positive Aspekte.
Es ging mir nicht um die 4090 im Speziellen sondern, dass es den Halo Effekt branchenunabhängig gibt und das nicht erträumter Kram von Marketingleuten ist. Fast alle Endkundenprodukte arbeiten nach dem Prinzip.
Bist du in der letzten Zeit leicht biased?
Ich hätte einfach vinacis_vivids zitieren sollen, das hätte vieles erklärt. :wink:
Yep, ich bin biased - ich feiere einfach jede geile Tech und verabscheue Bremserei. Daher hoffe ich ja, dass AMD mehr in die Waagschale wirft als eine Verdopplung. Diverse Punkte brauchen eher Faktor 4. Aber eigentlich habe ich keinen Zweifel daran, dass AMD hier ordentlich nachlegen wird.
PS: Will jetzt nichts unterstellen, aber müsst ihr das von Seiten Nvidias aus eigentlich machen? In AMD Threads die 4090 anteasern? Hab letztens von Igor was in Richtung perf/W gegenüber der 3090ti wird einen überraschen gelesen, etwas später genau das gleiche von dir,....
Uff, das habe ich eben erst gesehen. So ein Quark. Ich bin kein Nvidia-Mitarbeiter und denen daher zu gar nichts verpflichtet. An dem Tag, wo Nvidia irgendeine Propaganda vertraglich auferlegt, darf meinen Job jemand anderes machen. Insofern siehe oben: Meine Begeisterung sprudelt bei allem, das nachweislich geil ist - inkl. der Intel'schen RT-Leistung zuletzt.
MfG
Raff
Gott1337
2022-10-10, 11:32:15
Wichtig ist vor allem die RT-Performance. Ampere sollte man tunlichst deutlich schlagen, da RDNA3 (mindestens) bis 2024 am Markt bleiben wird und Intel bis dahin sicher schon Battlemage parat hat.
Wenn man bei RT dann sogar nur noch auf Platz 3 zurückfällt, wäre das mehr als nur suboptimal.
Zurzeit ist doch AMD auf "Platz 3" bei RT. Ich wäre eher beeindruckt wenn sie soviel RT Leistung in RDNA3 packen wie Intel. (natürlich relativ zur performance)
Voodoo6000
2022-10-10, 11:34:16
Wenn man bei RT dann sogar nur noch auf Platz 3 zurückfällt, wäre das mehr als nur suboptimal.
So toll finde ich Intels RT Performance nicht. Intel bietet aktuell halt einen unheimlich großen Chip günstig an.
PCGH Raytracing Performance Index
Radeon RX 6950 XT Leistung: 144% Die Size 519,8 mm² 7nm
Arc A770 Leistung: 100% Die Size 406 mm² 6nm
Radeon RX 6750 XT Leistung: 90% Die Size 335 mm² mm² 7nm
So betrachtet ist ARC bei RT sogar schlechter als RDNA2 trotz 6nm vs 7nm. Die RT-Performace pro Chipfläche ist bei AMD besser.
Exxtreme
2022-10-10, 11:39:39
So betrachtet ist ARC bei RT sogar schlechter als RDNA2 trotz 6nm vs 7nm. Die RT-Performace pro Chipfläche ist bei AMD besser.
Kommt darauf an was man da berechnet. Schatten berechnen, das können die Radeons immer noch recht gut. Sobald es aber um Lichtstrahlen geht dann kacken sie so richtig ab.
robbitop
2022-10-10, 11:46:55
Daher hoffe ich ja, dass AMD mehr in die Waagschale wirft als eine Verdopplung. Diverse Punkte brauchen eher Faktor 4. Aber eigentlich habe ich keinen Zweifel daran, dass AMD hier ordentlich nachlegen wird.
MfG
Raff
Ich sehe das auch so. Du meinst primär RT oder? Ich denke mal mit 12T FPs und ~3 GHz wird man sicherlich grob Faktor 2 schneller sein als N21. In RT wird man sicherlich ein höheres HW Level fahren als N21 und entsprechend höhere Zuwächse sind dort zu erwarten. Die Frage ist, ob sie einfach nur reaktiv Level 3 eingebaut haben (weil Turing/Ampere da sind) oder auch wie Intel mit ARC und NV mit Ada Level 4.
Eigentlich sind die Maßnahmen für schnelles RT schon lange bekannt und eigentlich war auch schon länger absehbar, dass der Wettbewerb mehr einbauen wird. Man muss mal sehen, ob AMD mit RDNA3 eben auch vorausgedacht hat in der Hinsicht, oder ob sie halt nur Level 3 bringen und mit RDNA4 dann weiter nach vorn gehen. An ihrer Stelle hoffe ich, dass sie eben auch den nächsten Schritt antizipieren und nicht nur damit kommen, was die Lastgen des Wettbewerbers hatte.
RT wird immer wichtiger, wenn man Benchmarks in modernen Spielen auch gewinnen möchte.
aufkrawall
2022-10-10, 11:47:06
Wichtig ist vor allem die RT-Performance. Ampere sollte man tunlichst deutlich schlagen, da RDNA3 (mindestens) bis 2024 am Markt bleiben wird und Intel bis dahin sicher schon Battlemage parat hat.
Kommt halt auch drauf an, was man mit "Ampere schlagen" meint. Brauchts einen Chip, der bei Raster viel schneller ist, bei RT aber weiterhin auf 3090-Level zurückfällt? Das wäre enttäuschend.
Leider hatte man bei RDNA2 auch schon gedacht, dass dieser mindestens Turing erreichen sollte. Das Resultat kennen wir. Natürlich war auch Ampere bei RT nicht so ein großer Schritt wie erhofft (bzw. je nach Anwendung sogar gar keiner), aber natürlich von einem ganz anderen Niveau aus.
robbitop
2022-10-10, 11:48:39
So toll finde ich Intels RT Performance nicht. Intel bietet aktuell halt einen unheimlich großen Chip günstig an.
PCGH Raytracing Performance Index
Radeon RX 6950 XT Leistung: 144% Die Size 519,8 mm² 7nm
Arc A770 Leistung: 100% Die Size 406 mm² 6nm
Radeon RX 6750 XT Leistung: 90% Die Size 335 mm² mm² 7nm
So betrachtet ist ARC bei RT sogar schlechter als RDNA2 trotz 6nm vs 7nm. Die RT-Performace pro Chipfläche ist bei AMD besser.
Intel's ARC ist generell pro Transistor (als Resultat der Mischung von uArch und Treiber) noch nicht auf dem Level wo AMD und NV sind. Aber durch einen höheren HW Level der RT Integration ist der relative drop bei RT on vs off tatsächlich kleiner.
Dural
2022-10-10, 11:51:06
AMD hat viel zu wenig RT Leistung.
Wenn sie 3. Kraft bleiben ist das so ziemlich der Untergang der AMD Gaming Abteilung. Intel wird ihnen ziemlich schnell die Kunden abgreifen. Intel Arc Battlemage soll ja schon 2023 kommen.
Eigentlich müsste AMD sogar was in richtig Ada bringen, sprich RT Leistung in Überfluss.
Ich befürchte aber fast das die liebe Lisa all in bei der Raster Leistung geht und alles andere stiefmütterlich abgehandelt hat. Wobei die Cache bei RT sehr nützlich sein sollten.
vinacis_vivids
2022-10-10, 11:52:44
Bei Apple funktioniert GPU auch ohne RT, was soll dieser AMD-Bashing BS?
dargo
2022-10-10, 11:53:01
Zurzeit ist doch AMD auf "Platz 3" bei RT.
Nur weil du deinen Stuss weiter erzählst wird der nicht besser. Intel bringt einen 406mm² Die in N6 und das vergleichst du dann womit? Mit einem 237mm² N23 in N7? :lol:
robbitop
2022-10-10, 11:56:52
Apple bedient eine ganz andere Branche. Apple Macs werden nicht zum Spielen gekauft. Meistens für Content Creation und da ist RT Nische.
Geforces, Radeons und ARCs sind aber primär Gaming Produkte und da wird RT nun mal sukzessive wichtiger.
robbitop
2022-10-10, 12:01:26
Nur weil du deinen Stuss weiter erzählst wird der nicht besser. Intel bringt einen 406mm² Die in N6 und das vergleichst du dann womit? Mit einem 237mm² N23 in N7? :lol:
Jepp noch ist Intel pro Transistor aktuell nirgends konkurrenzfähig. Aber: deren RT Hardware ist konsequenter. Man verliert relativ gesehen weniger mit RT.
Für AMD und NV ist ARC noch keine ernst zu nehmende Konkurrenz, wenn man mit einer 21,7 Mrd Transistor GPU gegen eine 12 Mrd Transistor GPU (3060) respektive einer 11 Mrd Transistor GPU (6650XT) antreten muss.
Die Frage ist eben, ob sie mit Battlemage und Celestial dieses Grundproblem lösen können. Ansonsten bleiben sie erstmal Nummer 3.
Aber dennoch tut AMD gut darin in zukünftigen uArchs ein höheres Integrationslevel für RT einzubauen um den Anschluss zu den Geforces nicht zu verlieren. Immer mehr Spiele werden nunmal mit RT releast und gebencht.
dargo
2022-10-10, 12:03:29
Jepp noch ist Intel pro Transistor aktuell nirgends konkurrenzfähig. Aber: deren RT Hardware ist konsequenter. Man verliert relativ gesehen weniger mit RT.
Lol... woran machst du das fest? An den grandiosen Intel-Treibern? ;D Klar verliert aktuell Intel mit RT weniger wenn die Dinger im reinen Rasterizer völlig ablosen.
Aber dennoch tut AMD gut darin in zukünftigen uArchs ein höheres Integrationslevel für RT einzubauen um den Anschluss zu den Geforces nicht zu verlieren. Immer mehr Spiele werden nunmal mit RT releast und gebencht.
Ich frage mich jedes Mal wie du oder andere auf die Idee kommen AMD würde bei zukünftigen GPU-Generationen nach RDNA2 nicht mehr in RT investieren? Woher kommt dieser Unsinn eigentlich? Das ist die einzig logische Entwicklung.
basix
2022-10-10, 12:11:20
Nochmal... das Ziel ist/war >50% Perf/W.
https://www.pcgameshardware.de/screenshots/original/2022/06/EDNA-3-AMD-1--pcgh.jpg
Das lässt viel Interpretationsraum. Insbesondere soll so eine Angabe imo die Konkurrenz auch verunsichern.
Ja, es werden >50% angegeben. Vielleicht sind es 60%, 70%, oder auch nur 40% wenn die Karte etwas zu hoch geprügelt wird. Also: 50% sind der verlässlichste Wert. Alles andere ist Raterei ;)
Bin ich der Einzige, welcher von den kolportierten 4 TByte/s GPU-interner Transferrate nicht beeindruckt ist? Sieht toll aus, ist aber das Mindeste - Navi 21 schaufelt bereits mit 2 TByte/s und Navi 31 wird ja deutlich mehr Rechenleistung im Gepäck haben. Immer alles schön ins Verhältnis setzen. :)
MfG
Raff
RTX 3090 = 936 GByte/sec --> Da sind 4TByte/s wohl doch wohl ausreichend ;)
N21 war in dieser Hinsicht "überversorgt". Eine RTX 3070 hatte gerade mal 448 GByte/s und bringt die Leistung auch auf die Strasse. Eine 6900XT ist ja nicht 4x schneller als die 3070 ;)
Klar, Cache != VRAM. Aber aus Sicht der restlichen GPU ist es egal, ob die Bandbreite via Cache oder VRAM geliefert wird. Beim Cache gibt es ein Abhängigkeit von der Auflösung, welche es beim VRAM so nicht direkt gibt. Das ist der einzige relevante Unterschied hinsichtlich Bandbreite.
Yep, ich bin biased - ich feiere einfach jede geile Tech und verabscheue Bremserei. Daher hoffe ich ja, dass AMD mehr in die Waagschale wirft als eine Verdopplung. Diverse Punkte brauchen eher Faktor 4. Aber eigentlich habe ich keinen Zweifel daran, dass AMD hier ordentlich nachlegen wird.
Jepp. Technikgeil > Vendor-Bias. Und RDNA3 scheint technisch doch sehr interessant zu sein (Chiplets und so ;)). Lovelace ist es übrigens auch.
AMD hat viel zu wenig RT Leistung.
....
Ich befürchte aber fast das die liebe Lisa all in bei der Raster Leistung geht und alles andere stiefmütterlich abgehandelt hat. Wobei die Cache bei RT sehr nützlich sein sollten.
Lisa ist sehr smart. David Wang ist es auch. Die wissen schon, was sie tun.
Linmoum
2022-10-10, 12:11:53
Es geht nicht um die Investition an sich, sondern in welchem Umfang dies geschieht. Dass die RT-Performance bei AMD steigt dürfte außer Frage stehende, aber wenn man Ende 2022 wieder eine Architektur bringt, die im schlimmsten Fall erneut Faktor >=2x zurückfällt, dann ist das einfach nicht ansatzweise ausreichend.
Da kann man Raster dann auch 20% vorne liegen.
Slipknot79
2022-10-10, 12:12:49
Wen interessiert das 3DC? Bilden wir den Durchschnitt der Menschen ab? :ugly:
Lederjacke interessiert es und er liefert. (y)
robbitop
2022-10-10, 12:12:51
Lol... woran machst du das fest? An den grandiosen Intel-Treibern? ;D Klar verliert aktuell Intel mit RT weniger wenn die Dinger im reinen Rasterizer völlig ablosen.
So funktioniert das nicht. ;)
Die Karte liefert pro Transistor einfach wenig Grundleistung. Aber der Drop der Grundleistung mit aktiviertem RT sagt schon was über die RT Hardware aus. Und wenn man sich anschaut, welche Teile der RT Pipeline in Hardware gegossen sind in Relation zu RDNA2 und Ampere macht das schon Sinn.
RDNA2: Ray/Box and Ray/Tri Testers in Hardware (Level 2)
Turing/Ampere: Bounding Volume Hierarchy (BVH) Processing in Hardware (Level 3)
Ada/ARC: BVH Processing with Coherency Sorting in Hardware (Level 4)
Bei Ada heißt das SER und bei ARC heißt es TSU. Und dazu haben sie eben BHV in Hardware ggü RDNA2. Ist logisch, dass das zu relativ gesehen geringeren drops führt, weil BVHs eben nicht über die FPUs laufen und weil sortierte Instruktionen wesentlich mehr Durchsatz erlauben als unsortierte Instruktionen. Spezifische Hardware ist pro W und pro Transistor nunmal schneller als Generelle.
Ich frage mich jedes Mal wie du oder andere auf die Idee kommen AMD würde bei zukünftigen GPU-Generationen nach RDNA2 nicht mehr in RT investieren? Woher kommt dieser Unsinn eigentlich? Das ist die einzig logische Entwicklung.
Es wird ziemlich sicher mehr in RT Hardware investiert werden bei RDNA3 und folgenden uArch. Und ich habe auch nicht das Gegenteil gesagt. Die Frage ist, ob man gleich vorausschauend Level 4 gemacht hat oder nur reaktiv Level 3 und man damit dann 1x Gen zurück liegt. Aktuell mit RDNA2 liegt man beim Implementierungsstand noch vor Turing.
basix
2022-10-10, 12:15:57
Es wird ziemlich sicher mehr in RT Hardware investiert werden bei RDNA3 und folgenden uArch. Und ich habe auch nicht das Gegenteil gesagt. Die Frage ist, ob man gleich vorausschauend Level 4 gemacht hat oder nur reaktiv Level 3 und man damit dann 1x Gen zurück liegt. Aktuell mit RDNA2 liegt man beim Implementierungsstand noch vor Turing.
Wenn ich AMD wäre: Ein Leap Forward wäre langfristig mehr wert. Ist die Frage, ob man die R&D Ressourcen für das frei hatte. RDNA3 wurde anscheinend an so vielen Stellen umgebaut, inkl. Chiplet-Architektur, dass RT evtl. nur so weit getrieben hat wie man musste. Level 3 und höhere Ray/Triangle Intersection Rates würden ja bereits sehr viel helfen. Die deutlich höhere FP32-Rohleistung hilft ebenfalls.
robbitop
2022-10-10, 12:24:31
Wenn ich AMD wäre: Ein Leap Forward wäre langfristig mehr wert. Ist die Frage, ob man die R&D Ressourcen für das frei hatte. RDNA3 wurde anscheinend an so vielen Stellen umgebaut, inkl. Chiplet-Architektur, dass RT evtl. nur so weit getrieben hat wie man musste. Level 3 und höhere Ray/Triangle Intersection Rates würden ja bereits sehr viel helfen.
Ich würde es auch so machen, dass ich nicht nur reaktiv das verbauen würde, was die last gen des Wettbewerbers konnte sondern eben mindestens das, was ich für deren next gen antizipiere. Klar würde Level 3 helfen. Aber man will sicherlich mehr erreichen als nur etwas weniger zurückzufallen hoffe ich.
NV scheint in den SMs selbst wenig gegenüber Ampere geändert zu haben - aber sehr viel in die Implementierung der Taktbarkeit (fast 50% mehr möglicher Takt kommt nicht nur vom Prozesswechsel) und für Raytracinghard- und software.
Was die Chiplets angeht: ich frage mich wie groß (solange man nur 1x GCD hat) der Einfluss die Separierung der Funktionselemente in Chiplets auf die CUs/WGPs usw selbst sind. Dank entsprechenden Interconnects könnte sich das noch in Grenzen halten. Wenn man GCDs skalieren will, wird es sicherlich nochmal deutlich schwieriger als einfach nur Bandbreite mit Interfaces und Packaging auf das Problem zu werden.
Auch was ML angeht sehe ich AMD etwas im Hintertreffen. ML Denoising, Imagereconstruction, Framegeneration. Der ganze Kram scheint langsam Früchte zu tragen. Matrixunits kann AMD auch einbauen. Das ist sicherlich kein Problem. Aber was da an Software Research bei NV abgelaufen sein muss in den letzten Jahren muss wirklich massiv gewesen sein. Das aufzuholen ist sicherlich leichter gesagt als getan. Gerade im Bereich software RnD ist Nvidia schon relativ lange zu einem ziemlichen Koloss angewachsen.
DrFreaK666
2022-10-10, 12:28:20
Warum perf/watt negativ ist, werde ich jetzt nicht erklären, ist mir zu mühsam ...
Lederjacke interessiert es und er liefert. (y)
War das die Erklärung? :lol:
basix
2022-10-10, 12:46:05
Auch was ML angeht sehe ich AMD etwas im Hintertreffen. ML Denoising, Imagereconstruction, Framegeneration. Der ganze Kram scheint langsam Früchte zu tragen. Matrixunits kann AMD auch einbauen. Das ist sicherlich kein Problem. Aber was da an Software Research bei NV abgelaufen sein muss in den letzten Jahren muss wirklich massiv gewesen sein. Das aufzuholen ist sicherlich leichter gesagt als getan. Gerade im Bereich software RnD ist Nvidia schon relativ lange zu einem ziemlichen Koloss angewachsen.
Bei ML stellt sich halt die Frage: Wie viel benötigt man für Spiele wirklich? FSR 2 zeigt gut, dass gewisse Sachen auch ohne ML gehen. Und RDNA3 steigert zudem die Rohleistung enorm. Via Rapid Packed Math / DP4a wird N31 viel schneller als N21 sein (rein basierend auf Rohleistung und den neuen Matrix-Befehlen).
Andere Sachen wie Animationen usw. sind relativ leichtgewichtig, die laufen sogar auf der CPU. ML wird mMn erst wirklich wichtig, wenn es in Richtung "Rendering Augmenting" oder insbesondere "RT Augmenting" geht. z.B. ML basierte Denoiser. Neural Radiance Caching für Raytracing / Pathtracing von Nvidia ist auch so ein Ding, da wird on-the-fly ein Netzwerk in Realtime trainiert. Netto wird der Pathtracer dadurch ~10x schneller. Da hilft hohe Matrix-Leistung natürlich enorm. Andererseits wird N31 die INT8 / FP16 Rohleistung von GA102 mitbringen. Ganz ohne Tensor Cores. Und all die Papers liefen max. auf einer 3090 ;)
DrFreaK666
2022-10-10, 12:47:54
Hat AMD mit Xilinx nicht auch ML Know How eingekauft oder liefert Xilinx nur Tools?
Complicated
2022-10-10, 12:48:22
https://de.wikipedia.org/wiki/Halo-Effekt
Es ist aus der psychologischen Forschung evident, dass verwandte Produkte aufeinander abfärben. Starke Produkte stärken die ganze Marke.
Werden wir dann sehen wie die 4090 die 4080er stärken kann :rolleyes: Nochmals. solche Studien sind Marketingsmüll.
Vor allem wird immer wieder vergessen genauer zu schauen wann solch ein Halo-Effekt überhaupt funktioniert. Das ist kein Selbstläufer, nur weil man die schnellste GPU hat - im verlinkten Artikel steht es auch direkt dabei:
[/URL] Der Effekt tritt häufig dann auf, wenn sich der zu Beurteilende durch hervorstechende, ausgeprägte Eigenschaften oder Verhaltensweisen auszeichnet. Der Einfluss des Halo-Effekts ist besonders stark, wenn der Beurteiler speziell auf eine Verhaltensweise oder ein Merkmal Wert legt und dieses entsprechend überbewertet.[URL="https://de.wikipedia.org/wiki/Halo-Effekt#cite_note-QMA-6"][6] (https://de.wikipedia.org/wiki/Halo-Effekt#cite_note-5) Mangelnde Motivation und Informiertheit der Beurteilenden können den Effekt verstärken.[7] (https://de.wikipedia.org/wiki/Halo-Effekt#cite_note-Rosenzweig234-7)
Dieses "flankierende Überbewerten" können wir doch aktuell sehr gut beobachten beim Thema RT.
basix
2022-10-10, 12:51:19
Hat AMD mit Xilinx nicht auch ML Know How eingekauft oder liefert Xilinx nur Tools?
Sehr viel Know How sogar. Xilinx waren mitunter die Ersten, welche mit Sparsity für ML-Netzwerke daherkamen, lange vor Nvidia auf Ampere.
Spring
2022-10-10, 12:53:12
Dieses "flankierende Überbewerten" können wir doch aktuell sehr gut beobachten beim Thema RT.
So ist es. Im Multiplayer irrelevant. Da können sich die RT Fans noch so auf den Kopf stellen.
robbitop
2022-10-10, 13:01:33
Bei ML stellt sich halt die Frage: Wie viel benötigt man für Spiele wirklich? FSR 2 zeigt gut, dass gewisse Sachen auch ohne ML gehen. Und RDNA3 steigert zudem die Rohleistung enorm. Via Rapid Packed Math / DP4a wird N31 viel schneller als N21 sein (rein basierend auf Rohleistung und den neuen Matrix-Befehlen).
Andere Sachen wie Animationen usw. sind relativ leichtgewichtig, die laufen sogar auf der CPU. ML wird mMn erst wirklich wichtig, wenn es in Richtung "Rendering Augmenting" oder insbesondere "RT Augmenting" geht. z.B. ML basierte Denoiser. Neural Radiance Caching für Raytracing / Pathtracing von Nvidia ist auch so ein Ding, da wird on-the-fly ein Netzwerk in Realtime trainiert. Netto wird der Pathtracer dadurch ~10x schneller. Da hilft hohe Matrix-Leistung natürlich enorm. Andererseits wird N31 die INT8 / FP16 Rohleistung von GA102 mitbringen. Ganz ohne Tensor Cores. Und all die Papers liefen max. auf einer 3090 ;)
IMO sind solche Dinge oftmals extrem nicht linear, so dass sowas ganz ganz schwierig abschätzbar ist.
FSR 2.1 ist schon gut. Aber je geringer die Inputresolution, desto weiter scheint es ggü DLSS zurückzufallen.
Intel und NV sind offenbar zum gleichen Schluss gekommen, dass für Image Reconstruction ML die Zukunft ist. Mich würde es auch nicht wundern, wenn zukünftige FSRs das auch machen.
Wie teuer ist das Ganze? Schwer zu sagen - Intel's XeSS zeigt ja bereits, dass es auf General Purpose Hardware ziemlich teuer ist - viel teurer als FSR 2 - trotz 4x INT8 Durchsatz. Und dabei ist das dann noch ein 4x vereinfachtes Netzwerk. Die "Vollversion" wäre wohl so teuer, dass es sich nicht lohnt.
Und die Sache ist ein "moving Target". FSR 2 hält aktuell noch gut mit - aber je weiter diese Verfahren sind, desto schwieriger könnte das sein.
Framegeneration ist das nächste Big Ticket. Das könnte ohne ML schwierig werden. Und das übernächste ist sicherlich längst im RnD.
Mit Ada hat NV auch ML Denoising gezeigt, was nochmal besser und schneller ist.
ML ist die Zukunft - das sieht man wie immer mehr IHVs sich mit Research aber auch Hardware committen die letzten Jahre. Und Special Function Hardware ist darin nunmal viel viel schneller als wertvolle General Purpose Hardware. Ich hoffe, dass AMD hart daran arbeitet, seine Softwaresparte in die Richtung zu expandieren und entsprechende Initiativen pushen.
Matrix FPUs zu verbauen ist für das Hardwareteam wahrscheinlich trivial und kostet wahrscheinlich nicht mal die Welt an Transistoren. Ich schätze hier ist viel viel Softwareresearch der Kern des Ganzen.
----
Und ja Xilinx könnte da sicherlich helfen. Bei HW und Software.
Badesalz
2022-10-10, 13:40:15
Apple bedient eine ganz andere Branche. Apple Macs werden nicht zum Spielen gekauft. Meistens für Content Creation und da ist RT Nische.
Geforces, Radeons und ARCs sind aber primär Gaming Produkte und da wird RT nun mal sukzessive wichtiger.Ja das stimmt. Auf dem PC ist das halt nicht so ein krüppelige Spielerei wie mit UE5 auf der PS5... :uup:
vinacis_vivids
2022-10-10, 13:43:12
UE5 ist ein einziger riesiger Marketing Bug-Haufen, frisst viel zu viel Ressourcen für das Angebot.
Mir ist lieber die Entwickler machen mehr id-Tech 7. Aber das sind ganz andere Baustellen und totaler OT.
robbitop
2022-10-10, 13:48:00
Besser optimiert als idTech gibt es nirgends. :)
Tiago und Axel = beschde!
Badesalz
2022-10-10, 13:50:38
UE5 ist ein einziger riesiger Marketing Bug-Haufen, frisst viel zu viel Ressourcen für das Angebot.
Also du kannst von mir aus lieber Frostbyte nehmen. Dann lernst du die Sachen mal vernünftig zu beurteilen ;)
@rob
Ja. Tiago war schon ein schwerer Verluist für Crytek.
Gott1337
2022-10-10, 13:51:00
Nur weil du deinen Stuss weiter erzählst wird der nicht besser. Intel bringt einen 406mm² Die in N6 und das vergleichst du dann womit? Mit einem 237mm² N23 in N7? :lol:
und pro $/€? bleib mal aufm Teppich. naja glaub was du willst, die benches zeigen was anderes.
btw
Radeon RX 7950XT: 822W PSU (GPU TBP ~420W)
Radeon RX 7900XT: 730W PSU (GPU TBP ~330W)
Radeon RX 7800XT: 700W PSU (GPU TBP ~300W)
Radeon RX 7700XT: 598W PSU (GPU TBP ~200W)
robbitop
2022-10-10, 13:54:22
@rob
Ja. Tiago war schon ein schwerer Verluist für Crytek.
Die sind seit dem Zusammenbruch sowieso nur noch ein Schatten ihrer selbst. Die Original Leute sind praktisch alle weg.
basix
2022-10-10, 14:27:29
ML ist die Zukunft - das sieht man wie immer mehr IHVs sich mit Research aber auch Hardware committen die letzten Jahre. Und Special Function Hardware ist darin nunmal viel viel schneller als wertvolle General Purpose Hardware. Ich hoffe, dass AMD hart daran arbeitet, seine Softwaresparte in die Richtung zu expandieren und entsprechende Initiativen pushen.
Matrix FPUs zu verbauen ist für das Hardwareteam wahrscheinlich trivial und kostet wahrscheinlich nicht mal die Welt an Transistoren. Ich schätze hier ist viel viel Softwareresearch der Kern des Ganzen.
----
Und ja Xilinx könnte da sicherlich helfen. Bei HW und Software.
Umso mehr IP man in den Chip packt, desto mehr Leute müssen daran arbeiten. AMD müsste also unbedingt darauf schauen, dass die Matrix-Cores von CDNA mit RDNA kompatibel sind. Sonst entwickelt man doppelt. Und die ganze Firmware sowie das HW-Testing die es braucht, ist auch nicht ohne. AMDs Vorteil wäre, dass Nvidias SW-Research zu einem guten Teil auf AMDs Chips übertragbar wäre. Im besten Fall einfach unterschiedlich auf die Ziel-HW parametriert.
Wie einfach und trivial das alles in HW ist, ist schwer zu sagen. Allzu viele Transistoren scheint es bei Turing aber nicht gekostet zu haben. Ob Matrix-Cores bei RDNA3 kommen? Ungewiss. Ich tippe auf RDNA4 (man nimmt die Matrix Cores von CDNA3).
Badesalz
2022-10-10, 14:42:57
Wenn sie die Matrix-Cores aus der Instinct nicht in RDNA benutzen können, dann sind sie einfach nur saublöd und sollten Gaming-GPU nur noch für Konsolen machen. So blöd ist kein Schwein.
Von daher, :wink:
Ich bin aber auch der Meinung, daß dies eine Geschichte für RDNA4 ist. Im wirtschaftlich relevanten Mittelsegment, RT-Leistung wie eine 3090... Ich schätze das würde ziehen.
Ich glaub nur nicht, daß Raff das entsprechend würdigen dürfen könnte. Wollen, wenn es eintritt, will er das bestimmt...
vinacis_vivids
2022-10-10, 14:56:50
AMD`s RT-Accerlerator kommunizieren auf jeden Fall mit dem IF$ und die Boundes Volume Structures werden direkt im IF$ gespeichert. Das spart extrem viel Energie und ist blitzschnell verfügbar. Das ist auch der Grund wieso AMD sagt, dass man mit RT-Anfragen ökonomisch umgehen sollte um den Cache nicht zu überladen, weil dann der langsame und energieintensive (teure) Speicher verwendet wird.
Die entsprechenden Shader werden als programmierbare Compute Shader ausgeführt. Komplex wird es, weil Raster und RT derzeit im Hybrid-Modus laufen und hybrid-Methoden einen IF$ teilen.
Da Spieleentwickler zum großen Teil für die PS5 und XBOX optimieren müssen, ist sparsame Nutzung von RT angesagt, was bedeutet, dass qualitativ höherwertigere BVHs gebaut werden müssen um die Effizienz zu erhöhen. Und das beginnt schon bei der Levelstrukturierung und nicht erst wenn die RT-Strahlen in der Perspektive auftauchen (wie es bei NV-Ansatz der Fall ist).
Lehdro
2022-10-10, 15:40:22
Via Rapid Packed Math / DP4a wird N31 viel schneller als N21 sein (rein basierend auf Rohleistung und den neuen Matrix-Befehlen).
N2x kann doch schon RPM/DP4a oder wie meinst du das?
robbitop
2022-10-10, 15:45:01
Umso mehr IP man in den Chip packt, desto mehr Leute müssen daran arbeiten. AMD müsste also unbedingt darauf schauen, dass die Matrix-Cores von CDNA mit RDNA kompatibel sind. Sonst entwickelt man doppelt. Und die ganze Firmware sowie das HW-Testing die es braucht, ist auch nicht ohne. AMDs Vorteil wäre, dass Nvidias SW-Research zu einem guten Teil auf AMDs Chips übertragbar wäre. Im besten Fall einfach unterschiedlich auf die Ziel-HW parametriert.
Wie einfach und trivial das alles in HW ist, ist schwer zu sagen. Allzu viele Transistoren scheint es bei Turing aber nicht gekostet zu haben. Ob Matrix-Cores bei RDNA3 kommen? Ungewiss. Ich tippe auf RDNA4 (man nimmt die Matrix Cores von CDNA3).
Ich teile deine Einschätzung. :)
N2x kann doch schon RPM/DP4a oder wie meinst du das?
Jap aber deutlich mehr Rohleistung. :)
AMD`s RT-Accerlerator kommunizieren auf jeden Fall mit dem IF$ und die Boundes Volume Structures werden direkt im IF$ gespeichert. Das spart extrem viel Energie und ist blitzschnell verfügbar. Das ist auch der Grund wieso AMD sagt, dass man mit RT-Anfragen ökonomisch umgehen sollte um den Cache nicht zu überladen, weil dann der langsame und energieintensive (teure) Speicher verwendet wird.
Die entsprechenden Shader werden als programmierbare Compute Shader ausgeführt. Komplex wird es, weil Raster und RT derzeit im Hybrid-Modus laufen und hybrid-Methoden einen IF$ teilen.
Du weißt schon, dass der IF$ einfach nur ein Last Level Cache ist? Der weiß nicht was darin gespeichert wird.
Lehdro
2022-10-10, 15:49:37
Jap aber deutlich mehr Rohleistung. :)
Sicher, aber ist das dann nicht eh proportional von der Steigerung wenn beide dasselbe Featureset haben? Das gesondert zu erwähnen hat mich nämlich irritiert - kommt da noch extra etwas über N2x Fähigkeiten hinaus bei Einsatz dieser Formate?
Thomas Gräf
2022-10-10, 19:59:50
Was isn mit den Leakern los? Sitzen die nach dem Ryzen Launch bis Weihnachten in U-Haft?
Tangletingle
2022-10-10, 20:03:04
Besser optimiert als idTech gibt es nirgends. :)
Tiago und Axel = beschde!
Ich vermisse codas Posts. Vor ein, zwei Jahren war er ja noch mal unter dem anderen nic aktiv.
iamthebear
2022-10-10, 21:05:58
Was isn mit den Leakern los? Sitzen die nach dem Ryzen Launch bis Weihnachten in U-Haft?
Gute Frage. RDNA3 soll nächstes Monat launchen und es gibt außer Angstronomics noch absolut Null handfeste Infos.
Ich glaub nur nicht, daß Raff das entsprechend würdigen dürfen könnte. Wollen, wenn es eintritt, will er das bestimmt...
Ich kann dir nicht folgen. Warum sollte ich irgendwas nicht dürfen? :confused:
AMD`s RT-Accerlerator kommunizieren auf jeden Fall mit dem IF$ und die Boundes Volume Structures werden direkt im IF$ gespeichert. Das spart extrem viel Energie und ist blitzschnell verfügbar. Das ist auch der Grund wieso AMD sagt, dass man mit RT-Anfragen ökonomisch umgehen sollte um den Cache nicht zu überladen, weil dann der langsame und energieintensive (teure) Speicher verwendet wird.
Die entsprechenden Shader werden als programmierbare Compute Shader ausgeführt. Komplex wird es, weil Raster und RT derzeit im Hybrid-Modus laufen und hybrid-Methoden einen IF$ teilen.
Der L3-Cache hilft natürlich. Das ist auch nicht AMDs Problem - sondern, dass dedizierte Fixed-Function-Werke fehlen, die die BVH-Wartung, Intersection-Tests etc. rasant durchführen. Nvidia macht's seit vier Jahren, Intel seit eben - fehlt nur AMD.
MfG
Raff
Digidi
2022-10-10, 21:30:25
Ich kann dir nicht folgen. Warum sollte ich irgendwas nicht dürfen? :confused:
Der L3-Cache hilft natürlich. Das ist auch nicht AMDs Problem - sondern, dass dedizierte Fixed-Function-Werke fehlen, die die BVH-Wartung, Intersection-Tests etc. rasant durchführen. Nvidia macht's seit vier Jahren, Intel seit eben - fehlt nur AMD.
MfG
Raff
Dedizierte Einheiten gerade bei Parallenen Anwendungen muss nicht immer von Vorteil sein. Wenn man mehr Leistung von einer gewissen Sorte braucht kann man nicht auf andere Einheiten ausweichen. Bestes Beispiel ist doch UE5 mit Nanite wo man anstelle der Fixed Function die Shader nun benutzt. Man sieht auch das in AMD optimierten spielen die Leistung bei Ratracing Passt. Es wäre mal viel wichtiger das Programmierer endliche Ihren code auf die neuen Strukturen anpasst. Meist gibt es aber nur alten Wein in neuen Schläuchen.
Und zur Diskussion RT vs Geometrie:
Ein Schatten bringt nichts, wenn es keine Geometrie gibt, die diesen wirt. Deshalb immer Geometry first und Beleuchtung Second. Das sehen wir ja gerade in Nanite. Super gute Geometrie aber Beleuchtung ist noch nicht ganz auf RT aufgebaut.
vinacis_vivids
2022-10-10, 21:38:43
Dezidierte Einheiten werden nicht eingebaut in RDNA3, sondern in die CUs integriert. Das ist der Grund wieso Raja zu Intel gegangen ist und den gleichen Ansatz macht wie NV mit den extra Einheiten.
AMD hat neben GPUs auch CPUs, mittlerweile im Dektop mit 16C/32T@5,5Ghz. Die Leistung muss auch mal richtig genutzt werden, auch in höheren Auflösungen. Der große Traum ist die Vereinigung zu einer APU, da braucht man keine extra dezidierte Einheiten.
Was Optimierungen angeht, ist Sony ohnehin on the top notch, siehe PS5 Pro mit RDNA3 uArch.
DrFreaK666
2022-10-10, 21:41:14
Welche PS5 Pro?
Dedizierte Einheiten gerade bei Parallenen Anwendungen muss nicht immer von Vorteil sein. Wenn man mehr Leistung von einer gewissen Sorte braucht kann man nicht auf andere Einheiten ausweichen. Bestes Beispiel ist doch UE5 mit Nanite wo man anstelle der Fixed Function die Shader nun benutzt. Man sieht auch das in AMD optimierten spielen die Leistung bei Ratracing Passt. Es wäre mal viel wichtiger das Programmierer endliche Ihren code auf die neuen Strukturen anpasst. Meist gibt es aber nur alten Wein in neuen Schläuchen.
Und zur Diskussion RT vs Geometrie:
Ein Schatten bringt nichts, wenn es keine Geometrie gibt, die diesen wirt. Deshalb immer Geometry first und Beleuchtung Second. Das sehen wir ja gerade in Nanite. Super gute Geometrie aber Beleuchtung ist noch nicht ganz auf RT aufgebaut.
Du kannst immer alles auf den ALUs machen, aber richtig schnell und geil wird das halt nicht. Ich denke da an die Diskussion um die Jahrtausendwende, bei dem der Nutzen einer "strunzdummen" HTnL-Einheit in Frage gestellt wurde. Die braucht Ansprache durch Entwickler, also warum nimmt man nicht einfach weiter die monatlich steigende Prozessorleistung für diese Aufgabe? Weil trotzdem Faktoren dazwischen liegen. :) Und so ist es auch beim Raytracing. Die "AMD-optimierten" Spiele zeigen aus guten Gründen nie aufwendiges Raytracing, sondern in der Regel nur ein paar Schatten und stark optimierte Reflexionen. Auf die UE5 in freier Wildbahn (im finalen Zustand) bin ich aber auch sehr gespannt. Hoffentlich performt sie aus dem Stand besser als die UE4, aber die Vorzeichen dafür stehen nicht gut ... Oh, und endlich ein Port von Ratchet & Clank wäre schön. Nixxes, übernehmen Sie! :D
MfG
Raff
Nazar
2022-10-10, 21:58:21
AMD hat viel zu wenig RT Leistung.
Wenn sie 3. Kraft bleiben ist das so ziemlich der Untergang der AMD Gaming Abteilung. Intel wird ihnen ziemlich schnell die Kunden abgreifen. Intel Arc Battlemage soll ja schon 2023 kommen.
Eigentlich müsste AMD sogar was in richtig Ada bringen, sprich RT Leistung in Überfluss.
Ich befürchte aber fast das die liebe Lisa all in bei der Raster Leistung geht und alles andere stiefmütterlich abgehandelt hat. Wobei die Cache bei RT sehr nützlich sein sollten.
Hmm? :confused:
Nicht nur du, auch andere in diesem Thread haben wohl verpasst, dass RT im Allgemeinen, ohne DLSS, nicht gerade große Schritte macht!?
Also erklärt mir bitte mal, welchen Sinn es machen sollten, wenn sich eh nur "Profis" und Besitzer einer 1k GPU überhaupt Gedanken um RT(X) machen dürfen, dass AMD jetzt unheimlich viel in die neue Arch steckt, um jemanden einzuholen, der gerade selber nur mit winzigen Babysteps Richtung Ziel wankt, wenn man "besseres" zu tun hat?
Die aktuelle RT Leistung, egal ob von Intel oder nVida, ist kein Grund zur Sorge.
Was AMD wirklich sorgen sollte, das ist DLSS (3).
Ja, ich hasse diesen Schei*dreck, aber DLSS (3) ist das Problem, denn davon profitieren alle Spiele, die es unterstützen, egal ob RT(X) an ist oder aus.
Den aktuellen Stand (Ada) von RT(X) jetzt potenziell als geschäftsgefährdend anzusehen, zeugt schon von extremem Unwissen.
Das aktuelle RT(X) ist selbst unter der 4090 ohne DLSS einfach nur witzlos schlecht.
Linmoum
2022-10-10, 22:05:58
RT funktioniert auch abseits von UHD und da wird Ada (eigentlich auch für UHD, wenn man die Regler max. auf "High" stellt, was im Prinzip immer noch 98% der Bildqualität liefert im Vergleich zu sinnlosem Uber-Gespamme) mehr als genug Power für haben. Ob das auch auf RDNA3 zutreffen wird, bleibt abzuwarten. Man sollte es jedenfalls dringend hoffen, eine Schonfrist oder irgendwas in der Art gibt es hier nicht mehr. Da muss AMD schlicht liefern.
Nazar
2022-10-10, 22:13:55
RT ist aktuell, wie schon andere oft genug sagten, !!nicht!! massentauglich.
Und im Online Gaming "nicht" vorhanden.
Und ich sehe auch nicht, dass nVidia das ändern möchte (Preise).
Reiner Marketingquatsch für ein "paar" Nerds, die im Spiel dann nicht mal bemerken ob RT an oder aus ist. :wink:
davidzo
2022-10-10, 22:19:41
Was AMD wirklich sorgen sollte, das ist DLSS (3).
Ja, ich hasse diesen Schei*dreck, aber DLSS (3) ist das Problem, denn davon profitieren alle Spiele, die es unterstützen, egal ob RT(X) an ist oder aus.
Den aktuellen Stand (Ada) von RT(X) jetzt potenziell als geschäftsgefährdend anzusehen, zeugt schon von extremem Unwissen.
Das aktuelle RT(X) ist selbst unter der 4090 ohne DLSS einfach nur witzlos schlecht.
RTX wird jedenfalls schon mal von mehr Spielen (250+) unterstützt als DLSS3 (35). Bannerlord und witcher3 sind bisher die einzigen Spiele die ich besitze die es unterstützen, aber in letzterem kann man sich eh schon native 4K leisten.
DLSS3 ist viel eher momentan noch ein Feature für die Zukunft, DLSS Super resolution und DLSS2 kann man meistens schon häufiger nutzen, ebenso wie natürlich FSR1.0 (ist auf der steamdeck quasi immer an).
Das problem ist dass die Hürde für den Entwickler für DLSS3 nochmal steigt. Er muss zuerst einmal DLSS2 und Reflex support haben, denn darauf baut DLSS3 auf. Das schränkt die Auswahl der Spiele sehr ein, den wer will bei bereits gelaunchten Titeln noch aufwändige Patches machen? Die die bisher vor DLSS2 zurückschrecken werden noch viel mehr vor DLSS3 respekt haben. Ich erwarte auch dass es sich praktisch nur bei TripleA Titeln lohnen wird es zu implementieren, nicht bei Indiespielen. Wobei es sicherlich hilft schonmal enginesupport zu haben, z.B. Frostbite und UE4 + UE5.
Tangletingle
2022-10-10, 22:43:48
250+? Ich kenn nur die sich Recht aktuelle Liste von rps und das sind doch keine 250 Games: https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games-2022
vinacis_vivids
2022-10-10, 22:47:48
https://videocardz.com/newz/amd-adds-wmma-wave-matrix-multiply-accumulate-support-to-gfx11-rdna3-architecture-amds-tensor-core
Matrix-Multiplikation plus Addition
"D = A * B + C"
Output format ist bf16 und fp16 für die breite Unterstützung ab der Vega uArch, wo mit "rapid packed math" also fp16 2:1 fp32 Verhältnis eingeführt wurde.
Bin auch froh, dass AMD bei fp16 bleibt und die BQ nicht noch weiter verwässert wird mit int8 Multiplikation und/oder weniger Präzision. Die Rundungsfehler bei der Matrizenmultiplikation sind u.a. die Ursache fürs "smearing", da ist fp16 einfach besser bzw. das Optimum für Spiele (neben fp32).
DrFreaK666
2022-10-10, 22:51:10
davidzo hat schlecht von Nvidia abgeschrieben: "Mehr als 250 Top-Spiele und -Anwendungen"
davidzo
2022-10-10, 22:56:24
davidzo hat schlecht von Nvidia abgeschrieben: "Mehr als 250 Top-Spiele und -Anwendungen"
u got me :redface:
Badesalz
2022-10-10, 23:26:41
Genau. Jensen feiert sich ja jetzt gar wegen FP8... Größter Schwachsinn ever. Egal ob im RZ oder in der Spielegraka. Vergisst den Müll, falls ein Maulwurf es im Netz besingt.
Platos
2022-10-10, 23:47:32
Interessant werden natürlich mit DLSS 3.0 auch Auflösungen jenseits von 4k.
Mit ner 4090 dürfte man so einige Spiele in 8k30 unter DLSS 2.0 Spielen können. Mit DLSS 3.0 dann 60 FPS.
Aber ich bin auch mal gespannt, wie es mit den Artefakten unter DLSS 3.0 aussieht, wenn viel Vegetation im Spiel ist.
DLSS 3 möchtest du nicht mit 30 Fps nutzen - es sei denn, du findest Triple-Buffered-Zockerei oder sonstigen Latenz-Overkill geil. Es gibt Gründe dafür, dass Nvidia stets 60 -> 120 Fps bewirbt. ;)
MfG
Raff
vinacis_vivids
2022-10-10, 23:56:48
Leute, das ist alles OT. Wenn ihr zu RDNA3 uArch nichts wesentliches zu sagen habt, geht woanders hin.
Platos
2022-10-11, 00:05:15
DLSS 3 möchtest du nicht mit 30 Fps nutzen - es sei denn, du findest Triple-Buffered-Zockerei oder sonstigen Latenz-Overkill geil. Es gibt Gründe dafür, dass Nvidia stets 60 -> 120 Fps bewirbt. ;)
MfG
Raff
Ich kann auch in 30FPS nativ zocken. Habe ich oft gemacht. Geht also bei 60 FPS DLSS 3.0 wenigstens graphisch besser. Man muss natürlich mit dem Inputlag von 30 FPS zufrieden sein.
Also ich kann damit leben. Man muss ja kein Shooter in 30 FPS spielen.
Aber stimmt, ist ja hier RDNA3 Thread. Dachte, ich war im da Thread :D
basix
2022-10-11, 00:34:58
https://videocardz.com/newz/amd-adds-wmma-wave-matrix-multiply-accumulate-support-to-gfx11-rdna3-architecture-amds-tensor-core
Matrix-Multiplikation plus Addition
"D = A * B + C"
Output format ist bf16 und fp16 für die breite Unterstützung ab der Vega uArch, wo mit "rapid packed math" also fp16 2:1 fp32 Verhältnis eingeführt wurde.
Bin auch froh, dass AMD bei fp16 bleibt und die BQ nicht noch weiter verwässert wird mit int8 Multiplikation und/oder weniger Präzision. Die Rundungsfehler bei der Matrizenmultiplikation sind u.a. die Ursache fürs "smearing", da ist fp16 einfach besser bzw. das Optimum für Spiele (neben fp32).
rocWMMA User Guide:
https://docs.amd.com/bundle/rocWMMA-release-rocm-rel-5.2/page/API_Reference_Guide.html
Also ich sehe bei GFX11 auch Support für INT4 und INT8:
https://reviews.llvm.org/rG4874838a63fb48b18eeafa0da361955f6ce67f1d#change-4eGWcpDgzwp4
Sieht mir stark nach INT4, INT8, FP16 und BFloat16 Acceleration aus. Ist die Frage, ob via dedizierte Matrix Cores oder via Vektor-ALUs. Matrix bietet gegenüber Vektor unabhängig von den ALUs gewisse Vorteile beim Daten hin- und herschieben (effizienter).
Im LLVM Code sind nur 16x16x16 Matrizen-Operationen aufgeführt. Mapped das irgendwie auf die neuen RDNA3 CUs / WGPs? 16x16x16 deutet ja 256 FMA-Operationen an, was exakt mit den 256 ALUs einer RDNA3 WGP zusammenpassen würde :sneak: Oder im Falle von INT8 könnte man das auch auf eine einzelne SIMD-Lane mappen? Und das RDNA-Frontend kann 4x Instructions/Clock pro SIMD absetzen (RDNA3 evtl. nur 2x)? Hmm.
Vergleich zu Nvidia:
- Tensor Cores = 4x4x4 Matrizen
- "During program execution, multiple Tensor Cores are used concurrently by a full warp of execution. The threads within a warp provide a larger 16x16x16 matrix operation to be processed by the Tensor Cores."
- Matrix Datentypen & Anordnungen: https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#wmma
- Paar Details zu Matrizen und Tensor Cores: https://www.anandtech.com/show/12673/titan-v-deep-learning-deep-dive/3
robbitop
2022-10-11, 08:05:46
Bin auch froh, dass AMD bei fp16 bleibt und die BQ nicht noch weiter verwässert wird mit int8 Multiplikation und/oder weniger Präzision. Die Rundungsfehler bei der Matrizenmultiplikation sind u.a. die Ursache fürs "smearing", da ist fp16 einfach besser bzw. das Optimum für Spiele (neben fp32).
Und schon wieder geht dieser Schwachsinn los. Das macht 1. keinen Sinn, weil mit der genannten Präzision das Neuronale Netzwerk bedient wird für das Clampen (und nicht ein PP Effekt "ungenau" berechnet wird*) und 2. es keine ungewöhnliche Genauigkeit für NN ist (sofern man es für diesen Zweck so auslegt) und 3. gibt es keine Rundungsfehler wenn es INT wäre.
hast du jemals eine Schule besucht? wie soll man denn bei natürlichen Zahlen runden?
*was du als Smearing siehst hat meistens mit Disocclusion zu tun und hat also völlig andere Ursachen
mksn7
2022-10-11, 09:12:05
AMD`s RT-Accerlerator kommunizieren auf jeden Fall mit dem IF$ und die Boundes Volume Structures werden direkt im IF$ gespeichert. Das spart extrem viel Energie und ist blitzschnell verfügbar. Das ist auch der Grund wieso AMD sagt, dass man mit RT-Anfragen ökonomisch umgehen sollte um den Cache nicht zu überladen, weil dann der langsame und energieintensive (teure) Speicher verwendet wird.
Die entsprechenden Shader werden als programmierbare Compute Shader ausgeführt. Komplex wird es, weil Raster und RT derzeit im Hybrid-Modus laufen und hybrid-Methoden einen IF$ teilen.
Du weißt schon, dass der IF$ einfach nur ein Last Level Cache ist? Der weiß nicht was darin gespeichert wird.
Ich halte es nicht für undenkbar, dass der IF$ kein reines LRU macht, sondern auch irgendeine Art von residency control implementiert hat. Bei NVIDIA kann man für den L2 cache für fixe Speicherbereiche die replacement policy ändern, oder sogar komplett festpinnen.
Das wäre für den IF$ durchaus sinnvoll, wo der Treiber dann automatisch (oder nach manuell getuned) manche buffer im IF$ festpinnt, je nachdem ob da wirklich oft reuse da ist oder ob die Daten nur gestreamed werden. Und auch nur soviel, dass es noch in den cache reinpasst. Wenn man mit LRU wiederholt ein data set streamt dass zu groß ist, hat man hinterher gar keinen cache reuse. Wenn man nur einen Teil festpinnt, wird wenigstens dieser Teil aus dem cache verwendet.
Rein hypothetisch, ich habe dazu keine Daten: frame buffer attachments werden gecached, Geometrie wird gestreamed, Texturen nur soviele wie dann noch reinpassen, oder nur die obersten MIP Level, oder was auch immer. Entsprechend kann auch die BVH für RT festgepinnt werden.
Vielleicht ist das auch ein neues Feature von RDNA3, was es ermöglicht mit weniger L3 trotzdem eine hohe hit rate zu erreichen.
Das ist aber Spekulation, ich habe keinen Anhaltspunkt dafür dass dieses feature existiert, nur dass es umsetzbar ist (NVIDIA), und dass ich mir Nutzen vorstellen könnte.
da die 4090 von NV nun raus ist: Wann ist mit einer Präsentation der neuen AMD Karten zu rechnen? Oder wartet man auf die kleineren Modelle von NV?
super, danke für die Info (y) (y) (y)
Iscaran
2022-10-11, 16:06:46
Hmmm, das wird ja doch noch spannend am 3.11.
Ada ist doch etwas stärker als ich es erwartet habe und eine 4090 Ti mit nochmal +15% ist wohl auch ohne gleich Watt-Brechstange zu nehmen machbar.
Da bin ich echt mal gespannt. Hoffentlich gibts bald neue Gerüchte.
Tangletingle
2022-10-11, 16:11:33
Ada wirkt wie zen4 auf Kante genäht. Reduzierung des PT oder Spannung kostet kaum Leistung. Hoffentlich wird das bei rdna3 nicht auch so.
Iscaran
2022-10-11, 16:22:12
Hmm, hab den ersten Review nun überflogen. Irgendwie komisch warum man sich nicht mit 300W "begnügt" bei der 4090.
Warum eine TDP von 450 W "mitgeben". Klar Default ist die Karte auf 300...aber ich werd das Gefühl nicht los das nVidia hier diese extra 10% noch "brauchen wird". Am Ende wird RDNA 3 N31 also wohl ~4090 oder vielleicht sogar 4090@450 W nur eben mit 300 W
MSABK
2022-10-11, 16:43:06
Ich bin gehyped, wenn RDNA3 auch nur 10% langsamer als Ada wäre, wäre es mega cool.
Nightspider
2022-10-11, 16:47:52
Ada wird vielleicht stark durch den Speicher und Cache in hohen Auflösungen (zB. 5K) gebremst.
Würde mich nicht wundern wenn Navi31, spätestens mit Stacked Cache voll reinhauen und davonfliegen könnte.
Es bleibt spannend.
Denn die 40-60% mehr Leistung in 5K von der 4090 hauen mich echt nicht vom Hocker.
Ich bin gehyped, wenn RDNA3 auch nur 10% langsamer als Ada wäre, wäre es mega cool.
Sehe ich auch so, auch wenn es garantiert Beschwerden geben wird, wenn RDNA3 nicht wenigstens 32 GB RAM hat oder nur 50% so viel wie die 4090 kostet ...
ChaosTM
2022-10-11, 16:51:34
Hmm, hab den ersten Review nun überflogen. Irgendwie komisch warum man sich nicht mit 300W "begnügt" bei der 4090.
Warum eine TDP von 450 W "mitgeben". Klar Default ist die Karte auf 300...aber ich werd das Gefühl nicht los das nVidia hier diese extra 10% noch "brauchen wird". Am Ende wird RDNA 3 N31 also wohl ~4090 oder vielleicht sogar 4090@450 W nur eben mit 300 W
Jensen und die Marketing Penis Länge. Und man muss AMD ja gscheit was vorlegen..
Trotzdem eher dumm, ja.
BavarianRealist
2022-10-11, 16:52:04
Sehe ich auch so, auch wenn es garantiert Beschwerden geben wird, wenn RDNA3 nicht wenigstens 32 GB RAM hat oder nur 50% so viel wie die 4090 kostet ...
Laut dem Platinen-Layout für die RX7900 (hier (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-7900-XT-Platine-Design-Geruecht-1403434/)) sollen es ja 24 GB Ram werden. Ob auch eine Version mit 32GB möglich ist?
ich gehe auch eher von 24 GB aus, 32 GB sind imho schon fast grotesk ^^
vinacis_vivids
2022-10-11, 16:59:37
Der IF$ zweiter Generation, der hohe Takt von 3.3-3.5Ghz wird die stärkeren DCU's von N31 deutlich mehr Dampf auf die Straße bringen.
AD102 ist stark, aber auch sehr berechenbar mit Raster-Faktor ~1.6
Man merkt, die Zunahme von fp32 Rechenleistung für 5K ist sehr teuer was Transistoren und Bandbreite angeht.
N31 @ 300W bei ähnlicher Leistung und ich bin zufrieden.
AMD kann mit 450W und größerem IF$ dann auch die 4090Ti locker kontern.
why_me
2022-10-11, 17:19:47
Laut dem Platinen-Layout für die RX7900 (hier (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-7900-XT-Platine-Design-Geruecht-1403434/)) sollen es ja 24 GB Ram werden. Ob auch eine Version mit 32GB möglich ist?
Da man aktuell von 6 MCDs und damit 384 Bit Speicherinterface ausgeht, sind es entweder 12, 24 oder 48GB, 12 wären zu wenig, 48 zu viel -> 24 werden es sein.
32 GB wären nur mit Mischbestückung möglich, also sehr unwahrscheinlich.
DrFreaK666
2022-10-11, 17:43:52
Hmm, hab den ersten Review nun überflogen. Irgendwie komisch warum man sich nicht mit 300W "begnügt" bei der 4090...
Wahrscheinlich wird die 4080 16GB auch hochgeprügelt. Erkläre dann mal wieso die deutlich schnellere 4090 weniger schluckt ;)
Ich glaube nicht dass AMD mit der 4090 mithalten kann. Sie werden sich eher zwischen 4080 und 4090 einordnen
gruntzmaker
2022-10-11, 18:09:08
Wahrscheinlich wird die 4080 16GB auch hochgeprügelt. Erkläre dann mal wieso die deutlich schnellere 4090 weniger schluckt ;)
Ich glaube nicht dass AMD mit der 4090 mithalten kann. Sie werden sich eher zwischen 4080 und 4090 einordnen
Bei der Raster Leistung kann ich mir das noch vorstellen, nicht jedoch bei der Raytracing Leistung.
Man darf ja nicht vergessen, dass die Benchmarks allesamt noch kein "Overdrive" in Aktion zeigen. Und AMD wird ja wieder keine fixed function hardware eingießen.
Macht aber nichts, denn AMD muss in allem erst einmal Ampere schlagen. Während das bei Raster Anwendungen ja schon klappt, muss man beim Raytracing immer die letzte Generation übertreffen - zu einem günstigeren Preis natürlich. Ich glaube, das können, nein müssen wir von N3x wohl erwarten.
Wahrscheinlich wird die 4080 16GB auch hochgeprügelt. Erkläre dann mal wieso die deutlich schnellere 4090 weniger schluckt ;)
Ich glaube nicht dass AMD mit der 4090 mithalten kann. Sie werden sich eher zwischen 4080 und 4090 einordnen
Auf jeden Fall wird die Effizienz nicht besser sein. Ich würd sogar sagen, dass sich das jetzt wieder gedreht hat. AMD wird die 7950 vor allem machen, um AD102 einzufangen und die wird sicherlich tatsächlich die 450W schlucken und das vielleicht mit ach und krach packen. Ich hoffe doch inständig, dass AMD diesmal auch Level-4-RT implementiert hat, sonst wirds mMn problematisch. Na ja, desto besser werden die Preise :D. Vielleicht wärs gar nicht so verkehrt, wenn AMD ein paar Nachteile hätte diesmal aus Kundensicht :D. Dann wirds wenigstens bezahlbar.
vinacis_vivids
2022-10-11, 19:15:51
Ich glaube nicht dass AMD mit der 4090 mithalten kann. Sie werden sich eher zwischen 4080 und 4090 einordnen
Können schon, aber AMD muss nicht, weil die GPUs in dieser Preisklasse für den End-User zu teuer sind. 2000€ für ne GPU ist totale Dekadenz. Lisa Su hat seit längerem gesagt, dass 500 USD so der "sweet-spot" sind.
Die meisten freuen sich wenn AMD gleichstand beim Raster schafft und beim RT leicht hinten liegt, dafür "nur" 1500€ kostet. Bessere Perf/$ und Perf/Watt sind die Ziele bei ähnlicher Leistung.
Die 384MB IF$ N31-Version ist zu teuer, die GPU Desktop Verkaufszahlen gehen gerade zurück. Kein Grund zu viel finanzielles Risiko zu gehen. Dafür sind die Möglichkeiten bei embedded, mobile und Mid-Range usw. riesig. Ab 1000€ gehen die Verkaufszahlen bei GPUs drastisch zurück.
Thomas Gräf
2022-10-11, 19:29:59
brrr darf ich mir auch was wünschen?
Die 7800'er prima 4k tauglich und RT...egal. Aber bitte deutlich, deutlich unter 1000euro.
Linmoum
2022-10-11, 19:31:15
Ich bezweifle stark, dass AMD auch nur annähernd an die RT-Performance eines AD102 herankommen wird. Und damit sind jetzt nicht irgendwelche billo-RT-Spiele wie FC6 gemeint...
Wenn AD102 nur 50% vorne liegt, kann AMD wahrscheinlich froh sein.
Sooo schlimm ist das nun auch wieder nicht, da Ada mit RT+Rasterizing (nicht reines RTRT!) ja kaum mehr drauflegt als mit reinem Rasterizing, in den meisten Fällen ist das einfach eher im CPU-Limit aufgrund der brachialen Renderleistung in UHD, aber die Leistungsverhältnis Rendern zu Raserizing+RT ist nur wenig besser ggü. Ampere. Wenn AD102 die doppelte RT-Leistung von GA102 liefert, muss AMD ca. 2,5-3x soviel liefern, um in die Nähe zu kommen. Dafür müsste AMD aber schon technisch einen riesigen Sprung bei RT machen zu jetzt. Die Frage ist, wie krass der Sprung bei AMD wirklich wird, ob die von Level 2 direkt auf Level4 springen können oder doch "nur" technisch auf Ampere-Niveau, also Level3, erreichen. Jedenfalls kann man bezweifeln, dass die RT-Leistung so ungleich wie sie bei Ampere vs. Navi2 ist, die neuen werden schon deutlich dichter an NV liegen mit RT - im Verhältnis zur Rasterleistung mein ich natürlich, alleine schon weil sie BHV traversal in Hardware können werden und ebenfalls massenhaft RT-Einheiten haben dürften.
RT-Level:
https://www.electronicdesign.com/technologies/embedded-revolution/video/21238403/electronic-design-five-levels-of-ray-tracing
Bin mal gespannt, Alchemist ist ja ebenfalls schon Level4. Ob Battlemage der erste Chip mit Level5 ist? Dann stünde evtl. mit Battlemage für RT-Freunde evtl. eine faustdicke Überraschung bevor ;) (hoffentlich dann Ende 23 :D).
Cyberfries
2022-10-11, 20:00:01
Ada wird vielleicht stark durch den Speicher und Cache in hohen Auflösungen (zB. 5K) gebremst.
CBS hatte eher fehlende Optimierungen im Treiber für diese Auflösung im Verdacht
und angesichts der Rohleistung würde ich eher deren Theorie zustimmen.
Warum eine TDP von 450 W "mitgeben".
Das wird vermutlich erst mit dem weiteren Ausbau des Produktportfolios wirklich klar werden.
Wenn unterhalb eine 320w 4080 und oberhalb eine 600-800w 4090ti sitzt, sieht eine 350w 4090 einfach blöd aus.
Ob auch eine Version mit 32GB möglich ist?
Warum willst du ein Drittel des Speicherinterfaces abschalten - nur für eine größere Speichermenge? unnötig
Lisa Su hat seit längerem gesagt, dass 500 USD so der "sweet-spot" sind.
...
Ab 1000€ gehen die Verkaufszahlen bei GPUs drastisch zurück.
In welchem Erdloch warst du die letzten 12 Monate?
Aber bitte deutlich, deutlich unter 1000euro.
Billiger als das nVidia-Äquivalent wirds wohl kaum.
Wenn AD102 nur 50% vorne liegt, kann AMD wahrscheinlich froh sein.
Das wäre eine Verschlechterung des aktuellen Zustands (laut CBS-Rating), darauf will ich nun wirklich nicht hoffen.
Auch angesichts dessen, dass die 4090 laut CBS nur 5% mehr in RT drauflegt.
Linmoum
2022-10-11, 20:04:49
50% im Worst Case wäre eine massive Steigerung, aktuell enteilt eine 3090 Ti der 6900XT viel deutlicher (z.B. CP2077, Doom oder DL2 ~70-110% laut PCGH).
Wie gesagt, ich beziehe mich bewusst nicht auf "RT-light" wie in FC6.
Die 3090Ti ist nicht der Gegner der 6900XT. Du musst schon im Verhältnis zu Rasterizerleistung bleiben, sonst bewertest du die RT-Leistung nicht richtig.
horn 12
2022-10-11, 20:27:16
https://mobile.twitter.com/Kepler_L2/status/1579873393599709184
Morgen kommt was zur RTX 4090 Verfügbarkeit
Linmoum
2022-10-11, 20:29:57
Die 3090Ti ist nicht der Gegner der 6900XT. Du musst schon im Verhältnis zu Rasterizerleistung bleiben, sonst bewertest du die RT-Leistung nicht richtig.3090Ti und 6900XT sind beides der jeweilige Vollausbau. Das ist schon richtig bewertet.
Ein Vollausbau-N31 wird sich auch im Endeffekt mit einer 4090Ti messen müssen bzgl. absoluter Leistungswerte.
https://mobile.twitter.com/Kepler_L2/status/1579873393599709184
Morgen kommt was zur RTX 4090 Verfügbarkeit
Angeblich ein weiterer Artikel von Angstronomics mit noch mehr Details zu RDNA3.
vinacis_vivids
2022-10-11, 20:31:44
In welchem Erdloch warst du die letzten 12 Monate?
Für mich persönlich hat sich seit knappen 2 Jahren mit RDNA2 (RX6800) nichts weiter entwickelt. Mit Mining habe ich kleines Plus gemacht, nichts besonderes.
Alles normal sozusagen.
Ein größere Upgrade ist in der Schublade Full-Ausbau:
Ryzen 7950X + X670 + 64GB DDR5 + N31XTX 24GB
Oder die kleinere Variante - Salvage:
Ryzen 7900X + B650 + 32GB DDR5 + N31XL 20GB
Mich reizt sowieso mehr die Salvage-Stufen zu übertakten & tunen und das Maximum rauszuholen. Wäre gut wenn AMD unter 1500€ bei den GPUs bleibt angesichts der 6900XT für 800€.
3090Ti und 6900XT sind beides der jeweilige Vollausbau. Das ist schon richtig bewertet.
Ein Vollausbau-N31 wird sich auch im Endeffekt mit einer 4090Ti messen müssen bzgl. absoluter Leistungswerte.
Was fürn Quatsch ;D. Wenn der die 7950XT in etwa die gleiche Renderleistung hat wie die 4090, dann kannst du RT-Leistung bewerten. Wenn nicht, musst du ein entsprechend kleineren Modell nehmen. Welche Chips wie Vollausbau sind ist komplett egal. Eine 6900XT kannst in etwa mit einer 3080Ti vergleichen.
Angeblich ein weiterer Artikel von Angstronomics mit noch mehr Details zu RDNA3.
bin gespannt ;).
Linmoum
2022-10-11, 21:18:53
Und wer legt fest, womit ich was vergleichen kann/darf/soll?
Im Vollausbau gibt's bei beiden Herstellern die maximal mögliche Performance des jeweiligen Chips. Daher auch entsprechend vergleichbar. Fertig.
Es geht rein um die maximal mögliche Leistungsfähigkeit und nichts anderes.
Es ergibt nur dann Sinn, wenn du einen Vergleichswert hast.
Im PCGH Index ist die RX6900XT in UHD exakt so schnell wie die 3080ti, im RT-Index ist die 3080Ti genau 35% schneller als die 6900XT. Wenn AMD diese 35% aufholt und die gleiche Renderleistung wie eine AD102 bietet, hat sie eine annähernd ähnliche RT-Leistung.
basix
2022-10-11, 22:26:29
Zwischen einer 6900XT und 4090 liegen bei RT ~3x. In Extremfällen sogar mehr (Cyberpunk, Dying Light, Path-Tracing Zeugs).
Ich sehe da aber schon realistische Chancen, dass man am Schluss nicht weit weg liegt:
- Starke RT-Core etc. Verbesserung
- ...und/oder RDNA3 bringt die FLOPs bei RT auf die Strasse
Das muss AMD aber erst liefern.
Richtig. Ich halte es aber für illusorisch, dass AMD gegen Ada beim RT konkurrieren kann. Aber der Abstand wird mMn lange nicht so schlimm sein wie im Moment.
basix
2022-10-11, 23:06:44
Naja, doppelt so schnelle RT-Cores (pro WGP / clk) und FP32-FLOPs auf den Boden bringen. Wären ziemlich genau 3x vs. 6900XT ;)
Ist nicht unmöglich, das ist das, was ich sagen will. Ob man es schafft? Keine Ahnung. Nur schon nah dran zu sein wäre mMn sehr stark und ein riesen Fortschritt.
Iscaran
2022-10-11, 23:08:31
Also folgende Überlegung.
Basierend auf den Reviews von heute kann man ja mittlerweile recht grob das Performance-Scaling von Ada einschätzen.
Und das sieht eigentlich nicht besonders gut aus.
Betrachten wir dazu einfach mal den Wert GFlops/3DC-4k-Index für verschiedene Architekturen.
Die Gigaflops auf die ich die Kalkulation beziehe sind dabei immer mit dem definierten "Boost-Clock" der jeweiligen Chips gerechnet, da diese Zahlen einfach zugänglich sind. Ich betrachte dabei immer den Mittelwert über ALLE releasten GPUs die einer Architektur zuzuordnen sind und im 3DC-Index stehen.
Interessant ist jedenfalls folgende Entwicklung des GFlops/%4k-Index Wertes:
AMD GCN3 79.55
AMD GCN4 79.98
AMD GCN5 90.13
AMD RDNA1 63.20
AMD RDNA2 65.98
Wohingegen:
nVidia Ada 122.70
nVidia Ampere 57.27
nVidia Turing 55.38
nVidia Pascal 58.45
nVidia Maxwell 62.33
AMD hatte also mit GCN5 die "schlechteste" Architektur, die also die "Rohleistung" in Form von GFlops am schlechtesten "auf die Strasse" brachte, wie man so schön sagt. AMD brauchte mit GCN5 ca 90 GFlops um 1% DC-Index-Punkt zu erziehlen. GCN3 und 4 waren etwas besser, der Große Wurf war dann jedoch RDNA, welches den real schon seit Jahren beobachteten "Gap", dass AMD nämlich deutlich mehr GFlops/% brauchte als nVidia im wesentlichen egalisierte.
Das interessante ist nun...betrachten wir Ada sehen wir eine GPU die IRRSINNIGE GFlops Leistung hat, aber am Ende dann doch "nur" in Form der 4090 +65% auf eine 3090 Ti drauflegt.
Damit würde ich die 4090 also bei ca 408*1.65=673 % 4k-Index verorten.
Zusammen mit den rechnerischen 82.6 TFlops an Leistung, braucht Ada also 122.7 GFlops/%-Index
WOW - das ist mehr als DOPPELT soviel wie Ampere gebraucht hat um 1%-Indexpunkt zu erreichen.
Mit anderen Worten, die "IPC" scheint hier drastisch gesunken zu sein. Ist offenbar sogar UNTER GCN5-Niveau gedropped.
Nun kann man ausgehend davon für RDNA3 spekulieren.
Z.B. N31 wird womöglich 12288 Shader haben, und rechne ich mal mit "nur" dieselbe Boost Clock wie RDNA2. Dann ergibt das immerhin schon ca 55.3 TFlops.
Wende ich darauf dann in etwa die IPC von RDNA2 an ~70GFlops/%-Punkt ergibt sich rechnerisch bereits etwas um ~780% Index.
Das wäre ~+15% schneller als die 4090.
Gehe ich mit 2.75 GHz Boost clock rein, was immer noch DEUTLICH unter den Taktraten der Gerüchte liegt UND nehme keine dramatischen IPC-Verluste an wie oben (70GFlops/%), landet man bereits im Bereich 960% Index.
Gut, vermutlich wird man ähnlich wie Ada auch ein gewisses "Skalierungsproblem" haben, die IPC dürfte also schlechter als RDNA2 ausfallen, aber ich glaube nicht, dass wir einen derartigen Drop von RDNA2 => RDNA3 sehen wie er bei Ada passiert ist.
Aber selbst wenn ich mal nur rein hypothetisch die IPC von Ada nehme mit 122.7 Gflops/% Punkt und das mit einem hypothetischen N31 mit 12288 Shadern und 3.2 GHz takt (78.6 TFlops) übersetze, ergibt das ein Leistungsniveau im Bereich von 640% Index.
Und ich sehe eigentlich KEINEN Grund warum die IPC von RDNA3 soviel schlechter werden sollte wie die von RDNA2.
Andererseits gibt es eigentlich auch wenig Gründe die offensichtlich sind, welche den massiven IPC-Drop von Ada vs Ampere erklären können.
Auf jeden Fall wir der November spannend werden!
davidzo
2022-10-11, 23:17:47
Hast du dich da nicht verrechnet?
122 Gflops/% bei ADA und 57 bei Ampere würde ja heißen dass die 4090 (82TF) nicht schneller ist als die 3090ti (40TF).
Die Ampere Zahlen sind auf jeden Fall falsch, denn nie im Leben holt Ampere mehr Leistung aus weniger Gflops als RDNA2. Ampere liegt eher im Bereich von GCN4/5 was die performance pro Tflop angeht (Vega56 mit 10,5Tflop ist 5% schneller als die RTX3050 mit 9TF).
Auch die anderen Zahlen passen nicht wirklich, GCN hatte keine große IPC-Stufe und RDNA1 hat nahezu identische performance pro Gflop wie Turing und gute 13% besser als Pascal. Der Abstand turing pascal ist real viel größer und stattdessen ist zwischen maxwell und pascal sehr wenig (gleiche µarch, nur neue Fertigung+clocks).
Zwischen Polaris und RDNA1 liegen außerdem gute 40%, nicht nur 25%.
Da stimmt echt nix an der Tabelle...
Digidi
2022-10-11, 23:53:00
AMD GCN3 79.55
AMD GCN4 79.98
AMD GCN5 90.13
AMD RDNA1 63.20
AMD RDNA2 65.98
Wohingegen:
nVidia Ada 122.70
nVidia Ampere 57.27
nVidia Turing 55.38
nVidia Pascal 58.45
nVidia Maxwell 62.33
AMD hatte also mit GCN5 die "schlechteste" Architektur, die also die "Rohleistung" in Form von GFlops am schlechtesten "auf die Strasse" brachte, wie man so schön sagt. AMD brauchte mit GCN5 ca 90 GFlops um 1% DC-Index-Punkt zu erziehlen. GCN3 und 4 waren etwas besser, der Große Wurf war dann jedoch RDNA, welches den real schon seit Jahren beobachteten "Gap", dass AMD nämlich deutlich mehr GFlops/% brauchte als nVidia im wesentlichen egalisierte.
!
Na ja das lag und liegt heute zum Teil immer noch in der Marktmacht von Nvidia begründet. Wenn du nur 15% Marktanteil hast dann Entwickeln halt die Softwareentwickler nicht für deine Platform und das ist das eigentlich traurige. Man hat ja in manchen Titel gesehen das AMD voll durch die Decke geht, aber es war halt nur bei ein paar wenigen Titeln.
Du kannst immer alles auf den ALUs machen, aber richtig schnell und geil wird das halt nicht. Ich denke da an die Diskussion um die Jahrtausendwende, bei dem der Nutzen einer "strunzdummen" HTnL-Einheit in Frage gestellt wurde. Die braucht Ansprache durch Entwickler, also warum nimmt man nicht einfach weiter die monatlich steigende Prozessorleistung für diese Aufgabe? Weil trotzdem Faktoren dazwischen liegen. :) Und so ist es auch beim Raytracing. Die "AMD-optimierten" Spiele zeigen aus guten Gründen nie aufwendiges Raytracing, sondern in der Regel nur ein paar Schatten und stark optimierte Reflexionen. Auf die UE5 in freier Wildbahn (im finalen Zustand) bin ich aber auch sehr gespannt. Hoffentlich performt sie aus dem Stand besser als die UE4, aber die Vorzeichen dafür stehen nicht gut ... Oh, und endlich ein Port von Ratchet & Clank wäre schön. Nixxes, übernehmen Sie! :D
MfG
Raff
Du vergleichst hier Äpfel mit Birnen. Natürlich ist eine CPU nicht für GPU aufgaben zu gebrauchen, das liegt aber in Ihrer Funktion begründet. CPUs sollen Serielleaufgaben lösen, GPUs parallel. Soweit ich weiß ist BHV auch stark Parallel ausgerichtet. Ob man da jetzt eine Universelle Einheit nimmt und davon viele oder ein paar dediziert und nur auf 1 Thema beschränkt sind bringt da alles Vor- und Nachteile. Wenn Raytracing z.B. nur der Einzhige Effekt wäre würde Nvidia nicht gut ausehen, weil AMD dann 2000 Einheiten hat die da rumrechnen, während Nvidia nur ein paar 128 Einheiten hat die dann zwar 2-3 mal so schnell sind aber halt die 2000 Einheiten nicht aufhohlen.
Thomas Gräf
2022-10-12, 00:26:17
Leck mich am A***** mit Raytracing. Die Studios sollen erstmal Vulkan zu 1000% in ihrer Engine im Griff haben.
Dann meinetwegen diese RT Effekte. Alles andere ist für mich kompletter Blödsinn.
Und dan weiß man auch was im Silizium wichtig ist. Software war vor Hardware!!!
Als wenn ein ein Rennfahrzeug ohne Fahrwerk entwickelt wird, so kommt mir das vor. Einfach nur pervers gerade in technischer Hinsicht.
vinacis_vivids
2022-10-12, 00:30:25
Nehmen wir mal CB als Quelle für fp32 Raster:
4090 ~ 2,75 Ghz ~ 16.384 SP ~ 90,1 Tflops fp32 = 100 fps
3090Ti ~ 1,95 Ghz ~ 10.752 SP ~ 41,9 Tflops fp32 = 60,5 fps
6900XT ~ 2,25 Ghz ~ 5120 SP ~ 23,0 Tflops fp32 = 51,9 fps
Effizienz:
4090 ~ 0,9 Tflops fp32 pro frame
3090Ti ~ 0,69 Tflops fp32 pro frame
6900XT ~ 0,44 Tflops fp32 pro frame
Jetzt nehmen wir RDNA3 rein mit dem Effizienzfaktor von RDNA2 0,44 Tflops fp32 pro frame
7950XT ~ 3,0 Ghz ~ 12.288 SP ~ 73,7 Tflops fp32 = 167,5 fps
4090 ~ 2,75 Ghz ~ 16.384 SP ~ 90,1 Tflops fp32 = 100 fps
Ein hypothetischer 7950XT mit der gleichen Effizienzfaktor wie RDNA2 ist mit 167,5fps deutlich schneller als 4090 mit 100 fps.
Real nimmt die Effizienz mit der Breite leider ab. Deswegen rechnen wir mit Effizienzverlust und einem Faktor von 0,6 Tflops fp32 pro frame für RDNA3 und reduzieren den Takt auf 2,9Ghz für 300W.
7950XT ~ 2,9 Ghz ~ 12.288 SP ~ 71,2 Tflops fp32 = 118,67 fps
4090 ~ 2,75 Ghz ~ 16.384 SP ~ 90,1 Tflops fp32 = 100 fps
7950XT @ 2,9Ghz ist ~18% schneller als 4090 @ 2,75Ghz.
dildo4u
2022-10-12, 05:09:16
Laut dem Digital Foundry Video läuft die 4090 oft in CPU Limits ohne RT, daher kann man ohne neue CPU nicht sagen wo die Raster Leistung liegt.
AMD sollte Nvidia danken die Karte braucht den Zen 4 3D vermutlich deutlich mehr als RDNA3.(Treiber Overhead)
robbitop
2022-10-12, 08:09:38
Das wäre eine Verschlechterung des aktuellen Zustands (laut CBS-Rating), darauf will ich nun wirklich nicht hoffen.
Auch angesichts dessen, dass die 4090 laut CBS nur 5% mehr in RT drauflegt.
Wer ist "CBS"?
Wenn ich mir die Verbesserungen der RT Hardware anschaue, ist es eigentlich klar, dass out of the box wenig dabei herumkommt. Die größte Verbesserung (und das Kernstück von Level 4 Hardware) ist die coherency sorting hardware (bei NV SER genannt). Die muss explizit vom Entwickler angesprochen werden.
Die RT Kerne haben mehr Durchsatz aber der limitierte wohl praktisch nicht.
Auch die Opacity Micromap Engine (OMM) und die Displaced Micro-Mesh Engine (DMM) brauchen explizite Entwicklerunterstützung.
Es scheint mir, dass mit heutigen Spielen out of the box nicht so viel mehr drin ist und wenn man mehr herausholen will, muss zusätzliche HW explizit unterstützt werden.
Erstmals soll das im neuen CBP2077 build der Fall sein. Den habe ich aber noch nirgends gebencht gesehen. In der Nvidia Demo zog der dann IIRC wirklich deutlich davon...
dargo
2022-10-12, 08:12:13
Laut dem Digital Foundry Video läuft die 4090 oft in CPU Limits ohne RT, daher kann man ohne neue CPU nicht sagen wo die Raster Leistung liegt.
Das ist kompletter Unsinn, es reicht nur sich mal den Schnitt bei CB in 4k vs. 5k anzuschauen. Oder auch mal einzelne Spiele wie bsw. DL2, da ist die 4090 gerade mal 55-60% schneller als die 3090TI.
https://abload.de/img/dl2_18keow.jpg https://abload.de/img/dl2_26sih2.jpg https://abload.de/img/dl2_39wfgl.jpg
Ich frage mich auch was die ganzen TFLOPs bei Ada bringen?
RTX 3090TI bei 1936Mhz im Schnitt = 41,6TFLOPs
RTX 4090 bei 2744Mhz im Schnitt = 89,9TFLOPs
Ada ist noch mehr Luftpumpe als es schon Ampere war wenn man die zur Verfügung stehen TFLOPs in Relation stellt.
robbitop
2022-10-12, 08:14:23
Zwischen einer 6900XT und 4090 liegen bei RT ~3x. In Extremfällen sogar mehr (Cyberpunk, Dying Light, Path-Tracing Zeugs).
Ich sehe da aber schon realistische Chancen, dass man am Schluss nicht weit weg liegt:
- Starke RT-Core etc. Verbesserung
- ...und/oder RDNA3 bringt die FLOPs bei RT auf die Strasse
Das muss AMD aber erst liefern.
Man muss das etwas aufdifferenzieren. RDNA2 war ggü Ampere bereits deutlich im Hintertreffen mit RT.
Jetzt ist Ada je nach Spiel (unabhängig von RT oder nicht) ~1,8x schneller als Ada. Das kommt da noch oben drauf.
Wenn man sich aber den relativen RT Performance Hit auf Ada anschaut und mit Ampere vergleicht - tut sich da nicht viel. Einfach weil der Großteil des Effekts der RT Level 4 HW explizit vom Entwickler unterstützt werden muss, damit es hilft.
robbitop
2022-10-12, 08:17:04
Laut dem Digital Foundry Video läuft die 4090 oft in CPU Limits ohne RT, daher kann man ohne neue CPU nicht sagen wo die Raster Leistung liegt.
AMD sollte Nvidia danken die Karte braucht den Zen 4 3D vermutlich deutlich mehr als RDNA3.(Treiber Overhead)
Das muss man natürlich in den Benchmarks auch sicherstellen. Bei CB kannst du jedes Spiel 1440p mit 2160p vergleichen (manuell). Die Framerate ist bei 1440p deutlich höher (auch bei Ada). Ergo kein eindeutiges CPU Limit.
Ansonsten kann man auch einfach die Auflösung (zur Not mit DSR) aufdrehen. 5K, 8K usw. Ins GPU Limit kommt man immer.
Das ist kompletter Unsinn, es reicht nur sich mal den Schnitt bei CB in 4k vs. 5k anzuschauen. Oder auch mal einzelne Spiele wie bsw. DL2, da ist die 4090 gerade mal 55-60% schneller als die 3090TI.
https://abload.de/img/dl2_18keow.jpg https://abload.de/img/dl2_26sih2.jpg https://abload.de/img/dl2_39wfgl.jpg
Ich frage mich auch was die ganzen TFLOPs bei Ada bringen?
RTX 3090TI bei 1936Mhz im Schnitt = 41,6TFLOPs
RTX 4090 bei 2744Mhz im Schnitt = 89,9TFLOPs
Ada ist noch mehr Luftpumpe als es schon Ampere war wenn man die zur Verfügung stehen TFLOPs in Relation stellt.
Jepp - AD102 hat anscheinend Auslastungsprobleme. Und das ist mit so vielen SMs auch kein Wunder. Das ist auch keine IHV spezifische Krankheit sondern tatsächlich eine immer vorhandene Herausforderung. Bei Pascal hat man nicht ohne Grund das Transistorbudget primär auf Takt und Auslastung investiert anstatt einfach mehr SMs reinzubekommen. Das gleiche mit Maxwell ggü Kepler. Vega zB ist gar nicht so schlecht im IGP Bereich - weil kaum SMs.
Es wird immer schwieriger die Auslastung oben zu halten. Die SMs haben sich von Ampere ausgehend ja praktisch nicht verändert - entsprechend würde ich mit AD103/04/06 bessere Auslastung erwarten.
Da Ampere dort auch unter hohen Aufllösungen daran leidet, hat es wohl auch nichts mit dem Front End zu tun. Wohl eher mit dem Verteilen der Arbeit oder dem overhead. Das gleiche wird jedem anderen IHV auch passieren, wenn die CUs/XeCores und wie sie alle heißen so hoch gezogen werden. :)
fondness
2022-10-12, 08:17:54
Das ist kompletter Unsinn, es reicht nur sich mal den Schnitt bei CB in 4k vs. 5k anzuschauen. Oder auch mal einzelne Spiele wie bsw. DL2, da ist die 4090 gerade mal 55-60% schneller als die 3090TI.
https://abload.de/img/dl2_18keow.jpg https://abload.de/img/dl2_26sih2.jpg https://abload.de/img/dl2_39wfgl.jpg
Ich frage mich auch was die ganzen TFLOPs bei Ada bringen?
RTX 3090TI bei 1936Mhz im Schnitt = 41,6TFLOPs
RTX 4090 bei 2744Mhz im Schnitt = 89,9TFLOPs
Ada ist noch mehr Luftpumpe als es schon Ampere war wenn man die zur Verfügung stehen TFLOPs in Relation stellt.
Ja, das wundert mich auch ziemlich. Wir reden hier von 2 full node Shrinks und dementsprechend fast 3x mehr Transistoren plus fast 50% mehr Takt. Wo geht die Leistung hin? Selbst mit RT ist der Performace-hit kaum geringer als bei Ampere. Unterm Strich ist es der übliche Sprung den Nvidia bei jeder neuen Gen wie ein Uhrwerk abliefert, aber den Sprung gabs eben im Extremfall auch schonmal im selben Prozess.
user77
2022-10-12, 08:23:37
Oder auch mal einzelne Spiele wie bsw. DL2, da ist die 4090 gerade mal 55-60% schneller als die 3090TI.
Gerade mal 55-60% schneller :freak:
Wann hast du das das letzte mal gesehen? GTX 8800?
Ich frage mich auch was die ganzen TFLOPs bei Ada bringen?
RTX 3090TI bei 1936Mhz im Schnitt = 41,6TFLOPs
RTX 4090 bei 2744Mhz im Schnitt = 89,9TFLOPs
Ada ist noch mehr Luftpumpe als es schon Ampere war wenn man die zur Verfügung stehen TFLOPs in Relation stellt.
Weil es evtl. nicht so funktioniert: doppelte TFLOP = doppelte FPS
Dann kommen noch Engine und CPU ins Spiel...
dildo4u
2022-10-12, 08:25:02
Ja, das wundert mich auch ziemlich. Wir reden hier von 2 full node Shrinks und dementsprechend fast 3x mehr Transistoren plus fast 50% mehr Takt. Wo geht die Leistung hin? Selbst mit RT ist der Performace-hit kaum geringer als bei Ampere. Unterm Strich ist es der übliche Sprung den Nvidia bei jeder neuen Gen wie ein Uhrwerk abliefert, aber den Sprung gabs eben im Extremfall auch schonmal im selben Prozess.
Fast alle RT Games wurden mit Turing im Kopf gebaut du brauchst neue RT Modi wie Overdrive von Cyperpunk.
Wir haben das z.b Hitman 3 hat kein RT für Konsolen reines PC RT zusammen mit Intel entwickelt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13135380&postcount=262
Dort sind die Transistoren AMD braucht in jedem Fall RDNA4 für das Level.
dargo
2022-10-12, 08:28:41
Gerade mal 55-60% schneller :freak:
Wann hast du das das letzte mal gesehen? GTX 8800?
Kühl dich erstmal von deinem Hype ab dann kannst du auch klar wieder denken.
Weil es evtl. nicht so funktioniert: doppelte TFLOP = doppelte FPS
Wenn es nicht funktioniert hat man die Hausaufgaben intern nicht richtig gemacht um Bottlenecks zu beseitigen. Eine 1:1 Skalierung zu realisieren ist natürlich extrem schwierig. Aber zumindest 90% hätte ich da erwartet wenn man eben die Hausaufgaben macht. Im Beispiel von DL2 haben wir +116% TFLOPs bei 55-60% mehr fps, das ist extrem schlecht.
Edit:
Hat eigentlich jemand untersucht ob Ada von der Speicherbandbreite nennenswert ausgebremst wird? Immerhin ist diese identlich zu Ampere. Der größere Cache wird sicherlich was abfedern können, aber komplett egalisieren?
user77
2022-10-12, 08:36:05
Kühl dich erstmal von deinem Hype ab dann kannst du auch klar wieder denken.
Wenn es nicht funktioniert hat man die Hausaufgaben intern nicht richtig gemacht um Bottlenecks zu beseitigen.
Was stört dich an der Grafikkarte außer dem Preis?
Effizienz Hammer (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt)
Leistung Hammer
Temperaturen Super
Lautstärke okay (FE)
Die Karte ist bei 300W 200% schneller in DL2 (3.840 × 2.160) als ne 3090Ti bei 300W
Di Karte ist bei 300W 52% schneller in DL2 (3.840 × 2.160) als ne 3090Ti mit 450W
Das wäre mir wichtiger als doppelte Leistung bei 450W :cool:
basix
2022-10-12, 08:37:06
Gerade mal 55-60% schneller :freak:
Wann hast du das das letzte mal gesehen? GTX 8800?
Bitte gleiches mit gleichem Vergleichen:
- 7900 -> 8800 = >+100%
- 8800 -> 280 = +60%
- 285 -> 480 = +70%
- 580 -> 780 Ti = +157%
- 780 Ti -> 980 Ti = +53% (selber 28nm Node)
- 980 Ti -> 1080 Ti = +75%
- 1080 Ti -> 2080 Ti = +35% (~selber Node, N16 vs. 12FFN)
- 2080 Ti -> 3090 = +50%
- 3090 -> 4090 = +73%
Nvidia hatt seit Kepler zum Teil den Gx104 Chip oder einen Salvage zuerst gebracht (z.B. 3080). Und Turing als auch Ampere sind historisch gesehen relativ kleine Sprünge. Deswegen erschienen die Sprünge seit einiger Zeit nicht mehr so hoch.
Source:
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/21/#abschnitt_performancerating_qualitaet
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3080-ti-review-test/2/#abschnitt_benchmarks_in_3840__2160
dildo4u
2022-10-12, 08:42:52
Kühl dich erstmal von deinem Hype ab dann kannst du auch klar wieder denken.
Wenn es nicht funktioniert hat man die Hausaufgaben intern nicht richtig gemacht um Bottlenecks zu beseitigen. Eine 1:1 Skalierung zu realisieren ist natürlich extrem schwierig. Aber zumindest 90% hätte ich da erwartet wenn man eben die Hausaufgaben macht. Im Beispiel von DL2 haben wir +116% TFLOPs bei 55-60% mehr fps, das ist extrem schlecht.
Sie haben teilweise Bottlenecks in Raster beseitigt Forza rennt plötzlich deutlich besser oder es sind Treiber fixes die erst noch für Ampere kommen.
https://abload.de/img/clipboard015eiae.png
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/3/
basix
2022-10-12, 08:49:04
Edit:
Hat eigentlich jemand untersucht ob Ada von der Speicherbandbreite nennenswert ausgebremst wird? Immerhin ist diese identlich zu Ampere. Der größere Cache wird sicherlich was abfedern können, aber komplett egalisieren?
Geprüft hat es noch niemand direkt. Gibt aber Benches, wo bei 1440p -> 4K die 4090 verglichen mit der 3090 sogar etwas zurückfällt. Und die Bencher fragen sich dann "ich habe keine Ahnung was da passiert" :rolleyes: RDNA2 mit Infinity Cache sollte denen eigentlich geläufig sein ;)
Ein weiteres Indiz sind die 5K Benches von CB. Die 4090 kann sich nicht weiter von der 3090 absetzen.
8K Benches gibt es leider noch keine im Netz.
Edit:
Wir werden mit der 4090 Ti ein interessantes Objekt zur Hand haben, um das mit dem Cache zu prüfen. Wenn die Performance stärker steigt, als es die FLOPS vermuten liessen (SMs + Takt), dann limitiert der Cache / die Speicherbandbreite ;)
dargo
2022-10-12, 08:53:40
Sie haben teilweise Bottlenecks in Raster beseitigt Forza rennt plötzlich deutlich besser oder es sind Treiber fixes die erst noch für Ampere kommen.
Bei FH5 würde ich darauf tippen, dass der größere Cache Ada hier hilft, genau wie der IF bei RDNA2.
Edit:
Wir werden mit der 4090 Ti ein interessantes Objekt zur Hand haben, im das mit dem Cache zu prüfen. Wenn die Performance stärker steigt, als es die FLOPS vermuten liessen (SMs + Takt), dann limitiert der Cache / die Speicherbandbreite ;)
Stimmt.
mboeller
2022-10-12, 09:00:54
Jepp - AD102 hat anscheinend Auslastungsprobleme. Und das ist mit so vielen SMs auch kein Wunder.
Dann ist ja AMD den richtigen Weg gegangen:
+GHz
nur +20% "SM" (N21 40 WGP; N31 48 WGP)
dafür die Leistung pro WGP aufgebohrt.
basix
2022-10-12, 09:06:03
@dargo:
Was man aber bereits jetzt sagen kann: 1 TByte/s und 96 MByte LLC scheinen für sehr hohe Performance zu genügen. Insbesondere auch bei 4K. Das ist doch vielversprechend hinsichtlich N31 ;)
Zur 4090:
Mir ist auch aufgefallen, dass die DLSS Skalierung oftmals deutlich schlechter als bei Ampere ist. Zum Teil ist es evtl. ein CPU-Limit, das kann man anhand der Benches oftmals nicht genau sagen. Bei CB kann man aber immerhin bei gleichen Settings auf 1440p runtergehen. Dort sieht man: Die 4090 profitiert z.B. bei Ghostwire Tokyo deutlich weniger von DLSS. Und das, obwohl man doppelt so hohe Tensor Power hat. Und gibt bei anderen Reviews ähnliche Fälle. Könnte ebenfalls ein Indiz für ein Bottleneck sein.
Cyberfries
2022-10-12, 09:19:13
Zwischen einer 6900XT und 4090 liegen bei RT ~3x.
Bei ungefähr ~2x Raster und dem bestehenden RT-Rückstand ist das alles andere als verwunderlich.
Eher erstaunlich, dass die 4090 den Vorsprung im RT nicht weiter ausbaut.
AMD GCN3 79.55
AMD GCN4 79.98
AMD GCN5 90.13
AMD RDNA1 63.20
AMD RDNA2 65.98
nVidia Ada 122.70
nVidia Ampere 57.27
nVidia Turing 55.38
nVidia Pascal 58.45
nVidia Maxwell 62.33
Wenn ich das mal für die Architekturen ab 2020 nachrechne komme ich auf andere Werte:
Architektur | Mittelwert | Tiefstwert | Bestwert
RDNA 1 | 58,4 | 62,0 (5600) | 53,3 (5700)
RDNA 2 | 65,1 | 76,1 (6600) | 56,9 (6750xt)
Ada | 122,7 | 122,7 (4090) |
Ampere | 86.6 | 98,0 (3090ti) | 74,9 (3060ti)
Turing | 52,9 | 63,2 (Titan RTX) | 45,8 (2060)
Obwohl die Grundaussage bleibt, sieht der Vergleich der Topmodelle gleich nicht mehr so desaströs aus für die 4090.
Für die kleineren Adas werden die Werte wohl auch besser aussehen.
Nun kann man ausgehend davon für RDNA3 spekulieren.
Der Index/GFlop-Wert wird wohl sicher schlechter werden, wesentlich mehr Shader pro WGP,
die auch noch auf maximale Flächeneffizienz optimiert... die Frage ist nur wie schlecht.
Mit ca. 80TFlops Rohleistung (4090 82,6) sollte es trotzdem zu einem engen Duell reichen.
Wer ist "CBS"?
Sorry, ich kürze Computerbase oft automatisch mit CBS statt CB ab obwohl es wenig Sinn ergibt.
Was stört dich an der Grafikkarte außer dem Preis?
Der gewählte Betriebspunkt im Auslieferungszustand.
Mit 300-350w ab Werk hätte ich nichts mehr zu meckern, aber so ist das Ding zu durstig, zu groß und zu schwer.
Die 3% Leistung sind es nicht wert.
basix
2022-10-12, 09:33:16
Der gewählte Betriebspunkt im Auslieferungszustand.
Mit 300-350w ab Werk hätte ich nichts mehr zu meckern, aber so ist das Ding zu durstig, zu groß und zu schwer.
Die 3% Leistung sind es nicht wert.
Ja, die 450W braucht es eigentlich nicht. Kann evtl. sein, dass aufgrund Bottlenecks (CPU, Cache, Bandbreite) die Karte automatisch einen optimaleren Betriebspunkt wählt? Wenn man sich die Verbauchswerte über viele Spiele anschaut, sieht es irgendwie so aus. Wäre eigentlich ein sehr geiles Feature. Die Karte verbraucht nur so viel, wie sie für die maximal erreichbaren FPS auch wirklich braucht.
Es gibt aber Spiele, welche die 450W schon ausnutzen. Sind aber wohl nicht so viele.
Das gute am ganzen: Die Karten sind vermutlich alle ziemlich leise. Und wenn man sie auf ~300W einbremst sowie manuell die Curve optimiert, ist die Karte wohl nur in seltenen Fällen langsamer als bei Default-Settings. Und dabei flüsterleise.
fondness
2022-10-12, 09:35:33
Der gewählte Betriebspunkt im Auslieferungszustand.
Mit 300-350w ab Werk hätte ich nichts mehr zu meckern, aber so ist das Ding zu durstig, zu groß und zu schwer.
Die 3% Leistung sind es nicht wert.
Ja, der Stromverbrauch scheint in den USA echt vollig belanglos zu sein. Anders sind die jüngsten einstufungen von Zen4 und jetzt Ada nicht zu erklären.
Iscaran
2022-10-12, 09:40:42
Dann ist ja AMD den richtigen Weg gegangen:
+GHz
nur +20% "SM" (N21 40 WGP; N31 48 WGP)
dafür die Leistung pro WGP aufgebohrt.
Möglich. Genaueres werden wir wohl am 3.11. erfahren.
Zur Flops Rechnung bei Ampere - das hängt davon ab wie man die INT/FP Verteilung in den "Dual-Use" shadern rechnet. Je nachdem ändert sich auch der GFlops/% Wert.
Kann mir das heute Abend nochmal genauer anschauen wie ich das in den Architekturvergleichen mache.
Aber nimmt man NUR die "Theoretisch mögliche" FP-Menge an (also 0% Int-Anteil auf den dual-use shadern) dann wird Ampere auch etwas schlechter und der Abstand zu Ada ist nicht mehr ganz so krass.
Aber das ist möglicherweise der ehrlichere Vergleich.
Für Ada habe ich nicht mit "dual-Use" INT/FP shadern kalkuliert - vielleicht ist das doch nicht so korrekt.
Ändert aber nur Quantitativ etwas an den Zahlen, nicht aber an der tatsächlich starken "ineffizienz" wie auch das Beispiel von vinacis_vivids zeigt.
EDIT: ahja Cyberfries hat es nochmal mit REIN FP-Leistung gerechnet da sieht man dass es zwar die Zahlen ändert, aber Ada hier nochmal massiv gegenüber Ampere verliert (und wenn man eben die rein theoretisch FP-Leistung bei Ampere nimmt, sind da die Zahlen eben auch schon schlechter gegenüber Turing)/EDIT.
Ada benötigt IRRSINNIG viele Flops / FPS. Und wenn ich nun für RDNA3 eine ähnlich Rechnung aufmache, dann wird es eben spannend. Wenn RDNA3 nicht EBENSO brachial einbricht in der "IPC" wie Ada das tut dann schaut diese eigentlich GUTE Ada-Ergebnis plötzlich nur noch mittelmäßig aus.
Klar die Gesamteffizienz ist auch immer noch sehr gut (@300 W + 65% vs 3090 Ti). Kein Thema. Die Karte ist auch so gut, wenn da nicht der Jensen Preis wäre für die PCBs aus Gold-gepresstem-Latinum. Die 4090 für ~1000-1200 € (UVP einer 3090 Ti) wäre hier Marktpositionsgerecht.
Wo kämen wir denn da hin wenn das Leistungsplus jeder Generation 1:1 in € umgerechnet wird. Extrapoliere doch mal von einer 20 Jahre alten 8800 hoch auf heute, => Preise im Bereich 100.000 € pro Karte oder so.
w0mbat
2022-10-12, 10:49:24
Kommen heute Neuigkeiten oder nicht?
why_me
2022-10-12, 10:51:58
Laut Keppler auf Twitter soll es heute wohl einen leak geben, man darf gespannt sein.
Linmoum
2022-10-12, 10:52:40
Wie gesagt, mehr Details von Angstronomics.
robbitop
2022-10-12, 10:54:46
Dann ist ja AMD den richtigen Weg gegangen:
+GHz
nur +20% "SM" (N21 40 WGP; N31 48 WGP)
dafür die Leistung pro WGP aufgebohrt.
Dafür werden die Workgroups aber größer. Ich würde jetzt mit den 12T FPUs auch keine gleiche Auslastung wie noch mit 5T FPUs bei N21 rechnen.
Möglich. Genaueres werden wir wohl am 3.11. erfahren.
Zur Flops Rechnung bei Ampere - das hängt davon ab wie man die INT/FP Verteilung in den "Dual-Use" shadern rechnet. Je nachdem ändert sich auch der GFlops/% Wert.
FP/INT ist kein wirklicher Flaschenhals.
Pascal hatte auch 128 gesharte FP/INTs und da gab es bessere Auslastung der SMs als mit Ampere. mksn7 hat das mal nachgemessen und es liegt viel eher daran, dass die Ampere SMs (gilt auch für Ada da unverändert) für 128 Operationen pro SM nur 1/2 so viele Scheduler resources hat.
RDNA/2 rechnet INT und FP auch alles auf den gleichen Units. Da gibt's auch kein Auslastungsproblem. Weitere 64x reine INTs pro SM hätten vor dem Hintergrund wahrscheinlich nichts/wenig gebracht.
Bei Ampere sind es pro SM die Schedulerresources, die die Auslastung begrenzen. Bei Ada Lovelace kommt das Problem der Auslastung bei so vielen SMs (Kontrolllogik/Overhead) noch dazu.
Bei RDNA3 würde ich bei der ver 2,5x der FPUs auch davon ausgehen, dass die Auslastung abnimmt.
vinacis_vivids
2022-10-12, 11:56:38
Bei N21XTX sind es DCUs : 80 CUs (compute Units) = 40 DCUs (Dual-compute Units).
Pro DCU sind es 128SPs (Shader-Prozessoren). Es ist natürlich schlau, entsprechend der DCUs die Shader auch so anzusprechen, dass die effektiv ausgelastet werden können.
Bei N31XT ändert sich die uArch wieder, weil u.a. an die Auslastung bei zunehmender Breite zu verbessern. 12288SP = 48WGP. Pro WGP sind also 256SPs zugeordnet. Von den SPs gesehen nimmt der Faktor (X = 12288 / 5120) exakt um 2,4 zu. Intern bei der Zuordnung ist es Faktor 2, also von 128SP zu 256SP eine Verdopplung.
Wie die ganze Caches zugeordnet sind, gibs bei RDNA2 leider kein White-Paper was ich schon eigenartig finde. Da hätte man natürlich zu RDNA1 ein Vergleich machen können.
Intern kommt bei N31 sehr wahrscheinlich noch der bessere IF$ der zweiten Generation mit max ~ 4TB/s Brandbreite hinzu und der deutlich höhere Takt.
OT: Der L2 Cache von AD102-Salvage (4090) hat lediglich eine Bandbreite von weniger als 1TB/s, der Full AD102 soll ja mit 96MB L2 und einer internen Bandbreite von 1,152 TB/s und 18.432SP kommen. Man merkt schon, dass 4090 ein sehr teurer Salvage ist, wenn auch ein sehr guter.
Bei den Ergebnissen von +60% Raster derzeit denke ich, dass AMD lediglich die kleinere Variante von N31 veröffentlicht mit 96MB IF$ und es 7900XT nennt wobei der IFCLK auch auf 2,2Ghz beschränkt sein wird für 3,3TB/s interne Bandbreite. Das ist immer noch deutlich mehr als 74MB L2 und wesentlich stärker als die 4090.
N31XTX 192MB halte ich für deutlich schneller als 4090. N31XT ist etwas schneller als 4090. Wir werden es bald sehen ;-)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.