Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
WedgeAntilles
2020-11-18, 16:53:54
Naja Hype hin oder her, was AMD hier geliefert hat kann sich sehen lassen.
Das Performance Niveau ist bei beiden Herstellern gleich.
Beide haben eine große schwäche. AMD bei der RT Leistung und Nvidia beim Speicher.
Bei der Leistungsaufnahme liegt AMD leicht vorne was okay ist, dafür Nvidia bei den Software Features.
Hier sollte man beiden Respekt Zollen aber der Hype ist bei genauer Betrachtung bei beiden Herstellern fehl am platz gewesen.
Super Posting, das trifft es sehr gut.
Interessant wird jetzt die Verfügbarkeit in den nächsten paar Monaten sein, und natürlich damit verbunden die echten Preise.
Screemer
2020-11-18, 16:55:14
ich befürchte, dass es in Zukunft (fast) nur noch Paperlaunches geben wird (also bei den Großen Grafikkarten) ... Natürlich kann man hier die Scalper gegenrechnen, aber wenn diese 90% der GPUs/CPUs einfach so kaufen können (bzw. die Finanzen haben) und damit massive Lücken erschaffen, dann frage ich mich irgendwann, ob es Absicht der Hersteller ist.
da ist die frage wie du das handeln würdest? die einzige möglichkeit ist pro cc nur eine karte über den zeitraum x zu verkaufen, am besten im eigenvertrieb. sonst kaufen die leute halt quer durch die shops. dazu müsstest du noch mit ebay einen deal machen, dass in den ersten x wochen keine karten über uvp oder von privaten anbietern auf der seite landen dürfen. stell ich mir schwierig vor.
arcanum
2020-11-18, 17:00:44
da ist die frage wie du das handeln würdest? die einzige möglichkeit ist pro cc nur eine karte über den zeitraum x zu verkaufen, am besten im eigenvertrieb. sonst kaufen die leute halt quer durch die shops. dazu müsstest du noch mit ebay einen deal machen, dass in den ersten x wochen keine karten über uvp oder von privaten anbietern auf der seite landen dürfen. stell ich mir schwierig vor.
das problem sind nicht nur "die" scalper sondern auch die shops selbst. außer bei AMD konnte man die karten nirgends zur UVP kaufen sondern hat mindestens 100€ aufschlag bezahlt. da mutet es wie ironie an dass AMD die shops angewiesen hat vorkehrungen zu treffen, damit scalper die karten nicht leerkaufen.
mir ist egal ob karten von privaten scalpern für 1000€ oder von scalpernate für 850€ angeboten wird, ich lasse beide karten liegen da nur die schein-uvp mein kaufinteresse weckt. nachdem was ich heute gesehen habe vermute ich, dass es kaum möglich sein wird customs für unter 900€ zu bekommen in den nächsten monaten.
die Scalper mache ich nur semi-verantwortlich, wie arcanum auch schon gesagt hat, die reine nicht vorhandene Menge an Grafikkarten macht es Scalpern extrem einfach, künstliche Lücken zu erzeugen, ohne hohe Eigenkosten (meiner Meinung nach)
Taigatrommel
2020-11-18, 17:13:40
das problem sind nicht nur "die" scalper sondern auch die shops selbst. außer bei AMD konnte man die karten nirgends zur UVP kaufen sondern hat mindestens 100€ aufschlag bezahlt. da mutet es wie ironie an dass AMD die shops angewiesen hat vorkehrungen zu treffen, damit scalper die karten nicht leerkaufen.
mir ist egal ob karten von privaten scalpern für 1000€ oder von scalpernate für 850€ angeboten wird, ich lasse beide karten liegen da nur die schein-uvp mein kaufinteresse weckt. nachdem was ich heute gesehen habe vermute ich, dass es kaum möglich sein wird customs für unter 900€ zu bekommen in den nächsten monaten.
Das ist der nächste Punkt, selbst Mindfactory hat ja im günstigsten Fall mal eben 130,- auf die UVP aufgeschlagen, ohne auch nur eine einzige Karte verkauft zu haben. Alternate im günstigsten Fall 170,- und im ungünstigsten Fall sogar mal eben 200,- über der UVP. Da bringt es auch nichts, wenn der Hersteller - in diesem Fall ja nun völlig egal ob es AMD oder nVidia ist - sich hinstellt und freudig die UVP verkündet, wenn diese auch von den offiziellen Partnershops gar nicht erst eingehalten werden.
Als Beispiel beim Launch der Radeon VII wollte Mindfactory noch einen Early-Bird Aufschlag von ca. 10-30 Euro haben - kein Vergleich zu dem, was nun auf einmal gefordert ist. Wenn die UVP sich erst Monate nach dem eigentlichen Erscheinungstermin langsam, möglicherweise mal einpendeln könnte, dann ist eine entsprechende Bezifferung meines Erachtens nach völlig daneben und unnötig.
Ist zwar schön, dass AMD gefühlt fünf Karten pro Modell selbst als einzige Quelle zur eigenen UVP verkauft hat, doch das was da heute ablief, wirft halt kein gutes Bild auf die Situation. Erinnert mich an irgendwelche Sonderverkäufe, wo draußen mit riesigen Rabatten geworben wird, der einzige große Rabatt ist aber irgendwo auf eine gebrauchte Unterhose in der hintersten Ecke im Grabbeltisch.
Zossel
2020-11-18, 17:16:30
ich befürchte, dass es in Zukunft (fast) nur noch Paperlaunches geben wird (also bei den Großen Grafikkarten) ... Natürlich kann man hier die Scalper gegenrechnen, aber wenn diese 90% der GPUs/CPUs einfach so kaufen können (bzw. die Finanzen haben) und damit massive Lücken erschaffen, dann frage ich mich irgendwann, ob es Absicht der Hersteller ist.
Zum spekulieren gehören immer Zwei, hier einen Opferkult zu zelebrieren ist völlig fehl am Platz.
Zergra
2020-11-18, 17:20:19
Ja selbst die 3080 war da bei MF zur UVP zu kaufen, aber das was da heute abging war schon traurig.
Grendizer
2020-11-18, 17:20:46
Ich habe auch das Gefühl, das es einfach mittlerweile zum Plan der Hersteller gehört durch eine extreme Verknappung beim Launch entsprechende Pressemitteilungen über den raschen Ausverkauf wenige Minuten nach Launch entsprechende Aufmerksamkeit zu generieren und ein knappes und dadurch wertvolles Produkt zu erschaffen. Ansonsten könnte man auch 4 Wochen später launchen und entsprechende Paletten per Schiff zu den Märkten bringen um wenigstens ein gewisses Angebot vorrätig zu haben.
Ich habe auch das Gefühl, das es einfach mittlerweile zum Plan der Hersteller gehört durch eine extreme Verknappung beim Launch entsprechende Pressemitteilungen über den raschen Ausverkauf wenige Minuten nach Launch entsprechende Aufmerksamkeit zu generieren und ein knappes und dadurch wertvolles Produkt zu erschaffen. Ansonsten könnte man auch 4 Wochen später launchen und entsprechende Paletten per Schiff zu den Märkten bringen um wenigstens ein gewisses Angebot vorrätig zu haben.
ja, diese Ansicht teile ich auch.
Taigatrommel
2020-11-18, 17:26:26
Ich habe auch das Gefühl, das es einfach mittlerweile zum Plan der Hersteller gehört durch eine extreme Verknappung beim Launch entsprechende Pressemitteilungen über den raschen Ausverkauf wenige Minuten nach Launch entsprechende Aufmerksamkeit zu generieren und ein knappes und dadurch wertvolles Produkt zu erschaffen. Ansonsten könnte man auch 4 Wochen Später launchen und entsprechende Paletten per Schiff zu den Märkten bringen.
Nur welchen Sinn hat das? Effektiv schürt es doch nur den Zorn der potentiellen Kunden gegenüber dem Unternehmen. Klar, es gibt keine schlechte Presse, sondern nur gute Werbung, doch ob das am Ende so einfach ist, wage ich halt auch zu bezweifeln. Der Hype um Ampere war schon extrem groß, vor allem wegen der beiden kleineren Modelle, dass Jensen sich dann hinstellt, man sei von der Nachfrage völlig überrascht gewesen, ist ja wohl blanker Hohn. Zumal er bei seiner Küchenpredigt selbst sagte, nun könne auch jeder Pascal Nutzer zuschlagen. Sprich es war im Vorfeld klar, wie groß die Nachfrage sein wird, da gibt es kein "Oh wie wurden völlig überrumpelt, damit haben wir nun nicht gerechnet."
So ähnlich ist es bei AMD, wenn ich mich recht entsinne, sprach AMD sowohl bei Zen 3 als auch bei RDNA2 im Vorfeld von deutlich besserer Verfügbarkeit, dass die Nachfrage groß ist, war bereits von Anfang an klar. Effektiv sind die Lager leer. Erschwerend kommen halt noch die krassen Preisunterschiede hinzu. Da frage ich mich als Kunde, wo ich das angekündigte Produkt denn bitte zum beworbenen Preis kaufen kann, zumal die Hersteller ja offenbar tatsächlich selbst vertreiben...
Zossel
2020-11-18, 17:32:24
Ich hätte die 6800 XT bei Mindfactory kaufen können... aber die Seite ist seit Minuten down... :mad:
DDOS Abwehr kann man als externe Dienstleistung einkaufen. Die gängigen Bots für Spekulanten dürften auch hinreichend schrottig programmiert sein das die von einen DDOS Abwehrdienstleister wahrscheinlich hinreichend scharf erkannt werden würden.
Ansonsten könnten auch mal die Shopsysteme ein paar Überraschungen reinbauen, z.b. keyed Hashes über die URL mit wechselnden Keys und wenn der Hash nicht stimmt kommt ein captcha oder es landen Gummibärchen für 49,99€ im Korb.
Wie ich schon sagte: Opferkult ist da überhaupt nicht angebracht.
r3ptil3
2020-11-18, 17:35:08
Dürfen die Boardpartner eigentlich eigene Reviews ihrer Customs veröffentlichen?
Speziell sehr gespannt auf Powercolor und Sapphire!
Bin nach der anfänglichen Ernüchterung der ersten Reviews, doch wieder etwas neutraler gestimmt. :freak:
sunshine
2020-11-18, 17:59:45
Warte auch auf Powercolor und Sapphire. Eine Woche noch... Bin echt gespannt wie sich das ganze RT Thema entwickelt. Vielleicht warte ich gar bis Cyberpunk und entscheide dann ob 3080 oder 6800XT.
Langlay
2020-11-18, 18:05:37
Bin echt gespannt wie sich das ganze RT Thema entwickelt. Vielleicht warte ich gar bis Cyberpunk und entscheide dann ob 3080 oder 6800XT.
Wie sich das mit RT entwickelt ist ganz klar, du verlierst 33-50% der FPS wenn du an machst, dafür kriegste dann etwas Eyecandy.
derguru
2020-11-18, 18:26:25
Wie sich das mit RT entwickelt ist ganz klar, du verlierst 33-50% der FPS wenn du an machst, dafür kriegste dann etwas Eyecandy.
stimmt aber mit dlss kann man wenistens den performanceeinbruch wieder ein bissel ausgleichen.
Digidi
2020-11-18, 18:28:42
Navi 21 ist sehr seltsam:
Laut Treiber soll Navi 21 8 Rasterizer haben, das wurde sogar nochmal im Mac Os 10 und 11 bestätigt.
Aber auf dem Diagramm sind es nur 4????
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/42-2160.fd765b4b.png
[MK2]Mythos
2020-11-18, 18:29:19
Hab jetzt auch eine Email von Mindfactory bekommen, mit dem Inhalt, dass man mir die Asrock statt der Sapphire anbietet. Das wichtigste hätte ich fast überlesen. Es wird keine Nachlieferung der Sapphire 6800XT geben! Das heißt wirklich, dass es nur ein paar Referenzmodelle für den Start gab und ab jetzt alle GPUs in die Customs wandern! :eek:
Cyberfries
2020-11-18, 19:00:30
Aber auf dem Diagramm sind es nur 4????
In die Grafik würde ich nicht zuviel rein interpretieren, die ist ohnehin unvollständig.
Außerdem wissen wir mittlerweile, dass die Treibereinträge stellenweise fehlerhaft sind, siehe Arcturus.
basix
2020-11-18, 19:01:43
Hat jemand schon die SAM Ergebnisse bei AC:Valhalla thematisiert? +15% :O
https://youtu.be/ZtxrrrkkTjc?t=1023
In 1440p +40% schneller als eine 3080 FE.
mironicus
2020-11-18, 19:34:50
Es gibt halt solche und solche Titel. Forza Horizon 4 ist ja auch viel schneller auf RDNA2.
amdfanuwe
2020-11-18, 19:40:14
Ansonsten könnte man auch 4 Wochen später launchen und entsprechende Paletten per Schiff zu den Märkten bringen um wenigstens ein gewisses Angebot vorrätig zu haben.
4 Wochen bringen doch auch nichts. Sollten dann schon 6 Monate sein um den ersten Ansturm zu decken. Oder 1 Jahr um auf der sicheren Seite zu sein? Aber dann erwartet der Kunde ja schon die Nachfolgegeneration.
Screemer
2020-11-18, 19:40:47
Navi 21 ist sehr seltsam:
Laut Treiber soll Navi 21 8 Rasterizer haben, das wurde sogar nochmal im Mac Os 10 und 11 bestätigt.
Aber auf dem Diagramm sind es nur 4????
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/42-2160.fd765b4b.png
hab ich im review thread angesprochen. kommen später im hothardware vidcast wohl noch details dazu.
€dit: der stream ist aus und es kam nichts dazu :(
Iscaran
2020-11-18, 19:58:25
Navi 21 ist sehr seltsam:
Laut Treiber soll Navi 21 8 Rasterizer haben, das wurde sogar nochmal im Mac Os 10 und 11 bestätigt.
Aber auf dem Diagramm sind es nur 4????
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/42-2160.fd765b4b.png
Nein das ist korrekt. Aber Der Rasteroutput der Renderbackends wurde bei RDNA2 verdoppelt auf 8 bits per cycle. (Vorher 4).
crux2005
2020-11-18, 19:58:31
Eher Trollmodus. :wink:
Edit:
Oder er meint die Slowakei. :tongue:
Ich meinte natürlich Slowakei... Immer noch besser als Ampere, deswegen das Wow. :rolleyes:
Na, wie viele haben eine bekommen?
Palpatin
2020-11-18, 20:07:01
4 Wochen bringen doch auch nichts. Sollten dann schon 6 Monate sein um den ersten Ansturm zu decken. Oder 1 Jahr um auf der sicheren Seite zu sein? Aber dann erwartet der Kunde ja schon die Nachfolgegeneration.
4 Wochen vor Release ein Tag Preorder mit Anzahlung ermöglichen. max eine pro Kunde. Bei anderen Produkten funktioniert das ja auch.
dargo
2020-11-18, 20:08:17
stimmt aber mit dlss kann man wenistens den performanceeinbruch wieder ein bissel ausgleichen.
Wo ist dieses DLSS in Dirt5 und Godfall?
Grendizer
2020-11-18, 20:17:35
Irgendwie war das jetzt schon ziemlich abgefuckt.
Reviews erst zum Release, Verfügbarkeit im Minutenbereich nur bei 2 Hoflieferanten + AMD selber, dazu noch total überzogene Preise.
Mal schauen, ob man eine 6800 XT Karte nach Referenzdesign in diesem Jahr noch für 649 bekommen kann.
Ich bin gespannt, wo die Customsdesign liegen werden. Aber alles in allem ernüchternd, wenn man gehofft hat, nach Ewigkeiten endlich mal ein vernünftiges Upgrade von der 1080 kommend erhalten zu können.
Screemer
2020-11-18, 20:29:05
will eigentlich jemand den preis wissen den amd für die rx 6900 xt aufrufen wird?
https://abload.de/img/screenshot_2020-11-18b4ktg.png
bedankt euch bei [MK2]Mythos ;)
Savay
2020-11-18, 20:31:43
Wucher! 1,52€ über UVP!!!!1elf
Screemer
2020-11-18, 20:33:32
dachte der uvp in € war noch gar nicht bekannt ;)
haben ja auch bis heute viele gesagt, dass die karten nicht für 650€ zu haben sein würden, weil das ja der usd uvp war.
jaja über verfügbarkeit kann man streiten ;)
Irgendwie war das jetzt schon ziemlich abgefuckt.
Reviews erst zum Release, Verfügbarkeit im Minutenbereich nur bei 2 Hoflieferanten + AMD selber, dazu noch total überzogene Preise.
Mal schauen, ob man eine 6800 XT Karte nach Referenzdesign in diesem Jahr noch für 649 bekommen kann.
Ich bin gespannt, wo die Customsdesign liegen werden. Aber alles in allem ernüchternd, wenn man gehofft hat, nach Ewigkeiten endlich mal ein vernünftiges Upgrade von der 1080 kommend erhalten zu können.
Ne 1080 hat se doch sicher im Griff :confused:
Ernsthaft: Performance - ich habe mehr erwartet, von daher gebe ich ab nu keine Prognosen mehr ab - versprochen (und ich höre das Forum durchatmen). Sorry, dass ich so sehr daneben lag und auf meinem Standpunkt beharrt habe;(
RT: Ziemlich katastrophal imo
Performance: Ziemlich durchschnittlich, insbesondere die non XT kann sich lediglich um 10% von einer 2080Ti absetzen (mit RT sieht es ziemlich bitter aus). 4K? Treiberproblem, oder zu schwach auf der Brust?
Kühlung: Hier hat AMD wirklich überrascht - weiß jetzt nicht ob es out of the Box mal nen besseren Ref-Kühler gab. Von AMD sehr sicher nicht
P/W: Auch hier Top, relativ klar vor dem Konkurrenten
P/L: Wäre relativ gut, leider bleibt es hier aufgrund der Nachfrage beim Konjunktiv und derzeit nicht angemessen.
Die Performance der 6900XT lässt sich so relativ einfach abschätzen: Landet exakt da, wo ich ne 6800XT erwartet habe, nämlich genau zwischen 3080 und 3090 (RT außen vor).
bloodflash
2020-11-18, 20:59:17
wo ich ne 6800XT erwartet habe
Zusammenfassend:
Genauso wie sie vom AMD angekündigt wurde und von allen erwartet wurde.
Also TOP!
Bald¹ kann sich jeder was aufrund P/L-Verhältnis, Auflösung und Features etwas raussuchen.
¹
Evtl. im nächsten Jahr.
Sardaukar.nsn
2020-11-18, 21:10:11
Zusammenfassend:
Genauso wie sie vom AMD angekündigt wurde und von allen erwartet wurde.
Also TOP!
Bald¹ kann sich jeder was aufrund P/L-Verhältnis, Auflösung und Features etwas raussuchen.
Evtl. im nächsten Jahr.
Starker Wettbewerb auch im High-End. Was besseres könnte gar nicht passieren.
Ich möchte ja eine WaKü-Karte als Nachfolger für meine 1080ti. Gibt es eigentlich schon Reviews für BigNavi? EWKB hatte ja diese Komplett-Set Waffenkisten an diverse Reviewer geschickt.
Digidi
2020-11-18, 21:18:58
Nein das ist korrekt. Aber Der Rasteroutput der Renderbackends wurde bei RDNA2 verdoppelt auf 8 bits per cycle. (Vorher 4).
Nop wenn du im Linux Treiber schaust sind da 8 Scan Converter und jeder Scan Converter ist praktisch ein Rasteriezr. Das ist ja das seltsame.
DennisO2
2020-11-18, 21:37:41
4 Wochen bringen doch auch nichts. Sollten dann schon 6 Monate sein um den ersten Ansturm zu decken. Oder 1 Jahr um auf der sicheren Seite zu sein? Aber dann erwartet der Kunde ja schon die Nachfolgegeneration.
So isses. Und dann wird die Karte auch noch gegen ein (einfach ohne Verfügbarkeit) früher veröffentlichtes konkurrenzmodell getestet mit dem Fazit: Gute Leistung, leider zu spät.
prinz_valium_2
2020-11-18, 21:55:23
Wenigstens habe ich eine 1070 und kann noch warten. Auf Verfügbarkeit, custom Modelle und bessere Preise. Aber vllt kommt dann schon die nächste Generation
patrickschur
2020-11-18, 22:14:31
Ich hatte gerade auf Ebay die Möglichkeit gehabt eine RX 6800 XT für 700 € zu ergattern. Leider ist mir jemand zuvor gekommen. Heute habe ich auch nur Pech. :(
Iscaran
2020-11-18, 22:18:42
Nop wenn du im Linux Treiber schaust sind da 8 Scan Converter und jeder Scan Converter ist praktisch ein Rasteriezr. Das ist ja das seltsame.
Nein das ist die normale Funktion der Einheiten die AMD intern auch als RB+ bezeichnet.
Es ist allerdings noch unbekannt ob man hier nur auf "Softwareseite" irgendwie den Durchsatz verdoppelt hat oder ob es da tatsächlich zu Hardwareseitigen Anpassungen (im Sinne von Transistoren) kam um diesen doppelten Durchsatz zu ermöglichen.
Hinweise dazu gabs schon früher:
https://translate.google.com/translate?depth=1&pto=aue&rurl=translate.google.com&sl=auto&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/lastmod/
Aber hier wird es etwas genauer erklärt:
https://www.hardwaretimes.com/amd-radeon-rdna-2-big-navi-architectural-deep-dive-a-focus-on-efficiency/
"Once again, AMD hasn’t provided many details on what has changed with the RDNA 2 RBs (RB+). What we do know is that the throughput has been doubled and fine-tuned for VRS and other optimizations that come with DX12 Ultimate."
"Each RB+ can process 8 32-bit pixels, a 2x increase compared to RDNA 1 and 1.1."
Ob das nun aber nur für bestimmte Art von Operationen gilt, also ob da noch Limitierungen gibt, oder ob RB+ nun generell 8 32-bit pixel pro cycle prozessieren kann, ist eben noch ein wenig unklar.
EDIT: Hier gibts sogar eine Folie aus dem Presse-Slidesdeck dazu: https://www.hardwareluxx.de/images/cdn01/7F1CF087639E4C8D910AE22C8CFA7BD5/img/678014197B75453DB93FCA0A0D5BE841/AMD-Radeon-RX-6000-Series-RDNA2-Deep-Dive-00012_678014197B75453DB93FCA0A0D5BE841.jpg
Savay
2020-11-18, 22:22:18
Gibt`s das Whitepaper noch nicht? Schade!
Digidi
2020-11-18, 22:29:24
Nein das ist die normale Funktion der Einheiten die AMD intern auch als RB+ bezeichnet.
Es ist allerdings noch unbekannt ob man hier nur auf "Softwareseite" irgendwie den Durchsatz verdoppelt hat oder ob es da tatsächlich zu Hardwareseitigen Anpassungen (im Sinne von Transistoren) kam um diesen doppelten Durchsatz zu ermöglichen.
Hinweise dazu gabs schon früher:
https://translate.google.com/translate?depth=1&pto=aue&rurl=translate.google.com&sl=auto&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/lastmod/
Aber hier wird es etwas genauer erklärt:
https://www.hardwaretimes.com/amd-radeon-rdna-2-big-navi-architectural-deep-dive-a-focus-on-efficiency/
"Once again, AMD hasn’t provided many details on what has changed with the RDNA 2 RBs (RB+). What we do know is that the throughput has been doubled and fine-tuned for VRS and other optimizations that come with DX12 Ultimate."
"Each RB+ can process 8 32-bit pixels, a 2x increase compared to RDNA 1 and 1.1."
Ob das nun aber nur für bestimmte Art von Operationen gilt, also ob da noch Limitierungen gibt, oder ob RB+ nun generell 8 32-bit pixel pro cycle prozessieren kann, ist eben noch ein wenig unklar.
EDIT: Hier gibts sogar eine Folie aus dem Presse-Slidesdeck dazu: https://www.hardwareluxx.de/images/cdn01/7F1CF087639E4C8D910AE22C8CFA7BD5/img/678014197B75453DB93FCA0A0D5BE841/AMD-Radeon-RX-6000-Series-RDNA2-Deep-Dive-00012_678014197B75453DB93FCA0A0D5BE841.jpg
Du verwächselst Rops mit Rasterizer. Rasterizer ist im Frontend und Rops sitzen im backend. Ich rede von Rasterizern und die sind 4 auf dem Bild da steht auch Rasterizer auf dem Bild.
Iscaran
2020-11-18, 22:34:49
@Digidi:
Zeig mir mal in dem Bild was der Rasterizer ist für dich.
https://www.hardwareluxx.de/images/cdn01/7F1CF087639E4C8D910AE22C8CFA7BD5/img/678014197B75453DB93FCA0A0D5BE841/AMD-Radeon-RX-6000-Series-RDNA2-Deep-Dive-00012_678014197B75453DB93FCA0A0D5BE841.jpg
Soweit mir bekannt ist bezeichnet AMD dass als Rasterbackend (RB)...und seit RDNA2 gibt es RB+. Die Treibereinträge zu RB+ wurden aber schon länger im Treiber aufgeführt AFAIK.
Ravenhearth
2020-11-18, 22:42:20
Auf dem Bild sind die Rasterizer genau zwischen den Render Backends.
Hier in höherer Auflösung: https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/50-1080.5644a12f.png
Digidi
2020-11-18, 22:49:50
@Digidi:
Zeig mir mal in dem Bild was der Rasterizer ist für dich.
https://www.hardwareluxx.de/images/cdn01/7F1CF087639E4C8D910AE22C8CFA7BD5/img/678014197B75453DB93FCA0A0D5BE841/AMD-Radeon-RX-6000-Series-RDNA2-Deep-Dive-00012_678014197B75453DB93FCA0A0D5BE841.jpg
Soweit mir bekannt ist bezeichnet AMD dass als Rasterbackend (RB)...und seit RDNA2 gibt es RB+. Die Treibereinträge zu RB+ wurden aber schon länger im Treiber aufgeführt AFAIK.
In der Mitte zwischen den RB+ das eine ist die Prim Unit und der andere dicke Block davon ist der Rasterizer.
-/\-CruNcher-/\-
2020-11-18, 23:07:30
Streich das über 60 Hz :D
Ich habe jetzt seit 3.5 Jahren am Rechner 4K@43", GANZ am Anfang noch mit einer 290X.
Es macht nach wie vor eigentlich keinen Spaß, aber weniger Diagonale geht halt nicht mehr, wenn man sich einmal dran gewöhnt hat. Wenn ich mit der 6900XT endlich ohne große Kompromisse 4K @ 60 FPS fahren kann ist das ganze wenigstens endlich mal erträglich.
Aber selbst mit einer 3090 kannst du durchgehend 4K 60 FPS RT On vergessen, also mache ich mir da keine Illusionen und LASSE das mit dem RT einfach bis es für mich praktikabel wird.
Du kannst schon die RT Power der 3090 reicht aus du musst den titel nur selber spezifisch anpassen auf dein komplett system um die 60 FPS einigermasen stabil zu halten.
Und vor allem VIEL SAFT reingeben SAM kann hier vor allem das Zünglein an der Wage sein momentan,wie gesagt wäre die 3090 7n TSMC müsstest du dir selbst darum keine gedanken machen.
Die Reviews Zeigen all das was man schon vermuten konnte durch die leak daten die waren also sehr akkurat diesmal, knapp an Nvidias effizienz steht AMD mit RDNA 3 könnte es das gewesen sein ohne 5N Vorsprung
Nvidia wird sich aller vorausicht nach nur durch den Node Vorteil mit Hopper noch vorne halten demnächst und was sie noch alles an ihrem Tensor work optimieren und da noch rausholen ansonsten nach oben skalieren bis der Artz kommt.
Kostengünstig wird das 2021 jedenfalls nicht mehr klappen vor AMD zu stehen wie jetzt noch mit Mixed Ampere wenn die 3te Runde 7N RDNA Optimierung aufschlägt fliegt 8N Samsung ausseinander, dennoch ein interssantes Nvidia Experiment, es so an kante zu halten gewollt oder ungewollt ist immernoch die Master Frage, die wohl nur Jensen ehrlich beantworten kann. :)
Intel könnte da echt noch überasschend dazwischen grätschen mit einem netten Angebot, wenn die Preise alle nochmal explodieren.
Teoretisch sollten sie sich ja eigentlich etwas beruihgen da AMD nochmal ordentlich druck machen wird, mal abwarten.
Jetzt ist es echt noch interessant sich die richtigen edge cases anzuschauen sprich wie gut kompensiert Nvidia AMDs optimierungen und umgekehrt
TheAntitheist
2020-11-18, 23:08:28
@Digidi:
Zeig mir mal in dem Bild was der Rasterizer ist für dich.
https://www.hardwareluxx.de/images/cdn01/7F1CF087639E4C8D910AE22C8CFA7BD5/img/678014197B75453DB93FCA0A0D5BE841/AMD-Radeon-RX-6000-Series-RDNA2-Deep-Dive-00012_678014197B75453DB93FCA0A0D5BE841.jpg
Soweit mir bekannt ist bezeichnet AMD dass als Rasterbackend (RB)...und seit RDNA2 gibt es RB+. Die Treibereinträge zu RB+ wurden aber schon länger im Treiber aufgeführt AFAIK.
da steht doch rasterizer drauf? :confused:
Iscaran
2020-11-18, 23:37:04
Konnte das nicht lesen :-). Aber jetzt sehe ich es auch.
Ja dann hab ich das verwechselt mit den RBs...dachte es bezieht sich darauf, weil ja eben genau da der Durchsatz von 4 auf 8 gestiegen ist.
Sorry - dann kann ich mit den Rasterizern auch nicht weiterhelfen. Sieht für mich aber eher nach 1 Rasterizer pro Shader Engine aus.
-/\-CruNcher-/\-
2020-11-18, 23:59:55
Wer hat eigentlich die DX11 Tessellation Performance getestet und verglichen, sprich Hairworks mal auf volle pulle im Witcher 3 ?
Und wer hat sich mal das Optimierte The Old King angeschaut von AMD, TressFX 4.1 ?
Teardown tests ?
Baikal Render tests (Pro Render, AMD Rays) ?
Forward+ Cache differenzen zu Vega und RDNA Deus Ex Mankind Divided ?
Neon Noir, Crysis Remastered, Kingdome Come SVOGI
Screemer
2020-11-19, 00:18:21
witcher läuft "kacke" im vergleich zu ampere. imho viel zu großer einbruch, wenn man andere spiele vergleicht. ich hab da hw in verdach.t
-/\-CruNcher-/\-
2020-11-19, 00:27:32
Mal abwarten wie das mit Cyberpunk 2077 aussehen wird das berreitet ja ordentlich probleme so hinzuoptimieren das man alle glücklich macht unter Nvidias RTX Lead ;)
Wen es hier überhaupt interessiert
https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-linux&num=1
Dampf
2020-11-19, 00:57:13
Mal abwarten wie das mit Cyberpunk 2077 aussehen wird das berreitet ja ordentlich probleme so hinzuoptimieren das man alle glücklich macht unter Nvidias RTX Lead ;)
Selbstverständlich wird CP auch hervorragend auf AMD laufen. Sind ja nicht wie AMD die Nvidia GPUs verkrüppeln wie in AC Valhalla, Dirt 5 und Godfall.
Also bitte, dieses Argument zieht doch gar nicht mehr. Die letzten Nvidia optimierten Titel laufen alle so wie sie sollen auf AMD Hardware, ganz im Gegensatz zu den AMD Titeln.
Linmoum
2020-11-19, 00:58:46
Oder wie NV in Control und Metro, nech. Was ein Kindergarten wieder.
Dampf
2020-11-19, 01:09:27
Oder wie NV in Control und Metro, nech. Was ein Kindergarten wieder.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/#abschnitt_benchmarks_in_2560__1440
Die Durchschnitts-Leistung der 5700XT befindet sich zwischen einer 2060 Super und 2070 Super. Genau da liegt sie auch in Metro und Control.
In AC Valhalla, Dirt 5 und Godfall ist die 5700XT aber auf 2080 Niveau und teils sehr nah an einer 2080Ti.
https://www.pcgameshardware.de/Assassins-Creed-Valhalla-Spiel-72671/Specials/AC-Valhalla-Benchmarks-Tuning-Tipps-1361270/2/
Das darf man doch wohl noch in Frage stellen? Das kann kein Zufall sein, dass diese 3 Titel so grottenschlecht auf Nvidia Karten performen.
dargo
2020-11-19, 01:10:50
Du kommst hier ernsthaft mit einem Review von Juli 2019? :ucrazy:
Dampf
2020-11-19, 01:16:15
Du kommst hier ernsthaft mit einem Review von Juli 2019? :ucrazy:
Dargo, bitte. So viel Fine Wine kann es gar nicht geben, dass eine 5700XT zu einer 2080Ti aufschließt.
https://www.pcgameshardware.de/Horizon-Zero-Dawn-Spiel-55719/Tests/Horizon-Zero-Dawn-PC-Test-Review-Benchmarks-1355296/2/
Selbst hier ist die 5700XT knapp auf dem Niveau einer 2070 Super. Aktuelles Spiel aus 2020, optimiert für AMD.
Thrombo
2020-11-19, 01:31:52
Wird es von AMD/ATI noch eine sparsame GTX 1650 Konkurrenz geben? Klar, es gibt die 5500 XT, aber die hat eine TDP von 130W. Jetzt wo AMD mit einer neuen Big Navi / RDNA 2 Architektur um die Ecke kommt, wäre es doch Zeit für energieeffiziente Karten im Einsteiger- und Mittelklasse-Bereich, oder etwa nicht? :confused:
Dampf
2020-11-19, 01:42:55
Wird es von AMD/ATI noch eine sparsame GTX 1650 Konkurrenz geben? Klar, es gibt die 5500 XT, aber die hat eine TDP von 130W. Jetzt wo AMD mit einer neuen Big Navi / RDNA 2 Architektur um die Ecke kommt, wäre es doch Zeit für energieeffiziente Karten im Einsteiger- und Mittelklasse-Bereich, oder etwa nicht? :confused:
Wahrscheinlich Anfang nächsten Jahres.
Die RDNA1 Karten wird man so bald wie möglich ersetzen wollen, da veraltete Architektur.
Screemer
2020-11-19, 01:44:25
Wird es von AMD/ATI noch eine sparsame GTX 1650 Konkurrenz geben? Klar, es gibt die 5500 XT, aber die hat eine TDP von 130W. Jetzt wo AMD mit einer neuen Big Navi / RDNA 2 Architektur um die Ecke kommt, wäre es doch Zeit für energieeffiziente Karten im Einsteiger- und Mittelklasse-Bereich, oder etwa nicht? :confused:
Ist das jetzt dein ernst? 15 Minuten nach dem ich dir die Frage im anderen Thread beantwortet habe und du auch darauf geantwortet hast stellst du sie im nächsten Thread erneut?
deine Reaktion auf meine Antwort kam nach deiner nochmaligen Nachfrage hier.
Wahrscheinlich Anfang nächsten Jahres.
Die RDNA1 Karten wird man so bald wie möglich ersetzen wollen, da veraltete Architektur.
Nein.
Wird man nicht. Navi1 wird uns noch einige Zeit begleiten.
Dampf
2020-11-19, 01:47:26
Ist das jetzt dein ernst? 15 Minuten nach dem ich dir die Frage im anderen Thread beantwortet habe und du auch darauf geantwortet hast stellst du sie im nächsten Thread erneut?deine Reaktion auf meine Antwort kam nach deiner nochmaligen Nachfrage hier.
Nein.
Wird man nicht.
Logisch. Diese behindern den Fortschritt ohne DX12U, HW RT und DirectStorage. Die werden sich Next Gen nur noch als Briefbeschwerer eignen.
Auf Marketing PR leg ich kein Wert, die wollen nur noch die Restbestände verkaufen. Ne ganze Weile heißt ein paar Monate noch.
BlacKi
2020-11-19, 01:49:26
Dargo, bitte. So viel Fine Wine kann es gar nicht geben, dass eine 5700XT zu einer 2080Ti aufschließt.
die muss aufpassen das sie nicht von vega64 von hinten weggewined wird^^
Screemer
2020-11-19, 01:57:29
Logisch. Diese behindern den Fortschritt ohne DX12U, HW RT und DirectStorage. Die werden sich Next Gen nur noch als Briefbeschwerer eignen.
Auf Marketing PR leg ich kein Wert, die wollen nur noch die Restbestände verkaufen. Ne ganze Weile heißt ein paar Monate noch.
Da Wette ich mit dir um 4 Wochen Forenban, dass wir vor Juni nächsten Jahres nicht kaufbares mit um 150mm2 mit rdna2 haben werden. So groß ist Navi 14.
Berniyh
2020-11-19, 08:31:34
hm, hat jemand ne Erklärung hierfür?
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_leistungsaufnahme_desktop_youtube_und_spiele
vs.
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/31.html
Bei beiden zieht die 6800 XT im Idle bei nur einem Monitor etwa das gleiche (6-7W).
Aber bei zwei Monitoren misst man bei Computerbase stolze 39W, bei Techpowerup aber weiter nur 7W?
Media Playback hingegen passt wieder gut zusammen.
basix
2020-11-19, 08:39:46
hm, hat jemand ne Erklärung hierfür?
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_leistungsaufnahme_desktop_youtube_und_spiele
vs.
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/31.html
Bei beiden zieht die 6800 XT im Idle bei nur einem Monitor etwa das gleiche (6-7W).
Aber bei zwei Monitoren misst man bei Computerbase stolze 39W, bei Techpowerup aber weiter nur 7W?
Media Playback hingegen passt wieder gut zusammen.
Lies die Details zum Testsetup ;)
CB: 4K @ 60 Hz
TPU:
Multi-monitor: Two monitors are connected to the tested card, and both use different display timings. Windows 10 is sitting at the desktop (1920x1080 and 1280x1024) with all windows closed and drivers installed.
Berniyh
2020-11-19, 09:01:07
ah ok, also abhängig von der Auflösung.
Schade, dass das bei 2x 4k immer noch ein Problem ist. Aber ok, wenn es bei 2x Full HD passt würde mir das im Grunde erst mal genügen.
Das wäre ja schon mal ein deutlicher Fortschritt zur Navi 1x Serie. Hoffentlich bekommen sie das dann auch bald bei 4k mal vernünftig hin.
BoMbY
2020-11-19, 09:38:24
Wenn ich den Linux Patch richtig verstehe kann Navi21 in einen Ultra-Low-Power Modus schalten wenn das gesamte Bild aus dem Cache bedient werden kann. Sobald man also mehr als 128 MB Videospeicher benötigt, geht der Verbrauch im Idle vermutlich hoch.
mboeller
2020-11-19, 09:40:48
Carsten im Beyond3D Forum:
Apparently. I can only speak for us: We are measuring with calibrated equipment and our anechoic chamber can reliably go down to 15 dB(A). In that environment, we're seeing 1.3 Sone and 31 dB(A).
https://forum.beyond3d.com/threads/amd-radeon-rdna2-navi-rx-6800-6800-xt-6900-xt-2020-10-28.62091/page-48
dildo4u
2020-11-19, 09:46:47
Navi 2X hat angeblich miese Mining Performance :up:
Kann aber natürlich sein das wenn sie ihre Programme anpassen und es in den Cache passt, die Leistung plötzlich explodiert schätzte mal zur Zeit hängts am langsamen GDDR6.
https://youtu.be/HoMRPUAywkk
amdfanuwe
2020-11-19, 10:02:06
Auf Marketing PR leg ich kein Wert, die wollen nur noch die Restbestände verkaufen.
Ich schätze, AMD hat nicht genug Wafer um die Nachfrage zu bedienen. Da werden lieber erst mal Produkte mit hoher Gewinnmarge produziert bzw. Verträge mit Sony und MS erfüllt, bevor man weitere Paperlaunches anzettelt.
Der_Korken
2020-11-19, 10:03:21
Wie kommt es eigentlich, dass die 6800 so wenig verbraucht? Bei CB liegt der Verbrauch in allen 3 getesteten Spielen um 65W niedriger als bei der XT, also bei ca. 235W. Die XT hat 20% mehr CUs und taktet in den Spielen ca. 10-50Mhz höher. Ansonsten hat die 6800 den gleichen VRAM und den vollen Cache. Wie kann die XT dann knapp 30% mehr verbrauchen? Hauen diese 10-50Mhz so krass rein?
Und ich habe es direkt am Anfang schon mal angesprochen: Warum kriegen die Hersteller der Verbrauch bei Videos nicht in den Griff? Ich mein, jede 15W-APU (und vermutlich jeder bessere Smartphone-SOC) kann 4K-Videos flüssg abspielen, warum verbrauchen Highend-GPUs dafür 50W? Hat man da 2mm² an FF-Units eingespart und rechnet alles zu Fuß über die Shader? Ich werde durch die 50W natürlich nicht arm, aber für mich fühlt sich das heutzutage nicht mehr zeitgemäß an.
Complicated
2020-11-19, 10:10:10
AMD hat hier mit dem binning gearbeitet und die Chips nach Verbrauch selektiert, dafür die 6800 schlechter gestellt im Preis-/Performance Vergleich um ein upselling zu pushen.
Poekel
2020-11-19, 10:10:28
Aber bei zwei Monitoren misst man bei Computerbase stolze 39W, bei Techpowerup aber weiter nur 7W?
Das alte AMD-Problem. Unteschiedliche Monitore, hohe Auflösungen, hohe Refrehraten oder Treiberprobleme sorgen dafür, dass der Arbeitsspeicher bei 2 Monitoren auf Max taktet.
Bei meiner 570 lief das darauf hinaus, dass jeder Treiberwechsel ein neues Glücksspiel war. Mal taktet der Speicher beim neuen Treiber hoch und man muss wieder zurück auf den letzten wechseln, wo es vernünftig war, mal läuft der Speicher wie gewünscht und Dual-Monitor hat bei 1080p@60 nur 1-2 Watt mehr gezogen.
Savay
2020-11-19, 10:10:31
Ich mein, jede 15W-APU (und vermutlich jeder bessere Smartphone-SOC) kann 4K-Videos flüssg abspielen, warum verbrauchen Highend-GPUs dafür 50W?
Irgendwas mit der Clockdomain oder dem IMC oder sowas in der Art sicherlich.
Bei ner kleinen APU rennen ja max. nur ein dutzend CUs im Leerlauf mit und der IMC hängt eh an dem CPU Teil, statt noch nen komplettes 256bit GDDR6 Interface und noch 72 weitere CUs mitbefeuern zu müssen.
Das alte AMD-Problem.
Stimmt so ja auch nicht..die Vegas mit ihrem HBM liegen in der gleichen Situation bei max. 15W...auch mit UHD Monitoren...das Problem ist irgendwo indirekt beim GDDR IMC zu suchen denke ich.
Wahrscheinlich am Ende ein ähnliches Problem wie bei der Videowiedergabe.
Powergating und Clockdomains sind evtl. einfach nicht feingranular genug.
Daredevil
2020-11-19, 10:11:28
Navi 2X hat angeblich miese Mining Performance :up:
Kann aber natürlich sein das wenn sie ihre Programme anpassen und es in den Cache passt, die Leistung plötzlich explodiert schätzte mal zur Zeit hängts am langsamen GDDR6.
https://youtu.be/HoMRPUAywkk
"ETH Mining Performance. :- )
Das ist ja nicht der einzige Coin, den man schürfen kann, aktuell aber natürlich der größt profitabelste.
https://whattomine.com/coins?adapt_q_380=0&adapt_q_fury=0&adapt_q_470=0&adapt_q_480=3&adapt_q_570=0&adapt_q_580=0&adapt_q_vega56=0&adapt_q_vega64=0&adapt_q_5600xt=0&adapt_q_5700=0&adapt_q_5700xt=10&adapt_q_vii=10&adapt_vii=true&adapt_q_1050Ti=0&adapt_q_10606=0&adapt_q_1070=0&adapt_q_1070Ti=0&adapt_q_1080=0&adapt_q_1080Ti=0&adapt_q_1660=0&adapt_q_1660Ti=0&adapt_q_2060=0&adapt_q_2070=0&adapt_q_2080=0&adapt_q_2080Ti=10ð=true&factor%5Beth_hr%5D=810.00&factor%5Beth_p%5D=2100.00&e4g=true&factor%5Be4g_hr%5D=810.00&factor%5Be4g_p%5D=2100.00&zh=true&factor%5Bzh_hr%5D=490.00&factor%5Bzh_p%5D=1800.00&cnh=true&factor%5Bcnh_hr%5D=22000.00&factor%5Bcnh_p%5D=1700.00&cng=true&factor%5Bcng_hr%5D=20000.00&factor%5Bcng_p%5D=2400.00&cnr=true&factor%5Bcnr_hr%5D=28000.00&factor%5Bcnr_p%5D=2400.00&cnf=true&factor%5Bcnf_hr%5D=52000.00&factor%5Bcnf_p%5D=2300.00&eqa=true&factor%5Beqa_hr%5D=1600.00&factor%5Beqa_p%5D=1600.00&cc=true&factor%5Bcc_hr%5D=56.00&factor%5Bcc_p%5D=1900.00&cr29=true&factor%5Bcr29_hr%5D=55.00&factor%5Bcr29_p%5D=1700.00&cz29=true&factor%5Bcz29_hr%5D=0.00&factor%5Bcz29_p%5D=0.00&ct31=true&factor%5Bct31_hr%5D=19.50&factor%5Bct31_p%5D=2400.00&ct32=true&factor%5Bct32_hr%5D=7.00&factor%5Bct32_p%5D=2000.00&eqb=true&factor%5Beqb_hr%5D=430.00&factor%5Beqb_p%5D=2100.00&rmx=true&factor%5Brmx_hr%5D=14000.00&factor%5Brmx_p%5D=1700.00&ns=true&factor%5Bns_hr%5D=21500.00&factor%5Bns_p%5D=2300.00&x16r=true&factor%5Bx16r_hr%5D=230.00&factor%5Bx16r_p%5D=2400.00&eqz=true&factor%5Beqz_hr%5D=295.00&factor%5Beqz_p%5D=2000.00&zlh=true&factor%5Bzlh_hr%5D=335.00&factor%5Bzlh_p%5D=2000.00&kpw=true&factor%5Bkpw_hr%5D=300.00&factor%5Bkpw_p%5D=2400.00&ppw=true&factor%5Bppw_hr%5D=270.00&factor%5Bppw_p%5D=2500.00&x25x=true&factor%5Bx25x_hr%5D=24.50&factor%5Bx25x_p%5D=1400.00&mtp=true&factor%5Bmtp_hr%5D=0.00&factor%5Bmtp_p%5D=0.00&lrev3=true&factor%5Blrev3_hr%5D=900.00&factor%5Blrev3_p%5D=2200.00&factor%5Bcost%5D=0.0&sort=Profitability24&volume=0&revenue=24h&factor%5Bexchanges%5D%5B%5D=&factor%5Bexchanges%5D%5B%5D=binance&factor%5Bexchanges%5D%5B%5D=bitfinex&factor%5Bexchanges%5D%5B%5D=bitforex&factor%5Bexchanges%5D%5B%5D=bittrex&factor%5Bexchanges%5D%5B%5D=dove&factor%5Bexchanges%5D%5B%5D=exmo&factor%5Bexchanges%5D%5B%5D=gate&factor%5Bexchanges%5D%5B%5D=graviex&factor%5Bexchanges%5D%5B%5D=hitbtc&factor%5Bexchanges%5D%5B%5D=hotbit&factor%5Bexchanges%5D%5B%5D=ogre&factor%5Bexchanges%5D%5B%5D=poloniex&factor%5Bexchanges%5D%5B%5D=stex&dataset=Main&commit=Calculate
Ich würde da noch nicht sagen, dass das ganze ein Stein gemeißelt ist, auch 65 MH/s sind kein schlechter Wert bei niedrigem Verbrauch. Er ist nicht überragend, aber auch nicht total schlecht.
Die nächste VII oder Vega wird es aber nicht, vermutlich. ^^
Flinx
2020-11-19, 10:20:00
2 Monitore...heise sagt 13W
"Im Leerlauf schalten sich die Lüfter komplett aus, sodass die Grafikkarten etwa beim Browsen lautlos arbeiten. Beide Modelle nehmen dort selbst mit zwei angeschlossenen Monitoren (Ultra- + Full HD) nicht mehr als 13 Watt auf. "
https://www.heise.de/tests/AMD-Grafikkarte-Radeon-RX-6800-XT-im-Test-Der-GeForce-RTX-3080-auf-den-Fersen-4964312.html?seite=2
Savay
2020-11-19, 10:24:53
2 Monitore...heise sagt 13W
Wird wie gesagt am Frambuffer liegen...passt der in den IF$ ist der Verbrauch top...passt er es nicht läuft der IMC mit und kann offensichtlich nicht wirklich feingranular genug angesteuert werden.
Berniyh
2020-11-19, 10:30:00
Das alte AMD-Problem. Unteschiedliche Monitore, hohe Auflösungen, hohe Refrehraten oder Treiberprobleme sorgen dafür, dass der Arbeitsspeicher bei 2 Monitoren auf Max taktet.
Bei meiner 570 lief das darauf hinaus, dass jeder Treiberwechsel ein neues Glücksspiel war. Mal taktet der Speicher beim neuen Treiber hoch und man muss wieder zurück auf den letzten wechseln, wo es vernünftig war, mal läuft der Speicher wie gewünscht und Dual-Monitor hat bei 1080p@60 nur 1-2 Watt mehr gezogen.
Tatsächlich interessiert mich da erst mal nur die Situation unter Linux, was aber von Phoronix leider nicht getestet wird (und generell ja nur von einem kleinen Teil der Reviewer, auch unter Windows).
Aber ich hab da auch noch Zeit. Mich interessiert das eher für Navi23/24 der für meinen Linux Desktop zum Einsatz kommen soll und bis dahin werden sich die Treiber ja ggf. noch etwas entwickeln.
Daredevil
2020-11-19, 10:35:44
Beim Idle Verbrauch ist imho auch wichtig, ob man Freesync an hat, oder nicht.
Poekel
2020-11-19, 11:00:52
Stimmt so ja auch nicht..die Vegas mit ihrem HBM liegen in der gleichen Situation bei max. 15W...auch mit UHD Monitoren...das Problem ist irgendwo indirekt beim GDDR IMC zu suchen denke ich.
Für die 5700 findet man genügend Diskussionen zu hohen Idle-Taktraten (und 30 Watt Unterschied findet man eben auch bei den älteren Karten, wenn sie hochgetaktet haben), wobei das auch kein reines AMD-Problem ist.
Würde jetzt auch davon ausgehen, dass die 5700er-Reviews da ähnlich schwanken und das eine Review einen hohen Verbrauch hat, das andere nicht. Techpowerup hat für die 5700 XT z. B. knapp 30 Watt mehr gemessen:
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/31.html
Dumm ist natürlich, dass selten die genauen Settings und Hardware (welche Monitore) angegeben werden, wie die Stromaufnahme genau gemessen wird und dass Idle-Tests auch eher selten gemacht wird. Wäre ja jetzt auch nicht so der Akt, mal zu schauen und dann anzugeben, wie die Karten in den Situationen takten.
Anhand der Reviews, die vorhanden waren, konnte ich zumindest kaum einschätzen, wie hoch der Idle-Vebrauch meiner 570 wirklich war. Die meisten Magazine testen (weil die Hardware fehlt) nur den Gesamtverbrauch und bei den wenigen, die den Graka-Verbrauch angegeben haben, weiß man nicht, ob da wirklich dedizidierte Hardware verwendet wurde, oder man einfach per Milchmädchenrechnung geschätzt hat und 1 Review kommt dann auf 20 Watt, während das nächste auf 10 Watt kommt.
-/\-CruNcher-/\-
2020-11-19, 12:24:27
Dargo, bitte. So viel Fine Wine kann es gar nicht geben, dass eine 5700XT zu einer 2080Ti aufschließt.
https://www.pcgameshardware.de/Horizon-Zero-Dawn-Spiel-55719/Tests/Horizon-Zero-Dawn-PC-Test-Review-Benchmarks-1355296/2/
Selbst hier ist die 5700XT knapp auf dem Niveau einer 2070 Super. Aktuelles Spiel aus 2020, optimiert für AMD.
Du wirst lachen sieht man aber häufiger in anderen Compute heavy Workloads vor allem bei double precission sehen die Nvidia karten kein licht mehr
Und es liegt nun an Nvidia diese Optimierungen zu kontern in den jeweiligen titeln die sie einsetzen, ist numal so wenn man die Konsolen verliert und die heftig auf Compute setzen.
Tobalt
2020-11-19, 13:55:03
6800 mit UV ist schon eine sehr nette karte. Wenn sie künftig im Preis nachgibt und AMD bis dahin Super Resolution gebacken kriegt, dann ist das ein interessantes paket
Thrombo
2020-11-19, 14:11:45
Ist das jetzt dein ernst? 15 Minuten nach dem ich dir die Frage im anderen Thread beantwortet habe und du auch darauf geantwortet hast stellst du sie im nächsten Thread erneut?
deine Reaktion auf meine Antwort kam nach deiner nochmaligen Nachfrage hier.
Alles gut. Ich fahre immer zweigleisig :wink:
gbm31
2020-11-19, 15:23:26
Alter sind die in der Bucht dreist unterwegs! Bilder(!) von einer 6800XT für 280 Einstieg oder 690 sofort - Kann man da keine Terroristen vorbeischicken?
nairune
2020-11-19, 15:23:27
6800 mit UV ist schon eine sehr nette karte. Wenn sie künftig im Preis nachgibt und AMD bis dahin Super Resolution gebacken kriegt, dann ist das ein interessantes paket
Solange der Preisabstand der XT sich nicht vergrößert, würde ich trotzdem letztere nehmen. Fetterer Kühler, tendenziell besserer Chip und mehr CUs, die einen niedrigeren und damit effizienteren Takt bei gleicher Leistung der non-XT erlauben, sind mir den aktuellen Aufpreis wert.
-/\-CruNcher-/\-
2020-11-19, 15:44:31
6800 mit UV ist schon eine sehr nette karte. Wenn sie künftig im Preis nachgibt und AMD bis dahin Super Resolution gebacken kriegt, dann ist das ein interessantes paket
Jep pretty much die vollendete 970 ohne probleme und kosten hintergedanken, allerdings Super Resolution vs DLSS da wirst sicher entäuscht werden.
DLSS ist nichts anderes als Super Resolution aber eben nicht nur das traditionele sondern eben ein Machine Learning trainiertes SR.
DLSS mit Tensorkernen ist m.M.n. nicht gekommen um zu bleiben ;)
M.f.G. JVC
-/\-CruNcher-/\-
2020-11-19, 15:53:54
Ja da gebe ich dir recht die neuen RDNA2 einheiten können es sicher genausogut inferencen es gibt hald noch keinen approach es direkt in 3D einzubinden
ChaosTM
2020-11-19, 15:55:25
DLSS mit Tensorkernen ist m.M.n. nicht gekommen um zu bleiben ;)
M.f.G. JVC
Proprietärer Mist verschwindet gsd meist sehr schnell wieder ..
add.: hindert Nv aber nicht daran es immer und immer wieder zu ...
-/\-CruNcher-/\-
2020-11-19, 16:01:09
Bingo da sind sie meister drin siehe G-sync standard genommen ihre amendments hinzugefügt und Produkt released gegen den Standard anstelle sie zum Standard beizusteuern.
Und dann versuchen über alles die Oberhand zu gewinnen und immer allen voran das Rebranding.
Man darf aber auch nicht aus den Augen verlieren das ihre R&D schon viel zum gesamten vorankommen beiträgt trotz dieses Rebrandings ansatz allerdings auch immer nur fokusiert auf ihre Architektur.
Hybrid RT Ergebnisse sind so eine sache, hier sollte man einfach nicht auf das höchste AVG schauen sondern auf stabile 30/60 verläufe.
45 FPS sind schön aber nutzlos wenn sie nicht stabil gehalten werden können CFR in der gesammt Hybrid Balance, man schaut viel zu sehr auf das Peak anstelle auf stabiles render verhalten.
Ravenhearth
2020-11-19, 16:50:41
3--dTmKDHhk
Igzorn
2020-11-19, 17:24:33
Also die Hangar Demo wirft mich nicht vom Hocker.
Gouvernator
2020-11-19, 17:36:32
Also die Hangar Demo wirft mich nicht vom Hocker.
Sieht man beim Abspann an russischen Namen das sie die Demo outsourced haben. Kein hohe Priorität. Auch nur 1080p. What is this shit? :biggrin:
sunshine
2020-11-19, 18:12:17
Gibt es eigentlich irgendwo eine Uebersicht ueber die Partnerkarten die da kommen? Natuerlich noch mit vielen Blanks, aber ich wuerde gern wissen ob 2/3 Fans / Slots / Position im Line Up / etc.
Zossel
2020-11-19, 20:07:58
Proprietärer Mist verschwindet gsd meist sehr schnell wieder ..
Windows hält sich schon ziemlich lange ....
Proprietärer Mist verschwindet gsd meist sehr schnell wieder ..
add.: hindert Nv aber nicht daran es immer und immer wieder zu ...
Prinzipiell stimme ich dir da zu, aber wenn man bereits Kerne verbaut haben, welche die Szenarien darstellen können, sollte man im Gegensatz zu Gsync, PhysX ... ihnen keinen Sargnagel draus schmieden.
Besser finde ich die Aussage von Usern/Fanboys: Meine Grafikkarte kann 8k (:rolleyes::freak::rolleyes::freak::rolleyes:). Dass die GPU mit DLSS lediglich in 1440p rendert interessiert keine Sau, da es laut Aussage derer ja soooo toll aussieht, was es eben nicht tut!
Max. Qualität mit RT geht derzeit, abseits von 1080p, mit keiner Karte - auch mit keiner 3090!
Dampf
2020-11-19, 20:47:12
https://forum.beyond3d.com/threads/direct3d-feature-levels-discussion.56575/page-56#post-2176779 Was ist hier los? RDNA scheint jetzt DX12 Ultimate support zu haben?
Wie ist das möglich?
Langlay
2020-11-19, 20:52:15
Hier stand Mist.
Digidi
2020-11-19, 21:13:45
Primitive Shaders are back sie werden jetzt wohl immer bei RDNA2 benutzt und man erhält 80% mehr Polygonenoutput wenn der Post stimmt:
https://twitter.com/Digidi20/status/1329458631654465542
https://twitter.com/0x22h/status/1329260531736309760
Dampf
2020-11-19, 21:20:40
Primitive Shaders are back sie werden jetzt wohl immer bei RDNA2 benutzt und man erhält 80% mehr Polygonenoutput wenn der Post stimmt:
https://twitter.com/Digidi20/status/1329458631654465542
https://twitter.com/0x22h/status/1329260531736309760
Hm ich dachte auf dem PC werden Mesh Shader benutzt. Vielleicht hat AMD bei RDNA2 die Primitive Shader auch so bearbeitet, dass es quasi das gleiche wie Mesh Shader ist. Echt verwirrend. Jedenfalls scheint irgendwas davon zu funktionieren, wenn er sagt Geometrie-Performance ist 80% höher als die 5700XT.
Bezüglich meines vorherigen Posts: Es wird wohl so sein, dass das DX12 Ultimate Branding für die Hardwarebeschleunigung dieser Features steht. Das heißt auf einer 5700XT könnten die ganzen Features wie Mesh Shading, VRS und Sampler Feedback in Software emuliert werden, ähnlich wie DXR, was aber natürlich massiv Leistung kosten wird. Naja wenn der Beyond3D Post stimmt, dann kann man zumindest RDNA1 nicht mehr von Games ausschließen, was positiv ist. Aber ob die Leistung dann gut sein wird, das ist eine komplett andere Frage.
Naja, wenn die 5700XT mit den neuesten Treibern jetzt Software Support für DXR hat, dann müssten die ganzen Raytracing Titel doch jetzt auf ihr funktionieren, oder? Kann das mal jemand testen?
Birdman
2020-11-19, 21:50:24
Besser finde ich die Aussage von Usern/Fanboys: Meine Grafikkarte kann 8k (:rolleyes::freak::rolleyes::freak::rolleyes:). Dass die GPU mit DLSS lediglich in 1440p rendert interessiert keine Sau, da es laut Aussage derer ja soooo toll aussieht, was es eben nicht tut!
Ich find es ja interessant dass Du das so absolut beurteilen kannst, offenbar hast du also selber eine RTX3k GPU und 8k TV zu Hause rumstehen?
Oh wait, not?
Behauptest Du hier evtl. erneut etwas von dem Du keine Ahnung hast und Du dich dann in ein paar Monaten gezwungen fühlst, die Aussage zu revidieren?
Nichts aus der Vergangenheit gelernt?
Iscaran
2020-11-19, 21:58:34
Primitive Shaders are back sie werden jetzt wohl immer bei RDNA2 benutzt und man erhält 80% mehr Polygonenoutput wenn der Post stimmt:
https://twitter.com/Digidi20/status/1329458631654465542
https://twitter.com/0x22h/status/1329260531736309760
Na dann lag ich gar nicht so falsch mit "AMD hat den Output der Rasterizer verdoppelt" :-).
Die Frage die sich mir da aber sofort stellt ist - haben nun ältere GPUs AUCH Primitive Shaders aktiv geschaltet ?!?
Denn diese ominösen RB+ Treibereinträge gibt es bei manchen Vegas als auch bei RDNA1 karten ?
https://translate.googleusercontent.com/translate_c?depth=1&pto=aue&rurl=translate.google.com&sl=auto&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/posts/2020/11/10/what-is-rbplus/&usg=ALkJrhhmPzUHzJWw6N0dmZNLR9u3OJjshA
"Zu den GPUs, die funktionsfähig, aber deaktiviert sein sollten, gehören Vega10 (gfx900) , Vega20 (gfx906) , Navi10 (gfx1010) , Navi12 (gfx1011) und Navi14 (gfx1012) .
Es ist nicht bekannt, warum es auf diesen GPUs deaktiviert ist."
Berniyh
2020-11-19, 22:44:00
Mit funktionsfähig hat das wohl wenig zu tun, sondern nur damit, dass die Register vorhanden sind, aber wohl ungenutzt sind bzw. unterstützen das nicht.
Steht doch in dem Kommentar:
/* Some chips have RB+ registers, but don't support RB+. Those must
* always disable it.
*/
So ein Vorgehen ist jetzt nicht unbedingt ungewöhnlich.
Ich find es ja interessant dass Du das so absolut beurteilen kannst, offenbar hast du also selber eine RTX3k GPU und 8k TV zu Hause rumstehen?
Oh wait, not?
Behauptest Du hier evtl. erneut etwas von dem Du keine Ahnung hast und Du dich dann in ein paar Monaten gezwungen fühlst, die Aussage zu revidieren?
Nichts aus der Vergangenheit gelernt?
Lesen - Signatur? PC-Gaming <-> TV (?), Konsolenthread?
Birdman
2020-11-19, 23:41:59
Lesen - Signatur? PC-Gaming <-> TV (?), Konsolenthread?
Stellst Du dich nun absichtlich dumm?
Du behauptest fest dass 1440p via DLSS auf 8k hochskaliert nicht gut aussieht und ich stelle einfach diese Aussage in Frage.
Weil ich bin überzeugt dass Du das noch gar nie in echt oder allenfalls vergleichbaren Art gesehen hast und dementsprechend ist dein hier abgegebenes "objektives" Urteil völlig fubar.
Aber vermutlich kommst Du nun dann gleich mit dem Argumente um die Ecke, dass Du dies bei einem Kollegen zu Hause gesehen hast und daher sehr wohl mitreden kannst...
SKYNET
2020-11-20, 00:21:08
Stellst Du dich nun absichtlich dumm?
Du behauptest fest dass 1440p via DLSS auf 8k hochskaliert nicht gut aussieht und ich stelle einfach diese Aussage in Frage.
Weil ich bin überzeugt dass Du das noch gar nie in echt oder allenfalls vergleichbaren Art gesehen hast und dementsprechend ist dein hier abgegebenes "objektives" Urteil völlig fubar.
Aber vermutlich kommst Du nun dann gleich mit dem Argumente um die Ecke, dass Du dies bei einem Kollegen zu Hause gesehen hast und daher sehr wohl mitreden kannst...
wenns von 1080p auf 4k kacke aussieht, wirds von 1440p auf 8k erstrecht kacke aussehen...
Savay
2020-11-20, 00:27:31
Mit steigender Auflösung wird eine temporale Rekonstruktion eigentlich weniger schlimm/effektiver.
TAA sieht mit 4K ja auch besser aus als unter 1080p. ;)
Erstrecht wenn die Winkelauflösung vom Display aka PPI hoch genug ist.
Deswegen finde ich DLSS vom Ansatz als tatsächlichen "Supersampling" Ersatz auch besser als es als reinen "Upscaler" zu nutzen als das es leider zumeist verkauft wird.
Dazu muss die Ausgangsauflösung aber schon noch relativ nahe an der tatsächlichen physikalischen Ausgabeauflösung sein. :D
Also von 1440p oder besser 1800p auf 8K auf 4K oder von 4K auf 8K auf 4K dürfte jetzt nicht gänzlich uninteressant sein.
Eigentlich ist es vielmehr eine Art modernere Variation des SGSSAA das uns ja irgendwann mit DX11 leider mal abhanden gekommen ist.
robbitop
2020-11-20, 07:01:31
Man muss aber konstatieren, dass es eine ziemlich detailierte und fundierte Analyse von Ultra Performance DLSS inkl zoomshots von DF (Alex Bataglia) gibt, die das sehr gut dokumentiert. Die Ergebnisse waren in der Tat limitiert.
Gouvernator
2020-11-20, 08:13:09
In 8K sieht DLSS Balanced schon besser aus als natives 8K. Einzig kaputte Wassereffekte sehen Scheiße aus. DLSS Ultra ist reinster Müll in 8K. Dann lieber 4K und DLSS Balanced und 120Hz mitnehmen.
danarcho
2020-11-20, 08:20:03
Hm ich dachte auf dem PC werden Mesh Shader benutzt. Vielleicht hat AMD bei RDNA2 die Primitive Shader auch so bearbeitet, dass es quasi das gleiche wie Mesh Shader ist. Echt verwirrend. Jedenfalls scheint irgendwas davon zu funktionieren, wenn er sagt Geometrie-Performance ist 80% höher als die 5700XT.
Na dann lag ich gar nicht so falsch mit "AMD hat den Output der Rasterizer verdoppelt" :-).
Die Frage die sich mir da aber sofort stellt ist - haben nun ältere GPUs AUCH Primitive Shaders aktiv geschaltet ?!?
Es ergibt Sinn, wenn ihr nicht alles versucht in einen Topf zu werfen. Aber ich gebe zu, dass die terminologie "primitive shaders" auch recht irreführend sein kann. Im Grunde handelt es sich einfach um eine neue Hardware-Pipeline, bei welcher mehrere shader stages aus der klassischen Grafikpipeline jeweils zusammengefasst wurden. Das spart dann, je nachdem wie gelungen die Implementierung ist, den Overhead zwischen den stages. Um noch etwas präziser zu sein: Bei Navi werden geometry und vertex oder tesselation evaluation shaders in einen einzelnen shader (https://gitlab.freedesktop.org/mesa/mesa/-/blob/master/src/amd/compiler/README.md#ngg-gfx10-only) zusammengepackt.
Mit mesh shadern hat das ganze insofern zu tun, als dass diese im Grunde dann wieder die repräsentation in software darstellen. Will heißen: die neuen mesh shader stages (task shader & mesh shader) mappen auf die neue hardware-pipeline, genauso wie "früher" bei der klassischen pipeline jede software stage in einer eigenen hardware stage ausgeführt wurde.
Der Link sollte die Frage beantworten, welche HW welche Art von pipeline benutzen kann. Allerdings macht es bis einschließlich Navi1 praktisch keinen Unterschied.
Stellst Du dich nun absichtlich dumm?
Du behauptest fest dass 1440p via DLSS auf 8k hochskaliert nicht gut aussieht und ich stelle einfach diese Aussage in Frage.
Weil ich bin überzeugt dass Du das noch gar nie in echt oder allenfalls vergleichbaren Art gesehen hast und dementsprechend ist dein hier abgegebenes "objektives" Urteil völlig fubar.
Aber vermutlich kommst Du nun dann gleich mit dem Argumente um die Ecke, dass Du dies bei einem Kollegen zu Hause gesehen hast und daher sehr wohl mitreden kannst...
Das was du mir unterstellst, finde ich jetzt sehr frech. Okay, ich habe nur einen 4k Monitor, aber 8k lassen sich via DSR gut darstellen.
Ich bin persönlich bin z.B. von 10% mehr an Performance für die XT ausgegangen, finde daher die Performance der XT ziemlich durchschnittlich. Auch können sie sich nen Upsampler gerne sparen. Die Umsetzung erfolgt zwar anders, das Ergebnis bleibt aber das Gleiche-wenn überhaupt ...
Besser finde ich bei AMD das UV gelöst, wo das lästige Bauen einer Curve entfällt.
Sehr gut imo auch Kühler und Effizienz.
Tobalt
2020-11-20, 09:15:10
kann immernoch nicht glauben dass hier DLSS 2.0 in abrede gestellt wird... ja ok, es ist eine technik, die nv eingeführt hat und ein Amd thread.
aber es ist imo einer der größten Durchbrüche seit hardware 3d beschleunigung. und **natürlich** wird AMD was vergleichbares nachliefern.. weil sie ohne auf jahre nicht mehr Konkurrenzfähig sein werden. Superresolution wird was ähnliches wie DLSS sein mit ähnlichen stärken und schwächen.
die schwächen werden nach und nach gefixt werden. leider wird hier viel durcheinander geworfen wegen nV's marketing bullshit bingo bei DLSS1. 1) es werden keine Bildinhalte erfunden. 2) es braucht auch keine magischen 'machine learning Einheiten'. das training des Verfahrens geschieht beim engine-Entwickler oder evtl nv und nur die Anwendung muss berechnet werden. dafür braucht es idealerweise ein paar schnelle low-precision Einheiten. bin sicher dass Amd sowas auch hat. auch kann ich mir vorstellen dass Dx ein trainingsmodul für Spieleentwickler bekommt, sodass die Implementierung einfacher wird.
edit: mit trainingsmodul meine ich ein Programm was für das NN gute Koeffizienten liefert, nicht ein tutorial für Entwickler.
Brillus
2020-11-20, 09:18:23
In 8K sieht DLSS Balanced schon besser aus als natives 8K. Einzig kaputte Wassereffekte sehen Scheiße aus. DLSS Ultra ist reinster Müll in 8K. Dann lieber 4K und DLSS Balanced und 120Hz mitnehmen.
Schon ne Tolle Aussage X ist gut auser wo es scheisse ist.
Akkarin
2020-11-20, 10:57:59
"X sieht ganzheitlich gesehen besser aus als Y, hat aber in einer speziellen Situation noch schwächen" ist doch eine ganz normale und vernünftige Aussage ?
WedgeAntilles
2020-11-20, 11:30:48
"X sieht ganzheitlich gesehen besser aus als Y, hat aber in einer speziellen Situation noch schwächen" ist doch eine ganz normale und vernünftige Aussage ?
Nein, es ist eine differenzierte Aussage - das passt nicht in die heutige Zeit.
Da muss alles völlig eindimensional sein. Abwägungen, Differenzierungen darf es nicht geben.
Sieht man hier im Forum ja oft genug.
nordic_pegasus
2020-11-20, 11:51:33
ich verstehe den Aufschrei nicht, dass 2 unterschiedliche Architekturen von 2 unterschiedlichen Herstellern in einem Benchmark-Parcours über mehrere Spiele nicht immer den identischen Abstand zueinander haben.
Jetzt ist die 6800XT im Schnitt bzw. ein paar Spielen hinter der 3080... ist halt so. Allerdings haben wir wieder Alternativen, welche man ernsthaft mittels Preis und Leistung abwägen kann, ggfs. noch Verbrauch und Treiberqualität / Support von Produktiv-Software.
RDNA2 ist von Vega und RDNA1 kommend ein gigantischer Sprung, vergleichbar mit Zen2. Darum freue ich mich auch schon auf RDNA3, da erwarte ich wirklichen Gleichstand oder sogar Vorsprung. Ferner wird die Spieleentwicklung der nächsten Jahre dank den Konsolen eher für AMD in die Karten spielen als dagegen.
WedgeAntilles
2020-11-20, 12:16:32
Ferner wird die Spieleentwicklung der nächsten Jahre dank den Konsolen eher für AMD in die Karten spielen als dagegen.
Das hieß es auch schon vor 7 Jahren als damals die Konsolen rauskamen.
Passiert ist es nie.
Lehdro
2020-11-20, 12:21:29
Das hieß es auch schon vor 7 Jahren als damals die Konsolen rauskamen.
Passiert ist es nie.
Können wir eigentlich nicht bewerten, weil wir die Situation ohne Konsolen nicht einschätzen können. Sie hätten auch "noch schlechter" performen können zb.
Maximal kann man folgendes herausfinden: Laufen GCN Karten auf "nicht Konsolen AAA Titeln" im Schnitt besser oder schlechter als "Konsolenports AAA Titel"? Aber wer macht sich schon die Mühe.
WedgeAntilles
2020-11-20, 12:24:10
Können wir eigentlich nicht bewerten, weil wir die Situation ohne Konsolen nicht einschätzen können. Sie hätten auch "noch schlechter" performen können zb.
Maximal kann man folgendes herausfinden: Laufen GCN Karten auf "nicht Konsolen AAA Titeln" im Schnitt besser oder schlechter als "Konsolenports AAA Titel"? Aber wer macht sich schon die Mühe.
Stimmt, da hast du recht.
Complicated
2020-11-20, 12:24:38
Das hieß es auch schon vor 7 Jahren als damals die Konsolen rauskamen.
Passiert ist es nie.
Mit 8-Core Jaguar Kernen, während im Desktop Bulldozer auf die Nase gefallen ist. Jetzt sind beides Zen
und Navi. GCN v1 wurde über die Zeit mit 4 weiteren Iterationen entwickelt.
Langlay
2020-11-20, 12:28:36
Das hieß es auch schon vor 7 Jahren als damals die Konsolen rauskamen.
Passiert ist es nie.
Das weiss man doch garnicht so genau. Man weiss nicht wie die Optimierung für GCN ohne die Konsolen ausgesehen hätte.
Complicated
2020-11-20, 12:33:46
Und wenn man sich die Vega iGPU in den APUs anschaut heute würde ich Renoir als Spitzenerfolg werten, der ganz sicher als APU von den Konsolen profitiert hat. Diskrete GPUs haben die Konsolen nicht.
dargo
2020-11-20, 12:39:40
Das hieß es auch schon vor 7 Jahren als damals die Konsolen rauskamen.
Passiert ist es nie.
Bedanke dich bei Nvidia die solange wie nur möglich diesen DX11 Balast behalten wollte.
BlacKi
2020-11-20, 13:04:30
Mit 8-Core Jaguar Kernen, während im Desktop Bulldozer auf die Nase gefallen ist. Jetzt sind beides Zen
und Navi. GCN v1 wurde über die Zeit mit 4 weiteren Iterationen entwickelt.
der erfolg einer architektur ändert daran garnichts.
Platos
2020-11-20, 13:49:53
Bedanke dich bei Nvidia die solange wie nur möglich diesen DX11 Balast behalten wollte.
"Behalten" ? Wie kommst du darauf ? Und DX ist Microsoft. Was hat das also mit den Konsolen zu tun ? Also abgesehen von der XBox, die aber eig. keine Relevanz hatte in der letzten Gen. Irgendwie gar nichts ;)
Fragman
2020-11-20, 13:51:33
ich verstehe den Aufschrei nicht, dass 2 unterschiedliche Architekturen von 2 unterschiedlichen Herstellern in einem Benchmark-Parcours über mehrere Spiele nicht immer den identischen Abstand zueinander haben.
Jetzt ist die 6800XT im Schnitt bzw. ein paar Spielen hinter der 3080... ist halt so. Allerdings haben wir wieder Alternativen, welche man ernsthaft mittels Preis und Leistung abwägen kann, ggfs. noch Verbrauch und Treiberqualität / Support von Produktiv-Software.
RDNA2 ist von Vega und RDNA1 kommend ein gigantischer Sprung, vergleichbar mit Zen2. Darum freue ich mich auch schon auf RDNA3, da erwarte ich wirklichen Gleichstand oder sogar Vorsprung. Ferner wird die Spieleentwicklung der nächsten Jahre dank den Konsolen eher für AMD in die Karten spielen als dagegen.
Jep, sehe ich ähnlich. Die Performance passt, die Preise nicht, aber ok.
Sie sind bei RT etwas hinterher, war erwartbar, aber auch kein Totalausfall, auf Turing Niveau und das sollte erstmal reichen. Schauen wir mal was deren DLSS kann.
Treiber wird wichtig, mal schauen wie hier das Feedback ausfallen wird.
Platos
2020-11-20, 13:56:29
Naja, besser wie die Sotuation zu Vega Zeiten ist es schon. Da konnte man mit riesem Stromverbrauch die xx80 auch wieder nicht so richtig kontern. Jetzt erreicht man die 3080 zwar wieder nicjt, aber immerhin geschieht das bei viel Speicher (Vega64 hatte aich "nur" 8GB) und für mich besseren Stromverbrauch (das 2 Monitor-Ding interessiert mich nicht).
Also von daher ist es schon ein Produkt, dass konkurrenzfähig ist. Im Gegensatz zur Vega64.
Hakim
2020-11-20, 15:34:09
Mal eine frage zu AMDs super Resolution, da ja AMD beim RT keine separaten Einheiten hat und es über die Compute Shader (Erweiterung RA) mit erledigt, kann man davon ausgehen gehen das derren DLSS Alternative ebenfalls über die Compute Shader laufen wird? Und falls ja, könnte man ohne eigenständige KI Einheiten überhaupt ähnlich gute Ergebnisse erreichen?
Blediator16
2020-11-20, 15:43:01
Naja, besser wie die Sotuation zu Vega Zeiten ist es schon. Da konnte man mit riesem Stromverbrauch die xx80 auch wieder nicht so richtig kontern. Jetzt erreicht man die 3080 zwar wieder nicjt, aber immerhin geschieht das bei viel Speicher (Vega64 hatte aich "nur" 8GB) und für mich besseren Stromverbrauch (das 2 Monitor-Ding interessiert mich nicht).
Also von daher ist es schon ein Produkt, dass konkurrenzfähig ist. Im Gegensatz zur Vega64.
Natürlich erreicht man die 3080 :confused:
Dino-Fossil
2020-11-20, 15:45:39
Mal eine frage zu AMDs super Resolution, da ja AMD beim RT keine separaten Einheiten hat und es über die Compute Shader (Erweiterung RA) mit erledigt, kann man davon ausgehen gehen das derren DLSS Alternative ebenfalls über die Compute Shader laufen wird? Und falls ja, könnte man ohne eigenständige KI Einheiten überhaupt ähnlich gute Ergebnisse erreichen?
Das wesentliche ist wohl das Training des Netzwerks vorher und das findet nicht beim Endkunden statt. Die Ausführung auf dem Spielerechner ist deutlich sparsamer und benötigt auch nicht zwangsläufig besonderen Einheiten. Aber nimm das nicht als gesichert an. ;)
Und letztlich wird ja Rechenkapazität frei, indem man intern bei niedrigerer Auflösung rendert und das dann (vereinfacht gesagt) hochskaliert.
Interessant wäre auch, ob das dann auch auf älteren AMD-Generationen läuft, oder ob RDNA2 doch bestimmte Optimierungen aufweist...
reaperrr
2020-11-20, 15:47:57
Naja, besser wie die Sotuation zu Vega Zeiten ist es schon. Da konnte man mit riesem Stromverbrauch die xx80 auch wieder nicht so richtig kontern. Jetzt erreicht man die 3080 zwar wieder nicjt, aber immerhin geschieht das bei viel Speicher (Vega64 hatte aich "nur" 8GB) und für mich besseren Stromverbrauch (das 2 Monitor-Ding interessiert mich nicht).
Also von daher ist es schon ein Produkt, dass konkurrenzfähig ist. Im Gegensatz zur Vega64.
Man darf auch nicht vergessen, dass die 3080 anders als die xx80er bei den vorigen Generationen diesmal auf dem größten Chip basiert, wenn auch relativ stark beschnitten, und von NV zusätzlich prophylaktisch billiger als der Vorgänger gemacht wurde, trotz wahrscheinlich teurerer Herstellung (größerer Chip, G6X, aufwändiges PCB und teure Kühlung).
Und selbst wenn man GA104 als TU106-Nachfolger sieht und erst den wohl noch kommenden GA103 (wohl im Vollausbau 7680 ALUs u. 320bit SI, also etwas unterhalb der 3080) als wahren TU104-Nachfolger, hat sich AMD ggü. Vega vs. Pascal und RDNA1 vs. Turing im Grunde schon um anderthalb Klassen nach oben gekämpft, weil man mittlerweile selbst den zweitschnellsten Chip von NV schlägt, und am Schnellsten verdammt nah dran ist. Auch zeitlich hat AMD ordentlich aufgeholt, Vega über 1 Jahr nach Pascal, RDNA1 ~9 Monate nach Turing, RDNA2 jetzt schon zeitgleich mit Ampere.
Hält der Trend an, kommt RDNA3 vor Hopper, zieht mindestens gleich bei Performance, gewinnt bei Effizienz und holt mindestens weiter auf bei RT und dem DLSS-Äquivalent.
Flinx
2020-11-20, 16:33:46
PowerColor Radeon RX 6800 XT Red Devil Limited...
https://www.youtube.com/watch?v=ZaTQ9wxNnWU
basix
2020-11-20, 16:52:15
Ich habe mir nochmals die Infinity Cache Slides durchgesehen und mir zu den Hitrates ein paar Gedanken gemacht. Ich habe dazu die Einzelwerte der einen Slide in eine Excel-Tabelle übertragen (siehe Anhang).
Hitrate zwischen 1080p, 1440p und 4K steigt linear: Doppelte Pixelzahl = Doppelter IF$ für selbe Hitrate
Das auf 4K übertragen: Bandbreite von N21 mehr als genug, viel mehr als N10 zur Verfügung hat (Performance pro GByte/s) --> Memory Underclocking Tests wären interessant
N22 @ 40 CU: 48MB und 14 Gbps sollten reichen für 1440p
N23 @ 32 CU: 32MB und 14 Gbps sollten reichen für 1080p
Ebenfalls interessant ist der Ausblick auf zukünftige Chips mit vergrössertem IF$. Verdoppelt man den IF$, sind ungefähr auch doppelt so schnelle Grafikkarten möglich, ohne dass die Offchip-Bandbreite steigen muss. Bei 256 MB könnten für 4K immer noch 256bit SI reichen, auch wenn die Karte in etwa doppelt so schnell sein sollte. Maximal 256bit SI könnte uns also noch lange im Consumer Bereich begleiten.
Ist alles natürlich idealisiert betrachtet und ich weiss nicht, ob die IF$ Bandbreite nicht doch einiges höher sein muss als bei einem breiteren Speicherinterface, damit es so wie jetzt funktioniert. Interessant ist es trotzdem ;)
Edit 1:
Ausserdem machen dann Techniken wie DLSS noch viel mehr Sinn, da man damit die Basisauflösung runterschrauben kann. Somit kann man länger mit deutlich weniger IF$-Kapazität und Offchip Bandbreite auskommen.
Edit 2:
Zudem kann man je nach IF$ Kapazität die Breite des Speicherinterfaces steuern. Das würde es erlauben auch "krumme" Speicherkapazitäten wie 24 GByte bei schmalen 192bit umzsetzen, obwohl die GPU sehr leistungstark sein könnte (schneller als N21). Damit entkoppelt man also auch Performance vs. Speicherbusbreite / Speicherkapazität.
Neurosphere
2020-11-20, 17:32:53
PowerColor Radeon RX 6800 XT Red Devil Limited...
https://www.youtube.com/watch?v=ZaTQ9wxNnWU
https://cdn.discordapp.com/attachments/694482077143269387/779383401961881610/unknown.png
:freak:
dargo
2020-11-20, 17:58:05
PowerColor Radeon RX 6800 XT Red Devil Limited...
https://www.youtube.com/watch?v=ZaTQ9wxNnWU
Sieben Heatpipes... nett. Die Lüfter wirken aber irgendwie billig. Mal Tests abwarten.
basix
2020-11-20, 18:22:39
https://cdn.discordapp.com/attachments/694482077143269387/779383401961881610/unknown.png
:freak:
Naja, das Setting stürzt dann im Nullkommanichts ab ;) Später spielt er ein paar Spiele mit 2.6 GHz, ist aber auch nicht ganz stabil. 2.5 GHz sollte klappen und wenn man in der Silicon Lottery gewinnt oder WaKü vielleicht auch die 2.6 GHz. Schon ziemlich krass auf einem 520mm2 Chip so hohe Frequenzen fahren zu können.
Naja, das Setting stürzt dann im Nullkommanichts ab ;) Später spielt er ein paar Spiele mit 2.6 GHz, ist aber auch nicht ganz stabil. 2.5 GHz sollte klappen und wenn man in der Silicon Lottery gewinnt oder WaKü vielleicht auch die 2.6 GHz. Schon ziemlich krass auf einem 520mm2 Chip so hohe Frequenzen fahren zu können.
Und du sprichst aus Erfahrung :freak: - wenn die ~ 400Mhz mehr dauernd anliegen, dann reicht es nicht nur für ne OCed 3080 ...
1100RPM für >2,6G - hui. Da braucht es auch keine Wakü, echt krass
OgrEGT
2020-11-20, 21:04:43
Computerbase hat 5K Benchmarks in CoD MW, Doom Eternal und RE3
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#diagramm-cod-modern-warfare-5120-2880-5k
Bei CoD scheint der 3080 dann bei 5K der Speicher auszugehen...
Bei den anderen beiden Titeln nicht...
dargo
2020-11-20, 21:09:53
1100RPM für >2,6G - hui. Da braucht es auch keine Wakü, echt krass
Wo siehst du das?
Daredevil
2020-11-20, 21:09:56
Die minFPS sind viel bemerkenswerter von der 6800xt ^^
Cyberfries
2020-11-21, 11:15:49
Angeblich sind die 128mb Inf$ auf 4k zugeschnitten.
Das Milchmädchen errechnet mit dem Verhältnis von 65k Pixel je MB für N22 (WQHD) 56mb und N23 (FHD) 32mb.
Die nächste Generation mit 8k dann min. 512mb.
Auf Twitter (https://twitter.com/_rogame/status/1329763735741865989) hierzu:
_rogame: Both 192bit bus of Navi22 and 128Bit bus of Navi23 indicate the existence of infinity cache.
rheumi: wondering if they scale the size of cache with number of PHYs. So Navi22 96MB and Navi 23 64MB infinity cache?
Kepler_L2: Yep
pProps->gfx9.numSdpInterfaces; // There's one MALL per memory channel.
Angeblich (https://twitter.com/Bullsh1t_buster/status/1329594981665759233) werden wir N21 auch in Notebooks zu sehen bekommen, allerdings wohl kaum in Ultrabooks:
Bullsh1t_Buster:
Mobile Navi21 will have a 150W TDP.
Bonkers efficiency.
Bullsh1t_Buster:
This was NOT a prediction.
It's confirmation from laptop vendors.
ASUS and other OEMs are preparing flagship models with this beast.
Und dann noch etwas für das neue Jahr, ein paar Informationen zu Navi 22.
Patrick Schur (https://twitter.com/patrickschur_/status/1329930346687852544) hat sich in der Nacht geäußert, dazu gabs dann noch einen Kommentar von Yuko Yoshida:
patrickschur:
NV22 XT 186-211 W TGP (RX 6700 XT)
NV22 XTL 146-156 W TGP (RX 6700?)
12 GB GDDR6
patrickschur:
It's also possible that NV22 XTL has a lower min. TGP than 146 W. I'm not 100 % sure about that. So far I haven't seen any NV22 XTL with less than 146 W TGP.
Yuko Yoshida:
Also with a Dual 8P connector.
Nach diesen Äußerungen scheint die 160bit-Variante von N22 verworfen worden zu sein.
Wahrscheinlich besser so.
Stromverbrauch sieht top aus, nur die beiden 8pin-Anschlüsse stören. Soviel Kabelsalat für unter 200w? Meh
F5.Nuh
2020-11-21, 12:31:15
Wann könnte man mit humanen Preisen rechnen für die Karten? Wollte eigentlich gerne eine 6800xt.... Aktuell würde ich auch eine 6800 nehmen aber alles nicht verfügbar.
Schiele aktuell auf die 5700xt.... Will aber keine 400 Euro für so alte Hardware ausgeben:usad::usad:
Linmoum
2020-11-21, 12:33:28
Wenn du nicht gerade eine bei AMD im Shop zur UVP erwischst wahrscheinlich in 2-3 Monaten. Oder noch länger.
Dampf
2020-11-21, 12:35:05
Wann könnte man mit humanen Preisen rechnen für die Karten? Wollte eigentlich gerne eine 6800xt.... Aktuell würde ich auch eine 6800 nehmen aber alles nicht verfügbar.
Schiele aktuell auf die 5700xt.... Will aber keine 400 Euro für so alte Hardware ausgeben:usad::usad:
Mach das bloß nicht. DIe 5700XT hat eine extrem veraltete Architektur. Für 180€ kann man es sich als Übergang überlegen, aber nicht für 400€
F5.Nuh
2020-11-21, 12:52:32
Will ich auch wirklich nicht machen. Es ärgert mich dennoch sehr.
Ich gucke regelmäßig auf die AMD Seite ( wirklich undurchsichtig... ) Und bisher noch kein Glück gehabt.
-/\-CruNcher-/\-
2020-11-21, 13:02:47
Bedanke dich bei Nvidia die solange wie nur möglich diesen DX11 Balast behalten wollte.
Es stand aber schon seit 2006 fest das es sich ändern muss, daran konnte Nvidia auch nichts ändern.
Jeder hatte genug Zeit die Hardware anzupassen und seine weitere Differenzierungstrategie zu planen.
Und Nvidia war auch schon dabei abseits von DX11 mit OpenGL Next dessen Optimierungen letztendlich in den DX11 stack zum teil back geportet wurden.
Während im Hintergrund AMD und Microsoft über die Zukunft Mantles in ihrer Platform diskutierten, Microsoft aber netterweise Nvidia die Bühne überlies um die Veränderungen hauptsächlich zu demonstrieren.
Es sind teils einschlägige Veränderungen an der Hardware die zur teils Gleichschaltung führen da brauch man Strategien um sich anderweitig zu differenzieren von seiner competition die plötzlich die Prototypen Platform Grundlage darstellen und die in Zukunft an der Spitze der gewonnenen daten sitzen, die dessen Weiterentwicklung bestimmt.
Können wir eigentlich nicht bewerten, weil wir die Situation ohne Konsolen nicht einschätzen können. Sie hätten auch "noch schlechter" performen können zb.
Maximal kann man folgendes herausfinden: Laufen GCN Karten auf "nicht Konsolen AAA Titeln" im Schnitt besser oder schlechter als "Konsolenports AAA Titel"? Aber wer macht sich schon die Mühe.
Es brauch Zeit neue APis zu Entwickeln und komplexe Engines stabil zu refactorn und es gab genug Engine neustarts, bis das sichtbar wird dauert es.
Mach das bloß nicht. DIe 5700XT hat eine extrem veraltete Architektur. Für 180€ kann man es sich als Übergang überlegen, aber nicht für 400€
Meine Güte man kann es auch übertreiben. Die Karte ist etwas über ein Jahr alt und wird mit neuesten Treibern immer besser. Da altern Nvidia Karten schlechter. Aktuell kaufe ich gar nichts und muss es zum Glück auch nicht. Die Preise selbst von Shops sind unter aller Sau.
Dampf
2020-11-21, 14:38:03
Meine Güte man kann es auch übertreiben. Die Karte ist etwas über ein Jahr alt und wird mit neuesten Treibern immer besser. Da altern Nvidia Karten schlechter. Aktuell kaufe ich gar nichts und muss es zum Glück auch nicht. Die Preise selbst von Shops sind unter aller Sau.
Was für Treiber? Ich rede von der Architektur. Die 5700XT hat kein DX12 Ultimate Support, also kein VRS, keine Mesh Shader, kein Sampler Feedback, kein hardware beschleunigtes Raytracing und auch kein DirectStorage.
Sie wird extrem schlecht altern, da sie keinen Support für diese ganzen wichtigen Features hat, die die Next Gen Konsolen, RDNA2 und Ampere sowie auch Turing haben.
Als Übergangskarte in der Cross Gen wird sie ganz okay sein, wenn man auf deutlich bessere Grafik und Performance verzichten kann, aber richtige Next Gen Spiele kann sie nicht mal darstellen.
Platos
2020-11-21, 14:45:06
Also für 400 würde ich auch keine 5700XT mehr kaufen. Muss man sich eben gedulden.
DrFreaK666
2020-11-21, 15:04:51
Will ich auch wirklich nicht machen. Es ärgert mich dennoch sehr.
Ich gucke regelmäßig auf die AMD Seite ( wirklich undurchsichtig... ) Und bisher noch kein Glück gehabt.
Vielleicht hast du nächste Woche mehr Glück wenn die Customs veröffentlicht werden.
Vielleicht nutzen Powercolor und co. die Chips lieber für ihre Versionen
Slipknot79
2020-11-21, 20:04:59
Wann könnte man mit humanen Preisen rechnen für die Karten? Wollte eigentlich gerne eine 6800xt.... Aktuell würde ich auch eine 6800 nehmen aber alles nicht verfügbar.
Einige Wochen nachdem der Impfstoff für die breite Masse verfügbar sein wird und alle wieder ihre Kohle für andere Shice verballern werden. :wink:
Cyberfries
2020-11-21, 20:26:23
..... mit dem Verhältnis von 65k Pixel je MB für N22 (WQHD) 56mb und N23 (FHD) 32mb.
Yuko Yoshida (https://twitter.com/KittyYYuko/status/1330101594382340098) liefert für Speicherinterface und Größe des Inf$ folgendes:
N22 - 192bit / 64mb
N23 - 128bit / 48mb
N24 - 64bit / 32mb
Das widerspricht der Aussage, dass Inf$ mit dem Speicherinterface skaliert.
Videocardz (https://videocardz.com/newz/amd-radeon-rx-6700-xt-series-to-feature-navi-22-gpu-and-up-to-12gb-gddr6-memory) hat die Äußerungen von Patrick Schur aufgegriffen,
leider ist denen immer noch nicht der Unterschied zwischen TGP und TBP bekannt.
Von der RX 6800 mit 203w TGP und 250w TBP ausgehend, liegt N22 vrmtl ähnlich wie N10:
6700xt - 186w TGP / 210-230w TBP
6700 - 146w TGP / 170-190w TBP
Ich gehe davon aus, dass das Partner-Karten sind, die Referenzkarten im unteren genannten Bereich liegen.
Trotzdem ist der Verbrauch etwas höher als erhofft.
Linmoum
2020-11-21, 20:50:15
Die TBP bei der 6800 hat nichts mit der Realität zu tun, die Karte verbaucht selbst bei Maximallast in UHD nur <=230W. In WQHD bzw. FHD sind es sogar nur <=210W.
Würde mich stark überraschen, wenn die 6700XT die 200W großartig reißt. 25% weniger Speicher und 33% weniger CUs als die 6800. Auch mit ein paar MHz mehr Takt im Vergleich mit der 6800 wird das wenig ändern, da die Leistungsaufnahme bei RDNA mit mehr Takt nicht großartig explodiert, da die 6800 im Schnitt ja auch schon "nur" mit etwas über 2100 läuft.
dargo
2020-11-21, 21:01:21
Also ich kann mir das auch nicht vorstellen wenn ich sehe, dass eine RX 6800 in 1440p nur 207W säuft.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12507820&postcount=477
Oder will AMD N22XT auf =>2,5Ghz prügeln? :freak:
Edit:
https://www.igorslab.de/wp-content/uploads/2020/11/03-Clock-Rate.png https://www.igorslab.de/wp-content/uploads/2020/11/03-Clock-Rate-1.png
https://www.igorslab.de/wp-content/uploads/2020/11/07-Voltages.png https://www.igorslab.de/wp-content/uploads/2020/11/07-Voltages-1.png
Auf welche Frequenzen will AMD Navi22 prügeln um bei 210-230W rauszukommen? :freak:
Iscaran
2020-11-21, 22:48:57
Yuko Yoshida (https://twitter.com/KittyYYuko/status/1330101594382340098) liefert für Speicherinterface und Größe des Inf$ folgendes:
N22 - 192bit / 64mb
N23 - 128bit / 48mb
N24 - 64bit / 32mb
Das widerspricht der Aussage, dass Inf$ mit dem Speicherinterface skaliert.
Das erscheint mir unlogisch. Hier im Thread hatte doch jemand nach der Veröffentlichung der Benchmarks geschlussfolgert, daß der IC wohl eher mit der Anzahl der Shader Engines skaliert.
Die 6800/6800 XT sind vom Prinzip her ein 4 SE-Chip. Das bei der 6800 dann trotz der De-Aktivierung einer ganzen SE die 128 MB Cache unangetastet bleiben ist wohl eher dem Aufbau geschuldet.
Bei einem N22 Chip aber mit nur 2 SEs und 40 CUs würde ich dann simpel 64 MB Cache erwarten. Ich denke nicht dass es da irgendwie mit dem SI skaliert.
Wenn das so wäre müsste es ja eher derart skalieren:
256 bit SI = 128 MB IC = 0.5 MB pro bit Si
=>
192 Bit SI = 96 MB
128 Bit = 64 MB
Das dürfte aber nicht der Fall sein. Aufgrund der Arbeitsweise und dem Aufbau her macht eine skalieren mit den Shader-Engines viel mehr Sinn.
Je 2 Engines, teilen sich dabei einen riesen Cache "Crossbar" (sieht man ja auch gut auf den Die-Shots.
=> 64 MB Cache pro 2 SEs.
Cyberfries
2020-11-22, 09:53:07
Die TBP bei der 6800 hat nichts mit der Realität zu tun, die Karte verbaucht selbst bei Maximallast in UHD nur <=230W.
Ich habe zwecks Vergleichbarkeit explizit von TGP und TBP gesprochen, nicht vom Realverbrauch.
Der Verbrauch der 6800 hängt stark vom Benchmarkfeld ab, aber durchweg unter 230w?
CBS: 231w
Tomshardware: 233w
Comptoir Hardware: 234w
Kitguru: 237w
Guru3D: 239w
PcPer: 242w
Wie gesagt: Der TGP-Vergleich stimmt nicht euphorisch. 9% weniger TGP bei 50% weniger CUs?
Das erscheint mir unlogisch.
Ich hatte die betreffende Stelle im Linux-Treiber bereits im Vorpost zitiert.
Weiterhin:
Der Inf$ sitzt zwischen L2$ und Speicherinterface, siehe Grafik hier (https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/47-1080.4e91b6ca.png).
Im Fall von N21: 16x tccs -> 128mb (vlt 16x 8mb) Inf$ ->16x 16bit Interface
Ergibt ja auch Sinn, dass der Last-Level-Cache erst nach dem L2$ kommt.
Und da der L2$ eben mit dem Speicherinterface skaliert, bleibt für den Inf$ kaum etwas anderes über.
Es sei denn du willst mit Komma-Verhältnissen arbeiten: 12x tccs -> 8x 8mb -> 12x 16bit
davidzo
2020-11-22, 10:58:33
Angeblich sind die 128mb Inf$ auf 4k zugeschnitten.
Das Milchmädchen errechnet mit dem Verhältnis von 65k Pixel je MB für N22 (WQHD) 56mb und N23 (FHD) 32mb.
Ich hatte die betreffende Stelle im Linux-Treiber bereits im Vorpost zitiert.
Weiterhin:
Der Inf$ sitzt zwischen L2$ und Speicherinterface, siehe Grafik hier (https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/47-1080.4e91b6ca.png).
Im Fall von N21: 16x tccs -> 128mb (vlt 16x 8mb) Inf$ ->16x 16bit Interface
Ergibt ja auch Sinn, dass der Last-Level-Cache erst nach dem L2$ kommt.
Und da der L2$ eben mit dem Speicherinterface skaliert, bleibt für den Inf$ kaum etwas anderes über.
Es sei denn du willst mit Komma-Verhältnissen arbeiten: 12x tccs -> 8x 8mb -> 12x 16bit
Ja, 96mb machen Sinn, passt einfach zum SI. Ich denke auch dass ein Cache eben nicht so gut nach unten skaliert wie man das normalerweise vom SI kennt. Entscheidend ist ja nicht nur die Auflösung, sondern die Geometrie und Texturen die da drin liegen. Und die unterscheiden sich nicht in der Größe ob man nun HD, WQHD oder 4K fährt.
Ab einer bestimmten Größe ist der IF cache einfach zu klein um wirksam zu sein, deswegen kann AMD den bei den kleinen Chips nicht beliebig kleiner skalieren. Bandbreite ist ja super, aber was ist wenn die Hitrate so niedrig ist dass sich das kaum auswirkt?
Man nutzt ja bereits 6T SRAM Zellen.Viel kleiner wird es nicht auf dem Die, selbst wenn man die in weniger bänken organisiert und weniger bandbreite in Kauf nimmt. 4T kommen mit einem großen Malus beim static power, es sei denn man nutzt irgendeine secret sauce.
basix
2020-11-22, 11:18:47
Ja, 96mb machen Sinn, passt einfach zum SI. Ich denke auch dass ein Cache eben nicht so gut nach unten skaliert wie man das normalerweise vom SI kennt. Entscheidend ist ja nicht nur die Auflösung, sondern die Geometrie und Texturen die da drin liegen. Und die unterscheiden sich nicht in der Größe ob man nun HD, WQHD oder 4K fährt.
Ab einer bestimmten Größe ist der IF cache einfach zu klein um wirksam zu sein, deswegen kann AMD den bei den kleinen Chips nicht beliebig kleiner skalieren. Bandbreite ist ja super, aber was ist wenn die Hitrate so niedrig ist dass sich das kaum auswirkt?
AMD hat eine schöne Grafik dazu gezeigt, welche die Hitrate abhängig von der IF$-Kapazität als auch der Auflösung zeigt. 48MB reichen für N22 @ 1440p ;) Ich habe es hier beschrieben: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12507140&postcount=18630
In 1440p hat man mit 48MB die geringere Hitrate als in 4K und 128MB. Aber du hast 65-75% der Speicherbandbreite (14 oder 16 Gbps) bei nur 50% der CUs. Das passt und bläst die Chipgrösse nicht zu stark auf. Bei 4K werden 48MB leicht limitieren aber auch dort nicht allzu stark.
Der_Korken
2020-11-22, 11:27:31
Die Hitrate darf bei N22 ruhig etwas schlechter als bei N21 sein, weil ersterer im Verhältnis zur Rechenleistung mehr Bandbreite hat (50% CUs aber 75% Bandbreite). Finde 96MB auch etwas viel, weil das sehr viel Fläche kostet für einen Midrange-Chip. 64MB würden von der Größe her optimal passen. Wenn man unbedingt was durch 12 teilbares haben muss wegen der Kopplung an die VRAM-Channel, warum dann nicht 72MB? Ist halt die Assoziativität etwas kleiner.
KarlKastor
2020-11-22, 13:39:08
Die Frage ist ja auch, in der nur kleiner oder auch langsamer ist.
und den Folien war ja der Cache von Epyc mit 27mm² pro 32 MB angegeben.
81 mm² für den Navi22 wäre in der Tat schon recht viel. Aber auch nicht utopisch.
-/\-CruNcher-/\-
2020-11-22, 13:54:18
Was für Treiber? Ich rede von der Architektur. Die 5700XT hat kein DX12 Ultimate Support, also kein VRS, keine Mesh Shader, kein Sampler Feedback, kein hardware beschleunigtes Raytracing und auch kein DirectStorage.
Sie wird extrem schlecht altern, da sie keinen Support für diese ganzen wichtigen Features hat, die die Next Gen Konsolen, RDNA2 und Ampere sowie auch Turing haben.
Als Übergangskarte in der Cross Gen wird sie ganz okay sein, wenn man auf deutlich bessere Grafik und Performance verzichten kann, aber richtige Next Gen Spiele kann sie nicht mal darstellen.
Ehhhh öhhh du unterschätzt gute GPU coder ;)
Die minFPS sind viel bemerkenswerter von der 6800xt ^^
Auch durchgehend bei Hybrid 6800 vs 3070
-/\-CruNcher-/\-
2020-11-22, 14:09:22
DBpost
patrickschur
2020-11-22, 15:13:37
Hier ein Auszug dem MorePowerTool und einem 6800 VBIOS. Wie man sieht, hat eine 6800 eine min. TGP von 203 W. Ich habe noch kein VBIOS gesehen bei dem ein niedrigerer Wert eingetragen war. Bei einer durchschnittlichen TBP von 236 W haben wir also eine Differenz von 33 W zwischen TGP und TBP. Für mich sehen die Zahlen also sehr plausibel aus.
https://i.imgur.com/EfCr9oH.png
patrickschur
2020-11-22, 15:18:07
Wie gesagt: Der TGP-Vergleich stimmt nicht euphorisch. 9% weniger TGP bei 50% weniger CUs?
Es sei denn, die Karte taktet höher um das CU Defizit auszugleichen.
genervt
2020-11-22, 15:31:10
Es sei denn, die Karte taktet höher um das CU Defizit auszugleichen.
Das wird sie garantiert. Sollten sich die 96MB Infinity Cache bewahrheiten, könnte die kleine Navi 22 sogar etwas mehr Leistung pro Takt bringen.
Ich glaube trotzdem, dass eine beachtliche Lücke zur 6800 bleiben wird. 2560 Shader hatte schon die 5700XT und auch die R9 290 ohne X hatte schon 2560 GCN Shader.
dargo
2020-11-22, 15:32:31
Ziemlich krass wie effizient das Referenzdesign ist. Igor misst 228W bei der RX6800 in 4k.
https://www.igorslab.de/wp-content/uploads/2020/11/01-Power-Consumption-1.png
Das wären gerade mal 12% Verluste durch den Rest. Ich hoffe das bleibt in ähnlicher Region bei den meisten Customs.
Iscaran
2020-11-22, 15:34:55
Schaut euch den Die-Shot an. Der IC ist das breite "Band" mit den 2-Erkern Ober- und Unterhalb der 2x20 CUs links und 2x20 CUs rechts (= 4 SEs je eine oberhalb der Mitte und eine Unterhalb, sowie links und rechts gleich).
https://cdn.mos.cms.futurecdn.net/8PbgHfDBWQ6UJJXEqhw297-970-80.jpg.webp
Der N22 hat nur 40 CUs und wird Aufbautechnisch also dem N10, also der 5700 XT ähneln.
Da macht es nur Sin wenn der IC halbiert wird von 128 MB auf 64...indem man die komplete rechte bzw. linke Bildhälfte weglässt.
Ein asymmetrisches skalieren mit dem SI KANN zwar auch sein, würde aber IMHO deutlich mehr Veränderungen im Chip bedingen. Ist jedenfalls meine Meinung.
N22 kommt daher mit 64 MB IC IMHO und nicht 96 MB oder sowas.
Und wie basix schon gezeigt hat würden 64 MB für maximal WQHD auch reichen um den Bandbreiten-Effekt zu bringen. Für FullHD allemal.
Wie N23 mit 32 CUs aussieht ist aber nochmals anders. N23 soll ja auch in Laptops etc. ggf. als "APU" kommen.
Auch wenn N23 nur 128 Bit SI hat erscheint mir, daß man in dem Fall entweder den IC ganz weglässt oder einfach bei 64 MB bleibt und der N23 wäre ein N22 mit deaktivierten 4 CU pro Array.
EDIT: hier ein schöneres Bild mit der GPU:
https://tpucdn.com/gpu-specs/images/g/923-block-diagram.jpg
Der_Korken
2020-11-22, 15:39:30
Ich weiß nicht, ob die 6700XT wirklich so abgeschlagen sein wird. Wenn man davon ausgeht, dass die IPC nicht gesunken ist, liegen GPU-seitig bei 2,3Ghz+ ca. 30% mehr Leistung an. Die Bandbreite liegt zwar nur bei ca. 86% der 5700XT, aber wenn man in den relevanten Auflösungen wieder 50% Hitrate mit dem Cache schafft, wären es effektiv 172%. Selbst bei nur 40% Hitrate wären es 143% effektive Bandbreite im Vergleich zur 5700XT. Dazu noch die geringeren Latenzen durch den Cache. Ich denke, dass die 6700XT ca. 35% schneller sein wird. Nach oben hin wäre die 6800 dann ca. 20-25% schneller. Sieht für mich nach einem gesunden Abstand aus.
SKYNET
2020-11-22, 15:49:49
Ziemlich krass wie effizient das Referenzdesign ist. Igor misst 228W bei der RX6800 in 4k.
https://www.igorslab.de/wp-content/uploads/2020/11/01-Power-Consumption-1.png
Das wären gerade mal 12% Verluste durch den Rest. Ich hoffe das bleibt in ähnlicher Region bei den meisten Customs.
ausser die highend customs, wird wohl nur bauteilschrott verbaut werden vergleichen mit den referenzkarten, ergo dürfte die effizienz bei den meisten customs schlechter dastehen als bei der AMD eigenen karte.
Ravenhearth
2020-11-22, 16:13:55
Schaut euch den Die-Shot an. Der IC ist das breite "Band" mit den 2-Erkern Ober- und Unterhalb der 2x20 CUs links und 2x20 CUs rechts (= 4 SEs je eine oberhalb der Mitte und eine Unterhalb, sowie links und rechts gleich).
https://cdn.mos.cms.futurecdn.net/8PbgHfDBWQ6UJJXEqhw297-970-80.jpg.webp
Der N22 hat nur 40 CUs und wird Aufbautechnisch also dem N10, also der 5700 XT ähneln.
Da macht es nur Sin wenn der IC halbiert wird von 128 MB auf 64...indem man die komplete rechte bzw. linke Bildhälfte weglässt.
Ein asymmetrisches skalieren mit dem SI KANN zwar auch sein, würde aber IMHO deutlich mehr Veränderungen im Chip bedingen. Ist jedenfalls meine Meinung.
N22 kommt daher mit 64 MB IC IMHO und nicht 96 MB oder sowas.
Und wie basix schon gezeigt hat würden 64 MB für maximal WQHD auch reichen um den Bandbreiten-Effekt zu bringen. Für FullHD allemal.
Wie N23 mit 32 CUs aussieht ist aber nochmals anders. N23 soll ja auch in Laptops etc. ggf. als "APU" kommen.
Auch wenn N23 nur 128 Bit SI hat erscheint mir, daß man in dem Fall entweder den IC ganz weglässt oder einfach bei 64 MB bleibt und der N23 wäre ein N22 mit deaktivierten 4 CU pro Array.
EDIT: hier ein schöneres Bild mit der GPU:
https://tpucdn.com/gpu-specs/images/g/923-block-diagram.jpg
Ein glattes Halbieren des Chips ist allerdings dadurch ausgeschlossen, dass man das SI nicht halbiert, da müssten dann zB links noch Interfaces sein, und dann kann da auch noch Cache hin. Zum Beispiel so ungefähr:
https://i.redd.it/fwyoo821wtw51.jpg
Dass die 6800 trotz nur 3 SEs 128MB IC hat, zeigt m.E. auch, dass der Cache am SI hängt und nicht an den SEs, was 96MB für Navi22 bedeuten würde.
Iscaran
2020-11-22, 16:46:30
Ein glattes Halbieren des Chips ist allerdings dadurch ausgeschlossen, dass man das SI nicht halbiert, da müssten dann zB links noch Interfaces sein, und dann kann da auch noch Cache hin.
Wieso - der IC ist zwar an das SI angebunden, aber die Entscheidenden Fähigkeiten skalieren ja mit den CUs mit.
Man könnte sicherlich das SI getrennt von den CUs beschneiden, aktivieren/deaktivieren.
Dass die 6800 trotz nur 3 SEs 128MB IC hat, zeigt m.E. auch, dass der Cache am SI hängt und nicht an den SEs, was 96MB für Navi22 bedeuten würde.
Nein sehe ich anders. Denn der IC ist ja in seiner Gesamtheit als "Einheit" konstruiert. Man kann da eben nicht einfach 32 MB abschalten, nur weil man eine SE deaktiviert hat, denke ich.
Man könnte aber natürlich einen Navi22 Chip derart bauen:
Ein halber Navi21 mit jeweils einem zusätzlichen SI-Controller oben und unten angebunden an einen global halbierten IC von 64 MB.
EDIT: Evtl. würde man den Chip noch rotieren bzw. die SE etwas anders anordnen um natürlich maximal platz zu sparen...so einen "Henkel" des SI wird man sicherlich nicht real sehen, wie ich das skiziert habe.
AlterSack
2020-11-22, 17:15:34
Ich weiß nicht, ob die 6700XT wirklich so abgeschlagen sein wird. Wenn man davon ausgeht, dass die IPC nicht gesunken ist, liegen GPU-seitig bei 2,3Ghz+ ca. 30% mehr Leistung an. Die Bandbreite liegt zwar nur bei ca. 86% der 5700XT, aber wenn man in den relevanten Auflösungen wieder 50% Hitrate mit dem Cache schafft, wären es effektiv 172%. Selbst bei nur 40% Hitrate wären es 143% effektive Bandbreite im Vergleich zur 5700XT. Dazu noch die geringeren Latenzen durch den Cache. Ich denke, dass die 6700XT ca. 35% schneller sein wird. Nach oben hin wäre die 6800 dann ca. 20-25% schneller. Sieht für mich nach einem gesunden Abstand aus.
Es wird für AMD evtl. ein Preisfindungsproblem geben.
Die 5700XT kostete am Beginn so ca. 450-480€, bei 250mm² und 8Gb.
Eine 6700XT wird eine wesentlich grössere GPU und 12 Gb Speicher tragen,
sollte auch um einiges teurer sein. Die 6800 Referenz dann für 580€ UVP.
Okay, die Customs werden teurer sein, auch bei der Konkurrenz.
Ist die Frage, wie sich die Preise im nächsten Jahr einpendeln.
dargo
2020-11-22, 17:18:44
Was ist für dich wesentlich größer? N22 dürfte grob bei 300mm² rauskommen.
-/\-CruNcher-/\-
2020-11-22, 17:29:32
Ich weiß nicht, ob die 6700XT wirklich so abgeschlagen sein wird. Wenn man davon ausgeht, dass die IPC nicht gesunken ist, liegen GPU-seitig bei 2,3Ghz+ ca. 30% mehr Leistung an. Die Bandbreite liegt zwar nur bei ca. 86% der 5700XT, aber wenn man in den relevanten Auflösungen wieder 50% Hitrate mit dem Cache schafft, wären es effektiv 172%. Selbst bei nur 40% Hitrate wären es 143% effektive Bandbreite im Vergleich zur 5700XT. Dazu noch die geringeren Latenzen durch den Cache. Ich denke, dass die 6700XT ca. 35% schneller sein wird. Nach oben hin wäre die 6800 dann ca. 20-25% schneller. Sieht für mich nach einem gesunden Abstand aus.
Rechne einfach -10 FPS bei UHD Hybrid gegenüber der 6800 dann haste deine 6700XT manchmal ist es einfacher als man denkt ;)
Die OC Customs werden das versuchen etwas zu kompensieren um an die 6800 zu kommen aber durch den CU verlust nie gänzlich ausgleichen können das die Frametimes trotzdem öfter einbrechen je komplexer der Compute load wird.
Sprich bei der 6700XT wird die komplexität der momentan sich abzeichnenden Standard RT settings nicht mehr ordentlich gehalten werden mit dem RA verlust schon garnicht mehr.
https://www.youtube.com/watch?v=_BN_wjO2M9Q
Für UHD fällt die karte definitiv flach für komplexe settings da kannste Ocen bis der Artzt kommt den Design Effizienzverlust kompensierst du nicht mehr lediglich mit roher Gamer gewalt ;)
33 ms ohne Einbrüche werden schwierieger ohne details runterzufahren in den meisten next Gen titeln ihrer sich abzeichnenden default RT Balance
man hat versucht UHD RT 33 ms stabil zu erreichen ab 6800
Die 6800XT ist lediglich da um den headroom etwas zu vergrößern, bevor man vollkommen wegbricht vom Nativ 33 ms Design target
Das Design muss beefier sein momentan als Nvidia man hatte nichts geplant um irgendwas zu kompensieren die Zielsetzung bei den Konsolen ist glass klar.
Die 6800 balanciert lediglich die Konsolenüberlegenheit aus in ihrem Gesammtdesign
Und wenn der RT Load droht dich zu zerreisen dann hilft dir auch deine Raster überlegenheit nicht mehr
Iscaran
2020-11-22, 18:38:41
Für UHD fällt die karte definitiv flach für komplexe settings da kannste Ocen bis der Artzt kommt den Design Effizienzverlust kompensierst du nicht mehr lediglich mit roher Gamer gewalt ;)
Warum sollte eine 6700 XT für UHD (=4k = 3840x2160) benutzt werden/reichen ?
Zockst du mit einer RTX 3060 auch in UHD ? Eher nicht.
Iscaran
2020-11-22, 18:52:56
Hmmm...hab mal ein bisschen mit meinem Die-Size Calculator gespielt.
Wenn ich annehme dass 1MB Infinity Cache ca 0.67 mm^2 belegt komme ich perfekt hin für einen 80 CU N21 mit 519 mm^2 (eigentlich komme ich auf 505 mm^2 - aber ich vermute die Einheitengrößen für CU, Backend etc. haben sich leicht verändert seit RDNA1)
Die 6800 XT und 6800 sind ja derselbe Chip...nur mit deaktivierten Einheiten.
Der N22 aber mit 40 CUs würde ich im Arrangement 2SE zu je 2SA zu je 5 WGP zu je 2 CU (= 40 CU) und 64 MB Cache mit 0.67 mm^2 pro MB @192 bit dann bei gerade mal 285 mm^2 sehen.
Selbst mit bisschen overhead wie bei N21 ist man da also UNTER 300mm^2
Der Cavefish mit 32 CUs ist aber ein anderes Kaliber....Wenn es nur ein N22 mit deaktivierten CUs ist würde es kein Sinn machen hier nochmal einen kleineren Chip aufzusetzen.
=> Das Design ist verändert. Ich vermute das Ding ist ähnlich der XBOX ausgelegt mit einem deutlich anderen Verhältnis an WGPs pro Shader Array.
Ich denke mit 1 SE zu 2 SA mit 8 WGP zu je 2 CU kommt man da perfekt hin.
Aufgrund obiger Diskussion zum IC würde ich dann hier einen 32 MB IC vermuten... (1/4 von 128MB da nur 1 SE !). Das ganze dann an 128 Bit SI.
Das ergibt in der Abschätzung eine Chipgröße von gerade mal 220 mm^2.
AlterSack
2020-11-22, 19:28:57
Was ist für dich wesentlich größer? N22 dürfte grob bei 300mm² rauskommen.
Hm, glaub ich nicht so recht dran. IC, 192 bit-Anbindung. Glaube, der wird gut über 300mm² gross sein. :uponder:
KarlKastor
2020-11-22, 19:39:08
@Iscaran
Wie groß ist ein 32 Bit Speichercontroller?
Navi10 liegt ja schon bei 250 mm². Jetzt fällt etwas Speicherinterface weg und dafür kommen 64-96 MB SRAM. Die CU sind wohl minimal gewachsen.
285 mm² erscheinen da ziemlich wenig.
-/\-CruNcher-/\-
2020-11-22, 19:53:55
Warum sollte eine 6700 XT für UHD (=4k = 3840x2160) benutzt werden/reichen ?
Zockst du mit einer RTX 3060 auch in UHD ? Eher nicht.
Ich rede nur vom Hybrid usecase für den normalen non Hybrid wird auch die 6700XT eine top UHD karte die in auch noch extremen cases PAL Performance locker erreichen sollte und mit zurückschrauben der settings auch in den meisten titeln kein problem mit dem 16ms Ziel haben sollte.
Der_Korken
2020-11-22, 20:16:37
@Iscaran
Wie groß ist ein 32 Bit Speichercontroller?
Navi10 liegt ja schon bei 250 mm². Jetzt fällt etwas Speicherinterface weg und dafür kommen 64-96 MB SRAM. Die CU sind wohl minimal gewachsen.
285 mm² erscheinen da ziemlich wenig.
Er hat mit 64MB Cache @43mm² gemessen. Das sind 250+43mm² minus 64bit SI plus Einheitenvergrößerung durch RDNA2. Unter 300mm² kann schon gut sein, aber nicht 96MB.
Iscaran
2020-11-22, 20:36:40
@Iscaran
Wie groß ist ein 32 Bit Speichercontroller?
Bei Navi 10 sind 16.32 mm für 64 bit (gebündelt in 4x16 AFAIK)
Den Wert habe ich auch für Navi21 benutzt und komme damit eben auf die 505 mm^2.
An der Stelle muss ich mich sogar nochmals ein wenig korrigieren, da mir jetzt erst auffiel, daß ich aus Versehen noch mit einem spekulativen 320-Bit SI gerechnet hatte.
Für die korrekten 256-Bit komme ich gar nur auf ~489 mm^2.
CU = SE x SA x WGP/SA x CU/WGP
80 4 2 5 2
1 CU mit 2.445 mm^2 (Spekulations-Wert damals von basix berechnet für die vergrößerten CUs mit RT-Fähigkeit).
Demnach also Navi21 = 195.6 mm^2 für die CUs, +65.28 mm^2 für 256-Bit SI + 37.72 mm^2 fürs PCIe/IO Interface, 10.85 mm^2 für GPU-Core + 93.32 mm^2 für Frontend (mit Skalierungsfaktor pro CU (1.1665 mm^2/CU) + 85.76 mm^2 für 128 M = 488.5 mm^2 für den vollen 80 CU-Chip @256bit mit 128 MB interface.
Tatsächlich hat er 519 mm^2.
Selbige Rechenwerte auf 40 CU angewandt und mit 64 MB IC ergeben für 192bit SI nur 284.9 mm^2.
EDIT: Genauer 97.8 mm^2 für die CUs, 48.96 mm^2 fürs SI (192 Bit), 37.72 für PCIe/IO, 10.85 mm^2 für GPUCore, 46.66 mm^2 für Frontend + 42.88 mm^2 für 64 MB IC)
basix
2020-11-22, 22:35:47
64 MB für N22 sind mMn eher unwahrscheinlich. Es sind eher 48, 72 oder 96 MB. Nimmt man N10 und N21 zur Grundlage und AMDs Aussage, dass 32MB 27mm2 gross sind:
519mm2 - 108mm2 = 411mm2 (128 MB IF$)
411 - 50= 360mm2 (GPU Common Core, I/O, VCN, Display, ...)
360 - 65 = ~300mm2 (256b SI)
300 / 2 = 150mm2 (40 anstatt 80 CU)
150 + 50 = 200mm2 (I/O etc.)
200 + 50 = 250mm2 (192b SI)
--> N22 ist ohne Infinity Cache in etwa gleich gross wie N10. Mit 96MB käme man sehr nahe an die 340mm2 Gerüchte ran.
Mit 2.3 GHz wäre N22 in etwa +30% schneller als N10 bei 75% der Bandbreite. Bei ~45% Infinity Cache Hitrate hätte man selbe Bandbreite/Performance wie N10. Wäre etwas knapp aber es würde reichen und 48MB würde diesen 45-50% in WQHD entsprechen. Mit 64MB oder 96MB hätte man genug Bandbreite. Wenn man die Cache Hitrate Grafik anschaut, haben sich dort 3x Kreuze in die Grafik eingeschlichen, bei 64, 96 und 128 MB ;)
Cyberfries
2020-11-22, 22:52:23
Schaut euch den Die-Shot an.
Der N22 hat nur 40 CUs und wird Aufbautechnisch also dem N10, also der 5700 XT ähneln.
Da macht es nur Sin wenn der IC halbiert wird von 128 MB auf 64...indem man die komplete rechte bzw. linke Bildhälfte weglässt.
1. Der "Die-Shot" ist eine künstlerische Interpretation und weicht in einigen Details stark von der Realität ab.
2. Abseits der SEs gibt es einige nicht vorhandene Teile oder unvollständig Bereiche bei N22.
Einfach in der Mitte durchschneiden ist nicht.
Aufgrund deines Die-Shots kann ich genauso eine Aussage treffen, dass der Inf$ ganz klar den SIs zugeordnet ist.
Ravenhearths Bild zeigt dann gut, wie die Anordnung von Inf$ und SIs sein könnte.
Ein asymmetrisches skalieren mit dem SI KANN zwar auch sein, würde aber IMHO deutlich mehr Veränderungen im Chip bedingen. Ist jedenfalls meine Meinung.
Wieso sollte es einfacher sein, von 12 auf 8 und dann wieder auf 12 zu gehen?
Und wie basix schon gezeigt hat würden 64 MB für maximal WQHD auch reichen um den Bandbreiten-Effekt zu bringen. Für FullHD allemal.
Gerade da das SI verhältnismäßig leistungsstärker ist als bei N21, kann der Inf$ noch kleiner sein.
Während ich das hier verfasst habe, hat Basix bereits geantwortet. Ich denke 48mb sind wahrscheinlich.
Wieso - der IC ist zwar an das SI angebunden, aber die Entscheidenden Fähigkeiten skalieren ja mit den CUs mit.
Man könnte sicherlich das SI getrennt von den CUs beschneiden, aktivieren/deaktivieren.
Klar kann man das SI getrennt von den CUs beschneiden, siehe 5600xt.
Von 256bit und 4mb L2$ bei der 5700 beschnitten auf 192bit und 3mb L2$. Der L2$ skaliert mit dem SI.
Der Cavefish mit 32 CUs ist aber ein anderes Kaliber....
Ich denke mit 1 SE zu 2 SA mit 8 WGP zu je 2 CU kommt man da perfekt hin.
Aufgrund obiger Diskussion zum IC würde ich dann hier einen 32 MB IC vermuten... (1/4 von 128MB da nur 1 SE !). Das ganze dann an 128 Bit SI.
Das ergibt in der Abschätzung eine Chipgröße von gerade mal 220 mm^2.
Da musst du nicht vermuten oder abschätzen, die Daten sind bekannt.
Aus den Mac-Treibern (https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/) wissen wir, dass N23 über 2SEs mit jeweils 8CUs je Array verfügt.
Und die Chip-Größe liegt bei 235,76mm², Quelle: Patrick Schur (https://twitter.com/patrickschur_/status/1317851087777443841)
Iscaran
2020-11-23, 00:36:02
Einfach in der Mitte durchschneiden ist nicht.
Schon klar. Ich meinte ja auch nicht wörtlich "geometrisch" in der Mitte durchschneiden. Fakt ist dennoch dass N22 praktisch ziemlich identisch zu einem N10 sein dürfte, was wiederum ziemlich genau ein HALBER N21 ist.
Der Die-Shot des N21 zeigt für mich ganz klar die Idee, die beiden "hälften" der GPU evtl. in zukünftigen Designs als Chiplets auszuführen. Verbunden über den IC, weswegen dieser auch zwischen je 2 SEs "vermittelt" bzw. angeordnet ist.
Klar kann man das SI getrennt von den CUs beschneiden, siehe 5600xt.
Von 256bit und 4mb L2$ bei der 5700 beschnitten auf 192bit und 3mb L2$. Der L2$ skaliert mit dem SI.
OK...das war mir nicht präsent. Wenn dem so ist, kann man eigentlich davon ausgehen, daß ein 192bit-SI tragender N22 dann wohl auf 96 MB ODER sogar nur 48 MB käme.
Da musst du nicht vermuten oder abschätzen, die Daten sind bekannt.
Aus den Mac-Treibern (https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/) wissen wir, dass N23 über 2SEs mit jeweils 8CUs je Array verfügt.
Und die Chip-Größe liegt bei 235,76mm², Quelle: Patrick Schur (https://twitter.com/patrickschur_/status/1317851087777443841)
Oh. Danke, das war mir in der Tat nicht bekannt :-).
Mit der Konfiguration und unter obigen Annahme zum Cache sehe ich da dann 2 Optionen:
N23 mit 32 MB @128 Bit mit ca 218 mm^2
N23 mit 64 MB @128 Bit mit den 236 mm^2 von oben (meine Rechnung mit den ganzen Chipkäme hier auf 240.1 mm^2)
Dass der IC mit dem SI skaliert, stützen die 236 mm^2 von N23 daher. Vermutlich auch, daß N23 mit 2 SEs kommt. Das passt irgendwie dazu, daß die beiden SEs sich einen Cache teilen.
Sonst wäre der Chip wohl noch kleiner.
64 MB IC sind ca. 43 mm^2. Liesse man den weg wäre der Chip unter 200 mm^2.
Die 64 MB IC bei N23 wären immerhin 18% der gesamten Die-Size. Sieht zwar nach viel aus, ist aber tatsächlich nur etwas mehr als die Hälfte der Fläche die die 32 CUs selbst brauchen.
Für N22 sehe ich da dann die 3 Optionen
96 MB @ 192 bit = 306.9 mm^2
davon IC ca 65.0 mm^2 = 21% der Gesamtfläche der IC
64 MB @ 192 bit = 284.9 mm^2
davon IC ca 43.3 mm^2 = 15% der Fläche
48 MB @ 192 bit = 274.2 mm^2
davon IC ca 32.5 mm^2 = 12% der Fläche
Die 40 CUs kommen auf fast 98 mm^2 !
So krass spielt der Cache irgendwie gar nicht in die Chipsize, dafür dass er so massiv was bringt ?
EDIT: Performancemäßig müsste ein solcher N22 Chip mit ca +25% Takt gegenüber Navi10 + die ganzen RDNA2-Optimierungen dann auf ca 2080 Super bis 2080 Ti Niveau (naja das ist ein bisschen zu optimistisch) landen.
Eigentlich perfekt für WQHD und FHD sowieso :-).
Was mich aber immer noch stark irritiert ist der N23...mit 32 CUs und dm Cache etc...
Das müsste ja Performancemäßig nicht weit unterhalb liegen...das müsste eigentlich so im Bereich einer 5700 XT sein. /EDIT.
prinz_valium_2
2020-11-23, 01:19:09
Es wird für AMD evtl. ein Preisfindungsproblem geben.
Die 5700XT kostete am Beginn so ca. 450-480€, bei 250mm² und 8Gb.
Eine 6700XT wird eine wesentlich grössere GPU und 12 Gb Speicher tragen,
sollte auch um einiges teurer sein. Die 6800 Referenz dann für 580€ UVP.
Okay, die Customs werden teurer sein, auch bei der Konkurrenz.
Ist die Frage, wie sich die Preise im nächsten Jahr einpendeln.
N7 und GDDR6 sind in den 1 1/2 Jahren aber auch günstiger geworden.
Leonidas
2020-11-23, 08:09:18
Nach diesen Äußerungen scheint die 160bit-Variante von N22 verworfen worden zu sein.
Oder geht noch tiefer. Angeblich soll ja N23 einen Sonderzweck haben, womit der nächste Chip dann N24 wäre - und der soll sehr klein sein.
@ Patrick: Ich gehe davon aus, dass Du mit "TGP" wieder nur Chip+Speicher meinst. Wenn ja, dann wird dies von der meisten englischsprachigen Presse anders transportiert.
AlterSack
2020-11-23, 08:22:46
N7 und GDDR6 sind in den 1 1/2 Jahren aber auch günstiger geworden.
Ja das stimmt schon. Wenn Iscarans Rechnung so stimmen sollte,
bzw. die von Basix aber mit 48 Mb IC, mag es aufgehen.
Denke aber, dass man bei einer 6700XT schon mit 450€+ rechnen
muss und für 580€ bekommt man im nächsten Jahr wahrscheinlich schon
eine 6800. Ist eben nicht so wahnsinnig viel Luft bei der Preisgestaltung,
die sicher ursprünglich so nicht geplant war.
Wenn N23 vor allem auf Notebooks zugeschnitten ist, hat der den gleichen Aufbau wie N22, die 64MB I$ und je ein WGP weniger und eben nur ein 128Bit Interface. Der wird auf dem Sweetspot betrieben, da reichen dann die 128Bit und 128Bit verbraucht eben auch sehr wenig, man hat ja die optimale $-Größe für optimale Performance.
Ravenhearth
2020-11-23, 17:36:17
Diese Folie finde ich übrigens besonders beeindruckend:
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/45-1080.d1ddab9b.png
AMD hat im selben Prozess gewissermaßen einen Full Node Sprung hinsichtlich der Energieeffizienz hingelegt. Entweder <0.5x Power oder >1.3x Frequenz.
Bei Navi 21 soll die Frequenz +16% bringen, d.h. beim Stromverbrauch läge man trotzdem ein Drittel unter RDNA bei gleicher CU-Anzahl (also 150W, wenn man das jetzt mal auf den ganzen Chip anwendet), was die doppelte Anzahl an CUs bei 300W ermöglichen würde - passt genau.
Bei Navi 22 geht man dann womöglich voll auf Frequenz mit +30% bei weiterhin 225W bei 40 CUs. Und im Mobile-Bereich könnte man den Takt auf RDNA-Niveau lassen, aber den Verbrauch halbieren :eek: Das passt perfekt zu den Gerüchten mit Navi 23 auf 65, 80 und 90W (Achtung: Milchmädchen-Rechnung): 225W * 0,8 * 0,5 = 90W.
Cyberfries
2020-11-23, 17:56:34
Nochmals Bullsh1t_Buster (https://twitter.com/Bullsh1t_buster/status/1330689344508628993) zu mobilen Varianten:
Mobile N22 TDP is around 100W, depends on configuration and frequency.
There will be 160bit/10GB and 192bit/12GB models
Da versteckt sich also die 160bit-Variante von N22. 100w sind nicht gerade wenig - um nicht zu sagen viel zu viel.
Eine 2060mobile liegt bei 80-90w, eine 2060max-Q bei 65w, 1650ti bei 50-55, max-Q 35-40w.
Schon die 5500m hat sich kaum verkauft, weil mit ihren 85w viel zu durstig.
Die 5600m gabs mal bei Dell, die 5700m mit 120w hat es mWn in kein einziges Notebook geschafft.
Wird wohl wieder nichts mit einem AMD-Notebook. Oh well, vielleicht mit RDNA3....
DennisO2
2020-11-23, 19:53:50
Hm, die TDP sind ja nur Obergrenzen - kann mir vorstellen, dass das ein Hersteller einbaut und untertaktet und die Spannung runternimmt. Der Name allein klingt ja schon nach schnellem "Gaming".
davidzo
2020-11-23, 22:35:37
Nochmals Bullsh1t_Buster (https://twitter.com/Bullsh1t_buster/status/1330689344508628993) zu mobilen Varianten:
Da versteckt sich also die 160bit-Variante von N22. 100w sind nicht gerade wenig - um nicht zu sagen viel zu viel.
Eine 2060mobile liegt bei 80-90w, eine 2060max-Q bei 65w, 1650ti bei 50-55, max-Q 35-40w.
Schon die 5500m hat sich kaum verkauft, weil mit ihren 85w viel zu durstig.
Die 5600m gabs mal bei Dell, die 5700m mit 120w hat es mWn in kein einziges Notebook geschafft.
Wird wohl wieder nichts mit einem AMD-Notebook. Oh well, vielleicht mit RDNA3....
N22 liegt aber in einer anderen Klasse als eine 2060maxQ. Wenn N10 + 30% Takt stimmt, dann haben wir hier eher 2080 Max-Q Niveau. Das kann ggf. eher mit GA104 mobile konkurrieren.
Ich denke N23 wird der eigentliche mobile chip. Mit 32CU ist der sehr breit, taktet vermutlich niedriger und die 128bit + IC entsprechen von der Bandbreite einem normalen 256bit SI. Das ist also ein guter Konter zur 3060/3050ti GA106 bzw. vllt. sogar abgespeckten GA104 Varianten.
KarlKastor
2020-11-23, 22:45:23
Ich verstehe nicht für was die N22 und 23 so eng sind. Dafür zum N21 ne riesen Lücke. Da hätte man N22 auch etwas größer machen können. Hätte dann auch besser mit GA104 konkurrieren können.
prinz_valium_2
2020-11-23, 23:06:39
Ja das stimmt schon. Wenn Iscarans Rechnung so stimmen sollte,
bzw. die von Basix aber mit 48 Mb IC, mag es aufgehen.
Denke aber, dass man bei einer 6700XT schon mit 450€+ rechnen
muss und für 580€ bekommt man im nächsten Jahr wahrscheinlich schon
eine 6800. Ist eben nicht so wahnsinnig viel Luft bei der Preisgestaltung,
die sicher ursprünglich so nicht geplant war.
$399 und $449 max.
Je nach dem ob 32 oder 36CUs auch $379
Also für $499 gibt es eine Xbox Series X mit 360mm² und 52CUs mit 16GB. Dazu ne 1TB SSD und den Rest.
Kommt mir irgendwie alles etwas teuer vor.
Hätte gerne die 6700XT für $399, aber nach den 6800er Preisen sehe ich das auch nicht.
basix
2020-11-24, 00:06:45
Ich verstehe nicht für was die N22 und 23 so eng sind. Dafür zum N21 ne riesen Lücke. Da hätte man N22 auch etwas größer machen können. Hätte dann auch besser mit GA104 konkurrieren können.
AMD kann N21 durch die RX 6800 sehr stark salvagen (-1x Shader Engine). Der Infinity Cache wird fast keine Produktionsfehler aufweisen (siehe Zen L3$) und der Rest aus Speicherinterface und IO / Display ist nicht mehr sehr viel Fläche und zum Teil sind sehr grosse Transistoren dabei ohne hohe Fehleranfälligkeit. AMD wird das von Anfang an so geplant haben: Grosser Chip, welcher oben mitmischen kann beim Maximalausbau und bei gleichzeitig guten Yields.
Wenn nun N22 von unten her kommt und +15% Takt drauflegt sind es vermutlich zwischen +25-30% bis zur RX 6800. Das ist ein nicht ungewöhnlicher Abstand zwischen SKUs. Da nun N22 eher klein ausfällt im Vergleich zu N21: Guter Yield, viele Chips pro Wafer.
Aufgrund der 7nm Knappheit sind hohe Yields und kleine/viele Chips also sehr wichtig. Da finde ich die Auslegung von N21 und N22 gelungen, auch wenn wir es uns so nicht gewohnt sind. N21 wäre evtl. nur auf 64 CUs gekommen, hätte AMD nicht ganz oben mitmischen wollen.
N23 scheint ein Spezialfall zu sein: Wie davidzo schon schrieb ist eine reine Mobile-Auslegung eine gute Erklärung dafür, so als Angriff auf Nvidias Mobile-Portfolio. Vielleicht sogar in N7-Mobile anstatt N7P. AMD hat primär eine 2060 Max Q - 2070 Super Mobile als Konkurrent. Mit 32 CUs sollte man das schaffen. Für eine 3070 Mobile wird es wohl nicht reichen, dafür hätte man dann N22 oder gar einen sehr tief taktenden N21. N23 würde aber einen Trumpf mitbringen: Sehr gute Energieffizienz (Mobile Fokussierung) und relativ günstige Produktionskosten (Chipgrösse, 128bit)
Stretcher
2020-11-24, 00:34:12
Wie will AMD eigentlich den Preis der 6900XT rechtfertigen, wenn doch jeder weiß, dass die Karte die 3080 nicht schlagen kann?
Screemer
2020-11-24, 00:50:34
Wie will AMD eigentlich den Preis der 6900XT rechtfertigen, wenn doch jeder weiß, dass die Karte die 3080 nicht schlagen kann?
What?
w0mbat
2020-11-24, 01:11:34
Schon die 6800XT schlägt die 3080, wie soll die 6900XT sie dann nicht schlagen? :ugly:
Screemer
2020-11-24, 01:25:46
Schon die 6800XT schlägt die in manchen spielen 3080, wie soll die 6900XT sie dann nicht schlagen? :ugly:
ftfy
Der_Korken
2020-11-24, 01:29:55
Die 6900XT wird gegen die 3080Ti mit 20GB gestellt, die wird wohl auch 999$ kosten. Gegenüber der 3080 haben alle N21-Karten noch den Speicher als Alleinstellungsmerkmal. Die Frage ist eher wie AMD den Preis gegenüber der 6800XT rechtfertigt. Ich rechne nicht mit mehr als 7% mehr Leistung aus den CUs und schnelleren Speicher hat die 6900 auch nicht.
KarlKastor
2020-11-24, 02:38:12
AMD kann N21 durch die RX 6800 sehr stark salvagen (-1x Shader Engine).
Du siehst das als Feature. Dabei ist das eher Notnagel. AMD benötigt den riesen Chip um Nvidias 3700 zu schlagen. Der GA104 wird deutlich billiger zu fertigen sein.
Und die 6800 ist Volumenmodell. Der wird mehr verkauft werden als die anderen beiden zusammen.
Aufgrund der 7nm Knappheit sind hohe Yields und kleine/viele Chips also sehr wichtig. Da finde ich die Auslegung von N21 und N22 gelungen, auch wenn wir es uns so nicht gewohnt sind.
Wo ist N21 klein? Wäre N22 größer, hätte man damit die 3700 angreifen können.
48 und salvage dann 40 CU hätte die Lücke kleiner gemacht. Und nach unten hin ist dann eh N23 da.
N23 scheint ein Spezialfall zu sein: Wie davidzo schon schrieb ist eine reine Mobile-Auslegung eine gute Erklärung dafür, so als Angriff auf Nvidias Mobile-Portfolio.
Mag sein, aber kann man ja trotzdem für den Desktop nutzen.
mczak
2020-11-24, 02:57:20
AMD hat im selben Prozess gewissermaßen einen Full Node Sprung hinsichtlich der Energieeffizienz hingelegt. Entweder <0.5x Power oder >1.3x Frequenz.
Das ist in der Tat beeindruckend, allerdings wurde das doch auch erwartet. Da scheint AMD ähnliche low-level Optimierungen vorgenommen zu haben wie bei Vega in Renoir. Da werden ja auch Frequenzen erreicht (bei tiefem Stromverbrauch) die vorher undenkbar waren (auch wenn der Vergleich von Renoir mit Raven Ridge natürlich etwas hinkt wegen der 7nm Fertigung, die Taktfrequenzsteigerungen sind definitiv nicht hauptsächlich darauf zurückzuführen, Vega VII hat da bei weitem nicht dieselbe Steigerung erreicht).
Interessanterweise war ja eigentlich offiziell schon Vega redesignt worden im Hinblick auf höhere Frequenzen, das hat damals aber gegenüber Polaris effektiv kaum etwas gebracht (der Flächenbedarf ist deutlich gestiegen, aber der Takt bloss minimal).
mczak
2020-11-24, 03:06:01
Da versteckt sich also die 160bit-Variante von N22. 100w sind nicht gerade wenig - um nicht zu sagen viel zu viel.
Für kleine und leichte Notebooks ist das natürlich zuviel, aber dafür ist der Chip wohl auch nicht gedacht. Auch Nvidia verkauft Mobil-Chips mit 150W TDP.
Schon die 5500m hat sich kaum verkauft, weil mit ihren 85w viel zu durstig.
Klar, weil zu durstig im Vergleich zur Leistung. Wenn man mit den 100W aber den entsprechenden Nvidia Chip schlägt (keine Ahnung wie's da bei Mobile Ampere aussieht) ist das kein Problem. Für den TDP Bereich 50-90W ist dann wohl schon eher N23 zuständig.
fondness
2020-11-24, 06:46:36
Die 6900XT wird gegen die 3080Ti mit 20GB gestellt, die wird wohl auch 999$ kosten. Gegenüber der 3080 haben alle N21-Karten noch den Speicher als Alleinstellungsmerkmal. Die Frage ist eher wie AMD den Preis gegenüber der 6800XT rechtfertigt. Ich rechne nicht mit mehr als 7% mehr Leistung aus den CUs und schnelleren Speicher hat die 6900 auch nicht.
Wie rechtfertigt NV den Preis der 3090? Die Diskussion ist müßig.
reaperrr
2020-11-24, 07:21:53
Ich habe mal etwas Milchmädchenrechnung betrieben.
WTFTech schwadroniert ja schon davon, dass die 3060 Ti der Budget-König wird (https://wccftech.com/nvidia-rtx-3060-ti-graphics-card-poised-to-be-the-budget-king-at-399-msrp-and-faster-than-rtx-2080-super-performance/).
Aber: Rohleistung der 3060Ti anhand der stock specs ~80% von 3070.
Rohleistung von 6700XT, wenn wir ~2,2 GHz Gameclock annehmen (mMn realistisch), ~80% von 6800.
Ergo, 6700XT sollte außerhalb von RT im Schnitt ebenfalls knapp vorn landen, zudem mehr als 8GB und damit kompatibler mit HiRes-Textur-Packs für einige Spiele, unoptimierte Ports zukünftiger Konsolentitel usw.
Und die 6800 ist Volumenmodell. Der wird mehr verkauft werden als die anderen beiden zusammen.
Falsch.
Der geringe Preisabstand zur 6800XT ist klares Indiz, dass AMD von letzterer mehr verkaufen möchte (und in meinen Augen auch wird). Das P/L-Verhältnis der 6800XT ist nämlich sogar leicht besser, das wird AMD nicht grundlos so gemacht haben.
Doppelter Speicher und etwas höhere Perf ggü. der 3070 sind aber Grund genug, den Preis der 6800 nicht so schnell reduzieren zu müssen.
Dass GA104 billiger zu fertigen sein wird stimmt zwar, aber du vergleichst hier preislich auch GA104-Top-Modell mit niedrigster N21-SKU, und letztere ist immer noch teurer.
Bei sowas wird immer eine Mischkalkulation gemacht, und wenn man die 3060 Ti für 399 und die 6900 XT für 999 berücksichtigt, wird N21 im Schnitt ca. 50% höhere Preise pro Karte/Chip einbringen. Das passt schon.
Zergra
2020-11-24, 07:35:37
Bei CB im Test läuft die 6800 auch mit etwa 2100Ghz, da dürfte am Ende die 3060TI 5-10% über der 6700XT liegen.
Es gab doch mal ne Tabelle, wo 2.5G notiert wurden?
ChaosTM
2020-11-24, 08:23:33
Die kleine werden sicher mit mehr als 2.1ghz laufen. 2,3+ sind eher wahrscheinlich.
Die Karten werden durch die Bank sehr ähnlich performen. Kommt im Prinziup nur auf den Geschmack an was man kauft, da RT in dieser Preisklasse sowieso kaum eine echte Rolle spielt.
[MK2]Mythos
2020-11-24, 14:22:11
Der Wasserkühler von EKWB ist jetzt verfügbar. Aber 214 Euro sind mir zu teuer, hab den Bykski eh schon bestellt, hoffe aber auf einen von Watercool und Co, weil ich die Seitenwand vom Gehäuse nicht mehr zukriege. Die Terminals vom Bykski sind deutlich zu fett.
https://www.ekwb.com/shop/ek-quantum-vector-rx-6800-6900-d-rgb-amd-radeon-edition?utm_campaign=2411-notif-newsletter&utm_source=newsletter&utm_medium=email&utm_content=EK-Quantum%20Vector%20RX%206800/6900%20D-RGB%20-%20AMD%20Radeon%20Edition&utm_term=2020-11-24
DK999
2020-11-24, 14:39:07
Mythos;12511537']Aber 214 Euro sind mir zu teuer, hab den Bykski eh schon bestellt,
215 Tacken?!
Holy Moly! Ist da Silber im Kühlkörper und Platin im Schriftzug?
Vor allem kostet der Bykski fast 1/3 :freak:
Screemer
2020-11-24, 14:43:26
Von dem Kuchen wollen scheinbar alle ein Stück ab haben.
Zergra
2020-11-24, 14:44:14
Aber gibt ja auch den für 145€
https://www.ekwb.com/shop/ek-quantum-vector-rx-6800-6900-d-rgb-nickel-plexi?___SID=U
-/\-CruNcher-/\-
2020-11-24, 14:44:46
Die kleine werden sicher mit mehr als 2.1ghz laufen. 2,3+ sind eher wahrscheinlich.
Die Karten werden durch die Bank sehr ähnlich performen. Kommt im Prinziup nur auf den Geschmack an was man kauft, da RT in dieser Preisklasse sowieso kaum eine echte Rolle spielt.
Nein vor allem mit DLSS schiftet das alles gewaltig da kannste NAVI bis ans limit übertackten wird die effizienz und den Mehrwert nicht erreichen auf keiner Ebene.
Da wird nichts kompensiert und soviele mehr faktoren die niemand wirklich genau reviewed bis jetzt nur teilweise ankratzt.
Es geht nur noch darum wie die Balance zwischen DLSS 2.0 und Fidelity FX Super Resolution im gesammten ausschauen wird und wie schnell Nvidia DLSS verteilt aus der Beta Phase heraus in die extreme masse und wie hoch sie ihre endgültigen Hürden setzten für eine Massenadaption und die QA sicherstellen und es eventuell doch noch schaffen eine rudimentär funktionierende in Driver Version möglich zu machen in Richtung DLSS 3.0 die die Implementationshürden weiter runterschraubt (sehr unwahrscheinlich auf gewissem level nicht unmöglich in hinsicht auf Einschränkungen einer perfekten implementation DLSS 2.0 Lite).
Blediator16
2020-11-24, 15:20:57
Nein vor allem mit DLSS schiftet das alles gewaltig da kannste NAVI bis ans limit übertackten wird die effizienz und den Mehrwert nicht erreichen auf keiner Ebene.
Da wird nichts kompensiert und soviele mehr faktoren die niemand wirklich genau reviewed bis jetzt nur teilweise ankratzt.
Es geht nur noch darum wie die Balance zwischen DLSS 2.0 und Fidelity FX Super Resolution im gesammten ausschauen wird und wie schnell Nvidia DLSS verteilt aus der Beta Phase heraus in die extreme masse und wie hoch sie ihre endgültigen Hürden setzten für eine Massenadaption und die QA sicherstellen.
Sagt mal hab ich was verpasst? Haben nun alle Spiele dlss und rt als dass man jetzt quasi immer noch nvidia Karten kaufen muss oder wer ich verrückt?
Lurtz
2020-11-24, 15:26:51
Sagt mal hab ich was verpasst? Haben nun alle Spiele dlss und rt als dass man jetzt quasi immer noch nvidia Karten kaufen muss oder wer ich verrückt?
Ich wage es zu bezweifeln. Bisher haben DLSS und RT genau den Status, den dieser proprietäre nVidia-Kram immer hat, einige bauen es in Partnerschaft mit nVidia gerne ein, aber der große Markt ignoriert es - bis ein Teil davon dann in allgemeingültige Standards übergeht.
Wer erinnert sich noch an die Zeiten, als Enthusiasten am liebsten eine zweite Geforce in den Rechner gesteckt hätten oder haben, nur damit ein paar Mauern schöner zerbröseln ;D Hört man nichts mehr von, genauso wenig wie von Hairworks. In wie vielen Spielen steckte das, fünf? ;D Und die meisten haben es eh nicht angestellt, weil es zu viel teuer war.
-/\-CruNcher-/\-
2020-11-24, 15:36:44
Eine von Nvidias strategien ist es ja direkt das RT der Konsolenports mit DLSS zu koppeln somit wenn der Entwickler RT für Nvidia optimal bereitstellen will ohne das er feuer von Nvidia usern bekommmt keine andere Möglichkeit hat als DLSS 2.0 support gleich mit in betracht zu ziehen.
Gastronomiebetreiber: "Du kommst hier nicht rein, zeig mir mal erstmal deine Impfbescheinigung"
Langlay
2020-11-24, 15:36:51
Naja ich glaube DLSS ist schon gekommen um zu bleiben, AMD wird ja in Zukunft etwas ähnliches anbieten. Und wenns es gut funktioniert ist es ja auch ne gute Sache.
Lurtz
2020-11-24, 15:39:27
Eine von Nvidias strategien ist es ja direkt die RT der Konsolen mit DLSS zu kopeln somit wenn der Entwickler RT für Nvidia optimal bereitstellen will ohne das er feuer von Nvidia usern bekommmt keine andere Möglichkeit hat als DLSS 2.0 support gleich mit in betracht zu ziehen.
Ich bezweifle dass ein großer Multiplattform-Entwickler/Publisher wie Rockstar Angst vor ein paar nVidia-Usern hat.
Die haben nicht mal Angst vor 200 Millionen Xbox und Playstation-Käufern, sondern verkaufen GTA V bald zum xten Mal neu, statt einen kostenlosen NextGen-Patch bereitzustellen.
Naja ich glaube DLSS ist schon gekommen um zu bleiben, AMD wird ja in Zukunft etwas ähnliches anbieten. Und wenns es gut funktioniert ist es ja auch ne gute Sache.
Aber bleibt es in der Form oder geht es in einen Standard wie VRR über?
Screemer
2020-11-24, 15:41:40
Aber bleibt es in der Form oder geht es in einen Standard wie VRR über?
Es soll Teil des offenen Fidelity fx werden.
-/\-CruNcher-/\-
2020-11-24, 15:55:28
Ich bezweifle dass ein großer Multiplattform-Entwickler/Publisher wie Rockstar Angst vor ein paar nVidia-Usern hat.
Die haben nicht mal Angst vor 200 Millionen Xbox und Playstation-Käufern, sondern verkaufen GTA V bald zum xten Mal neu, statt einen kostenlosen NextGen-Patch bereitzustellen.
Aber bleibt es in der Form oder geht es in einen Standard wie VRR über?
AMD versucht es die Hürden von Anfang an niedrieg zu halten und die Chancen stehen gut das man auch auf Nvidia Hardware ein ordentliches Ergebnis erreichen kann das selbe wie DLSS 2.0 wird es allerdings nicht muss es aber auch nicht wenn es eine gewisse agnostische Balance zwischen cons/pros erreicht mit der jeder zufrieden sein kann aber das ist eine große Herausforderung gegen viele schranken die dazwischen stehen.
TressFX hat dies teils auch schon geschafft in gewissen spinoffs
Redneck
2020-11-24, 16:02:41
Naja ich glaube DLSS ist schon gekommen um zu bleiben, AMD wird ja in Zukunft etwas ähnliches anbieten. Und wenns es gut funktioniert ist es ja auch ne gute Sache.
DLSS ist ein Sonderweg wie GSYNC.
Wird dauern, aber es wird als proprietäre Lösung irgendwann aussterben/auslaufen, sobald es freie , immer greifende Alternativen gibt.
Denke gerade an die aktuelle NV Shield , die ja auch einen AI Upscaler hat. Dort ist es aber auch nur Software und keine dezidierte Hardware und der Enhancer greift bei allen Situationen , ohne das das Bildmaterial vorher bearbeitet werden muß.
Wäre interessant zu erfahren , wie jenes Verfahren im Vergleich zur DLSS
Rekonstruktion abschneiden würde.
Birdman
2020-11-24, 16:47:01
Sagt mal hab ich was verpasst? Haben nun alle Spiele dlss und rt als dass man jetzt quasi immer noch nvidia Karten kaufen muss oder wer ich verrückt?
Ich nehme an Cruncher bezog sich hier auf das "da RT in dieser Preisklasse sowieso kaum eine echte Rolle spielt"
Bei Spielen mit Raytracting ist/war DLSS quasi immer mit dabei.
Berniyh
2020-11-24, 17:28:09
Naja ich glaube DLSS ist schon gekommen um zu bleiben
Kommt darauf an. Wenn es Support seitens der Spiele braucht wird es aussterben. Wenn es ohne gut läuft, dann stehen die Chancen sicher nicht so schlecht.
OgrEGT
2020-11-24, 17:30:17
Kommt darauf an. Wenn es Support seitens der Spiele braucht wird es aussterben. Wenn es ohne gut läuft, dann stehen die Chancen sicher nicht so schlecht.
... und es sollte beibehalten werden, es im Treiber optional zu aktivieren/deaktivieren. Dann kann jeder entscheiden obs genutzt wird oder nicht.
Complicated
2020-11-24, 17:59:39
Kein Feature das Vorarbeit auf einem Hersteller-Server benötigt wird lange bleiben....
Fragman
2020-11-24, 18:08:25
Kein Feature das Vorarbeit auf einem Hersteller-Server benötigt wird lange bleiben....
Damit wäre jeder AI Algo hinfällig.
Wiseman
2020-11-24, 18:49:17
Ich wage es zu bezweifeln. Bisher haben DLSS und RT genau den Status, den dieser proprietäre nVidia-Kram immer hat, einige bauen es in Partnerschaft mit nVidia gerne ein, aber der große Markt ignoriert es - bis ein Teil davon dann in allgemeingültige Standards übergeht.
Wer erinnert sich noch an die Zeiten, als Enthusiasten am liebsten eine zweite Geforce in den Rechner gesteckt hätten oder haben, nur damit ein paar Mauern schöner zerbröseln ;D Hört man nichts mehr von, genauso wenig wie von Hairworks. In wie vielen Spielen steckte das, fünf? ;D Und die meisten haben es eh nicht angestellt, weil es zu viel teuer war.
+1
-/\-CruNcher-/\-
2020-11-24, 19:26:14
Kein Feature das Vorarbeit auf einem Hersteller-Server benötigt wird lange bleiben....
Wir reden hier nicht mehr von einem Server sondern Cloud Cluster den Nvidia immer mehr zum Produkt selbst ausbaut, da wollen sie auch ganz vorne mit dabei sein.
Deshalb ist es ihnen auch extreme wichtig jeden Nvidia user zu halten dieser Cluster fängt Mittlerweile an ihren Design Prozess der Hardware extreme sichtbar zu steuern vorher war das alles nur so backstage.
Die ganze Nvidia Presentation des Ampere Launchs wurde Remote in diesem Cluster Colaborative Home Office mit Omniverse erstellt ausser Jensen selbst, wobei sicher kann man sich da auch nicht sein ;)
Ein weiterer Test run
AlterSack
2020-11-24, 19:37:47
$399 und $449 max.
Je nach dem ob 32 oder 36CUs auch $379
Also für $499 gibt es eine Xbox Series X mit 360mm² und 52CUs mit 16GB. Dazu ne 1TB SSD und den Rest.
Kommt mir irgendwie alles etwas teuer vor.
Hätte gerne die 6700XT für $399, aber nach den 6800er Preisen sehe ich das auch nicht.
Nuja, die Konsolen sind wohl subventioniert. Da zahlt man über die Spiele
und mit seinen Daten.
KarlKastor
2020-11-24, 19:52:38
Ich habe mal etwas Milchmädchenrechnung betrieben.
Aber: Rohleistung der 3060Ti anhand der stock specs ~80% von 3070.
Rohleistung von 6700XT, wenn wir ~2,2 GHz Gameclock annehmen (mMn realistisch), ~80% von 6800.
Etwas ist gut. Die muss deutlich höher takten um auf die 80% zu kommen. Die 6800 ist ja im Schnitt über 2100.
Falsch.
Der geringe Preisabstand zur 6800XT ist klares Indiz, dass AMD von letzterer mehr verkaufen möchte (und in meinen Augen auch wird). Das P/L-Verhältnis der 6800XT ist nämlich sogar leicht besser, das wird AMD nicht grundlos so gemacht haben.
Für ein falsch, hätte ich jetzt irgendwas stichhaltiges erwartet. Das ist eine Vermutung von dir, mehr nicht.
Meine sieht eben so aus dass billigere Preisstufen mehr Stückzahl haben.
Dass GA104 billiger zu fertigen sein wird stimmt zwar, aber du vergleichst hier preislich auch GA104-Top-Modell mit niedrigster N21-SKU, und letztere ist immer noch teurer.
Das ist ja gerade Gegenstand der Diskussion. Ist eben nicht optimal wenn die Konkurrenz mit dem nächst kleineren Chip dran kommt. Das hat auch nichts mit Mischkalkulation zu tun. Die macht Nvidia auch, aber deutlich weiter oben.
Den Preisunterschied frisst der Speicher auf.
Complicated
2020-11-24, 20:08:43
Damit wäre jeder AI Algo hinfällig.
Bisher finde ich das Konzept nicht sehr überzeugend.
... und es sollte beibehalten werden, es im Treiber optional zu aktivieren/deaktivieren. Dann kann jeder entscheiden obs genutzt wird oder nicht.
So funktioniert es sicher nicht :confused: Force DLSS if available japp, aber per se - nö!
Fragman
2020-11-24, 21:05:00
Bisher finde ich das Konzept nicht sehr überzeugend.
Was genau, trainierte Lösungsansätze?
Im Bereich Rendering ist das die Zukunft und nicht wegzudenken.
Man spart soviel Renderzeit, die Diskussion ist schon aus der Perspektive vorbei, weil die Argumente überzeugen und alle Bedenken aufgrund der Ergebnisse sofort hinten runter fallen. Es geht eigentlich nur noch darum, die Ergebnisse weiter zu verbessern und nicht mehr darum, ob man es einsetzt.
Im Bereich Gaming wird interessant, ob DirectML kurzfristig universelle Lösungen anbieten kann oder weiterhin proprietäre Lösungen ala DLSS nötig sein werden um die Zeit dahin zu überbrücken.
Mangel76
2020-11-24, 22:06:33
Das ist ja gerade Gegenstand der Diskussion. Ist eben nicht optimal wenn die Konkurrenz mit dem nächst kleineren Chip dran kommt. Das hat auch nichts mit Mischkalkulation zu tun. Die macht Nvidia auch, aber deutlich weiter oben.
Den Preisunterschied frisst der Speicher auf.
Du meinst, einen Riesenchip massiv beschnitten zu einem deutlich geringeren Preis als die höheren Stufen zu verkaufen, ist schlecht für die Marge? Hmmm, bei GA102 ist das dann was? Geldverbrennung? Bei der 6800 ist der Aufpreis zur 6800XT so gering, dass wohl viele doch eher auf die größere Version schielen. Geht mir jedenfalls so. Die 3090 ist dagegen keinen zweiten Gedanken wert bei dem Preisunterschied bei nur geringem Leistungsunterschied. AMD verliert vielleicht 80$, NV gleich 800$! Dazu kommt, dass GA104 auch Druck von N22 bekommen wird, vor allem eine stärker abgespeckte Version. Gilt das dann da auch? Da kommt wahrscheinlich der Mittelklassechip an den Salvage des High-End-Chips von NV heran.
Der_Korken
2020-11-24, 22:39:52
Ist eben nicht optimal wenn die Konkurrenz mit dem nächst kleineren Chip dran kommt. Das hat auch nichts mit Mischkalkulation zu tun. Die macht Nvidia auch, aber deutlich weiter oben.
Das Problem haben aber immer beide Hersteller, wenn die Chips versetzt zueinander sind. Für die 520mm²-6800XT (die eigentlich auch noch ein Salvage mit passablen Yields ist) muss Nvidia einen 630mm²-Die in Form der 3080 verheizen. Und wenn N22 mit 300mm² den GA104-Salvage einholt, muss Nvidia quasi auch einen 400mm²-Die in Form der 3060(Ti) dafür verheizen. Und für GA106 muss AMD dann wieder einen N22-Salvage verheizen, usw. Da ist eigentlich keiner wirklich im Vorteil imho.
Iscaran
2020-11-24, 22:49:16
Achso, DLSS, das ja immer besser aussieht als nativ...
https://www.computerbase.de/forum/threads/nvidia-dlss-2-0-vier-zusaetzliche-spiele-unterstuetzen-ki-upsampling.1982364/post-24926395
Anderes Thema: SAM geht auch mit 4xx-Chipsatz boards.
https://www.computerbase.de/2020-11/amd-smart-access-memory-x470-b450-ryzen-radeon/
Allerdings aktuell immer noch nur mit Ryzen 5xxx CPUs - (EDIT: achso, eigentlich reichen die Mainboards nun PCIE v4 nach obwohl sie vorher nur PCIE v3 waren !!! und es sind immer noch PCIE v4 Boards (AFAIK hab nur das eine nachgeschaut). das ist ja fast noch krasser als SAM ON)
Achso, DLSS, das ja immer besser aussieht als nativ...
https://www.computerbase.de/forum/threads/nvidia-dlss-2-0-vier-zusaetzliche-spiele-unterstuetzen-ki-upsampling.1982364/post-24926395
Muss Fake sein - DLSS sieht selbst unter 200p besser aus als natives 4k! Dann reicht auch der Vram der 3080 bis zum Sankt Nimmerleinstag :rolleyes:
Das proprietäre DLSS verschwindet genau dann, wenn KI Super Resolution Teil von DirectX wird und das ist absehbar.
pixeljetstream
2020-11-25, 00:43:25
Das proprietäre DLSS verschwindet genau dann, wenn KI Super Resolution Teil von DirectX wird und das ist absehbar.
Das wird IMO nicht passieren. APIs wie DirectX zurren keine konkreten Verfahren fest. Das wäre ein komplettes Novum in der Geschichte der APIs. Bisher waren es immer Abstraktionen die eine Toolbox stellen. Der Themenbereich ist zu sehr im Fluss um da irgendwas pixelgenau festzulegen. Das wurde auch im forum mehrfach diskutiert. Imo ist es wahrscheinlicher dass wir Tensor Operationen in dx compute bekommen, wie es nun auch in Metal bei Apple der Fall ist. Es herrscht imo in dem Fall eine falsche Vorstellung was tatsächlich in APIs standardisiert ist und was nicht.
Dampf
2020-11-25, 00:53:26
Muss Fake sein - DLSS sieht selbst unter 200p besser aus als natives 4k! Dann reicht auch der Vram der 3080 bis zum Sankt Nimmerleinstag :rolleyes:
Ich hab im DLSS Thread doch mit Bildvergleichen schon vorgeführt, dass das DLSS in War Thunder broken ist. Warum kann man sich nicht mal ordentlich informieren, anstatt zu hetzen...?
-/\-CruNcher-/\-
2020-11-25, 03:09:09
Achso, DLSS, das ja immer besser aussieht als nativ...
https://www.computerbase.de/forum/threads/nvidia-dlss-2-0-vier-zusaetzliche-spiele-unterstuetzen-ki-upsampling.1982364/post-24926395
Anderes Thema: SAM geht auch mit 4xx-Chipsatz boards.
https://www.computerbase.de/2020-11/amd-smart-access-memory-x470-b450-ryzen-radeon/
Allerdings aktuell immer noch nur mit Ryzen 5xxx CPUs - (EDIT: achso, eigentlich reichen die Mainboards nun PCIE v4 nach obwohl sie vorher nur PCIE v3 waren !!! und es sind immer noch PCIE v4 Boards (AFAIK hab nur das eine nachgeschaut). das ist ja fast noch krasser als SAM ON)
Das Problem ist komplex aber ja für Competitive Gaming könnte es problematischer werden vor allem wenn man sich nicht mit realistischem Rendering befasst alles zu scharf darzustellen ist physikalisch grundlegend falsch, wir sind es aber schon sehr gewohnt.
HVS ist generel ein sehr komplexes thema und auch in der tat teils vor allem bei Gamern die Informationen immer sehr artificial gewöhnt sind nochmal einen step komplexer, für die kann es nie scharf genug sein abhilfe schaffen da immer schärfefilter die den Output wieder in den High Frequency berreich bringen den man gewohnt ist siehe nolag seinen advise.
VRS und DLSS werden noch für viel Diskussion sorgen bei ultra spatial sharpness lovern ;)
Ist die Implementation ordentlich verlaufen sollte allerdings am Ende eine weitaus höhere Akzeptanz als wie bei den meisten TAA Ergebnissen dabei rauskommen vor allem eben Temporal.
Tobalt
2020-11-25, 06:49:41
@complicated: mit der logik wäre ja jede form der Treiberentwicklung seitens AMD / nV nicht praktikabel.
Was tatsächlich unpraktikabel ist: wenn man pro Anwendung mit Bildmaterial einen upscaler füttern muss (dlss1). das ist grober unfug und ist natürlich verschwunden.
einen allgemeinen taa-Algorithmus mit trainierten Koeffizienten einzubauen in den treiber (dlss2) ist hingegen ein völlig normaler Prozess. es wäre auch normal wenn sich das Koeffizienten-netzwerk zwischen nv und Amd Treiber unterscheidet
Complicated
2020-11-25, 09:14:16
Was du mit normal bezeichnest ist die funktionsweise. Das bedeutet noch lange nicht, dass dies konzeptionell sinnvoll ist. Ich denke das AI-Training ist für DLSS in dieser Form nicht sinnvoll. Ich bin gespannt wie AMD das umsetzen wird.
Fragman
2020-11-25, 09:19:11
Aktuell ja ohne AI, was bedeuten koennte, das eine DirectML Version nicht so schnell kommt(?) und das Proprietaere erstmal bleibt weil Alternativen fehlen.
pixeljetstream
2020-11-25, 09:24:24
Was du mit normal bezeichnest ist die funktionsweise. Das bedeutet noch lange nicht, dass dies konzeptionell sinnvoll ist. Ich denke das AI-Training ist für DLSS in dieser Form nicht sinnvoll. Ich bin gespannt wie AMD das umsetzen wird.
Wie tobalt sagt es ist konzeptionell das gleiche ob du als Entwickler über viel ausprobieren dir Gewichte und Heuristiken bastelst, oder dir im Entwicklungsprozess ein AI Server dabei stärker hilft, das ganze ist Mittel zum Zweck.
Die Verbesserungen an TAA muss Epic zum Beispiel auch mit x Titeln/Content testen, um so magische Nummern, die all diese Verfahren haben, zu eichen. Ich glaube/hoffe nicht dass die das komplett manuell machen, sondern auch automatisiert unterstützt.
Es gab auch schon Fälle wo Leute ein trainiertes ML Netzwerk genau analysiert haben und damit einen klassischen Algorithmus verbessert haben.
Das wird IMO nicht passieren. APIs wie DirectX zurren keine konkreten Verfahren fest. Das wäre ein komplettes Novum in der Geschichte der APIs. Bisher waren es immer Abstraktionen die eine Toolbox stellen. Der Themenbereich ist zu sehr im Fluss um da irgendwas pixelgenau festzulegen. Das wurde auch im forum mehrfach diskutiert. Imo ist es wahrscheinlicher dass wir Tensor Operationen in dx compute bekommen, wie es nun auch in Metal bei Apple der Fall ist. Es herrscht imo in dem Fall eine falsche Vorstellung was tatsächlich in APIs standardisiert ist und was nicht.
Da hast du sicherlich recht, aber das könnte auch ne Überraschung geben bei Microsoft. Schaun mer mal.
-/\-CruNcher-/\-
2020-11-25, 10:50:05
Zum Thema AI Upscaling da bin ich eher total gespannt was Sonys R&D ins rennen schicken wird :)
Sie arbeiten ja auch nicht erst seit gestern dran man hört nur sehr wenig von ausserhalb ihrer TVs und Kameras sehr selten mal bei SCE ;)
Und in wie fern vor allem Sony R&D mit AMD kooperiert und was hieraus noch so alles hervorgehen wird
Bei Microsoft fängt man ja scheinbar schon an darüber nachzudenken auf die TMU ebene zu gehen und das ML teil der gesammten textur pipeline direkt zu machen um vor allem höhere kompressionseffizienz zu erreichen was kraken und selbst Nvidia in den schatten stellen könnte selbst wenn kraken noch so gut ML optimiert wird und auch DLSS erscheint plötzlich als nicht mehr so effizienter Aufsatz, wenn man eine ebene tiefer steigt, wo sicherlich die Reise auch hingeht eben zu schauen in wie weit man es für die Optimierung von teilen des GPU Kern selbst nutzen kann und nicht nur als Semi effizienter Aufsatz dazwischen oder oben drauf wie jetzt noch der Fall.
Auch bei Nvidia könnte vielleicht ein komplett neuer Ansatz entstehen im GPU Design wir sehen teile davon ja schon durchscheinen, auf jedenfall sehr spannend wie tief das ganze noch gehen wird.
robbitop
2020-11-25, 14:12:57
Ich gehe davon aus, dass AMD und Sony/MS relativ eng zusammenarbeiten was die Grafik IP für die Konsolen angeht. Es wäre nicht unwahrscheinlich anzunehmen, dass es dort auch Kollaboration in Bezug auf ML Upsampling geben wird. Das ist ja relativ aufwändig und Bedarf auch einiges an Erfahrung im Bereich Neuronale Netzwerke.
Was eine generische Variante angeht: sofern das Neuronale Netzwerk nicht zugänglich für die Anwendung ist (jedoch also im Treiber hinterlegt ist), wird das dann auch nur auf AMD GPUs laufen.
Soweit ich gelesen habe, arbeiten die ersten Studios aber schon an einer eigenen Variante, die GPU agnostisch funktioniert. Sie haben entsprechend ein eigenes neuronales Netzwerk. Das ist dann aber auch natürlich für andere Studios nicht zugänglich. ;)
Ob es da einen generischen Ansatz gibt, den jedes Studio implementieren kann, hängt davon ab ob jemand ein Netzwerk trainiert, für das der Zugang offen ist. Da die Hürde dafür ist IMO relativ hoch als dass es sehr wahrscheinlich ist, dass das passiert.
Insofern ist es mittelfristig nicht unwahrscheinlich, dass es bei proprietären Verfahren bleiben wird. NV proprietär, AMD proprietär, Studio proprietär usw.
Gipsel
2020-11-25, 14:36:22
einen allgemeinen taa-Algorithmus mit trainierten Koeffizienten einzubauen in den treiber (dlss2) ist hingegen ein völlig normaler Prozess.Nur wird das nicht unbedingt in den Treiber sondern auch in das Spiel selber eingebaut. Denn ein guter TAA-Algorithmus hat gerne noch Bewegungsvektoren für die einzelnen sichtbaren Objekte, die nur das Spiel liefern kann.
Es spricht also überhaupt nichts dagegen, wenn jemand ein gutes neurales Netz entwickelt und trainiert hat, die Nutzung desselben zu lizensieren und dann (herstellerunabhängig?) in ein Spiel einzubauen (wo für die Abarbeitung dann jeder Hersteller gerne - soweit vorhanden - seine Tensor-/Matrix-Cores zur Hilfe nehmen darf). Oder die Handvoll der wichtigen Engines entwickeln jeweils selbst etwas auf ihre Engine Zugeschnittenes (gegebenenfalls mit Input der GPU-Hersteller). Vermutlich fällt die Performance verschiedener (konkurrierender) Netze dann je nach verwendetem Datenformat auf den GPUs der diversen Hersteller auch unterschiedlich aus, aber das ist dann eine Optimierungsaufgabe, die (wie vieles Andere auch) dann gegebenenfalls durch separate Codepfade totgeschlagen wird (was dann leicht unterschiedlichen Output generieren kann).
Complicated
2020-11-25, 14:43:01
Soweit ich gelesen habe, arbeiten die ersten Studios aber schon an einer eigenen Variante, die GPU agnostisch funktioniert. Sie haben entsprechend ein eigenes neuronales Netzwerk. Das ist dann aber auch natürlich für andere Studios nicht zugänglich. ;)
Das wird auch der sinnvollere Ansatz sein. Hier wird die Verantwortung für die Qualität des Bildes wieder dem Entwickler gegeben und dort können Sie auch miteinander auf Engine-Ebene entsprechen miteinander konkurrieren.
pixeljetstream
2020-11-25, 14:46:14
Gipsel, also ich las tobalt's Aussage auch so ähnlich wie du es schreibst. Das Training vom Netzwerk ist unabhängig vom deployment. Im moment sitzt es im Treiber, aber wie du schreibst kann es genauso gut in der Applikation selbst sitzen, wenn jemand das ip dafür hat/anbietet. Wie du am Ende andeuest ist die generische Lösung aber nicht so interessant wie die an die Architektur angepassten...
Complicated klang davor eher so als wollte er nur Lösungen komplett ohne Training.
Tobalt
2020-11-25, 15:06:10
idealerweise bietet die API wie directx dem spiel ein "dlss" (mangels eines besseren unpropriäteren namens) modul an, welches bewegungsvektoren etc. erfordert aber keinen input zur konkreten umsetzung erfordert. die berechnung des moduls wird dann durch im treiber spezifizierte gewichte realisiert.
außerdem kann das modul ja optionen enthalten, die es der App erlauben eine eigene NN-Beschreibung vorzugeben, wodurch dann die Standardbeschreibung aus dem Treiber überschrieben wird
somit können nv und Amd ihre standardpresets in den treiber legen, die Spieleentwickler können (aber müssen nicht) ihre eigene methode nutzen und niemand muss irgendwas offenlegen
BoMbY
2020-11-25, 16:10:02
Hat überhaupt mal jemand geschaut ob NVidia's DLSS wirklich irgendeinen AI-Kram macht? Vermutlich ist das 100% Marketing-BS. Abgesehen davon macht das alles immer noch absolut keinen Sinn - auch eine AI ist nicht der Magie fähig, und viel wahrscheinlicher ist dass ohne die Option einfach schlechtere Filter an anderer Stelle verwendet werden.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.