Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Tobalt
2020-11-25, 17:00:03
ich stelle es mir ehrlich gesagt auch nicht so wahnsinnig schwierig vor, wenn die engine schon die bewegungsvektoren mitbringt.
aber ich sehe da beim zusammenstecken der löchrigen information aus vorangegangenen frames schon noch genug interpolationabedarf am dem weg zum bild in Zielauflösung. an dieser stelle wird man teilweise auf widersprüchlich angaben stoßen und einen Teil der Informationen verwerfen müssen, um Artefakte zu vermeiden. was man genau verwirft, ist eine einigermaßen komplexe Entscheidung die an diversen dingen hängt, wie der Entwicklung der bewegungsvektoren in dem Bereich usw.
für solche probleme sind NN gut geeignet. letztlich geht es da aber vermutlich um ein eher kleines netz mit 10-100 Koeffizienten (wilde mutmaßung).
Zossel
2020-11-25, 19:45:36
um Artefakte zu vermeiden.
Es nicht das Ziel Artefakte zu vermeiden, wäre es das würde man da nicht mit KI/DL etc. rangehen. KI/DL ist lediglich eine Heuristik wo man zu blöd ist die Heuristiken selber zu bauen oder wo das zu teuer ist.
ich stelle es mir ehrlich gesagt auch nicht so wahnsinnig schwierig vor, wenn die engine schon die bewegungsvektoren mitbringt.
Die nehmen deine Patches sicherlich gerne wenn die was taugen: https://www.mesa3d.org/
KarlKastor
2020-11-25, 22:15:08
Du meinst, einen Riesenchip massiv beschnitten zu einem deutlich geringeren Preis als die höheren Stufen zu verkaufen, ist schlecht für die Marge?
Hä? Was ist denn das für ein Leseverständnis? Nein steht da nicht. Meine ich also auch nicht.
KarlKastor
2020-11-25, 22:26:04
Das Problem haben aber immer beide Hersteller, wenn die Chips versetzt zueinander sind. Für die 520mm²-6800XT (die eigentlich auch noch ein Salvage mit passablen Yields ist) muss Nvidia einen 630mm²-Die in Form der 3080 verheizen. Und wenn N22 mit 300mm² den GA104-Salvage einholt, muss Nvidia quasi auch einen 400mm²-Die in Form der 3060(Ti) dafür verheizen. Und für GA106 muss AMD dann wieder einen N22-Salvage verheizen, usw. Da ist eigentlich keiner wirklich im Vorteil imho.
Ja es ist schon klar, dass es nicht immer direkt übereinander passt. Aber die Unterschiede sind nicht so groß, wenn man eine eng gestaffelte Serie bringt, als wenn man riesige Lücken lässt.
Deine Die size Vergleiche sind nicht gerade sinnvoll. Samsungs 8nm werden deutlich günstiger sein als TSMCs N7P. Da macht es mehr Sinn auf die Transistoren zu schauen.
teetasse
2020-11-25, 22:47:52
AIB Custom bringen mehr Value im Design headroom heute ist das OVER.
Dann schiftet das alles gewaltig. Da wird nichts kompensiert und soviele mehr faktoren die niemand wirklich genau reviewed bis jetzt nur teilweise ankratzt.
Oh ja, dein leeres Worthülsen-Marketing-Geblubber hat noch niemand wirklich genau reviewed! Sonst würde vielleicht raus kommen, dass hinter der Wortschwall-Fassade nur ein 2000 W Heißluft-Fön sitzt. Dann schiftet das alles gewaltig :-).
Anderes Thema: Ich weiß nicht, ob es schon besprochen wurde, aber wie schätzt ihr die Entwicklung der Liefermengen bei AMD und Nvidia ein? (ganz grob natürlich, und sagen wir bis März?). Wer kann mehr liefern, auch vor dem Hintergrund von Samsungs geringer Erfahrung mit so großen Chips, und einem größeren Die?
-/\-CruNcher-/\-
2020-11-25, 23:34:01
Moved... https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12513553#post12513553
pixeljetstream
2020-11-26, 00:39:47
Warum diese Fragen nicht im dlss thread stellen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12512578#post12512578
SKYNET
2020-11-26, 00:47:40
Warum diese Fragen nicht im dlss thread stellen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12512578#post12512578
damit er hier flamen / spammen kann :freak:
Tobalt
2020-11-26, 07:49:37
Es nicht das Ziel Artefakte zu vermeiden, wäre es das würde man da nicht mit KI/DL etc. rangehen. KI/DL ist lediglich eine Heuristik wo man zu blöd ist die Heuristiken selber zu bauen oder wo das zu teuer ist.
Artefakte meine ich sehr generell. völlig falsche objekte lassen sich mglw. auch einfacher erkennen. aber eine falsche gewichtung der frames würde ja auch schon zu einem Artefakt wie flimmern führen. es ist schon eine relativ komplizierte Entscheidung, die von vielen parametern abhängt, dies alles zu vermeiden. je länger ich darüber nachdenke, umso mehr Probleme erkenne ich.
meine Einschätzung der Einfachheit ist nicht so gemeint, dass ich da schnell in der Pause was funktionierendes hinschustern könnte, sondern, dass ich zB gute zwischenbildberechnung konzeptionell schwieriger finde, weil die bewegungsvektoren fehlen.
Linmoum
2020-11-29, 21:35:25
https://pbs.twimg.com/media/EoAL3dHXYAMW4Np?format=png&name=900x900
https://twitter.com/patrickschur_/status/1333078578767028226
Also dann doch die 6900XT und ab unter Wasser :hammer: Aber einfach nur absurd. Fucking 3.0GHz out of nowhere.
r3ptil3
2020-11-29, 21:40:14
https://pbs.twimg.com/media/EoAL3dHXYAMW4Np?format=png&name=900x900
https://twitter.com/patrickschur_/status/1333078578767028226
Also dann doch die 6900XT und ab unter Wasser :hammer:
Ahhh, nein :usad:
Jetzt dachte ich wäre ich endlich mit dem Hardware-Upgrade-Wahn endgültig durch.
Wenn die 6900 XT auch nur annähernd an die 3.0Ghz kommen sollte... :ucrazy:
-=Popeye=-
2020-11-29, 21:50:59
Also maximal 2950, wenn eine Luftgekühlte mit Limit 2800 ~2750 erreicht.
dargo
2020-11-29, 21:55:44
https://pbs.twimg.com/media/EoAL3dHXYAMW4Np?format=png&name=900x900
https://twitter.com/patrickschur_/status/1333078578767028226
Also dann doch die 6900XT und ab unter Wasser :hammer: Aber einfach nur absurd. Fucking 3.0GHz out of nowhere.
Unglaublich... fast 3Ghz bei GPUs. X-D
PS: warum die RX 6800(XT) nur -6% PT erlaubt und die RX 6900XT -10% muss ich wohl auch nicht verstehen. :D
Denniss
2020-11-29, 23:02:56
Das mit den 2.8Ghz hat der Bauer auch schon festgestelt und kein freakin' way around.
Dabei kommt seine goldene Red Devil schon unter Luft knapp dran und hätte sicherlich noch reichlich Spielraum nach oben.
SKYNET
2020-11-29, 23:10:32
Unglaublich... fast 3Ghz bei GPUs. X-D
PS: warum die RX 6800(XT) nur -6% PT erlaubt und die RX 6900XT -10% muss ich wohl auch nicht verstehen. :D
damit leute die die 6800XT gekauft haben, diese wieder verkaufen um nochmals geld an AMD zu überweisen X-D
hach, weiss ich endlich wofür ich mein 13. gehalt ausgeben kann :freak:
wenn dann endlich mal das biosupdate käme für mein board... nur unschlüssig, 5600X, 5800X, 5950X oder 5900X :uponder:
Dampf
2020-11-29, 23:25:40
Krass, fast 3 GHz. Overclocking ist ein Aspekt, den ich erstmal weniger auf dem Schirm hatte.
Gibt es schon Benchmarks wie sich die Karte mit der Monster-Taktrate gegen die Nvidia Karten behaupten?
r3ptil3
2020-11-29, 23:37:32
Krass, fast 3 GHz. Overclocking ist ein Aspekt, den ich erstmal weniger auf dem Schirm hatte.
Gibt es schon Benchmarks wie sich die Karte mit der Monster-Taktrate gegen die Nvidia Karten behaupten?
Man kann es zum aktuellen Zeitpunkt nur schätzen.
Auf Basis der 6800 XT und massivem OC bis 2.7Ghz, ergeben sich knapp 10% Performanceplus zur Referenzkarte.
https://www.guru3d.com/articles_pages/asus_radeon_rx_6800_xt_strix_oc_liquid_cooled_review,32.html
Bei 3Ghz liegt man dann bei ca. 15% Leistungsplus.
-=Popeye=-
2020-11-29, 23:40:56
Die Karte wird irgendwo um die 2900 rumbimmeln, was durchaus beeindruckend ist.
Der_Korken
2020-11-30, 00:10:48
Bei all dem GPU-OC frage ich mich, ob es irgendwann jemand schafft, den Cache-Takt zugänglich zu machen. Der ist afaik auf 1,9Ghz limitiert. Denn irgendwie habe ich das Gefühl, dass der GPU oberhalb der Default-Taktraten ein wenig die Puste ausgeht bzw. die Leistung nicht so gut mit dem Takt weiterskaliert. In der Vergangenheit war der VRAM da sicher oft der Flaschenhals, aber der würde mit dem I$ stark kompensiert, wenn man letzteren übertakten könnte. Mehr interne Bandbreite und weniger Latenz. Im Moment ist das bei der 6800 so, als würde man einen Sandy Bridge übertakten, aber nur die Kerne, während L3 und Ring weiter bei 3,5Ghz rumdümpeln, während die Kerne mit 4,5Ghz+ laufen.
Iscaran
2020-11-30, 00:46:32
Bei all dem GPU-OC frage ich mich, ob es irgendwann jemand schafft, den Cache-Takt zugänglich zu machen. Der ist afaik auf 1,9Ghz limitiert.
Woher stammt diese Info ?
AFAIK ist der cache-Takt 1:1 der GPU-Core clock, da der Cache eigentlich Teil des Cores ist und eben nicht der VRAM oder sowas.
Bei den Ryzens mit IF ist es doch afaik ähnlich...die Infinity Fabric läuft auf Kerntakt ?
-/\-CruNcher-/\-
2020-11-30, 00:53:35
Steve wird gleich versuchen alle 3 AIBs "pre binned review samples" an das Navi 21 XT 2800 internal limit zu prügeln
Damit wird er teils unwiederuflich die neuen Preise bestimmen für alle 3 ;)
3TM6AHQ4Qd4
10% ist der normale AIB headroom den Nvidia diesmal nicht Design bedingt erreichen kann
dafür erreichen sie 25% woanders ;)
Nein Steve OC ist nutzlos es ist eingepreist im Design und du bist nichts anderes als ein Marketer für die Industrie
SKYNET
2020-11-30, 01:08:47
Woher stammt diese Info ?
AFAIK ist der cache-Takt 1:1 der GPU-Core clock, da der Cache eigentlich Teil des Cores ist und eben nicht der VRAM oder sowas.
Bei den Ryzens mit IF ist es doch afaik ähnlich...die Infinity Fabric läuft auf Kerntakt ?
ne, der läuft mit 1600MHz fix, kann man aber verstellen
5CH4CHT3L
2020-11-30, 01:10:25
Nur weil man den Takt bis auf 3 GHz stellen kann würde ich den nicht gleich erwarten. Vielleicht eher 6800XT +50 bis 150 MHz.
Ich bin jetzt auch nicht super informiert was die Taktbarkeit der 6800XT angeht aber 2700 MHz würde ich jetzt nicht zwingend von jeder erwarten
-/\-CruNcher-/\-
2020-11-30, 01:34:52
Alles unter 10% ist noch nutzloser
Steve ist total langweilig
https://www.igorslab.de/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-25-ghz-uebertaktet-dank-morepowertool-und-boardpartner-bios/
SKYNET
2020-11-30, 01:55:37
Man kann es zum aktuellen Zeitpunkt nur schätzen.
Auf Basis der 6800 XT und massivem OC bis 2.7Ghz, ergeben sich knapp 10% Performanceplus zur Referenzkarte.
https://www.guru3d.com/articles_pages/asus_radeon_rx_6800_xt_strix_oc_liquid_cooled_review,32.html
Bei 3Ghz liegt man dann bei ca. 15% Leistungsplus.
RDNA2 skaliert ca. 1:0.8 zum takt...
bei 750MHz(=3GHz) mehr wären das 33% mehr takt --> 26% mehr leistung
dürfte selbst für ne GA102 im vollausbau locker langen, erstrecht in anbetracht der tatsache das die 6900XT schon 10% mehr rohpower als die 6800XT haben dürfte ;D
Langlay
2020-11-30, 02:00:22
Ich werde wohl auch versuchen ne 6900XT zu ergattern. RDNA2 ist irgendwie deutlich interessanter als Ampere. Die 3090 ist eine der langweiligsten Karten die ich jemals hatte. Die befriedigt meinen Rumspieltrieb kaum.
Tarkin
2020-11-30, 09:23:52
Fazit nach 4 Stunden Stream? Hat das jemand geschaut?
Der_Korken
2020-11-30, 09:24:27
Woher stammt diese Info ?
AFAIK ist der cache-Takt 1:1 der GPU-Core clock, da der Cache eigentlich Teil des Cores ist und eben nicht der VRAM oder sowas.
Bei den Ryzens mit IF ist es doch afaik ähnlich...die Infinity Fabric läuft auf Kerntakt ?
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/2/#abschnitt_das_ist_neu_i_die_geheimwaffe_infinity_cache
Der Infinity Cache ist an der Infinity-Fabric-Taktdomäne angeschlossen und kann daher unabhängig von der GPU takten. Der maximale Takt beträgt 1,94 GHz. Dieser Takt liegt aber nicht durchweg an, sondern nur dann, wenn auch so viel Speicherbandbreite benötigt wird. Ist der Bedarf geringer, fallen Takt und auch Energieverbrauch niedriger aus.
Ich gehe nicht davon aus, dass der im Verhältnis mitgetaktet wird, also bleibt der bei 1,94Ghz stehen.
RDNA2 skaliert ca. 1:0.8 zum takt...
bei 750MHz(=3GHz) mehr wären das 33% mehr takt --> 26% mehr leistung
dürfte selbst für ne GA102 im vollausbau locker langen, erstrecht in anbetracht der tatsache das die 6900XT schon 10% mehr rohpower als die 6800XT haben dürfte ;D
Das ist halt die Frage, ob die Skalierung oben raus immer noch so gut ist. Vor allem wenn die 6900XT nochmal 11% mehr CUs hat, die alle aus dem gleichen I$ gespeist werden müssen. Dass die 6800 mit OC so abgeht, wundert mich nicht, weil die selbst mit 2,55Ghz noch weniger Rohleistung als die 6800XT@stock hat. Da reichen die 1,94Ghz I$-Takt halt noch locker.
Rancor
2020-11-30, 09:41:46
Krank. Mit 2800MHZ kassiert die 6800XT die 3900.... Schon ein bischen heftig.
Knuddelbearli
2020-11-30, 10:32:27
Tja Handoptimierung kostet extrem viel Manpower und Know How lohnt sich aber am Ende auch massiv.
dildo4u
2020-11-30, 10:39:31
6700XT geht laut Igor/Patrick Schur über 200 Watt um die 3070 anzugreifen.
https://youtu.be/CSjw2ZTVFso
dargo
2020-11-30, 10:42:58
Das war doch von Anfang an klar. Das ist das schöne wenn das GPU-Design hohe Frequenzen zulässt und man nicht die Betriebspunkte schon bei der Referenz an der Kotzgrenze wählt. Man ist dann wesentlich flexibler. Die "Green-Edition" kann AMD dann immer noch mit der RX 6700 non XT bringen, wie schon bei der RX 6800 non XT.
Höhö @N22... :D
https://abload.de/img/n22amky3.jpg https://abload.de/img/n22_1dzj80.jpg
Edit:
Max. Voltage bei N22 Customs wie bei N10 1200mV.
https://abload.de/img/n22_2j2k4r.jpg
Der_Korken
2020-11-30, 10:46:56
Ich sehe die 6700XT selbst mit extremen Taktraten nicht auf 3070-Niveau. Die 6800 ist mit 50% mehr CUs vielleicht 10% vor der 3070 und taktet bereits mit >2,2Ghz. Um mit 40 CUs auf die 90% der Rohleistung zu kommen, braucht man also schon an die 3Ghz. Real anliegend unter Last. Ja, weniger CUs sind einfacher auszulasten und rechnen effektiver, dafür fehlt der 6700XT aber auch der 128MB I$ und die 512GB/s Bandbreite. Ich sehe die 6800 am Ende ca. 25% vor der 6700XT und letztere als 3060Ti-Gegner.
dildo4u
2020-11-30, 10:50:07
Die 3060Ti geht angeblich auf 200Watt dürfte sich nicht sonderlich von der 3070 Unterscheiden.
basix
2020-11-30, 10:54:27
Ich sehe die 6700XT selbst mit extremen Taktraten nicht auf 3070-Niveau. Die 6800 ist mit 50% mehr CUs vielleicht 10% vor der 3070 und taktet bereits mit >2,2Ghz. Um mit 40 CUs auf die 90% der Rohleistung zu kommen, braucht man also schon an die 3Ghz. Real anliegend unter Last. Ja, weniger CUs sind einfacher auszulasten und rechnen effektiver, dafür fehlt der 6700XT aber auch der 128MB I$ und die 512GB/s Bandbreite. Ich sehe die 6800 am Ende ca. 25% vor der 6700XT und letztere als 3060Ti-Gegner.
Momentan lässt sich die Performance von N22 ausgehend von N21 relativ schwer einschätzen, das stimmt. Ich würde eher N10 als Ausgangslage nehmen. Gleich viele CUs, mehr Takt und vielleicht etwas mehr IPC. Dann wird schnell klar, dass es schwer wird um an eine 3070 ranzukommen. Zum Beispiel 2.4 GHz / 1.8 GHz Takt wären +33% Performance bei ideal skalierendem Takt. Es könnte im allerbesten Fall klappen (z.B. 2.5 GHz und +10% IPC) aber das will ich zuerst sehen. Vor allem die Frage zur IPC ist noch ungeklärt.
dargo
2020-11-30, 10:55:52
Ich sehe die 6700XT selbst mit extremen Taktraten nicht auf 3070-Niveau.
Ob das Ding dann 5% unter der RTX 3070 rauskommt ist auch wayne. Auf der Habenseite sind schon mal 12GB Vram. Jetzt wirds nur bei den UVPs interessant. Mal sehen wie aggressiv AMD bei dem kleinen Chip gehen will. Am besten wären 399$ um Lederjacke richtig einen reinzuwürgen. Für wahrscheinlicher halte ich aber eher 449$.
Iscaran
2020-11-30, 11:00:12
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/2/#abschnitt_das_ist_neu_i_die_geheimwaffe_infinity_cache
Ich gehe nicht davon aus, dass der im Verhältnis mitgetaktet wird, also bleibt der bei 1,94Ghz stehen.
Ah Danke - wieder was gelernt :-).
Gut es könnte natürlich sein, daß das OC den Takt etwas mitzieht - aber wenn der getrennt eingestellt ist, müsste man den auch getrennt OCen.
basix
2020-11-30, 11:00:40
@dargo:
Ja, 449$ bei Performance knapp unterhalb einer 3070 halte ich auch für am Wahrscheinlichsten.
Interessant wird die Chipfläche sein. Speicher kostet AMD schonmal mehr (allenfalls etwas entschärft über die hohen Stückzahlen der Konsolen 14Gbps Speichermodule, womit günstiger an Speicher kommen könnten). Die restliche Kostenstruktur wird vom Chip und dessen Leistungsaufnahme bestimmt (und entprechendem Einfluss auf PCB- und Kühlerkosten).
Ob das Ding dann 5% unter der RTX 3070 rauskommt ist auch wayne. Auf der Habenseite sind schon mal 12GB Vram. Jetzt wirds nur bei den UVP-Preisen interessant. Mal sehen wie aggressiv AMD bei dem kleinen Chip gehen will. Am besten wären 399$ um Lederjacke richtig einen reinzuwürgen. Für wahrscheinlicher halte ich aber eher 449$.
ja, glaube ich auch. Für 399 USD/ EU-Euro ^^ wäre das ein Instant-Kauf :cool: (aber damit macht man sich ja den Markt für die 5700xt-Karten "kaputt")
Savay
2020-11-30, 11:02:38
Welche 5700XT Karten bitte?! ;) Bin recht sicher das N10 bei TSMC schon ne Weile EOL ist...und großartig was an Lagerbeständen scheint langsam auch nicht mehr da zu sein.
Knuddelbearli
2020-11-30, 11:04:40
AMD 6900XT dürfte ca einen 340-350 3DC4k Index haben
davon -40% ( halbe Shader, kleiner Karten sind dafür bisschen besser auszulasten und besser Interface je Shader Verhältniss) wäre 200-210 3DC4K Index
NV 3070 hat 245 3DC4K reicht also recht deutlich nicht, Eventuell falls man wirklich deutlich merh Takt geben kann, da müsste aber mindestens 15% mehr kommen, dann wäre man zumindest unter 10% dran, also im für niemand spürbaren Bereich.
Knuddelbearli
2020-11-30, 11:05:57
ja, glaube ich auch. Für 399 USD/ EU-Euro ^^ wäre das ein Instant-Kauf :cool: (aber damit macht man sich ja den Markt für die 5700xt-Karten "kaputt")
N10 Karten sind sicher schon länger EOL da auch in 7nm produziert, die würde nur wichtige Kapazitäten wegnehmen.
basix
2020-11-30, 11:09:02
N10 Karten sind sicher schon länger EOL da auch in 7nm produziert, die würde nur wichtige Kapazitäten wegnehmen.
Jein. N10 wird von N23 ersetzt werden (Performance, 8GB, Chipfläche). Solange es den noch nicht zu kaufen gibt, werden sicher noch ein paar N10 produziert werden. Eine Reduzierte Auftragsmenge ist zum heutigen Zeitpunkt aber sehr wahrscheinlich.
dargo
2020-11-30, 11:09:28
Übrigens sind die 186W TGP von einem Custom-Design. Die Referenz RX 6700XT (sofern es überhaupt welche geben wird) dürfte unter 200W gesamt landen.
Edit:
Zur Leistungseinschätzung... meiner Einschätzung nach skaliert RDNA2 etwas besser mit dem Takt als mit den CUs. Zumindest sehe ich das am Schnitt bei CB in 4k (es wird schon seinen Grund haben warum Sony mehr Takt haben wollte).
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_in_3840__2160
Die RX 6800XT hat 20% mehr CUs und ein bissel mehr Takt als die RX 6800. Sie ist aber "nur" 17% schneller. Bei Taktgleichheit würde ich eher auf +14-15% tippen. Die RX 6800 hat gleich 50% mehr CUs als die RX 6700XT. Hier könnte der Takt noch stärker durchschlagen, wir werden es bald erfahren.
Edit:
Welcher AIB macht solche Fails? Gigabyte? :facepalm:
https://abload.de/img/n22_3x8j8t.jpg
33% PWM Minimum. :uhammer2: 2300RPM als Fan Acoustic Limit sind genau so bescheuert.
Scheint die Sapphire Pulse zu sein, zumindest das hier.
https://abload.de/img/n22_4vqjqx.jpg
Selbst die 20% sind zu viel. Naja... kann man selbst nachjustieren. Bei der RX 5700XT Pulse sind es default 15%. Ich fahre 11% was unhörbaren 600RPM entspricht.
Lurtz
2020-11-30, 11:28:51
ja, glaube ich auch. Für 399 USD/ EU-Euro ^^ wäre das ein Instant-Kauf :cool: (aber damit macht man sich ja den Markt für die 5700xt-Karten "kaputt")
Kaufbar dann frühestens im Juni ;D Wann soll die 6700 XT vorgestellt werden, gibt es da schon einen Termin?
dargo
2020-11-30, 11:32:21
Kaufbar dann frühestens im Juni ;D
Mal sehen... bei 270-300mm² (meine grobe Einschätzung) müsste TSMC da aber wesentlich mehr pro Wafer rausspucken. :D Die Nachfrage in diesem Preisbereich dürfte dann aber auch entsprechend größer werden.
Interessant wird die Chipfläche sein. Speicher kostet AMD schonmal mehr (allenfalls etwas entschärft über die hohen Stückzahlen der Konsolen 14Gbps Speichermodule, womit günstiger an Speicher kommen könnten).
Das kannst du schon beinah vernachlässigen, sind nur 4GB Unterschied. Schau dir die Preisdifferenz zwischen RX 5500XT 4GB und 8GB an. So teuer kann GDDR6 bei riesigen Abnahmemengen gar nicht mehr sein.
meine Info war (möglicherweise, gegebenenfalls, vielleicht) Januar
https://www.techradar.com/news/amd-radeon-rx-6700-xt-and-rx-6700-may-be-coming-in-january-2021
Wenn das mit dem Engpass dank der Konsolenchips stimmt, wird es Mitte Januar deutlich besser werden mit der Lieferbarkeit, denn a.) werden sicherlich weniger Konsolenchips geliefert und b.) gibts mehr Wafer. Daher spricht AMD selbst von 8 Wochen bis zur normalen Lieferbarkeit. Die XBox, oder besser dessen SoC, war doch später dran und musste massiv nachproduziert werden.
Hakim
2020-11-30, 11:50:13
Wie kommts das weniger Konsolen SoCs geliefert werden? Glaube das wird noch eine ganze Weile dauern bis der Markt sich halbwegs gesättigt hat bezüglich neuer Konsolen
Obs weniger werden sehen wir auch dann, aber ich vermute es, weil die XBox wie gesagt sehr spät dran war und mMn für die schlechte Verfügbarkeit der normalen AMD-Produkte primär ursächlich ist. Das wird sich mMn im Januar normalisieren.
robbitop
2020-11-30, 11:51:30
Ich kann mir gut vorstellen, dass die Bandbreite vom Cache sowieso in der Gegend ist, in der sie nicht limitiert bei N21 - auch mit OC wohl nicht. Es ist eher die Hitrate und die ist abhängig von der Größe. Und die lässt sich nun mal nicht verändern.
dargo
2020-11-30, 11:54:30
Obs weniger werden sehen wir auch dann, aber ich vermute es, weil die XBox wie gesagt sehr spät dran war und mMn für die schlechte Verfügbarkeit der normalen AMD-Produkte primär ursächlich ist. Das wird sich mMn im Januar normalisieren.
Hat sich AMD da irgendwelche Knebelverträge mit Sony und MS ans Bein gezogen? Anders kann ich mir die Prioritätensetzung nicht erklären. Ich meine die Margen sind doch bei den CPUs und Desktop-GPUs wesentlich größer. :confused: Oder hat sich das mittlerweile geändert vs. Konsolen SoCs?
In 2016 wurden AMDs Produkte bei GloFo und die Konsolen bei TSMC produziert, heute wird alles bei TSMC und obendrein noch im gleichen Prozess produziert. Damals wär es schwer gewesen, das Kontingent zu erhöhen, heute muss AMD nur seine eigene Produktion etwas zurückstellen, um die hohe Nachfrage bei den Konsolen zu befriedigen. Ich glaub da auch nicht an Knebelverträge, die werden sich einfach mit Microsoft dahingegend geeinigt haben. Es gibt ja offenbar keinen Mangel an Matisse-Prozessoren und N10-Chips, deshalb ist das ja auch weniger tragisch für AMD selbst.
Hakim
2020-11-30, 12:01:06
Das sind Kunden die AMD halt wichtig sind, war eines der standbeine in der letzten gen als es nicht so gut um AMD stand. Da will man sich das nicht verscherzen und eventuell dafür sorgen das die nächste gen Sony und M$ sich woanders umsehen (Intel Xe, NVIDIA Arm + gpu)? Kann ich nachvollziehen, vermutlich auch vertraglich vereinbart
Knuddelbearli
2020-11-30, 12:02:52
Wie kommts das weniger Konsolen SoCs geliefert werden? Glaube das wird noch eine ganze Weile dauern bis der Markt sich halbwegs gesättigt hat bezüglich neuer Konsolen
MS und Sony werden auch Monate im Vorraus die Chipüs bei AMD bestellen müssen, und da wird nach Weihnachten sicher weniger bestellt als vorher.
dargo
2020-11-30, 12:03:43
Mich wundert halt die Prioritätensetzung etwas wegen der Margen. Aber gut... die Konsolen-SoCs sind eine gesicherte Menge und bei der riesigen Menge (das sind ja zig Millionen Chips die garantiert abgenommen werden) ist das dann wahrscheinlich lukrativer. Und irgendwie muss AMD Sony/MS auch bei Laune für PS6/PS7 etc. halten. :tongue:
Der_Korken
2020-11-30, 12:08:16
Ich kann mir gut vorstellen, dass die Bandbreite vom Cache sowieso in der Gegend ist, in der sie nicht limitiert bei N21 - auch mit OC wohl nicht.
Die Latenzen aber nicht ;)
Bandbreite sind theoretisch 2TB/s (16*64Byte/Takt*1,94Ghz). Bei 512GB/s für den VRAM würde die Cache-Bandbreite erst bei über 80% Hitrate limitieren. Da sollte tatsächlich nichts limitieren. Allerdings hat auch die R7 damals von HBM-OC profitiert, obwohl die vom Verhältnis her eigentlich mehr als genug Bandbreite hatte. Entweder waren es die Latenzen oder eine sehr ungleichmäßige Ausnutzung der Bandbreite, sodass man kurze Transferbursts hat, die selbst mit >1TB/s noch irgendwelche Rechenarbeiten stallen.
dargo
2020-11-30, 12:12:05
Vergiss die Radeon VII als Vergleich. Das Ding war überhaupt nicht für Gaming desingt, wurde dafür nur aus der Not missbraucht. Mich würde es nicht überraschen wenn die Radeon VII gar keine Features hatte um die Bandbreite zu schonen.
Jo, V20 ist der CDNA-Vorgänger.
robbitop
2020-11-30, 12:19:48
Ich vermute, dass es eine Mischung ist.
Sony und MS brauchen große Mengen und auch entsprechende Zusicherungen. Das wird vermutlich eine harte Forderung gewesen sein.
AMD wollte das Geschäft behalten und es ist ein sehr stabiles Geschäft. Vermutlich der einzige Weg, das Geschäft zu behalten.
Ryzen, Epyc und Radeon würden sicherlich pro Wafer mehr verdienen und aktuell mehr Umsatz und Profit generieren. Aber auf lange Sicht ist es sicherlich richtig, das Semi Custom Geschäft aufrecht zu erhalten.
Weiterhin haben Sony und MS in den letzten Jahren als es sehr schwer für AMD war sicherlich den Unterschied gemacht. Sowas behält man in langfristigen Geschäften immer im Hinterkopf.
Dazu kommt, dass diese sicherlich nicht nur RDNA2 zum Teil querfinanziert haben sondern beide mittlerweile eine Menge Know-How in Bezug auf 3D Grafik haben. Dass Sony und MS bessere Shadercompiler für GCN hatten als AMD selbst spricht hier IMO Bände.
Diese Kollaboration kann man auch für AMD als "befruchtend" ansehen.
Auch sind Verpflichtungen für Lieferungen und Waferkapazitäten etwas, was man sicherlich verbindlich verhandeln muss und das sicherlich sehr lange im Voraus. Gut möglich, dass zeitlich lokal vorkommende Schwankungen des Bedarfs und gewisser Opportunitäten da einfach nur schwer bis gar nicht vorauszusehen sind und somit es immer mal wieder zu Abweichungen kommt zwischen Commitment und wie man es in diesem Moment gerne hätte.
Ich finde, AMD ist auf einem hervorragenden Weg, in allen Bereichen wieder vorn mitzuspielen. Trotz (oder vielleicht gerade wegen?) der relativ kleinen Größe der Firma. Im Moment haben sie sehr gute Produkte und die Margen sind auch immer besser. Man macht vieles sehr richtig. Und im Moment gibt es mehr Bedarf als Kapazität. Eine "Luxussorge".
Mit etwas Weitblick kann man anhand der Entwicklung auch prognostizieren, dass man sicherlich auch an den derzeitigen Nachteilen von RDNA2 arbeiten wird und diese in den nächsten Iterationen ausmerzen wird. Ich erwarte für die nächsten Iterationen mehr dedizierte FF Hardware für Raytracing und ML.
Beides wird eine immer größere Rolle spielen. Noch ist beides eher in der Anfangsphase der Durchdringung. Rückblickend auf das Wachstum/Verbreitung dieser aus den letzten 2 Jahren sollte es dann zu RDNA3 wirklich wichtig sein, diese erstklassig umzusetzen.
Für RDNA2 war es ja eher ein Tradeoff zwischen Chipgröße, Leistung und dieser Features. Entsprechend hat man dafür erstmal nur einen 80/20 (Pareto Ansatz gewählt). Nachvollziehbar.
Die Latenzen aber nicht ;)
Bandbreite sind theoretisch 2TB/s (16*64Byte/Takt*1,94Ghz). Bei 512GB/s für den VRAM würde die Cache-Bandbreite erst bei über 80% Hitrate limitieren. Da sollte tatsächlich nichts limitieren. Allerdings hat auch die R7 damals von HBM-OC profitiert, obwohl die vom Verhältnis her eigentlich mehr als genug Bandbreite hatte. Entweder waren es die Latenzen oder eine sehr ungleichmäßige Ausnutzung der Bandbreite, sodass man kurze Transferbursts hat, die selbst mit >1TB/s noch irgendwelche Rechenarbeiten stallen.
Die mittlere Latenz ist ebenfalls stärker abhängig von der Hitrate und diese ist laut AMD besser als sie es bei einem 512bit SI wäre. Dazu ist Latenz für GPUs (je nach Auslegung) gar kein primäres Kriterium. Es hat ein wenig Einfluss - ja. Aber in der Hauptsache werden auf einer GPU im Gegensatz zu CPUs um Größenordnung mehrere Threads berechnet, die dazu auch noch ein hohes Maß an Unabhängigkeit voneinander haben. Man kann gerade bei GPUs Latenzen sehr gut verstecken, weil ja sehr viele Threads in-flight sind.
Man läd sehr sehr viele Instruktionen auf einmal und muss sehr selten auf einen Speicherzugriff warten. Wird auf eine Instruktion oder Daten für diese gewartet, wird einfach eine andere in Zwischenzeit gerechnet. Das ist das Wesen moderner GPUs.
Das AMD den Weg der maxiamlen Integration verlässt und mehr Spezialeinheiten verbauen sollte wird mMn nicht passieren, jedenfalls nicht bei RDNA. Eher werden die CUs selbst stärker. Das macht NV i.Ü. ja selbst auch nicht anders, die eigentliche Mehrleistung ggü Turing kommt aus den SMs selber.
Ich glaub auch nicht, dass das so knallhart ist, wie du das beschreibst. Die sind eher symbiothisch verfochten mMn mittlerweile. Weder Microsoft noch Sony haben ein Interesse daran, die Hardware selbst zu entwickelt, die sind einfach froh, dass man die relativ günstig einkaufen kann und auch noch customisierbar ist. Ich denke, dass AMD einfach zugunsten Microsofts auf die eigenen eigenen Produkte verzichtet, zumal es ja auch überhaupt keinen Druck gibt, die jetzt sofort zur Verfügung stellen zu müssen. Die XBox-Chips werden ja sowieso produziert werden müssen, ob man das jetzt vorzieht ist wirtschaftlich einfach egal. Das Verhältnis der Unternehmen wird eher kooperativ sein, aufgrund ihrer Interessen.
robbitop
2020-11-30, 13:29:58
Das AMD den Weg der maxiamlen Integration verlässt und mehr Spezialeinheiten verbauen sollte wird mMn nicht passieren, jedenfalls nicht bei RDNA. Eher werden die CUs selbst stärker. Das macht NV i.Ü. ja selbst auch nicht anders, die eigentliche Mehrleistung ggü Turing kommt aus den SMs selber.
Da wäre ich mir nicht so sicher. IMO muss man das schon sehr differenziert und für Fall zu Fall unterscheiden. FF Hardware ist oft deutlich effizienter als General Purpose Hardware. Man muss halt nur schauen, dass diese sich lohnt - also möglichst oft die Vorteile zum Tragen kommen.
Für ML Inferencing drehen Tensor ALUs Kreise um reguläre ALUs und sind in Bezug auf Energieeffizienz und Fläche dafür die bessere Wahl als ALUs. Sollte ML Inferencing für 3D Grafik sehr relevant werden (was aktuell so aussieht), ist es der bessere Trade-Off.
Das gleiche gilt IMO auch für die BVH Traversal Beschleunigung.
Bei RDNA2 war es vermutlich dafür noch zu früh. Die meisten Applikationen nutzen beides noch nicht oft und intensiv genug. Das wird sich aber ändern.
Und genau dann sind X Transistoren in solche Hardware besser investiert in Bezug auf Perf/W.
Man sieht ja, wo selbst die XSX in Raytracing Szenen ggü Turing liegt. Auf 2060 Niveau. Siehe das DF Video. Und das ist ein Konsolenspiel mit entsprechendem Grad an Optimierung auf die Hardware. Bei klassischen Rasterizing liegt die GPU eher im Bereich der 2080Super und darüber.
Ich glaub auch nicht, dass das so knallhart ist, wie du das beschreibst. Die sind eher symbiothisch verfochten mMn mittlerweile. Weder Microsoft noch Sony haben ein Interesse daran, die Hardware selbst zu entwickelt, die sind einfach froh, dass man die relativ günstig einkaufen kann und auch noch customisierbar ist. Ich denke, dass AMD einfach zugunsten Microsofts auf die eigenen eigenen Produkte verzichtet, zumal es ja auch überhaupt keinen Druck gibt, die jetzt sofort zur Verfügung stellen zu müssen. Die XBox-Chips werden ja sowieso produziert werden müssen, ob man das jetzt vorzieht ist wirtschaftlich einfach egal. Das Verhältnis der Unternehmen wird eher kooperativ sein, aufgrund ihrer Interessen.
Da können wir nur spekulieren. Zum Glück ist das der richtige Bereich dieses Forums. :)
Ich kenne solche Verhandlungen zwischen Lieferant und Kunde in ähnlichen Situationen aber außerhalb des Semi Conductor business relativ gut.
Klar sind gute Beziehungen und Erfahrungen und Kollaboration wichtig und ich sage nicht, dass das bei MS/Sony und AMD nicht so ist. Ganz im Gegenteil. Aber wie immer: bei Geld hört die Freundschaft (irgendwann) auf. Commitments zu Lieferzahlen und Lieferzeitpunkt sind in der Regel ziemlich konkret und auch ein Stück weit hart. Da geht es dann auch schnell mal um liquidited damages bei nicht rechtzeitlicher Lieferung oder Liefermenge. Denn jedes nicht gelieferte Teil ist eine PS5/XSX weniger - und damit ein direkter Einfluss auf deren Geschäft.
Ich würde mich wundern, wenn dieser Teil entspannt liefe.
amdfanuwe
2020-11-30, 13:32:56
Mich wundert halt die Prioritätensetzung etwas wegen der Margen.
Wie Hot schon anführt, die Margen kann man auch später noch einfahren.
Wichtiger erscheint mir, dass sich AMD einen guten Ruf als zuverlässiger Partner im Semicustom Geschäft aufbaut.
Wenn eine Firma einen High End Chip möchte, kann sie den selbst designen ( wie Apple, Samsung, Qualcom, Broadcom, ... ), den Chip als Semicustom fertigen lassen ( Sony, MS, ... ) oder muß etwas von der Stange nehmen.
AMD bietet z.Z. die leistungsfähigsten Semicustom Komponenten mit CPU, GPU und demnächst FPGA an.
Da wollen sie zukünftige Kunden sicher nicht mit einem Ruf als schwieriger, unzuverlässiger Partner verprellen.
aufkrawall
2020-11-30, 13:35:36
Man sieht ja, wo selbst die XSX in Raytracing Szenen ggü Turing liegt. Auf 2060 Niveau. Siehe das DF Video. Und das ist ein Konsolenspiel mit entsprechendem Grad an Optimierung auf die Hardware.
Als ob man so eine Aussage auf Basis eines schlecht optimierten Titels treffen könnte.
Es gab schon immer Titel, die auf dem PC bzw. Nvidia seltsam gut vs. die Konsolen liefen, weil die Entwickler offenbar zu doof waren, die AMD-GPUs richtig auszulasten...
fondness
2020-11-30, 13:50:05
Man sieht ja, wo selbst die XSX in Raytracing Szenen ggü Turing liegt. Auf 2060 Niveau. Siehe das DF Video. Und das ist ein Konsolenspiel mit entsprechendem Grad an Optimierung auf die Hardware. Bei klassischen Rasterizing liegt die GPU eher im Bereich der 2080Super und darüber.
Man sieht erstmal gar nichts. Man sieht, dass AMD bei einige RayTracing Titeln absolut konkurrenzfähig ist. Um das final beurteilen zu können solltem an noch etwas abwarten, bis auf beide Hersteller optimiert werden konnte. Oft bleibt von den Bubbles dann nicht viel über.
Dampf
2020-11-30, 14:07:13
Als ob man so eine Aussage auf Basis eines schlecht optimierten Titels treffen könnte.
Es gab schon immer Titel, die auf dem PC bzw. Nvidia seltsam gut vs. die Konsolen liefen, weil die Entwickler offenbar zu doof waren, die AMD-GPUs richtig auszulasten...
Gleichzeitig muss man aber auch erwähnen, dass Godfall und Dirt 5 sehr schlecht auf Nvidia optimiert ist und die finale RT Implementation dieser noch nachgereicht wird.
robbitop
2020-11-30, 14:14:02
Als ob man so eine Aussage auf Basis eines schlecht optimierten Titels treffen könnte.
Es gab schon immer Titel, die auf dem PC bzw. Nvidia seltsam gut vs. die Konsolen liefen, weil die Entwickler offenbar zu doof waren, die AMD-GPUs richtig auszulasten...
Absolut d'accord. Es ist Stichprobengröße 1. Aber: es ist ein Konsolentitel. Und wir können mWn nicht zuverlässig einschätzen, wie hoch der Grad an Optimierung wirklich ist.
Dazu kommt: es ist keine Größenordnung entfernt. Es sind nur im zweistelligen Bereich. Und wir haben im Hinterkopf, dass BVH Traversal über die ALUs läuft. Als ganz grober Indikator ist das - für zumindest jetzt - sicherlich ok.
Man sieht erstmal gar nichts. Man sieht, dass AMD bei einige RayTracing Titeln absolut konkurrenzfähig ist. Um das final beurteilen zu können solltem an noch etwas abwarten, bis auf beide Hersteller optimiert werden konnte. Oft bleibt von den Bubbles dann nicht viel über.
Sehe ich grundsätzlich auch so. Andere Indikatoren haben wir im Moment noch nicht. Das wird natürlich noch deutlich korrekter, je mehr Zeit vergeht und somit Titel mit Optimierung erscheinen.
Grundsätzlich ist aber anzunehmen, dass die BVH Traversal Beschleunigung nicht wirkungslos sein wird. Aus Spaß investiert man keine FF Hardware.
IMO ist jegliche Hardware Auslegung immer ein Kompromiss aus den Möglichkeiten zum jeweiligen Zeitpunkt und den Optimierungskriterien. Aus AMDs Sicht war das für die Konsolen sicherlich der bessere Tradeoff. Das kann in ~2-3 Jahren aber schon wieder anders aussehen. Wenn 5 nm da ist und sich auch die Software entsprechend verändert.
dargo
2020-11-30, 15:14:12
Gleichzeitig muss man aber auch erwähnen, dass Godfall und Dirt 5 sehr schlecht auf Nvidia optimiert ist und die finale RT Implementation dieser noch nachgereicht wird.
Und wie kommst du jetzt zu dieser Annahme? Nur weil das nicht in dein bekanntes Weltbild passt wo auf RDNA2 noch gar nicht optimiert wurde? Im übrigen gibt es noch gar kein RT für Geforces bei Godfall offiziell.
Grundsätzlich ist aber anzunehmen, dass die BVH Traversal Beschleunigung nicht wirkungslos sein wird. Aus Spaß investiert man keine FF Hardware.
IMO ist jegliche Hardware Auslegung immer ein Kompromiss aus den Möglichkeiten zum jeweiligen Zeitpunkt und den Optimierungskriterien. Aus AMDs Sicht war das für die Konsolen sicherlich der bessere Tradeoff. Das kann in ~2-3 Jahren aber schon wieder anders aussehen. Wenn 5 nm da ist und sich auch die Software entsprechend verändert.
Was ist jetzt daran ungewöhnlich? Sobald die Shaderpower stark ansteigt (bsw. Faktor 2 von N21) muss logischerweise auch die RT-Hardware mitskalieren damit dies wieder nicht zum starken Flaschenhals wird. Also ja... natürlich wird die RT-Beschleunigung in zukünftigen GPUs schneller werden müssen.
Andron
2020-11-30, 15:32:40
Man sieht ja, wo selbst die XSX in Raytracing Szenen ggü Turing liegt. Auf 2060 Niveau. Siehe das DF Video. Und das ist ein Konsolenspiel mit entsprechendem Grad an Optimierung auf die Hardware. Bei klassischen Rasterizing liegt die GPU eher im Bereich der 2080Super und darüber.
Die verwendete Karte bei DF war allerdings eine RTX 2060 Super (quasi 2070 Leistung). Dazu kommt, dass durch die dynamische Auflösung ein direkter Performancevergleich (wie im DF Video) schwierig ist. Die Auflösung wird bei diesen Lösungen meist nicht erst gesenkt, wenn die Zielbildrate unterschritten wird, sondern schon etwas früher, um Ruckler zu verhindern. Daher ist es ziemlich wahrscheinlich, dass sowohl die Series X als auch die 2060S/2070 auf einem sehr ähnlichen Level liegen in der getesteten Szene.
Viel wichtiger noch ist aber der Umstand, dass die PS5 im DF Vergleich die quasi gleiche Performance und Optik der Series X liefert:
https://youtu.be/fzbL7opmXpg?t=345
Dabei hat die PS5 weniger Rohleistung, eine geringere Anzahl "Ray-Accelerator" und eine geringere (maximale) Speicherbandreite.
Die RT-Leistung von RDNA2 wird wohl nicht auf Ampere Niveau liegen, aktuelle Vergleiche mit schlecht auf AMD optimierter Software dürften aber wenig Aussagekraft haben.
arcanum
2020-11-30, 15:44:22
lieferverträge zwischen MS/Sony und AMD wurden sicher schon letztes jahr aufgesetzt und enthalten mit großer wahrscheinlichkeit strafklauseln, wenn der lieferant durch eigenverschulden nicht liefern kann. in "good faith" werden verträge mit milliarden-volumen sicher nicht abgeschlossen. hätte amd über die implikation von corona zu dem zeitpunkt bescheid gewusst, wäre die situation heute garantiert eine andere. aber produktionen in einem solchen volumen lassen sich nicht von heute auf morgen aufsetzen sondern haben eine entsprechende vorlaufzeit.
zur abschätzung wann es besser wird:
sony will bis märz 2021 insgesamt 15 millionen einheiten produzieren. die bisherigen zahlen deuten auf eine auslieferung von bisher 3-5 millionen einheiten hin, wobei wohl schon seit mitte des jahres vorproduziert wurde. vor Q2 würde ich deshalb nicht mit einer entspannung rechnen.
robbitop
2020-11-30, 15:59:11
Die verwendete Karte bei DF war allerdings ein 2060 Super (quasi 2070 Leistung).
Die 2060 Super war in dem Video 6,7 % schneller (32 zu 30 fps) und die Auflösung war 0,94x0,94 geringer bei der Xbox. Also ~88% der Pixel von 4K der XSX vs 100% von 4K auf dem PC bei gleichzeitig leicht höheren Settings. Das gleicht den Unterschied zwischen 2060 FE und Super mehr als aus. Deswegen schrieb ich 2060 Niveau.
Dazu kommt, dass durch die dynamische Auflösung ein direkter Performancevergleich (wie im DF Video) schwierig ist. Die Auflösung wird bei diesen Lösungen meist nicht erst gesenkt, wenn die Zielbildrate unterschritten wird, sondern schon etwas früher, um Ruckler zu verhindern. Daher ist es ziemlich wahrscheinlich, dass sowohl die Series X als auch die 2060S/2070 auf einem sehr ähnlichen Level liegen in der getesteten Szene.
Alex hat nachgezählt laut dem Video. Die XSX hatte auf 94% der Pixel pro Achse von 4K die interne Auflösung gesenkt. Auf dem PC war es native 4K und minimal höhere Settings. Es war extra eine statische Szene. 32 fps zu 30 fps.
https://www.youtube.com/watch?v=_BN_wjO2M9Q
Viel wichtiger noch ist aber der Umstand, dass die PS5 im DF Vergleich die quasi gleiche Performance und Optik der Series X liefert:
https://youtu.be/fzbL7opmXpg?t=345
Dabei hat die PS5 weniger Rohleistung, eine geringere Anzahl "Ray-Accelerator" und eine geringere (maximale) Speicherbandreite.
Die RT-Leistung von RDNA2 wird wohl nicht auf Ampere Niveau liegen, aktuelle Vergleiche mit schlecht auf AMD optimierter Software dürften aber wenig Aussagekraft haben.
Das ist in der Tat kurios. Die XSX hat ~20% mehr Rohleistung.
Am Ende ist es so: wir haben aktuell kaum Datenpunkte, um wirklich akurat aussagen zu können, wie stark der Einfluss von HW BVH Traversal ist. Es sieht im Moment noch nach 20-30% aus. Das kann natürlich weniger werden mit stärker optimierten Spielen die bessere Datenpunkte liefern. Und es ist sicherlich auch abhängig von der arithmetischen Last in der jeweiligen Szene und dem jeweiligen Spiel. Denn bei AMD wird BVH Traversal über die ALUs gerechnet. Entsprechend erwarte ich je nach Flaschenhals auch zukünftig eine gewisse Bandbreite in Bezug auf den Einfluss.
Abwarten, wie sich das entwickelt. Mein Bauchgefühl sagt, dass Fixed Function Hardware in der Regel sinnvoll eingesetzt wird und in der Regel richtig was bringt, wenn sie genutzt wird.
NV hat es von Anfang an gemacht (seit Turing) und in dessen Lebenszeit weniger davon profitiert. AMD hat entschieden, das ggf erst später zu machen und die Transistoren woanders zu investieren.
Für die Konsolen und RDNA2 sicher eine kluge Wahl. Das wird sich IMO mit der Veränderung der Softwarelandschaft aber auch noch ändern.
Was ist jetzt daran ungewöhnlich? Sobald die Shaderpower stark ansteigt (bsw. Faktor 2 von N21) muss logischerweise auch die RT-Hardware mitskalieren damit dies wieder nicht zum starken Flaschenhals wird. Also ja... natürlich wird die RT-Beschleunigung in zukünftigen GPUs schneller werden müssen.
Daran ist überhaupt nichts ungewöhnlich. Es ist einfach nur interessant, dass jeder IHV die Optimierungskriterien anders setzt. IMO hat AMD hier die effizientere Wahl für 2020 getroffen.
Dampf
2020-11-30, 16:45:39
Digital Foundry review: https://www.youtube.com/watch?v=7QR9bj951UM
r3ptil3
2020-11-30, 17:24:03
Digital Foundry review: https://www.youtube.com/watch?v=7QR9bj951UM
Genau sowas nur zusätzlich noch mit einer am Maximum übertakteten Sapphire Nitro+ 6800 XT.
Der_Korken
2020-11-30, 17:51:04
Vergiss die Radeon VII als Vergleich. Das Ding war überhaupt nicht für Gaming desingt, wurde dafür nur aus der Not missbraucht. Mich würde es nicht überraschen wenn die Radeon VII gar keine Features hatte um die Bandbreite zu schonen.
Bei der Bandbreitenverwertung war die sicherlich deutlich schlechter als RDNA. Aber sie hatte mehr als doppelt so viel Bandbreite wie die V10 bei "nur" knapp 30% mehr Rohleistung. Obwohl die V10 schon nicht stark an der Bandbreite hing und die V20 rohleistungsnormiert nochmal über 50% mehr Bandbreite dazu bekam, brachte VRAM-OC noch was. Deswegen meine Vermutung, dass es an den besseren Latenzen liegen könnte und deswegen auch RDNA2 von I$-OC profitieren könnte, selbst wenn die Bandbreite selbst nicht das Problem ist.
Die mittlere Latenz ist ebenfalls stärker abhängig von der Hitrate und diese ist laut AMD besser als sie es bei einem 512bit SI wäre.
Die Hitrate können wir im Nachhinein natürlich nicht beeinflussen, ich wollte nur auf den Latenzgewinn durch hypothetisches I$-OC hinaus.
Dazu ist Latenz für GPUs (je nach Auslegung) gar kein primäres Kriterium. Es hat ein wenig Einfluss - ja. Aber in der Hauptsache werden auf einer GPU im Gegensatz zu CPUs um Größenordnung mehrere Threads berechnet, die dazu auch noch ein hohes Maß an Unabhängigkeit voneinander haben. Man kann gerade bei GPUs Latenzen sehr gut verstecken, weil ja sehr viele Threads in-flight sind.
Man läd sehr sehr viele Instruktionen auf einmal und muss sehr selten auf einen Speicherzugriff warten. Wird auf eine Instruktion oder Daten für diese gewartet, wird einfach eine andere in Zwischenzeit gerechnet. Das ist das Wesen moderner GPUs.
Ist das bei den großen GPUs wirklich immer noch so einfach die Latenzen zu verstecken? Bei GA102 sieht man ja deutlich, dass die GPU bei kleinen Auflösungen ein Auslastungsproblem hat. Liegt das nur am Frontend oder ist es eventuell zu schwer bei 1440p genug parallelen Workload für eine so breite GPU zu erzeugen? Falls letzteres, werden Latenzen plötzlich doch wieder wichtig um den Durchsatz hoch zu halten. Ich weiß es nicht, deswegen eine ehrlich gemeinte Frage.
AMD hat mit RDNA1 und 2 jeweils die Leistung pro CU stark gepusht und dafür viele Transistoren investiert. Und trotzdem merkt man bei der 6800XT dass sie trotz 20% mehr CUs, 33% mehr Frontend (4 statt 3 SEs) und minimal mehr Takt nur ca. 17% vor der 6800 rauskommt. Wenn es dank Cache nicht an der Bandbreite scheitert, woran dann?
dargo
2020-11-30, 18:21:53
Bei der Bandbreitenverwertung war die sicherlich deutlich schlechter als RDNA. Aber sie hatte mehr als doppelt so viel Bandbreite wie die V10 bei "nur" knapp 30% mehr Rohleistung. Obwohl die V10 schon nicht stark an der Bandbreite hing und die V20 rohleistungsnormiert nochmal über 50% mehr Bandbreite dazu bekam, brachte VRAM-OC noch was. Deswegen meine Vermutung, dass es an den besseren Latenzen liegen könnte und deswegen auch RDNA2 von I$-OC profitieren könnte, selbst wenn die Bandbreite selbst nicht das Problem ist.
Auch dieser Vergleich hinkt da V10 die Bandbreite beim Gaming schonte. Bei V20 ist es völlig offen.
robbitop
2020-11-30, 18:59:15
Ist das bei den großen GPUs wirklich immer noch so einfach die Latenzen zu verstecken? Bei GA102 sieht man ja deutlich, dass die GPU bei kleinen Auflösungen ein Auslastungsproblem hat. Liegt das nur am Frontend oder ist es eventuell zu schwer bei 1440p genug parallelen Workload für eine so breite GPU zu erzeugen? Falls letzteres, werden Latenzen plötzlich doch wieder wichtig um den Durchsatz hoch zu halten. Ich weiß es nicht, deswegen eine ehrlich gemeinte Frage.
AMD hat mit RDNA1 und 2 jeweils die Leistung pro CU stark gepusht und dafür viele Transistoren investiert. Und trotzdem merkt man bei der 6800XT dass sie trotz 20% mehr CUs, 33% mehr Frontend (4 statt 3 SEs) und minimal mehr Takt nur ca. 17% vor der 6800 rauskommt. Wenn es dank Cache nicht an der Bandbreite scheitert, woran dann?
Das ist sicherlich je nach Szene ein vielfältiges Geflecht an Kriterien die dazu beiträgt. Häufig ist es verbunden mit Auslastung. Das hat sicherlich u.A. mit Kontrolllogik, Granularität, Problemgröße zu tun.
Aber Latenz zum VRAM eigentlich eher weniger. GPUs werden so ausgelegt, dass die Latenz zum VRAM kein wesentlicher Flaschenhals ist.
Wenn es so wäre, dass SMs/CUs oft auf VRAM Zugriffe warten müssten, würde man wirklich richtig bösartig viel Leistung verlieren.
Iscaran
2020-11-30, 21:23:22
AMD hat mit RDNA1 und 2 jeweils die Leistung pro CU stark gepusht und dafür viele Transistoren investiert. Und trotzdem merkt man bei der 6800XT dass sie trotz 20% mehr CUs, 33% mehr Frontend (4 statt 3 SEs) und minimal mehr Takt nur ca. 17% vor der 6800 rauskommt. Wenn es dank Cache nicht an der Bandbreite scheitert, woran dann?
Da stellt sich die Frage was du als Basis für die "tatsächlichen Taktraten ranziehst.
Meine Vermutung ist die 6800 XT wird deutlich(er) durch ihr Power Target von 300 W gebremst als die 6800 im Benchmarkparcours.
Nur mal rein theoretisch verglichen mit meinem Alten Spekulationstool:
RDNA1 braucht im Mittel 52.73 GFlops/%3DC-Index (relativ zum "Base Clock")
(für die 5700 XT-AE waren das 1680 und für die 5700 XT 1605 MHz)
Analog für die RDNA 2 sind die offiziellen Game Clocks 1815 MHz (6800) und 2015 MHz (6800XT).
Auf RDNA 2 angewandt extrapoliert man so über die theoretischen FP32
für die 6800 einen Index-Wert von 264% und für die 6800 XT aber einen Index-Wert von 352%
Gemessen werden aber 266% (6800) und 306% (6800 XT)
Komischerweise stimmt also die Extrapolation für die 6800 XT FAST EXAKT.
Die für die 6800 XT hingegen fällt ca. +15% zu hoch aus.
Nun hab ich einen schnellen Test gemacht und mal dieselben Taktraten wie bei der 6800 eingetippt (also 1815 MHz) und siehe da: Die 6800 XT Extrapolation landet nun bei 317% 3DC-Index...das ist zwar immer noch etwas zu hoch (+3.6%) aber in jedem Fall nicht mehr dramatisch daneben.
=> Vermutung - die 6800 XT taktet EFFEKTIV bei weitem nicht dauerhaft so hoch wie vermutet - oder aber sie wird drastischer eingebremst.
reaperrr
2020-11-30, 22:35:24
=> Vermutung - die 6800 XT taktet EFFEKTIV bei weitem nicht dauerhaft so hoch wie vermutet - oder aber sie wird drastischer eingebremst.
Oder die 6800 taktet effektiv deutlich höher, als der offizielle Gameclock behauptet.
Iscaran
2020-11-30, 22:39:13
Und hier sieht man es im Test:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/
Radeon RX 6800, 2.104-2.143 MHz
Radeon RX 6800 XT, 2.140-2.168 MHz
Tippe ich die Mittelwerte 2123.5 und 2154 als Boost Clock in mein Spekulationstool kriege ich extrapolierte 261% für die 6800 (gemessen 266%) und 318% (gemessen 306%) für die 6800 XT.
Die 6800 XT ist PT-limitiert.Sieht man auch in der CB-Tabelle. Die 6800 XT ist in ALLEN getesteten Spielen im PT und das liegt UNTERHALB ihres nominellen Boost-Clocks von 2250 bei ca 2150 MHz.
Die 6800 hingegen operiert fast DURCHWEG OBERHALB ihres nominellen Boost-Clocks von 2015 MHz.
Nimmt man die realen Takte und rechnet damit die Flops um erhält eine passable Prognose.
Die Verfälschung die noch vorliegt liegt vor allem daran, dass ich die RDNA1-Werte zur Extrapolation auch "nur" auf den nominellen Taktraten basiert habe (da es mir zu mühselig war hier irgendwelche Test rauszusuchen um damit effektive mittlere Taktraten zu bestimmen).
Das sind also bestimmt auch noch locker 5% Fehler drin aus diesem Grund.
Der_Korken
2020-11-30, 23:12:17
Da stellt sich die Frage was du als Basis für die "tatsächlichen Taktraten ranziehst.
Meine Vermutung ist die 6800 XT wird deutlich(er) durch ihr Power Target von 300 W gebremst als die 6800 im Benchmarkparcours.
Korrekt, wie man bei CB sieht, reizt die 6800 ihr Powertarget nicht aus, weil sie taktlimitiert ist. Steht auch in der Tabelle. Alle taktlimitierten Spiele liegen bei ca. 2210Mhz:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_taktraten_in_spielen_unter_dauerlast
Nur mal rein theoretisch verglichen mit meinem Alten Spekulationstool:
RDNA1 braucht im Mittel 52.73 GFlops/%3DC-Index (relativ zum "Base Clock")
(für die 5700 XT-AE waren das 1680 und für die 5700 XT 1605 MHz)
Analog für die RDNA 2 sind die offiziellen Game Clocks 1815 MHz (6800) und 2015 MHz (6800XT).
Die 1815 und 2015Mhz kannst du vergessen, weil real ganz andere Taktraten anliegen (schreibst du unten ja selber). Leo kommt auf für die 6800 bzw. 6800XT auf 2177 bzw. 2216Mhz (laut CB) und auf 2205 bzw. 2257Mhz (laut TP). Die 5700XT lag real auch eher bei ca. 1822Mhz:
www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-5700-5700-xt
Damit muss man dann auch die Performance-Indizes extrapolieren.
Und hier sieht man es im Test:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/
Radeon RX 6800, 2.104-2.143 MHz
Radeon RX 6800 XT, 2.140-2.168 MHz
Tippe ich die Mittelwerte 2123.5 und 2154 als Boost Clock in mein Spekulationstool kriege ich extrapolierte 261% für die 6800 (gemessen 266%) und 318% (gemessen 306%) für die 6800 XT.
Ich nehme jetzt mal jeweils die CB-Taktraten:
6800: (2177*60) / (1822*40) * 156 = 280
6800XT: (2216*72) (1822*40) * 156 = 342
(1800Mhz geschätzter Takt der 5700XT, 156% der 4K-Index der 5700XT)
Nimmt man die 266% und 306% von Leo, dann liegt die 6800 ca. 5% unter ihrer "erwarteten Leistung" und die 6800XT ca. 10,5%.
Die 6800 XT ist PT-limitiert.Sieht man auch in der CB-Tabelle. Die 6800 XT ist in ALLEN getesteten Spielen im PT und das liegt UNTERHALB ihres nominellen Boost-Clocks von 2250 bei ca 2150 MHz.
Die 6800 hingegen operiert fast DURCHWEG OBERHALB ihres nominellen Boost-Clocks von 2015 MHz.
Nimmt man die realen Takte und rechnet damit die Flops um erhält eine passable Prognose.
Die Verfälschung die noch vorliegt liegt vor allem daran, dass ich die RDNA1-Werte zur Extrapolation auch "nur" auf den nominellen Taktraten basiert habe (da es mir zu mühselig war hier irgendwelche Test rauszusuchen um damit effektive mittlere Taktraten zu bestimmen).
Das sind also bestimmt auch noch locker 5% Fehler drin aus diesem Grund.
Die nominellen Boost-Clocks sind völlig egal, man kann nur mit real gemessenen Taktraten rechnen, so wie oben. Ob eine Karte dabei powerlimitiert war, ist völlig unerheblich, denn wenn das Powertarget limitiert, sinkt auch der Takt und somit auch die extrapolierte Performance. Was man sieht ist, dass die 6800XT etwas weniger Leistung pro Rohleistung bietet als die 6800. Normalerweile wäre das erwartbar, aber in diesem Fall hat die XT ein 33% breiteres Frontend und somit pro CU mehr Rasterizer- und ROP-Leistung. Das finde ich schon interessant. Meine These war, dass das am I$ liegt und dass dieser bei extrem starken OC (>2600Mhz) noch stärker limitieren könnte. Daher die Anmerkung, dass ein I$-OC sehr interessant wäre.
Complicated
2020-11-30, 23:21:43
Ist das Video schon hier gepostet worden mit der Red Devil vom 8auer?
https://www.youtube.com/watch?v=QwfAbGo9OJw
Bei min. 9:02 habt ihr 2700 MHz anliegen dauerhaft im Game, wobei ich nicht so genau durchsteige worum es euch da geht mit der Rechnerei.
Edit: Max. Takt 2.800 MHz lässt sich nicht weiter erhöhen:
https://www.youtube.com/watch?v=_1wqWKwWiL0
mksn7
2020-12-01, 10:28:59
Ist das bei den großen GPUs wirklich immer noch so einfach die Latenzen zu verstecken? Bei GA102 sieht man ja deutlich, dass die GPU bei kleinen Auflösungen ein Auslastungsproblem hat. Liegt das nur am Frontend oder ist es eventuell zu schwer bei 1440p genug parallelen Workload für eine so breite GPU zu erzeugen? Falls letzteres, werden Latenzen plötzlich doch wieder wichtig um den Durchsatz hoch zu halten. Ich weiß es nicht, deswegen eine ehrlich gemeinte Frage.
Das ist sicherlich je nach Szene ein vielfältiges Geflecht an Kriterien die dazu beiträgt. Häufig ist es verbunden mit Auslastung. Das hat sicherlich u.A. mit Kontrolllogik, Granularität, Problemgröße zu tun.
Aber Latenz zum VRAM eigentlich eher weniger. GPUs werden so ausgelegt, dass die Latenz zum VRAM kein wesentlicher Flaschenhals ist.
Wenn es so wäre, dass SMs/CUs oft auf VRAM Zugriffe warten müssten, würde man wirklich richtig bösartig viel Leistung verlieren.
Die Latenz ist immer dann ein Problem wenn nicht genug Datenvolumen "in flight" ist. Beispielsweise, bei (Zahlen fiktiv, aber Größenordnung stimmt) 600 GB/s, 2GHz und 500 cycles Latenz = 500 cycles / 2GHz = 250ns braucht es laut Little's Law 600 GB/s / 250ns = 150000 B an Daten auf die von allen Thread gerade gewartet wird, um die vollen 600GB/s zu erreichen.
Bei einem simplen shader mit wenig Registerbedarf und damit maximaler occupancy haben wir 80 CUs mit 2*20 warps zu je 32 threads, das wären dann 1.4B pro thread. Etwa jeder dritte thread müsste also einen 4B load/store gerade in flight haben.
Bei hohem Registerbedarf gibts nur noch 256 threads pro CU, dann sind es fast 8B pro thread. Die deutlich geringere Anzahl an threads kann das Speicherinterface als nur auslasten wenn jeder thread im Schnitt zwei 4B loads/stores am Laufen hat. Eine gewisses Maß an memory ILP findet sich aber meist schon, beispielsweise wird nicht nur ein Farbkanal, eine Textur, ein Pixel in einem shader geladen.
Man muss aber bedenken dass threads öfter auch mal was anderes tun als Daten zu laden. Oft werden erstmal Adressen berechnet bevor überhaupt irgendwas geladen wird, und threads müssen mit den geladenen Daten ja auch was rechnen. In der Zeit sind diese threads raus aus der Menge an threads die gerade Datentransfers macht.
Die Latenz zum Speicher ist also immer dann relevant, wenn shader mit wenig occupancy (viel Register oder wenig Auslastung), wenig memory ILP und viel Berechnung ausgeführt werden.
Meine Perspektive ist allerdings sehr compute orientiert, ich bin mir nicht sicher ob beim Rendering noch andere Faktoren dabei sind.
robbitop
2020-12-01, 16:30:40
Ist eben die Frage wie der tatsächliche Lastfall in der 3D Grafik heutzutage aussieht. Der ist sicherlich schon ein Stück anders als reine Computeanwendungen. Auch ist reuse sicherlich nicht zu vernachlässigen. Nicht ohne Grund haben die CUs/SMs eine ganze Menge Cache.
Zossel
2020-12-01, 16:55:11
https://www.computerbase.de/2020-12/smart-access-memory-asus-intel-mainboards-beta-bios/
Damit dürfte das ganze Geblubber deswegen hinfällig sein.
Warum sind eigentliche Einige immer so gnadenlos strukturkonservativ wenn es um neue Features geht?
Zossel
2020-12-02, 09:29:37
https://www.computerbase.de/2020-12/smart-access-memory-asus-intel-mainboards-beta-bios/
Damit dürfte das ganze Geblubber deswegen hinfällig sein.
Warum sind eigentliche Einige immer so gnadenlos strukturkonservativ wenn es um neue Features geht?
Nvidia will das auch nutzen: https://www.heise.de/news/CPU-Zugriff-auf-Grafikspeicher-Asus-schaltet-AMDs-SAM-fuer-Intel-frei-4976837.html
Auch die Intel-Variante funktioniert vorerst nur mit Radeon-Grafikkarten samt aktuellem Treiber – Nvidia will in einem künftigen Treiber-Update eine eigene Implementierung bringen.
M4xw0lf
2020-12-02, 10:42:51
Nvidia will das auch nutzen: https://www.heise.de/news/CPU-Zugriff-auf-Grafikspeicher-Asus-schaltet-AMDs-SAM-fuer-Intel-frei-4976837.html
Dann kann Leonidas es ja auch bald gut finden, voll toll vong Erleichterung her.
Achill
2020-12-03, 15:02:18
Dann kann Leonidas es ja auch bald gut finden, voll toll vong Erleichterung her.
Hat Leo gestern auch schon aufgegriffen (Zeitlich ggf. erst nach deinen Beitrag): https://www.3dcenter.org/news/asus-bietet-sam-support-auch-auf-comet-lake-systemen
Zossel
2020-12-05, 10:14:33
Kann jemand erklären warum dieser Befehl für das (performante) einblenden von GPU-Speicher benötigt wird?
https://www.computerbase.de/2020-12/smart-access-memory-ryzen-3000-kein-support/
https://en.wikipedia.org/wiki/Bit_manipulation_instruction_set#Parallel_bit_deposit_and_extract
Zergra
2020-12-05, 10:25:10
Kann jemand erklären warum dieser Befehl für das (performante) einblenden von GPU-Speicher benötigt wird?
https://www.computerbase.de/2020-12/smart-access-memory-ryzen-3000-kein-support/
https://en.wikipedia.org/wiki/Bit_manipulation_instruction_set#Parallel_bit_deposit_and_extract
Wurde ja schon vermutet, finde ich relativ schwach, das ist schon ein eklatanter Nachteil.
Complicated
2020-12-05, 11:44:27
Kann jemand erklären warum dieser Befehl für das (performante) einblenden von GPU-Speicher benötigt wird?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603254
Das PDEP ist nicht notwending fürs resizable BAR, aber das PDEP "macht" die Beschleunigungswirkung aus. Ein größerer Adressraum allein bringt eben noch nicht Performance. Das kommt erst wenn die CPU besser mit der GPU zusammen operieren kann um hier die ein oder andere Adressmanipulation abzukürzen oder sogar wegzulassen die notwendig ist bis ein Pixel "berechnet" ist.
spotz
2020-12-05, 12:02:45
https://www.computerbase.de/2020-12/amd-radeon-rx-6000-mobile-navi-24-xm-xml/
Laut der Meldung soll es Navi24 einmal als 25 Watt Version geben und eine zweite mit konfigurierbarer TGP mit 35W, 42,5W und 50W.
Ich bin mal gespannt, ob es den Chip auch für Desktops geben wird. Wenn AMD den mit 4GB Speicher anbietet, spricht nur noch wenig für Nvidias MX Serie.
Es ist auch eine nette Überraschung das in der Leistungsklasse nochmal eine Neuentwicklung kommt, da man sich auch hier im Forum lange Zeit nicht sicher war, ob sich das in Konkurrenz zu den IGPs überhaupt lohnt.
Wie viele CUs wird der bei so geringer TGP wohl haben: 12, 16 oder gar 20?
basix
2020-12-05, 12:20:13
Wurde ja schon vermutet, finde ich relativ schwach, das ist schon ein eklatanter Nachteil.
Ich kann immer noch nicht verstehen wie das als "schwach", "Nachteil", "AMD ist nicht kundenfreundlich", "AMD will nur abkassieren / verkauft seine Zen 2 Kunden für doof", "AMD ist böse" usw. angesehen wird. Das sind nicht alles deine Worte aber ich habe sinngemäss solche Dinge auch in anderen Beiträgen und Foren gelesen.
AMD bringt ein neues Feature, welches mehr Performance ermöglicht. Nvidia und Intel springen auf den Zug auf (oh Wunder!) und sehr viele Leute können in Zukunft davon profitieren. Plötzlich ist aber AMD am Pranger weil sie es nur für Zen 3, RX 6000 und 500er Boards freigeschaltet/validiert haben. Wie kann man nur so negativ reagieren? (ist wiederum allgemein auf Forenkommentare bezogen und nicht direkt auf dich)
Nvidia: So wie es aussieht nur für Ampere
Intel: So wie es aussieht nur für Gen 10 CPUs und 400er Chipsets
Geil nicht? Ampere und Gen 10 CPUs sind Stand heute ja so wahnsinnig weit verbreitet (siehe Verkaufszahlen von Ampere und Comet Lake) ;)
Ob es für ältere HW wie Zen 1/2, Haswell, Skylake - Coffee Lake, GCN, RDNA1, Pascal und Kepler vielleicht auch noch kommt: Wir wissen es nicht. Weder von AMD, Intel oder Nvidia gab es eine eineindeutige Auflistung, welche HW und SW Features es für Resizable BAR Support in Games benötigt. Indizien gehen in Richtung dieses PDEP aber etwas offizielles von AMD gabe es bisher nicht.
Ich aus meiner Sicht kreide genau diesen einen Punkt an: Transparenz. Welche HW es technisch unterstützt und bei welchen es einen Performance Vorteil bringt. Wäre das verfügbar, dann könnte man darüber diskutieren ob es eine technische Limitierung ist oder einfach produktpolitisch begründet. Und auch letzterer Punkt ist nicht allzu negativ zu sehen: Je nach Aufwand lohnt es sich nicht, das Feature auch für ältere Plattformen zu bringen. Ich spreche da aus eigener Erfahrung: Solche Dinge ziehen einen sehr grossen Rattenschwanz an Test- und Validierungsaufwand mit sich. Das kann man sich zum Teil gar nicht vorstellen, wie aufwändig das ist. Die technische Umsetzung und Implementation ist hier oft der mit Abstand geringste Aufwand. Und die alte HW ist ja schon verkauft. AMD, Intel und Nvidia wollen aber neue HW verkaufen. Lohnt es sich direkt finanziell also für die Firmen? Nein. Es lohnt sich einzig aus marketingtechnischen Gründen. Es gab schon immer Features, welche nur auf der neuen HW unterstützt werden. Wenn es für ältere HW nachgereicht wird ist es vor allem eines: Sehr Kundenfreundlich.
Wie viele CUs wird der bei so geringer TGP wohl haben: 12, 16 oder gar 20?
24 laut Gerüchten. Ist schlussendlich einzig eine Frage des Takts. Sieh dir die Xbox Series S an: Maximal 80W in Gears 5 inkl. Netzteil, CPU und SSD.
spotz
2020-12-05, 12:23:38
Dann wäre der ja ähnlich groß wie Navi14.
dargo
2020-12-05, 12:36:59
https://www.computerbase.de/2020-12/amd-radeon-rx-6000-mobile-navi-24-xm-xml/
Laut der Meldung soll es Navi24 einmal als 25 Watt Version geben und eine zweite mit konfigurierbarer TGP mit 35W, 42,5W und 50W.
Ich bin mal gespannt, ob es den Chip auch für Desktops geben wird. Wenn AMD den mit 4GB Speicher anbietet, spricht nur noch wenig für Nvidias MX Serie.
Es ist auch eine nette Überraschung das in der Leistungsklasse nochmal eine Neuentwicklung kommt, da man sich auch hier im Forum lange Zeit nicht sicher war, ob sich das in Konkurrenz zu den IGPs überhaupt lohnt.
Wie viele CUs wird der bei so geringer TGP wohl haben: 12, 16 oder gar 20?
Da ist alles möglich, der N10 Abklatsch bei Apple mit 40CUs und HBM lag auch nur bei 50W dank sehr konservativen Frequenzen.
basix
Das wage ich auch zu bezweifeln, dass es da Support für Altsysteme gibt.
Bei Intel sind die 3xx-Platinen ja ebenfalls aus dem BIOS-Support rausgefallen, da wird es sehr sicher keine Einstellungen diesbezüglich geben und noch älteres Zeug - das kann man getrost vergessen. Bei Grafikchips könnte das nur für noch verkauftes Zeug sinnvoll sein, sprich Turing und RDNA1. Das kann sein, dass SAM dafür auch noch freigeschaltet wird. In allen Fällen ist es jedoch AMD zu verdanken, dass das Thema überhaupt aufgegriffen wird und AMD das jetzt anzukreiden wäre ist halt, sorry an einige, ein kleines bisschen dämlich...
Iscaran
2020-12-05, 16:25:17
Wurde ja schon vermutet, finde ich relativ schwach, das ist schon ein eklatanter Nachteil.
Ahja, und weil Intel ja so überragend gut ist haben die resizable BAR mit Haswell gebracht um damit GPU-Performance für den Kunden zu erschliessen ?
Ahso, hat Intel nicht gemacht ?
Ja dann ist schon ein eklatanter Nachteil, wenn schon ab Haswell das gegangen wäre, man es aber nicht gebracht hat...Aber klar muss erstmal der "Dorfladen" AMD das Feature bringen damit die "Großkonzerne" aufwachen und merken was eigentlich mit IHRER Hardware so gegangen wäre.
LasterCluster
2020-12-05, 20:18:45
24 laut Gerüchten. Ist schlussendlich einzig eine Frage des Takts. Sieh dir die Xbox Series S an: Maximal 80W in Gears 5 inkl. Netzteil, CPU und SSD.
Welche Gerüchte? 24/32/40/80 CUs wären endgültig ne furchtbar schräge Staffelung. Vor allem wenn man bedenkt, dass die fetteste APU mit RDNA2 12CUs haben wird. Der kleinste Polaris hatte doch ähnlichg viele CUs wie Raven Ridge iirc.
Complicated
2020-12-05, 20:41:39
Der kleinste war Polaris 11 in der RX 460 (896 Shader/14 CU). Darunter hatte die Serie wie die Vorserien auch Oland/Cape Verde mit GCN1/2 als Rebranding für die OEM bis zum RX 435.
Welche Gerüchte? 24/32/40/80 CUs wären endgültig ne furchtbar schräge Staffelung. Vor allem wenn man bedenkt, dass die fetteste APU mit RDNA2 12CUs haben wird. Der kleinste Polaris hatte doch ähnlichg viele CUs wie Raven Ridge iirc.
Keine Ahnung, aber gab es Polaris wirklich mal als APU? ich dachte, hier wäre Vega gesetzt?!
LasterCluster
2020-12-05, 21:27:01
Keine Ahnung, aber gab es Polaris wirklich mal als APU? ich dachte, hier wäre Vega gesetzt?!
Aber Vega war noch GCN. Also passts für einen (sehr) groben Vergleich. Auf was ich einfach raus wollte: Bisher hat AMD keinen Grund gesehen zwischen den APUs und der kleinsten dGPU großen Platz zu lassen. Und bald wird es Faktor 2 und dazu noch die komische Staffelung 24/32/40 CU geben? Falls N24 tatsächlich 24 CUs bekommt, muss N23 irgendwie besonders sein.
reaperrr
2020-12-05, 22:30:15
Der kleinste war Polaris 11 in der RX 460 (896 Shader/14 CU). Darunter hatte die Serie wie die Vorserien auch Oland/Cape Verde mit GCN1/2 als Rebranding für die OEM bis zum RX 435.
Nö, der kleinste war Polaris 12 mit 10 CUs im Vollausbau, teilweise aber nur 8 aktiviert in der RX 550 (außerdem hat P11 im Vollausbau 16).
basix
2020-12-06, 00:42:50
Ahja, und weil Intel ja so überragend gut ist haben die resizable BAR mit Haswell gebracht um damit GPU-Performance für den Kunden zu erschliessen ?
Ahso, hat Intel nicht gemacht ?
Ja dann ist schon ein eklatanter Nachteil, wenn schon ab Haswell das gegangen wäre, man es aber nicht gebracht hat...Aber klar muss erstmal der "Dorfladen" AMD das Feature bringen damit die "Großkonzerne" aufwachen und merken was eigentlich mit IHRER Hardware so gegangen wäre.
Haswell konnte es noch gar nicht bringen. Es geht erst seit ein paar Monaten wegen einem WDDM Update ;)
-=Popeye=-
2020-12-06, 01:02:06
Bei Haswell-E bin ich mir sicher diese Option im BIOS gesehen zu haben... auch wenn niemand wusste was es bringen kann.
Complicated
2020-12-06, 01:31:06
Nö, der kleinste war Polaris 12 mit 10 CUs im Vollausbau, teilweise aber nur 8 aktiviert in der RX 550 (außerdem hat P11 im Vollausbau 16).
Stimmt, der kam dann mit der 500er Serie auf den Markt. Ich hatte nur die erste Generation angeschaut. Dass der P11 Die 16 CUs hat ist klar, es ging ja um die aktiven CUs. Das ist dann der P12 mit den 8CUs.
Lehdro
2020-12-06, 09:15:11
Bei Haswell-E bin ich mir sicher diese Option im BIOS gesehen zu haben... auch wenn niemand wusste was es bringen kann.
Die Miner haben das schon damals während der Miningfrenzys genutzt. Mit den entsprechend zusammengestutzten Mining-Linuxes konnte damals schon eine Leistungssteigerung festgestellt werden. Siehe hier (https://www.msi.com/faq/mb-2726).
basix
2020-12-06, 11:03:22
Bei Linux geht es ja schon länger. Bei Windows eben nicht. Aber interessant zu wissen, dass HSW-E sowas im BIOS hat. Mal nachschauen ob das mein Board auch kann.
mboeller
2020-12-07, 13:10:07
N22 wäre damit ganz schön groß:
https://twitter.com/patrickschur_/status/1335600622255697921?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1335667 174170648577%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2020-12%2Famd-radeon-rx-6000-mobile-navi-22-146-watt%2F
Die Size: 18.31 mm × 18.27 mm ≈ 334.52 mm²
Zergra
2020-12-07, 13:26:38
Naja mit 40CUs war das ja zu erwarten.
robbitop
2020-12-07, 13:35:29
Das sind dann größtenteils die 64 MiB L3 cache. Pro MiB sind es IIRC ein wenig mehr als 1 mm².
KarlKastor
2020-12-07, 14:06:03
Das sind dann größtenteils die 64 MiB L3 cache. Pro MiB sind es IIRC ein wenig mehr als 1 mm².
Auf AMDs Folien sind die 32 MB von Epyc mit 27 mm² angegeben.
Das würde ja etwa passen. 50 - 70 mm² für den Cache und der Rest für die sonstigen Erweiterungen.
robbitop
2020-12-07, 14:08:44
OK sogar ein bisschen drunter pro MiB. Danke für die Info. :)
vinacis_vivids
2020-12-07, 14:19:17
;D 2x6800XT@mGPU ;D
https://abload.de/thumb/6800xtmgpu04jsy.jpg (https://abload.de/image.php?img=6800xtmgpu04jsy.jpg)
... brauche einen Monitor der 4k@300hz abwirft. :redface:
SKYNET
2020-12-07, 15:34:14
;D 2x6800XT@mGPU ;D
https://abload.de/thumb/6800xtmgpu04jsy.jpg (https://abload.de/image.php?img=6800xtmgpu04jsy.jpg)
... brauche einen Monitor der 4k@300hz abwirft. :redface:
mehr geht derzeit nicht:
https://geizhals.de/samsung-odyssey-g9-c49g95t-lc49g95tssuxen-a2271996.html?hloc=at&hloc=de
OpenVMSwartoll
2020-12-07, 19:53:17
mehr geht derzeit nicht:
https://geizhals.de/samsung-odyssey-g9-c49g95t-lc49g95tssuxen-a2271996.html?hloc=at&hloc=de
Jetzt muss ich lange kalt duschen...
Dino-Fossil
2020-12-07, 23:18:30
Wurde das schon gepostet?
RDNA2 und Ampere im Architekturvergleich @Techspot (https://www.techspot.com/article/2151-nvidia-ampere-vs-amd-rdna2/)
Mandalore
2020-12-08, 16:18:55
RDNA 2" Instruction Set Architecture Whitepaper
https://developer.amd.com/wp-content/resources/RDNA2_Shader_ISA_November2020.pdf
Jetzt muss ich lange kalt duschen...
:freak:
Ja, am besten mit Benzin und Feuer, um den hässlichen Anblick gründlich aus den Augen zu brennen...
Mein Geschmack und mein Sichtfeld wollen eher noch 16:10 ^^
(sonnst würde ich zum notorischen Kopfschüttler mutieren)
M.f.G. JVC
Iscaran
2020-12-08, 17:56:57
Wurde das schon gepostet?
RDNA2 und Ampere im Architekturvergleich @Techspot (https://www.techspot.com/article/2151-nvidia-ampere-vs-amd-rdna2/)
RDNA 2" Instruction Set Architecture Whitepaper
https://developer.amd.com/wp-content/resources/RDNA2_Shader_ISA_November2020.pdf
Cool - danke euch beiden !
SKYNET
2020-12-08, 20:05:41
:freak:
Ja, am besten mit Benzin und Feuer, um den hässlichen Anblick gründlich aus den Augen zu brennen...
Mein Geschmack und mein Sichtfeld wollen eher noch 16:10 ^^
(sonnst würde ich zum notorischen Kopfschüttler mutieren)
M.f.G. JVC
gibbet leider nicht über 2560*1600 :frown:
gruntzmaker
2020-12-09, 22:03:23
Wurde das schon gepostet?
RDNA2 und Ampere im Architekturvergleich @Techspot (https://www.techspot.com/article/2151-nvidia-ampere-vs-amd-rdna2/)
Da ich technisch eine echte Nulpe bin, probiere ich es mal einfach wiederzugeben.
NVIDIA verwendet Hardwarekomponenten, die spezielle Raytracing Aufgaben übernehmen.
AMD geht den Weg über möglichst starke und flexible Recheneinheiten, die möglichst die Stärken der Architektur nutzen sollen, um effizient zu arbeiten.
Ich kann mir gut vorstellen, dass AMDs Strategie aufgehen kann. Aber wenn man das weiß, wie unterschiedlich die Strukturen beider Ansätze sind, ist es kein Wunder, dass die 6800er so dermaßen schwach zB in Control aussehen. Im Grunde muss der Ansatz von AMD ja speziell angesprochen werden.
AintCoolName
2020-12-09, 22:34:25
Dieses Instruction Set white paper für RDNA2. Wie muss man das verstehen. Braucht man das als, ich sag mal Vulkan oder DX12 Entwickler? Mir kommt das so vor als wäre das eine Ebene darunter. Mich wundert wie wenig Raytracing darin vorkommt, ich dachte das würde mehr "dokumentation" brauchen.
pixeljetstream
2020-12-09, 23:30:39
braucht man nicht, ist aber hilfreich um kompilierten code zu verstehen und dann evtl AMD darauf hinzuweisen wo was besser sein koennte. Bei den Konsolen koennen Entwickler gezielter ihren code so anpassen, dass was gutes rauskommt, da hier mehr kontrolle ueber compiler ist. bei pc aendert der sich ja mit jeder treiberversion.
in erste Linie sind diese Dokumente um die open-source treiber zu ermoeglichen, denn die muessen ja sowas wie vulkan/opengl dann auf die hardware abbilden.
die top entwickler haben sowieso alle NDAs und kaemen auch an diese (und mehr) Informationen ohne dass es oeffentlich ist.
das ding was sich an "normale" entwickler richtet, ist das dokument hier:
https://gpuopen.com/performance/
crux2005
2020-12-09, 23:42:39
Wurde das schon gepostet?
RDNA2 und Ampere im Architekturvergleich @Techspot (https://www.techspot.com/article/2151-nvidia-ampere-vs-amd-rdna2/)
Kennt einer die Abmessungen vom N21?
Finde immer nur die gesamte Fläche ~520mm2. ;(
Armaq
2020-12-10, 00:42:42
Jetzt muss ich lange kalt duschen...
Kann ich aus Erfahrung empfehlen. ;)
basix
2020-12-10, 00:57:29
Kennt einer die Abmessungen vom N21?
Finde immer nur die gesamte Fläche ~520mm2. ;(
Kannst du geometrisch ermitteln anhand der Die Bilder: https://www.techpowerup.com/gpu-specs/amd-navi-21.g923
~28.2 x 18.4mm
Interessant, da N22 18.3 x 18.3mm messen soll. Das passt ganz gut, da bei N22 wohl N21 genommen wird und einfach der eine 40 CU Block weggeschnitten wird (veranschaulicht ausgedrückt). Die Breite des Chips von N22 könnte also exakt der von N21 entsprechen.
Mr.Scott
2020-12-10, 06:54:15
Schade... Kommt wohl kein 75Watt Navi
Zossel
2020-12-10, 07:24:59
braucht man nicht, ist aber hilfreich um kompilierten code zu verstehen und dann evtl AMD darauf hinzuweisen wo was besser sein koennte.
Auch als "normaler nicht Anwender" sollte man eine Vorstellung davon haben wie der Kram unten rum funktioniert., um sich hinterher nicht zu wundern warum die Kiste schon wieder so langsam ist.
Schon lustig was manche Leute in Ahnungslosigkeit so alles produzieren.
Berniyh
2020-12-10, 10:21:23
Schade... Kommt wohl kein 75Watt Navi
Wie kommst du da drauf?
Zossel
2020-12-10, 10:27:21
Aber wenn man das weiß, wie unterschiedlich die Strukturen beider Ansätze sind, ist es kein Wunder, dass die 6800er so dermaßen schwach zB in Control aussehen. Im Grunde muss der Ansatz von AMD ja speziell angesprochen werden.
Der Kram von NV muss auch speziell angesprochen werden. Ich sehe da kein Alleinstellungsmerkmal von AMD, sondern eine generelle Eigenschaft von Fixed-Function-Units.
davidzo
2020-12-10, 11:20:44
Wurde das schon gepostet?
RDNA2 und Ampere im Architekturvergleich @Techspot (https://www.techspot.com/article/2151-nvidia-ampere-vs-amd-rdna2/)
Finde den Artikel nicht so toll.
Zum einen gibt es in jedem Teil eine Wertung was besser ist von beiden Ansätzen, ohne jegliche differenzierte Gewichtung. Das finde ich grob vereinfachend, denn es gibt eben bei jeder Lösung viel mehr Parameter wie Diefläche, Energy-efficiency, program model, skalierbarkeit, auslastung, etc.
Beispiel: Beim Speichersystem spricht man den Sieg AMD zu, aufgrund von Energieefizienz und Auslastung, völlig außer acht lassend dass Amperes traditioneller Ansatz gerade in hohen Auflösungen immer noch in höhere Leistungssphären vorstößt. Gleichzeitig spricht man nvidia den Sieg bei den Compute units zu, berücksichtigt aber überhaupt nicht den Flächen- und Energieverbrauch bzw. die ggf. schlechte Auslastung der beim SI noch entscheidend war. Man erklärt nichtmal welche Kriterien man wie gewichtet.
Zum anderen finde ich dass am Ende der Artikel in einzelne Aufzählungen von technical-marketing folien zerfließt, die nichts mehr miteinander zutun haben. im I/O bereich werden rops, rtx-io und VRS munter und ohne Absätze durcheinander gemischt, ohne jeglichen überleitenden Satz.
Wirkt als wollte man schnell fertig werden.
btw, ich verstehe überhaupt nicht wieso RTX-IO überhaupt erwähnt wird, schließlich ist das noch überhaupt nicht aktiv weil DirectStorage bisher nur auf Konsolen gelauncht wurde. Außerdem ist DirectStorage natürlich auch ein basic feature von RDNA2, insofern herrscht da mindestens Parität sobald das feature in DX12 nachgereicht wird. Also wozu denn nvidias marketingfolien runterbeten wenn das alles sowieso theoretischer natur ist?
robbitop
2020-12-10, 11:21:52
Das sind dann größtenteils die 64 MiB L3 cache. Pro MiB sind es IIRC ein wenig mehr als 1 mm².
Redgamingtech sprach gestern sogar von 96 MiB. Heißt aber nicht, dass es wahr ist. Abwarten.
pixeljetstream
2020-12-10, 11:41:37
Redgamingtech sprach gestern sogar von 96 MiB. Heißt aber nicht, dass es wahr ist. Abwarten.
256 Bit : 128 mb
192 Bit : x mb
Klingt IMO schon plausibel. Wenn die Ratio funktioniert für sie. Warum ändern.
pixeljetstream
2020-12-10, 11:45:45
Finde den Artikel nicht so toll.
Zum einen gibt es in jedem Teil eine Wertung was besser ist von beiden Ansätzen, ohne jegliche differenzierte Gewichtung. Das finde ich grob vereinfachend, denn es gibt eben bei jeder Lösung viel mehr Parameter wie Diefläche, Energy-efficiency, program model, skalierbarkeit, auslastung, etc.
Sehe ich ähnlich, ist halt das grundsätzliche Problem, dass es praktisch keine Experten gibt die sowas machen können, weil die arbeiten für gewöhnlich dann ja bei den Hersteller Firmen selbst ;)
Andererseits gibt es auch keine wirklich faire Gewichtung / neutralen Schiedsrichter, weil wie du sagst es zu viele Faktoren sind. Insbesondere die wirtschaftlichen Aspekte unter denen das alles auch designed wird...
Iscaran
2020-12-10, 12:16:32
Die Gewichtung und Sieger-Ehrungen bei TechSpot hab ich gar nicht wahrgenommen :-). Aber die Erklärungen und Veranschaulichungen der unterschiedlichen Ansätze ist sehr gut.
mczak
2020-12-10, 17:21:02
256 Bit : 128 mb
192 Bit : x mb
Klingt IMO schon plausibel. Wenn die Ratio funktioniert für sie. Warum ändern.
Naja scheint mir schon eher viel, weil eben die rohe Speicherbandbreite / Flop doch deutlich höher ist. Da gibt es gute Gründe nicht mal eben ~30mm^2 Chipfläche zu verschwenden (und ganz egal wie der Cache genau organisiert ist, das Verhältnis der Menge zu den Anzahl Speicherkanälen ist auf jeden Fall mit wenig Aufwand änderbar).
Wobei verschwendet natürlich etwas übertrieben ist.
edit: wobei natürlich wenn sich die Grösse des Chips bestätigt das schon für jede Menge Infinity Cache sprechen würde...
Zossel
2020-12-10, 18:55:44
Sehe ich ähnlich, ist halt das grundsätzliche Problem, dass es praktisch keine Experten gibt die sowas machen können, weil die arbeiten für gewöhnlich dann ja bei den Hersteller Firmen selbst ;)
Andererseits gibt es auch keine wirklich faire Gewichtung / neutralen Schiedsrichter, weil wie du sagst es zu viele Faktoren sind. Insbesondere die wirtschaftlichen Aspekte unter denen das alles auch designed wird...
Ich tippe eher darauf das sich Artikel welche ungefähr wie folgt abwägen:
Feature A ist bei Workloads vom Typ A' besser aber schlechter bei Workloads vom Typ B'.
Feature B ist bei Workloads vom Typ B' besser aber schlechter bei Workloads vom Typ A'.
weniger gelesen werden weil die weniger Emotionen erzeugen. Schau doch einfach mal was gut geht und was nicht. Und Klicks sind Geld.
-/\-CruNcher-/\-
2020-12-10, 19:06:00
Da ich technisch eine echte Nulpe bin, probiere ich es mal einfach wiederzugeben.
NVIDIA verwendet Hardwarekomponenten, die spezielle Raytracing Aufgaben übernehmen.
AMD geht den Weg über möglichst starke und flexible Recheneinheiten, die möglichst die Stärken der Architektur nutzen sollen, um effizient zu arbeiten.
Ich kann mir gut vorstellen, dass AMDs Strategie aufgehen kann. Aber wenn man das weiß, wie unterschiedlich die Strukturen beider Ansätze sind, ist es kein Wunder, dass die 6800er so dermaßen schwach zB in Control aussehen. Im Grunde muss der Ansatz von AMD ja speziell angesprochen werden.
Mag sein aber das limit ist immernoch 2 zu 1 selbst wenn du optimierst der overhead mit Nvidias solution wird immer einen ticken höhere komplexität erlauben wenn das Power Limit nicht bremst speziel optimieren in dem fall heist die komplexität reduzieren um diesen Verlust auszugleichen.
Es wird mehr Aufwand erfordern innerhalb der Skalierung allerdings, um Nvidias Performance zu erreichen brauchst du Saft viel Saft. Der gleichstand zwischen beiden wird mit 3070/6800 erreicht, weil hier bei beiden der Saft raus ist.
Ich kann diesen 8N Zufall nicht glauben alles sieht danach aus als wurde alles von vornherein bis ins Letzte so kalkuliert Ampere Gaming hätte effizienter sein können so viel ineffizienter ist er aber auch nicht und DLSS wie gesagt kompensiert einiges weg es gleicht den Node Nachteil aus, mir kann keiner erzählen, dass das Zufall ist,das trotz des schlechteren Nodes diese Features AMDs Nativ shrink advantage momentan noch so ausgleichen.
Man sieht doch eindeutig nur einen Gleichstand mit 2 verschiedenen Ansätzen (bei nicht extremer Optimierung), der kann aber auch ganz schnell wieder weg sein.
Die 6800 wird bald mit dem selben Verbrauchstarget von einem aus dem Salvage heraus angepassten GA102 auch Nativ geschlagen werden das ist garantiert und wird beachtlich werden weil es trotz 8N weiter die Überlegenheit zementiert.
Und wie gesagt die insgesamt Effizienz aller verbauten Komponenten und deren Zusammenspiel das schauen sich die wenigsten reviewer im extreme detail an.
So gesehen finde ich AMDs Preis diesmal ehrlich gesagt unverschämt und kann nicht glauben, dass sie den nur auf die +10 FPS Nativ Raster Vorteil beziehen (den man unoptimiert nun mal vorerst am meisten sieht) der aber mit DLSS History ist und teils übertrumpft wird.
Zen 2 war nicht umsonst billiger gegen Intel und eigentlich hätte man dasselbe hier auch erwarten sollen mit Navi aber es läuft ad absurdum und jeder kauft es.
Navi 21 ist nichts anderes als Zen 2 gut aber überholt Nvidia noch kein Stück wie viele es scheinbar sehen möchten und wie AMD teils versucht den Preis zu rechtfertigen.
Nvidia wird RDNA3 auch einen Kampf bieten und die Vorteile, die sie hier noch in Reserve haben weiter ausfahren + was obendrauf setzen.
Allerdings ist das auch gut wie es gelaufen ist Nvidia konnte den Preis nicht wieder in den Himmel pushen und unterbietet ihn jetzt sogar und liefert dieselbe gewohnte Performance über die Experimentelle Hintertür (DLSS) und umso tiefer wir hinuntersteigen im Stack umso essentiell wichtiger kann es werden z. B. ein stabiles 33 ms Target on the Edge zu erreichen.
Keine Ahnung wieso ich das ganze nicht so euphorisch betrachte wie die meisten Reviewer.
Ja es ist kein neuer AMD fail aber die Preise sind noch nicht wirklich gerechtfertigt.
AMD hat es geschafft GCN was jetzt RDNA genannt wird nach ihrem VLIW ausstieg und einstieg in Nvidias Scalar Field endlich ebenbürtig zu machen allerdings hinken sie noch knapp 0.5/1 Generation hinterher vorher deutlich 2.
Beim UVD/VCN vs dem VPX/PureVideo hinken sie noch ordentlich zurück, wobei zu wenige wirkliche indepth scientific und usecase tests existieren aber einiges deutet daraufhin das VCN immer noch weit unterlegen ist (und immernoch nur an der minimalistischen avg user usecase Web Streaming/Blu-Ray kante designed wird) und das hat nichts mit den möglichen Features in den Whitepapern zu tun sondern deren tatsächlich umgesetzte Effizienz auf verschiedenen ebenen bei denen weder Nvidia noch AMD Land gegen Intel sehen z.b. allerdings sind das auch teils Effizienz gründe was den Architekturnachteil einer Discrete GPU Implementation angeht.
Da ist Intel mit AMD und Nvidia noch schwer vergleichbar AMD und Nvidia aber sehr wohl untereinenader und wenn man schon so simple Sachen in Linus seinen AVG user tests failen sieht Naja da bekommt man gar nicht erst Lust das Ding mit komplexeren Tasks unter feuer zu nehmen.
Roboter (Autonome Fahrzeuge) würde ich damit nicht bauen wollen ;)
Mr.Scott
2020-12-10, 20:51:09
Wie kommst du da drauf?
News vom 08.12.
NV22 TBD:
– 90 / 110 / 135 W TGP
– 160-bit wide memory interface (up to 5 memory chips)
Unicous
2020-12-10, 21:05:55
Das ist Navi 22. Gibt auch noch Navi 23, dessen SKUs sollen eine Total Graphics Power ab 65W haben. Da das Mobile Chips sind dürfte da nicht mehr viel fehlen und 75W TDP könnten da erreicht werden.
OpenVMSwartoll
2020-12-10, 21:33:56
Mag sein aber das limit ist immernoch 2 zu 1 selbst wenn du optimierst der overhead mit Nvidias solution wird immer einen ticken höhere komplexität erlauben wenn das [...]
Eine Riesenbitte: Kannst Du nicht versuchen, verständlich zu schreiben? Ich ertappe mich seit Monaten bei Deinen Texten dabei, Deinen Namen zu lesen und angesichts des Denglischen und der mangelnden Interpunktion Deine Texte nicht mal mehr zu überfliegen, obgleich ich den Verdacht habe, daß es sich inhaltlich lohnen könnte.
Doch warum soll der Leser mehr Energie investieren als der Schreiber?
w0mbat
2020-12-10, 22:02:42
Ziemlich keck für 25 Beiträge in 2 1/2 Jahren...
Unicous
2020-12-10, 22:23:26
Er hat recht. Ich habe cruncher schon länger auf ignore, weil seine Beiträge bei mir Hirnaneurysmen auslösen. Habe mich schon gewundert warum ich ihn auf ignore habenund dann ist mir aufgefallen, dass er vor 2 Jahren aufgehört hat zu posten und sich seit dem nichts geändert hat.:rolleyes:
Berniyh
2020-12-10, 22:41:29
News vom 08.12.
NV22 TBD:
– 90 / 110 / 135 W TGP
– 160-bit wide memory interface (up to 5 memory chips)
Ach so, das war nur auf Navi 22 bezogen. Na das doch halb so schlimm.
Es wird ja auf jeden Fall noch was unter Navi 22 kommen, sei es nun Navi 23 (sofern der denn für Desktop auch kommt) oder Navi 24 (sofern das ein regulärer Desktop Chip ist).
Zossel
2020-12-10, 23:00:48
Ziemlich keck für 25 Beiträge in 2 1/2 Jahren...
Wo er recht hat, hat er recht. Und selbst mit einem Posting in 10 Jahren kann man recht haben.
Mr.Scott
2020-12-11, 07:20:13
Ach so, das war nur auf Navi 22 bezogen. Na das doch halb so schlimm.
Es wird ja auf jeden Fall noch was unter Navi 22 kommen, sei es nun Navi 23 (sofern der denn für Desktop auch kommt) oder Navi 24 (sofern das ein regulärer Desktop Chip ist).
Würde mich sehr freuen.
Wäre perfekt für meinen office PC
Dschounz
2020-12-11, 07:34:43
Wo er recht hat, hat er recht. Und selbst mit einem Posting in 10 Jahren kann man recht haben.
+1
Und ich dachte, nur mir geht es so mit Crunchers Postings ;D.
robbitop
2020-12-11, 08:28:00
256 Bit : 128 mb
192 Bit : x mb
Klingt IMO schon plausibel. Wenn die Ratio funktioniert für sie. Warum ändern.
Ich gehe davon aus, dass ein halber N21 auch nur halbe Bandbreite bräuchte. Mit 192bit und 96 MiB Cache wäre die wesentlich weniger eingeschränkt.
AintCoolName
2020-12-11, 09:45:49
Radeon™ Memory Visualizer is now Open Source
https://gpuopen.com/rmv-opensource/
zig8ygDq4UI
basix
2020-12-11, 11:04:49
Radeon™ Memory Visualizer is now Open Source
https://gpuopen.com/rmv-opensource/
Ich finde es noch krass, dass man so ein Tool Open Sourced. Da steckt viel Entwicklungsaufwand dahinter. Da man nicht allzu viele HW Konkurrenten hat, welche zudem eigene Tools mitbringen, geht das aber wohl. Und es ermöglicht, dass Spielenentwickler sich effizient Zusätze dazu bauen können oder AMD Profiler Funktionen in ihre eigenen Tools integrieren können. Win für AMD.
Was ich als 6800XT-Benutzer äußerst sympatisch finde ist die Tatsache, dass eine slighly-OC 6800XT über einer 6900-Ref rauskommt. Keine viele Teuronen verbrannt. Spannend finde ich trotzdem die 6900XT AiO von Asus, mit 525W. Das VBios sollte doch sehr speziell sein :)
Radeon™ Memory Visualizer is now Open Source
https://gpuopen.com/rmv-opensource/
https://youtu.be/zig8ygDq4UI
Und wieder mal ein Danke an AMD, das Sie für Alle arbeiten :up:
M.f.G. JVC
sklave_gottes
2020-12-12, 18:05:58
Ich gehe davon aus, dass ein halber N21 auch nur halbe Bandbreite bräuchte. Mit 192bit und 96 MiB Cache wäre die wesentlich weniger eingeschränkt.
Von der DIE-Size (speku: 335mm²) wäre auch folgendes möglich:
128Bit Speicheranbindung + 128 MiB I-Cache
oder gibt es schon sichere Infos bezüglich der Speicheranbindung?
-/\-CruNcher-/\-
2020-12-12, 18:31:32
https://gpuopen.com/learn/radeon-prorender-2-0/
RA Core support
3G25-2nu1go
davidzo
2020-12-13, 01:13:05
Von der DIE-Size (speku: 335mm²) wäre auch folgendes möglich:
128Bit Speicheranbindung + 128 MiB I-Cache
oder gibt es schon sichere Infos bezüglich der Speicheranbindung?
Ja, 192bit SI +12GB und 16ß0/10GB per Salvage gilt als gesichert. Die Daten sind von Patrick Schur und die kann man als bestätigt ansehen. Er entwickelt das atitool, morepowertool etc. und bekommt von AMD anscheinend regelmäßig bestimmte Hardwaredaten schon vorab um die Tools vorm Launch schon fit zu machen.
patrickschur
2020-12-13, 10:33:53
Das atitool wird nicht von mir entwickelt, sondern von AMD. Ich stelle es nur als Download zur Verfügung.
Das MorePowerTool wird auch nicht von mir entwickelt, sondern von hellm. Ich habe Igor nur das VBIOS für Navi 21/22/23 gegeben. Er hat es wiederum an hellm weitergegeben, welcher wiederum das Tool angepasst hat.
Cyberfries
2020-12-13, 12:38:19
Die spekulierten 96mb Inf$ für N22 kamen mir etwas hoch vor.
Ich habe mal etwas gekritzelt auf Basis Locuzas toller N21-Analyse, mit den bekannten Ausmaßen.
Der Argumentation, dass die Fläche für nur 48mb zu groß ist, schließe ich mich an.
Für 96mb reicht das aber nicht, eher 64mb, maximal 80mb, also doch 12x tccs, 8x Inf$ -> 12x 16bit?
Allerdings ist das Ausgangsbild eine AMD-Visualisierung, kein echter Die-Shot.
Auch habe ich CF+GE sowie IO-Bereich unverändert übernommen, da könnte es auch Änderungen geben.
Kurz gesagt: Zuviel Zeit in Gimp verschwendet für keinerlei neue Erkenntnisse.
davidzo
2020-12-13, 12:39:12
Das atitool wird nicht von mir entwickelt, sondern von AMD. Ich stelle es nur als Download zur Verfügung.
Das MorePowerTool wird auch nicht von mir entwickelt, sondern von hellm. Ich habe Igor nur das VBIOS für Navi 21/22/23 gegeben. Er hat es wiederum an hellm weitergegeben, welcher wiederum das Tool angepasst hat.
okay, sorry missinterpretation X-D
Die spekulierten 96mb Inf$ für N22 kamen mir etwas hoch vor.
Ich habe mal etwas gekritzelt auf Basis Locuzas toller N21-Analyse, mit den bekannten Ausmaßen.
Der Argumentation, dass die Fläche für nur 48mb zu groß ist, schließe ich mich an.
Für 96mb reicht das aber nicht, eher 64mb, maximal 80mb, also doch 12x tccs, 8x Inf$ -> 12x 16bit?
Allerdings ist das Ausgangsbild eine AMD-Visualisierung, kein echter Die-Shot.
Auch habe ich CF+GE sowie IO-Bereich unverändert übernommen, da könnte es auch Änderungen geben.
Kurz gesagt: Zuviel Zeit in Gimp verschwendet für keinerlei neue Erkenntnisse.
Gucke wir dasselbe Bild an? Bei mir bleibt da deutlich mehr als die Hälfte der blauen Fläche erhalten. Eher 2/3 von 128mb...
Auch hast du vergessen das Frontend zu verkleinern, Navi22 hat nur 1 GCP statt 2 bei BN. Der Grüne Logikpatchk rechts wird auch deutlich kleiner sein, weil nur die hälfte an SDMA engines vorhanden ist, nur eine statt zwei VCN3 Engines vorhanden sind etc.
335mm2 sind einfach zu groß für eine reine Halbierung ausgehend von den 520mm2 von Navi21. Ich sehe die 96mb IF$, das 192bit SI als aktuell einzige Erklärungsmöglichkeit.
Iscaran
2020-12-13, 15:53:38
Es sind 192 bit und 96 MB.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12530904#post12530904
Also mit den alten Werten aus dem Speku-Thread käme man auf:
97.80 mm^2 für 40 CUs
48.96 mm^2 für 192 Bit SI
37.72 mm^2 für Frontend
10.85 mm^2 für GPU Core
86.61 mm^2 für 128 MB InfCache (0.6766 mm^2 pro MB)
Summe: 328.6 mm^2
mit 96 MB Cache sinds nur 306.9 mm^2
DA aber mit obigen Rechnungen Navi21 auch zu "klein" ausfällt (489.4 mm^2) = +6.2564% (gegenüber den echten 520 mm^2).
=> Skaliere ich also die obigen Chipgrößen noch mit 1.062564 ergeben sich:
128 MB Cache: 349.2 mm^2
96 MB Cache: 326.2 mm^2
Letzteres erscheint mir plausibler zu sein und ist auch näher an den kolportierten 332 mm^2 dran.
=> Navi 22 hat 96 MB Cache.
Cyberfries
2020-12-13, 18:47:58
Gucke wir dasselbe Bild an?
Nicht nur Bilder anschauen, auch Lesen und Verstehen.
Von 96mb gehe ich ebenfalls aus, jeden einzelnen der Punkte habe ich schließlich selbst genannt.
1. Da steht ausdrücklich die Vergangenheitsform (kam)
2. zu zwei Dritteln: 62%, deshalb steht da auch: 80mb
3. Auf CF+GE und IO habe ich explizit hingewiesen.
Neurosphere
2020-12-20, 00:53:17
Da ich mir grad das Video von Igor zur 3080 ti angeschaut habe:
Er sagt ja das RDNA2 ein Problem mit den Cache hat in 4k. Man kann ihn nicht optimal nutzen weil die Hit Rate wohl sinkt. Ist das ein generelles Problem in Hardware oder etwas das sich über Treiber etc. optimieren lassen könnte?
y33H@
2020-12-20, 01:18:48
Probleme nicht direkt, aber mit steigender Auflösung sinkt halt die Hit Rate.
73116
horn 12
2020-12-20, 01:46:09
Sieht schlimmer aus als es ist!
Aber muss jeder selber wissen und Testen!
y33H@
2020-12-20, 02:06:44
Äh ja ...
aufkrawall
2020-12-20, 02:41:58
Probleme nicht direkt, aber mit steigender Auflösung sinkt halt die Hit Rate.
73116
Nur muss das nicht heißen, dass so die reale Bandbreite in 4k anfängt ein Problem zu werden. Sie kann auch schlicht einfach noch ordentlich ausreichen, worauf die bisher durchgeführten VRAM-Takt-Skalierungstests afair hindeuten. Oder etwa nicht?
Langlay
2020-12-20, 03:00:32
Nur muss das nicht heißen, dass so die reale Bandbreite in 4k anfängt ein Problem zu werden. Sie kann auch schlicht einfach noch ordentlich ausreichen, worauf die bisher durchgeführten VRAM-Takt-Skalierungstests afair hindeuten. Oder etwa nicht?
Yap, Ampere ist halt bei 4K besonders stark. Im Vergleich 2080ti vs. 6800XT bleibt der Performanceunterschied zwischen den Karten in 1440p und 4k ziemlich gleich. Ampere wird halt in 4K stärker.
fondness
2020-12-20, 10:11:22
Probleme nicht direkt, aber mit steigender Auflösung sinkt halt die Hit Rate.
73116
Das Problem ist, dass sehr viele Halbwahrheiten verbreitet werden. Der Cache hat eine Bandbreite von 2TB/s. Selbst bei eine Hitraten von unter 50% hätte Navi21 noch immer wesentlich mehr Bandbreite als es eine Geforce 3090 bsw. jemals haben wird. Ampere schafft es nur nicht seine Einheiten in Auflösungen <4K auszulasten und wie üblich wird es so hingedreht als wäre es ein AMD Problem.
dargo
2020-12-20, 10:23:05
Probleme nicht direkt, aber mit steigender Auflösung sinkt halt die Hit Rate.
73116
Ich sehe da immer noch eine Hitrate von >50% bei 4k. Und deswegen das ganze "Drama"? Zumal die Hitrate das eine ist und eine genaue Messung das andere was es im Endeffekt an fps kostet.
ChaosTM
2020-12-20, 10:34:46
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/#abschnitt_5kaufloesung_mit_hoher_performance <-5k BM
An der Bandbreite liegt es nicht :)
Ich warte auf jeden Fall noch Cyberpunks RT ab und entscheide dann.
Oder doch auf RDNA3 warten - wenn das wirklich wieder 50% bessere Performance/Watt drauf legt wird das ein Monster.
Lehdro
2020-12-20, 11:02:39
Ampere schafft es nur nicht seine Einheiten in Auflösungen <4K auszulasten und wie üblich wird es so hingedreht als wäre es ein AMD Problem.
Das ist ja gerade so schizophren: Jahrelang brauchte AMD hohe Auflösungen um GCN richtig auszulasten, da war es eine "1080p Schwäche" von AMD. Jetzt hat NV dasselbe Problem, auf einmal hat AMD die "4k Schwäche", obwohl jeder Skalierungstest zeigt das Ampere hier der Ausreißer ist und eben nicht mehr AMD. AMD stellt in 1080p und 1440p teilweise die schnellsten Karten und trotzdem ist NV die Referenz an denen man gemessen wird - anders als früher, als NV die Referenz dort und auch überall sonst war. Es gibt eine komplett verdrehte Welt im Sinne der Skalierung, aber trotzdem bleibt es AMD die eine "Schwäche" haben. Schon ein bisschen lächerlich. Objektiv gesehen halt komplett falsch und schon ein bisschen heuchlerisch, so etwas als Schwäche darzustellen, wenn es in der Realität das Erwartbare ist. Ebenso hat Ampere keine 4k "Stärke", sondern "nur" eine 1080p "Schwäche". Ampere liefert die zu erwartende Leistung eben nur unter hohen Auflösungen ab - das kann keine Stärke sein, sondern ist eher eine Schwäche.
erlgrey
2020-12-20, 11:10:15
Dazu muss man auch sagen, jetzt erst ist wirklich die Performance für 4k da, und langsam werden diese Auflösungen sinnvoll nutzbar. AMD hat früher zwar besser skaliert bei höheren Auflösungen, allerdings war alles auf einem so niedrigen Niveau, dass es nüchtern betrachtet einfach keine Rolle gespielt hat.
Bisserl verkehrt eben..
Der_Korken
2020-12-20, 12:39:45
Ob der Infinity Cache in 4K zu klein ist oder nicht, kann man imho nur dadurch beantworten, dass man geeignete Speicherskalierungstests durchführt**. Ansonsten ist das nur ein Stochern im Nebel und auch der Vergleich zu Ampere funktioniert imho nicht, weil sich Turing ähnlich verhält wie RDNA2 - hier ist also eher Ampere der Außenseiter und nicht RDNA2.
**Geeignet heißt: Einen breiten Bereich (z.B. Faktor 2) abdecken, d.h. GPU-Takt fixieren und VRAM-Takt variieren - notfalls mit GPU-Underclocking, um ein Szenario zu simulieren, indem RDNA2 mehr Bandbreite (im Verhältnis zur Rechenleistung) hätte. Beim vollem GPU-Takt schaffen die N21-Karten kaum 7% mehr VRAM-Takt bevor die Leistung durch Fehlerkorrektur wieder abnimmt, da sind jegliche Zuwächse fast schon im Bereich der Messtoleranz.
pixeljetstream
2020-12-20, 12:50:30
Probleme nicht direkt, aber mit steigender Auflösung sinkt halt die Hit Rate.
73116
In dem Bild sind drei weiße x bei 64, 96 und 128 MB. Sollten also die drei Cachegrößen sein die wir sehen werden
Weißt du mehr, oder ist das nur kompetent gedeutet? :D
MfG
Raff
pixeljetstream
2020-12-20, 13:17:35
Weißt du mehr, oder ist das nur kompetent gedeutet? :D
MfG
Raff
Danke meine Kompetenz mit "nur" zu versehen ;)
dargo
2020-12-20, 13:55:49
Weißt du mehr, oder ist das nur kompetent gedeutet? :D
MfG
Raff
Jetzt sag mir nicht du hättest nicht damit gerechnet, dass die kleineren Navis mit 64MB und 96MB IFC kommen? :freak:
Danke meine Kompetenz mit "nur" zu versehen ;)
Du weißt, wie's gemeint ist. :D
Jetzt sag mir nicht du hättest nicht damit gerechnet, dass die kleineren Navis mit 64MB und 96MB IFC kommen? :freak:
Mit was ich rechne und was am Ende gemacht wird, das sind zwei grundverschiedene Dinge. Ich hätte zum Beispiel nicht damit gerechnet, dass AMD echt eine RX 5600 XT mit nur 6 GiByte herausbringt. Haben sie aber. Bei Nvidia war die Knauserei hingegen - leider - nicht so überraschend. Eine RX 6700 (XT) mit 128 MiB L3-Cache wäre auch denkbar und wohl ziemlich geil. Dennoch: Fakten sind erst Fakten, wenn sie dem Imagination-Status erwachsen sind.
MfG
Raff
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/#abschnitt_5kaufloesung_mit_hoher_performance <-5k BM
An der Bandbreite liegt es nicht :)
Ich warte auf jeden Fall noch Cyberpunks RT ab und entscheide dann.
Oder doch auf RDNA3 warten - wenn das wirklich wieder 50% bessere Performance/Watt drauf legt wird das ein Monster.
Ich befürchte die RT Leistung in Cyberpunk auf RDNA2 wird ähnlich schlecht sein wie in Control, also viel zu langsam, erst Recht ohne DLSS Equivalent.
Eigentlich wollte ich mir eine 6800XT zulegen überlege aber mittlerweile ob es deshalb nicht doch eine 3080 wird.
basix
2020-12-20, 18:34:01
In dem Bild sind drei weiße x bei 64, 96 und 128 MB. Sollten also die drei Cachegrößen sein die wir sehen werden
Das mit den weissen X habe ich schon vor Wochen gesagt (dass das ein Indiz sein könnte). Wir werden sehen ;)
dargo
2020-12-20, 20:08:31
Eine RX 6700 (XT) mit 128 MiB L3-Cache wäre auch denkbar und wohl ziemlich geil.
Nein... sie wäre Geldverschwendung.
gruntzmaker
2020-12-21, 17:41:37
Ich befürchte die RT Leistung in Cyberpunk auf RDNA2 wird ähnlich schlecht sein wie in Control, also viel zu langsam, erst Recht ohne DLSS Equivalent.
Eigentlich wollte ich mir eine 6800XT zulegen überlege aber mittlerweile ob es deshalb nicht doch eine 3080 wird.
Salopp gesagt:
Wenn Raytracing Dir wichtig ist, solltest Du keine AMD Karte derzeit kaufen. Ist einfach so. Hab selbst eine RX 6800.
Aber mir war das auch vorher klar, ich komme ohne Raytracing aus, in einem Jahr aber könnte die RDNA 2 bereits wieder obsolet sein.
Die RDNA 3 Technik wird dann wahrscheinlich nochmals verbesserte Hardware haben. Völlig klar. Bei Raytracing ist die Lernkurve der Hersteller steil.
Aber das heutige Raytracing ist ohnehin technisch nicht mal richtiges Raytracing und damit kann man auch es recht entspannt sehen.
Wegen DLSS: Kleiner Tipp, guckt euch mal Sapphire Trixx an.
https://www.sapphiretech.com/de-de/software
Es macht etwas stark Vereinfachtes davon, soll aber ausser mit Sapphire Karten auch mit Karten anderer Hersteller funktionieren.
Zudem: Partnerschaften mit Microsoft und Sony sind alles andere als ein Sargnagel für AMD, waren sie davor ja auch nicht. Die RDNA 2 ist stark, wirklich sehr sehr stark.
Bei mir hat die 6800er mit einer 3070 in den Planungen konkurriert. Aber 8 GByte VRam machen aus einer 3070 in Zukunft auch kein Raytracing Monster, davon kann man ausgehen.
TLDR Version: Abwarten und AMD machen lassen, Raytracing auf RDNA2 wird noch gut werden!
Nein... sie wäre Geldverschwendung.
Nö, nur ein spezieller Kompromiss, wie auch Navi 21 einen darstellt. So gesehen sind die 16 GiB auch "Geldverschwendung". Dabei kann man (Zwischen-)Speicher nie genug haben. :)
Großer Cache = etwas teurerer Chip -> Ich komme mit 128 Bit und Gammel-RAM aus (billiger Rest)
Kleiner Cache = billiger Chip -> Ich muss alles Nvidia'esque hochballern (Suff und externe Kosten)
MfG
Raff
horn 12
2021-01-02, 23:58:39
Navi 21
mit HBM womöglich für RTX 3080 TI
https://videocardz.com/newz/amd-navi-2x-xtxh-and-nashira-point-gpus-spotted
Platos
2021-01-03, 00:41:57
3080Ti ???
Und wie kommst du auf HBM? Warum sollte AMD nun doch HBM Speicher bringen, wenn sie doch extra zwecks Bandbreite den infinity cache nutzen?
SKYNET
2021-01-03, 00:45:05
3080Ti ???
Und wie kommst du auf HBM? Warum sollte AMD nun doch HBM Speicher bringen, wenn sie doch extra zwecks Bandbreite den infinity cache nutzen?
weil 128MB cache für 128CUs evtl. nicht mehr ausreichen? ;)
Platos
2021-01-03, 00:57:57
Wo steht da was von 128 CUs?
Es war ja schon länger die Rede davon, dass 2 N21 existieren sollen. Das wäre dann einfach ein 80 CU N21 mit HBM statt GDDR, das ist alles. Man könnte damit ne RX Fury machen mit 24GB und den Salvage davon als Radeon Pro verwenden.
Der_Korken
2021-01-03, 01:46:57
Finde das schon komisch, dass man so einen großen Die nochmal auflegt mit minimaler Änderung. Braucht man dann überhaupt noch den Cache? Mit HBM2 kriegt man doch easy >1TB/s an Bandbreite. Wobei sich dann die Frage stellt, warum man so einen Chip nicht gleich gebracht hat, wenn man mit 100mm² weniger die gleiche Leistung hätte haben können auf Kosten etwas teureren Speichers. Wobei ... dann würden sich zusätzlich auch noch die Miner um die wenigen Karten hauen ;D.
reaperrr
2021-01-03, 03:00:56
Es war ja schon länger die Rede davon, dass 2 N21 existieren sollen. Das wäre dann einfach ein 80 CU N21 mit HBM statt GDDR, das ist alles. Man könnte damit ne RX Fury machen mit 24GB und den Salvage davon als Radeon Pro verwenden.
:freak:
Es gab noch einen Prototyp mit 384bit SI ohne IF$, der im Gesamtpaket aber schlechter als die IF$-Variante mit 256bit SI abgeschnitten hat.
Wenn es wirklich zusätzlich noch eine HBM-Variante geben sollte, dann maximal exklusiv für Apple, weil die AMD die Entwicklung bezahlt und genug Marge in ihren Produkten haben, um die HBM-Aufpreise schlucken zu können.
Aber dieser "AMD bringt bestimmt noch ein HBM-Modell für Gamer"-Irrsinn wird wohl leider nie wieder verschwinden, weil manche Leute einfach nicht kapieren (wollen), dass das sowohl vom Aufwand und erst recht vom Performance-Ertrag für Gaming-Karten null Sinn macht.
Im Übrigen: Bei diesen Einträgen deutet alles daruf hin, dass sie sich auf N21 wie wir ihn kennen beziehen, genauer gesagt eine spezielle XTX-Variante (XTXH). H wie H2O = Wakü? Gab es bei Vega ja auch, und könnte dann tatsächlich als 3080Ti-Konter taugen.
Platos
2021-01-03, 03:35:46
Es war vor allem nie "die Rede" von HBM. Vlt. irgendwo in Foren, aber mehr auch nicht. Der Artikel spricht nicht ein Wort von HBM und es deutet auch nicht wirklich etwas darauf hin und alles bisherige (infinity Cache) spricht da dagegen.
Apple ok, aber sicherlich keine Gamingvariante. Eine wassergekühlte Version kam mir auch schon in den Sinn, hab aber gar nicht an H20 gedacht.
Vor allem Bringt HBM für Gaming genau gar nichts. Es würde also die Karte kein bisschen schneller machen, aber es würde die Karte teurer machen. Also ein noch schlechterer Konter gegen eine 3080Ti.
Wassergekühlt macht da noch am ehesten Sinn. Damit kann man dann vlt. noch ein paar Prozentchen raus quetschen und steht etwas besser da.
Ihr Immer mit eurem Apple, so ein Unsinn. Apple ist vorbei. Und die 384bit Variante gab es auch nicht als Prototyp sondern höchstens als Simulation :freak:. Man entwickelt keinen Chip um damit was zu testen und schmeißt den dann weg. Wir reden hier von Millionen Kosten und von wertvollen Mannstunden. Man entwickelt nur dann einen Chip, wenn man damit Marktbereiche abdecken kann und das kann mit einer HBM-Variante durchaus, weil der
a.) über 2,5GHz besser skaliert und
b.) für Profianwendungen echte Bandbreite unverzichtbar ist
Das ist zwar alles dennoch unwahrscheinlich, aber man kann ja trotzdem darüber nachdenken, wo dann der Sinn liegen könnte.
horn 12
2021-01-03, 09:56:00
Dann kommt laut Dir ein RTX 3080 TI Konter
und eine Variante mit mehr CU´s daher (96CU)
Quatsch, es kommt sicherlich nix, also ich würd da jetzt nix erwarten. Das wäre eine Variante, die einen gewissen Sinn hat, aber nicht mit 96 CUs, wenn es ein N21 ist :freak:.
horn 12
2021-01-03, 10:21:45
Dann 80 CU und eine AIO - Lösung
für die damals angepeilten 3 Ghz Takt ?
AMD haut eines nach dem Anderen Raus, auch wenn kaum Lieferbar.
Die geben einfach nicht auf und lassen die Konkurrenz im Keim ersticken und nervöser werden.
Badesalz
2021-01-03, 10:34:38
Mit was ich rechne und was am Ende gemacht wird, das sind zwei grundverschiedene Dinge. Ich hätte zum Beispiel nicht damit gerechnet, dass AMD echt eine RX 5600 XT mit nur 6 GiByte herausbringt. Haben sie aber. Bei Nvidia war die Knauserei hingegen - leider - nicht so überraschend. Eine RX 6700 (XT) mit 128 MiB L3-Cache wäre auch denkbar und wohl ziemlich geil. Dennoch: Fakten sind erst Fakten, wenn sie dem Imagination-Status erwachsen sind.So eine 5600XT Pulse mit 6GB, würde imho eine 5700 noch obsoleter machen als ohnehin. Was ich aber auch ok gefunden hätte.
Für alle die von Kontern und Gegenkontern schwadronieren... könnte man sich langsam die Frage stellen - und ich weiß, daß dies auf dem Plan steht - ob man sein Protfolio wirklich dermassen granulieren muss.
Wenn ich das hier sehe https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/#abschnitt_6900_xt_6800_xt_2080_ti_3080__3090_bei_270_watt rkenne ich die Aufregung nicht. Weder warum AMD irgendwas kontern müsste noch warum es Probleme geben sollte, es dann doch zu tun.
Seit Ewigkeiten ist es nicht nur genug um sich knapp übers Wasser zu halten, sondern um mitzuschwimmen. Die Spannung, ob sie es wenigstens diesmal einmal etwas in die Richtung hinbekommen, ist bei mir verflogen. Von daher...
Einerseits. Andererseits hat sowas alles aktuell eh nur den Touch von Esoterik. Bei den Grünen wie bei den Roten. Ein Händler erzählt mir vor Weihnachten, noch hat er die Zusage, er bekommt irgendwoher Mitte 04.2021 noch die 5600xt pulse. Nur mal so... Bei Fragen nach Rdna2 und Ampere gibt es nur wehleidige Blicke. Überall.
Wenn man als Normalo 3DC besucht, fühlt man sich mittlerweile als wenn man im Darknet unterwegs wäre wo sich grad welche über seltenste Hehlerwaren austauschen :freak:
vinacis_vivids
2021-01-03, 10:38:45
96CUs wegen der 3080Ti? 😂
Wie dumm ist das denn?
Effizienter und kostensparender ist ein refresh mit 1. Höheren Taktraten und 2. Schnellerer Speicher.
Die 520mm^2 Die sind im Consumer - Desktopbereich absolute Limits.
Navi21 ~ 520mm^2
Vega10 ~ 464mm^2
Fiji ~ 596mm^2
Am ehesten gibs ein refresh/relabel der 6800/6800XT/6900XT zur einer RX6850/6850XT/6950XT.
Die 6950XT bzw. XTX könnte AMD besonders hochtakten auf 3Ghz max.CLK @ H20 und zusätzlich wegen dem Prestige mit 32GB VRAM ausstatten. Dazu noch IF-OC auf 2Ghz. Wäre aber totaler overkill und overpriced fürs Desktop. Als limited Edition denkbar bzw. vorstellbar für 3000€ pro Karte.
Die 6850XT mit 2.7GHz und 768GB/s GDDR6X.
Die 6850 mit 2.5Ghz und 640GB/s GDDR6X.
Badesalz
2021-01-03, 10:49:18
Die 6950XT bzw. XTX könnte AMD besonders hochtakten auf 3Ghz max.CLK @ H20 und zusätzlich wegen dem Prestige mit 32GB VRAM ausstatten.Um gegen was nochmal anzutretten? Für sowas lässt Lisa keine Kohle mehr verpulvern. Man WIRTSCHAFTET seit einiger Zeit und sollte lieber weiterhin dabei bleiben.
dargo
2021-01-03, 11:13:45
weil 128MB cache für 128CUs evtl. nicht mehr ausreichen? ;)
Aha... und was hindert AMD daran den Cache für eine hypothetische 128CUs SKU zu vergrößern sofern überhaupt notwendig?
Dann kommt laut Dir ein RTX 3080 TI Konter
und eine Variante mit mehr CU´s daher (96CU)
Was für RTX 3080TI Konter? Fantasierst du wieder nur rum? Ein RTX 3080TI Konter ist schon längst da... nennt sich RX 6800XT bis RX 6900XT (zumindest auf dem Papier, Verfügbarkeit ist nach wie vor extrem miserabel). Beide Karten sind sehr dicht beieinander.
Dann 80 CU und eine AIO - Lösung
für die damals angepeilten 3 Ghz Takt ?
Nein... es werden mindestens 4Ghz. :rolleyes:
Leute, falls es eine HBM-Variante gibt, hat die natürlich 80 CUs und sicherlich auch I$. Das Ding hätte nur und ausschließlich ein anderes Speicherinterface, sonst nix - und das ist schon ein neuer Chip, der von Anfang an mit eingeplant werden muss.
Badesalz
2021-01-03, 11:18:51
@dargo
Aha... und was hindert AMD daran den Cache für eine hypothetische 128CUs SKU zu vergrößern sofern überhaupt notwendig?
Ich glaub die Engländer nennen das cost-benefit-analysis...
basix
2021-01-03, 11:21:15
Wieso wollen einige N21 mit schnellerem Speicher sehen? So wie es aussieht ist N21 überhaupt nicht bandbreitenlimitiert. Einnen neuen Chip mit mehr CUs halte ich für ausgeschlossen und HBM für recht unwahrscheinlich (auch als Apple Speziallösung).
Ich sehe folgende Möglichkeit als am sinnvollsten an:
80 CU @ 2.5-2.6 GHz und 32 GByte sowie 350W: Einen Ticken schneller wie eine 3090 und mehr Speicher. Leistungskrone halt.
Bei 2x N21 mit je 12-16 GByte via xGMI im Crossfire Verbund könnte man darüber nachdenken, das müsste gegen aussen aber wie eine einzelne GPU aussehen und das wäre bahnbrechend neu.
dargo
2021-01-03, 11:22:28
Ich glaub die Engländer nennen das cost-benefit-analysis...
Genau... deshalb brachte AMD N21 mit Infinity Cache anstatt HBM. Meine Fresse... ich übrigen bekommt auch der kleinere N22 den Cache wo dieser in einem ganz anderen Preissegment liegt.
Halte ich für kompletten Blödsinn. Dann vielleicht doch eher ne 6900LE mit 76CUs für ne UVP von 749€
Damit meinte ich nicht dargo
dargo
2021-01-03, 11:31:19
@gedi
So eine 6900LE macht überhaupt keinen Sinn. Schon der Unterschied zwischen 80CU und 72CU ist mickrig. Eine weitere N21 Variante im Gaming-Sektor macht imo gar keinen Sinn. AMD kann nicht mal die bekannten drei Varianten mit vernünftigen Stückzahlen liefern.
Badesalz
2021-01-03, 11:39:54
Genau... deshalb brachte AMD N21 mit Infinity Cache anstatt HBM. Meine Fresse...Die letztgenannte kann ich mir mittlerweile zwar gut vorstellen, die Korellation der beiden sehe ich vor meinem geistigen Auge aber irgendwie noch nicht. Jedenfalls hab ich die Rechnung noch nicht gesehen, die zeigt, daß eine Graka mit einem Chip mit InfinityCache zu bauen insgesamt teurer wäre als eine Graka mit HBM zu bauen. Man lernt aber natürlich nie aus :up:
Mal davon ab, daß es iMHO einen nennswerten Mehrwert erst mit einer Art HBM2e v2 bringen würde.
Zergra
2021-01-03, 12:37:28
Das Ding wird nicht schneller sein, USB und ggf ein paar andere Features. Hier wird wieder geträumt.
davidzo
2021-01-03, 13:44:49
Das Ding wird nicht schneller sein, USB und ggf ein paar andere Features. Hier wird wieder geträumt.
USB PD haben die aktuellen Karten doch auch schon, das ist nix neues. Die USB-IF einträge sind da bei den features identisch.
Ich finde die Auflösung dass das die profikarte wird oder die dass es sich um ein wassergekühltes modell handelt sehr plausibel. Momentan ist navi21xt hauptsächlich durch die Firmware limitiert. Allerdings sieht man bereits dass bei 3Ghz das Powerlimit häufig greift. Von Zen2+3 wissen wir dass der Powerdraw bei 7nm Chips extrem mit der Temperatur skaliert.
Eine wassergekühlte Karte könnte tatsächlich höhere Taktraten halten ohne dabei mehr Energie zu verbrauchen. Wenn man dann noch das Taktlimit etwas erhöht hat man einen wunderbaren 3080ti Konter ohne dass man sonst viel ändern muss. Wahrscheinlich braucht es nichtmal ein neues PCB.
Sieht man ja schon an der Asus 6800xt LC, die erreicht ohne Power Target Erhöhung spielend 200mhz höhere Taktraten als alle anderen 6800xts, ja sogar höher als gut gebinnte 6900er Karten. Dabei hat sie ein powerlimit wie die referenzkarten und verbraucht auch effektiv nur durch die pumpe minimal mehr.
Wenn man das mit der 6900xt macht kriegt man locker 5% Leistung oben drauf, genau das was man braucht um einen überzeugenden Konter für die 3080ti zu haben, die auf 95-98% 3090 niveau zu erwarten ist.
Nur ist die Asus LC, die es demnächst auch mit dem 6900er chip gibt eben keine "offizielle" neue AMD-karte. Bloß weil es LC Modelle von einzelnen Herstellern gibt würden die in den 3080ti launchreviews nicht als vergleichsbalken aufgeführt werden. Dafür braucht es ein neues Referenzdesign von AMD, analog zur Vega64 LC, selbst wenn man das nur kruzfristig verkauft und dann den partnern das Feld überlässt...
Die 6900xth wäre dann nur eine minimum-effort Stichelei an nvidia ganz im Lisa Su Stil den wir gewohnt sind.
gruntzmaker
2021-01-03, 15:44:17
Um gegen was nochmal anzutretten? Für sowas lässt Lisa keine Kohle mehr verpulvern. Man WIRTSCHAFTET seit einiger Zeit und sollte lieber weiterhin dabei bleiben.
Tante Su ist sicherlich das Beste, was AMD passieren konnte. Bislang gefällt mir der Ansatz Karten ohne Sollbruchstelle (8 GiByte VRam für Raytracing und WQHD ;) ) zu vernünftigen Preisen heraus zu bringen sehr gut. Momentan sind die Preise verdorben, aber eine RX 6800 für 500 bis 600 ? Das ist bereits attraktiv.
AMD muss sich auf die Treiber zuvorderst konzentrieren. Den Rest regelt man über Verfügbarkeit und über das Preis-Leistungsverhältnis sowie mit der Hardware Basis aller Konsolen.
Damit hat AMD schon sehr starke Chancen. Ganz ohne neue Hardware, die Zeit sollte man lieber ganz und gar auf RDNA 3 konzentrieren.
Also in kurz: AMD sollten ihre starken RX68er eher mit viel Treiber Support stärken. Die Saat geht eh auf, Sony und Microsoft regeln das.
vinacis_vivids
2021-01-03, 15:57:14
Die 16GB VRAM sind ja nicht ganz neu und nach Vega FE 16GB, Radeon VII 16GB sind nun Navi gen.2 16GB auch einigermaßen massentauglich.
Dass AMD derzeit NV die Oberhand bei der Speicherbestückung überlässt mit 3090 24GB ist schon bemerkbar. Viele der top-highend Käufer schauen auch auf den Speicher und da sind 32GB bei ner 6950XT schon extrem wirksam, wenn auch in Benchmarks aktuell relativ sinnlos.
Badesalz
2021-01-03, 17:47:18
@vinacis_vivids
Der Gamer-Markt macht einen Zehntel eines Prozents des Marktes mit CPUs und Grakas.
Von AMD wird es keine Abenteuer wegen "Top-Highend" Gamern geben, wenn man nicht relativ klar ist, daß man damit hinterher wenigstens +-0 steht.
Real ist die Baustelle Technologie aktuell eh so gut wie nicht vorhanden, wenn man sie gegenüber Verfügbarkeit stellt. Nichts ist aktuell so uninteressant als eine 3090 oder eine 6950XT(H).
Da man nichtmal eine 5600XT zivilisiert bekommt würde ich die Ankündigung einer 6950XT ehrlich gesagt als die gleiche Art von Spott empfinden wie aktuell mit der 3060Ti.
Complicated
2021-01-03, 18:29:41
Eine HBM-Variante hat durchaus einen Vorteil der zu einer solchen Entscheidung führen kann bei AMD: Waferfläche. Wenn AMD mit HBM den IF$ weglassen kann, ist das mindestens ein weiteres Zen3-Chiplet an Fläche. Hier könnte, mit den steigenden Preisen bei TSMC, die Preiskalkulation in der gesamten Betrachtung durchaus HBM wirtschaftlicher sein für AMD, wenn pro mm² verkauftem Silizium gerechnet wird und die CPU und GPU Sparte dabei gemeinsam betrachtet werden.
davidzo
2021-01-03, 18:47:12
Die 16GB VRAM sind ja nicht ganz neu und nach Vega FE 16GB, Radeon VII 16GB sind nun Navi gen.2 16GB auch einigermaßen massentauglich.
Dass AMD derzeit NV die Oberhand bei der Speicherbestückung überlässt mit 3090 24GB ist schon bemerkbar. Viele der top-highend Käufer schauen auch auf den Speicher und da sind 32GB bei ner 6950XT schon extrem wirksam, wenn auch in Benchmarks aktuell relativ sinnlos.
Die 3090 24GB hat praktisch keinen Markt. Das ist ein Leuchtturmprodukt genau wie die Titans das kaum ein Gamer ernsthaft kauft. Im Bereich 3070, maximal 3080, Highendkarten für 400-800$, da werden die Umsätze gemacht. Es gibt kein einziges 3090 Review was die Karte empfiehlt, alle sagen dass die 3080 die sinnvollere Wahl ist und das betrifft 99% der Gamer. Und mehr als 16gb ist für Gaming sowieso in absehbarer Zeit unnötig. Ich glaube nicht dass man da irgendwas kontern muss, den Winzmarkt kann an getrost NV überlassen.
Die 3080ti ist da ein anderes Ding. Das sollte man schon kontern wenn man kann. Die TI Karten werden in der regel 5x-10x besser verkauft als die Titans und sind meist kaum langsamer. XTX + 5% sollte man also bringen um nvidia den Wind aus den Segeln zu nehmen.
Eine HBM-Variante hat durchaus einen Vorteil der zu einer solchen Entscheidung führen kann bei AMD: Waferfläche. Wenn AMD mit HBM den IF$ weglassen kann, ist das mindestens ein weiteres Zen3-Chiplet an Fläche. Hier könnte, mit den steigenden Preisen bei TSMC, die Preiskalkulation in der gesamten Betrachtung durchaus HBM wirtschaftlicher sein für AMD, wenn pro mm² verkauftem Silizium gerechnet wird und die CPU und GPU Sparte dabei gemeinsam betrachtet werden.
Wowowo, wer redet hier von einem neuen Chip? Bei den USB-IF Daten ging es lediglich um eine neue SKU mit Navi21. Das muss noch nichtmal ein neues PCB sein, geschweige denn ein neuer Chip, package etc.
AMD deckt gerade alles von 500 bis 1K$ ab, das haben sie seit Jahren nicht mehr. Oben herum herum kommt da an neuen Chips/packages mit 99,999%tiger Sicherheit nichts mehr.
Complicated
2021-01-03, 19:04:48
An welches SI willst du den HBM anbinden ohne eigenen Chip? HBM geht nur mit einem neuen Chip, der auch kein IF$ hat, um einen Vorteil bei Waferfläche zu bekommen. Das war bezugnehmend auf die HBM-Phantasien.
@gedi
So eine 6900LE macht überhaupt keinen Sinn. Schon der Unterschied zwischen 80CU und 72CU ist mickrig. Eine weitere N21 Variante im Gaming-Sektor macht imo gar keinen Sinn. AMD kann nicht mal die bekannten drei Varianten mit vernünftigen Stückzahlen liefern.
Gut, aber macht ne 3080Ti Sinn, abseits des mehr an Vram? AMD löst es hier vielleicht über den Preis - maybe
dargo
2021-01-03, 20:25:38
Gut, aber macht ne 3080Ti Sinn, abseits des mehr an Vram?
Nö. Oder besser gesagt schon eher da sie angeblich 82SM haben soll. Das ist schon ein etwas größerer Unterschied zu den 68SM der 3080. Wenn die 3080TI mit 82SM und 20GB kommt ist die 3090 komplett überflüssig.
Nö. Oder besser gesagt schon eher da sie angeblich 82SM haben soll. Das ist schon ein etwas größerer Unterschied zu den 68SM der 3080. Wenn die 3080TI mit 82SM und 20GB kommt ist die 3090 komplett überflüssig.
Mag sein, aber auch hier liegen lediglich 10-15% dazwischen. Daher hätte es ne 3080Ti imo nicht gebraucht, wenn man 5-10% vor einer 3080 rauskommt. Und eine 6900Le würde sich für ne UVP zu 749€ sehr gut verkaufen, da bei AMD es auch mit einer 6800XT möglich ist, 6900XT Performance zu erreichen. Ist bei NV derzeit mit einer 3080 schwer möglich 3090 Performance zu erreichen.
Wie dem auch sei: Alles was über einer 6900XT in den Köpfen einiger rumspinnt, halte selbst ich (!) für Dummfug. Außer sie releasen den N31, welches ja N21 mit optimierter Fertigung ist. Da aber nicht mal N21 auf den Bändern gesehen wird - sehr unwahrscheinlich
davidzo
2021-01-03, 23:05:36
Gut, aber macht ne 3080Ti Sinn, abseits des mehr an Vram? AMD löst es hier vielleicht über den Preis - maybe
Dude, eine 3080ti macht sehr viel Sinn für NV. Sie holt die Gamingkrone zurück ins Team green indem sie die 6900xt schlägt und mit 20GB das Manko des geringen Speichers bei der 3080 auswetzt. Das ist für NV als Marktführer echt wichtig.
Die 3090 ist preislich bedingt sowieso nur etwas für komplett Verrückte, genau wie die Titan XP und Titan RTX nicht wirklich etwas für Gamer waren. AMD lässt sich auf das Titan-Spielchen ohnehin nicht ein, zu gering sind die Stückzahlen. Aber die 3080 als de facto Gaming-Flaggschiff steht gegenüber 6800xt und 6900xt mit nur 10GB VRAM aktuell doch etwas schwach da.
AMD kann sehr wohl etwas kontern, denn wie man an den OC-Ergebnissen von Navi21 sieht ist im Vergleich zu GA102 noch einiges an Headroom bei Takt- und Powertarget vorhanden, wäre das nicht von AMD gesetzte Softwarelimit. Ich denke AMD hat da absichtlich nicht alle Karten auf den Tisch gelegt bis Nvidia mit allen rauskommt. Dann kann AMD immer noch eine vierte limitierte Navi21 SKU launchen oder allgemein für alle Navi21 Karten die Taktbarriere aufheben um die Marktstellung der Karten zu verbessern.
dargo
2021-01-04, 08:29:57
Mag sein, aber auch hier liegen lediglich 10-15% dazwischen. Daher hätte es ne 3080Ti imo nicht gebraucht, wenn man 5-10% vor einer 3080 rauskommt.
Ist doch bei RX 6800 vs. RX 6800XT nicht anders. :confused:
Die 3080TI ist für NV schon wichtig. Endlich brauchbarer Speicherausbau und wenn das Ding wirklich für 999$ kommt erreicht man damit mehr Kundschaft als mit der 1500$ 3090, zumindest in der Gaming-Sparte.
Die 3080Ti ist ne versteckte Preissenkung, was auch die Super-Varianten waren und auch sein werden.
Freestaler
2021-01-04, 09:03:10
Die 3080Ti ist ne versteckte Preissenkung, was auch die Super-Varianten waren und auch sein werden.
Du meinst ne UVP änderung? Auf die Strassenpreise wirds keinen wirklichen Einfluss haben. Ich rechne auch damit das die 3080 noTi eingestellt wird. Und dann ist keine Senkung mehr. ;-) Dafür kommt da sicher bald ne 3070 refresh.
Lehdro
2021-01-04, 14:06:17
Du meinst ne UVP änderung? Auf die Strassenpreise wirds keinen wirklichen Einfluss haben. Ich rechne auch damit das die 3080 noTi eingestellt wird. Und dann ist keine Senkung mehr. ;-) Dafür kommt da sicher bald ne 3070 refresh.
Er meint dass die 3080Ti quasi eine 3090 ist. Nur halt billiger. Rein vom Leistungsniveau und Speicherausbau passt diese Argumentation sogar ziemlich gut. Selbiges gab es schon einmal: Die RTX 2060S war eine preisreduzierte RTX 2070 - so kann man auch eine Preissenkung durchführen ohne UVPs zu ändern.
Freestaler
2021-01-04, 14:22:06
Oder man streicht die 3080 10gb und bringt die 3080ti 20gb zu höherem Preis. Und die 3090 bleibt wie sie ist. Wäre dann ne UVP Erhöhung ;-). Wobei eben Strassenpreis der 3080 vermutlich zu der uvp 3080ti passt. Immerhin gibts dann mehr vram.
Versteckte Preis Erhöhung. Mal schauen was es wird.
just4FunTA
2021-01-04, 14:35:21
wäre natürlich super wenn man die rtx3080 und rtx3070 garnicht mehr in großen Mengen produziert sondern gleich die superVarianten veröffentlicht mit mehr Vram zum gleichen Preis.
SKYNET
2021-01-04, 14:41:09
Genau... deshalb brachte AMD N21 mit Infinity Cache anstatt HBM. Meine Fresse... ich übrigen bekommt auch der kleinere N22 den Cache wo dieser in einem ganz anderen Preissegment liegt.
mal jemand überlegt das evtl. die miese RT performance auf mangelnde reale speicherbandbreite zurückzuführen ist?
Du meinst ne UVP änderung? Auf die Strassenpreise wirds keinen wirklichen Einfluss haben. Ich rechne auch damit das die 3080 noTi eingestellt wird. Und dann ist keine Senkung mehr. ;-) Dafür kommt da sicher bald ne 3070 refresh.
Nein, das ist ne 3090 für 1000$, Versteckte Preissenkung.
Genau wie ne 2070 Super ne versteckt preisgesenkte 2080 war.
mal jemand überlegt das evtl. die miese RT performance auf mangelnde reale speicherbandbreite zurückzuführen ist?
Ja, aber direkt verworfen. Laut AMD profitiert das Raytracing direkt und deutlich vom großen Cache. Diese Daten sollte man nicht im lahmen DRAM lagern, die müssen vorrätig sein.
MfG
Raff
mboeller
2021-01-04, 15:57:30
Ja, aber direkt verworfen. Laut AMD profitiert das Raytracing direkt und deutlich vom großen Cache. Diese Daten sollte man nicht im lahmen DRAM lagern, die müssen vorrätig sein.
MfG
Raff
die bisherigen Spiele sollten die RT-Daten doch noch im RAM lagern, oder? Erst wenn die Spiele entsprechend angepasst sind sollte die Situation besser werden. Ich glaube nicht, dass AMD das automatisch ablaufen lassen kann.
amdfanuwe
2021-01-04, 16:24:16
Ich glaube nicht, dass AMD das automatisch ablaufen lassen kann.
Lass den Glauben in der Kirche. Das Ding heißt nicht umsonst "Infinity Cache".
Ansonsten wäre es nur "interner RAM".
basix
2021-01-04, 17:14:04
die bisherigen Spiele sollten die RT-Daten doch noch im RAM lagern, oder? Erst wenn die Spiele entsprechend angepasst sind sollte die Situation besser werden. Ich glaube nicht, dass AMD das automatisch ablaufen lassen kann.
Laut AMD kann man einen grossen Teil des BVH im Infinity Cache lassen und somit spart man sich zu guten Teilen den Rebuild bei Szenenupdate. Und natürlich klappt das automatisch, für das ist ein Cache da. Anhand der API Calls usw. weiss man welche Daten zum BVH gehören. Schlussendlich kommt der BVH als dedizierter Output aus den Rechenwerken raus. Der Treiber regelt den Rest.
robbitop
2021-01-04, 19:27:05
Es wird schon seinen Nachteil haben, wenn man keine Fixed Function Units für BVH Traversal hat.
Mich würde es null wundern, wenn RDNA3 diese dann hat.
Mich nervt, dass wir Endnutzer keine Möglichkeit haben, das zu beeinflussen. Gut, das ist auch nicht sinnvoll. Ein versteckter Treiberschalter (Registrierung), um beispielsweise die RT Cores abzuschalten und somit den zweifelsfrei vorhandenen ALU-Fallback zu nutzen, wäre für Tests schon cool.
MfG
Raff
mal jemand überlegt das evtl. die miese RT performance auf mangelnde reale speicherbandbreite zurückzuführen ist?
Nö - an der Bandbreite liegt es nicht. Leider ist es der Fallback, welcher N2x noch zu schaffen macht. Diesbez. war AMD zu spät dran, um bei Developern ne Rolle zu spielen. Es braucht Patches und jede Menge Manforce bei der Treiberarbeit, um N2x vernünftig zum Laufen zu bewegen. Der Ansatz ist halt je ein Anderer, für Entwickler sicher schwer zu bewerkstelligen.
][immy
2021-01-04, 20:59:05
Nö - an der Bandbreite liegt es nicht. Leider ist es der Fallback, welcher N2x noch zu schaffen macht. Diesbez. war AMD zu spät dran, um bei Developern ne Rolle zu spielen. Es braucht Patches und jede Menge Manforce bei der Treiberarbeit, um N2x vernünftig zum Laufen zu bewegen. Der Ansatz ist halt je ein Anderer, für Entwickler sicher schwer zu bewerkstelligen.
Naja, eigentlich ist DXR dafür zuständig. Es ist ja nicht wirklich der Ansatz der hier zum Problem führt, sondern das man einfach die ineffizientere RT Technik hat. Nvidia hat hier spezielle Hardware verbaut die sich nur darum kümmert, während AMD nur Teile in Hardware beschleunigt und den Rest über die Shader laufen lässt.
Für Spiele-Entwickler sollte der Ansatz (wenn sie mit DXR arbeiten) keine Rolle Spielen. Sie könnten höchstens versuchen Optimierungen durchzuführen indem e.g. Rays eingespart werden oder z.B. den Rechenaufwand Reduzieren indem mit niedriger aufgelösten Dingen für die entsprechenden Effekte gearbeitet wird (wie es ja z.B. bei Spiderman auf der PS5 passiert). Dies würde aber auch nvidias Ansatz beschleunigen.
Aber das der RT Part nur für partielle Effekte eingesetzt werden soll, hat AMD ja bereits kommuniziert. Erst die Nachfolger sollen deutlich mehr RT Leistung erbringen.
Aber bei den paar RT Titeln stört das auch nicht wirklich. Erst mal müsste RT Hardware auch in die Low-Class Karten kommen, damit es am PC tatsächlich eine Chance hat. Aktuell ist es mit eine Einstiegspreis von 300-400€ (RTX 2060) noch viel zu teuer und auch da viel zu schwach.
Auf der xbox Series S sieht man ja, was dort optimiert werden muss, damit es überhaupt läuft. Klar sieht es trotzdem noch besser aus als ganz ohne und es ist auch die langsamste der neuen Konsolen, aber da sieht man auch wie es halt optimiert werden kann. Sieht halt trotzdem noch besser aus als ganz ohne RT effekte.
Der_Korken
2021-01-04, 21:13:16
Laut AMD kann man einen grossen Teil des BVH im Infinity Cache lassen und somit spart man sich zu guten Teilen den Rebuild bei Szenenupdate.
Das klingt eigentlich nach einem deutlichen Vorteil für AMD, denn die Bandbreite zum Cache ist deutlich größer als die zum GDDR6X bei Nvidia und auch die Latenzen dürften besser sein. Trotzdem bricht AMD prozentual unter RT stärker ein als Nvidia. Entweder es liegt daran, dass TMUs und die FFUs für Intersections sich gegenseitig ausbremsen (wenn man bei heutigem Spiele-Code mal eben auf 50% TMUs hätte verzichten können, dann hätte AMD doch schon längst die TMUs gekürzt) oder dass die Shader mehr Extraarbeit abbekommen als bei Nvidia. Man muss halt bedenken, dass eine 3070 fast genauso viele Flops/s hat wie eine 6800XT. Mit hoher Auflösung bekommt Ampere seine Flops besser auf die Straße, vielleicht spielt dieser Aspekt auch bei RT eine Rolle.
Ich habe mir nochmal diese Benches auf CB angeguckt: https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/#diagramm-performancerating-fuer-raytracing-2560-1440
Die 2080Ti und 3070 liegen quasi durchgängig nur wenige Prozent auseinander und zwar sowohl mit RT an und aus. Auch wenn man für jedes Spiel einzeln guckt, gibt es keine Ausreißer, wo eine 3070 mit RT plötzlich deutlich anders performt (in Relation zur 2080Ti) als ohne RT. Die hohe FP-Leistung scheint also für RT kein direkter Vorteil zu sein. Was auch immer Nvidia in RT schneller macht, war also auch schon bei Turing vorhanden.
Auffällig sind aber die Unterschiede in den einzelnen Spielen zwischen z.B. der 6800 und der 3070. Aus Sicht der 6800 sind es -4%, +38%, +11% und +23% für die 3070 in 1440p. Ohne RT sind es -11%, -3%, -3% und -7% in den selben Games, zusammengefasst eine Veränderung der Größenverhältnisse um 7.8%, 42.3%, 14.4% und 32.3%. Das sieht schon ein wenig so aus, als wäre da mit Software-Optimierung noch einiges zu holen, denn warum sollte das selbe Hardware-Duell so unterschiedlich ausfallen?
Edit: OK, man könnte vielleicht sagen, dass je exzessiver RT genutzt wird, desto größer wird die Lücke zwischen beiden Karten. Nehme ich nochmal die selben vier Spiele wie oben, dann ist die jeweils übrig gebliebene Leistung der 6800/3070: 71%/77%, 40%/56%, 66%/75% und 51%/68%. Man sieht, dass immer beide Karten stark oder wenig einbrechen, d.h. es gibt nie den Fall, dass die 6800 in Game A stärker einbricht als in Game B und die 3070 genau anders rum. Also sieht es doch so aus, als würde RDNA2 stärker einbrechen je höher der RT-Anteil an der Szene ist.
dargo
2021-01-04, 22:09:19
[immy;12557140']Naja, eigentlich ist DXR dafür zuständig. Es ist ja nicht wirklich der Ansatz der hier zum Problem führt, sondern das man einfach die ineffizientere RT Technik hat.
Und wieder geht dieser Bullshit los. :facepalm:
Wo ist denn die überlegene RT-Performance der Geforces in einem DIRT 5 beispielsweise? Mit RT On verliert Ampere prozentual mehr fps als RDNA2. :rolleyes: Bei WoW übrigens das gleiche Verhalten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12516412&postcount=1504
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12516574&postcount=1509
Das klingt eigentlich nach einem deutlichen Vorteil für AMD, denn die Bandbreite zum Cache ist deutlich größer als die zum GDDR6X bei Nvidia und auch die Latenzen dürften besser sein. Trotzdem bricht AMD prozentual unter RT stärker ein als Nvidia.
Nein... es wird nicht richtiger je öfter dieser Schwachsinn wiederholt wird.
Dampf
2021-01-04, 22:12:04
Und wieder geht dieser Bullshit los. :facepalm:
Wo ist denn die überlegene RT-Performance der Geforces in einem DIRT 5 beispielsweise? Mit RT On verliert Ampere prozentual mehr fps als RDNA2. :rolleyes:
Weil das RT bei Dirt 5 auf RDNA2 Hardware final ist und Variable Rate Shading nutzt.
y33H@
2021-01-04, 23:01:27
VRS lässt sich in der Beta Build dediziert abschalten.
basix
2021-01-04, 23:33:39
Das klingt eigentlich nach einem deutlichen Vorteil für AMD, denn die Bandbreite zum Cache ist deutlich größer als die zum GDDR6X bei Nvidia und auch die Latenzen dürften besser sein. Trotzdem bricht AMD prozentual unter RT stärker ein als Nvidia. Entweder es liegt daran, dass TMUs und die FFUs für Intersections sich gegenseitig ausbremsen (wenn man bei heutigem Spiele-Code mal eben auf 50% TMUs hätte verzichten können, dann hätte AMD doch schon längst die TMUs gekürzt) oder dass die Shader mehr Extraarbeit abbekommen als bei Nvidia.
OK, man könnte vielleicht sagen, dass je exzessiver RT genutzt wird, desto größer wird die Lücke zwischen beiden Karten. Nehme ich nochmal die selben vier Spiele wie oben, dann ist die jeweils übrig gebliebene Leistung der 6800/3070: 71%/77%, 40%/56%, 66%/75% und 51%/68%. Man sieht, dass immer beide Karten stark oder wenig einbrechen, d.h. es gibt nie den Fall, dass die 6800 in Game A stärker einbricht als in Game B und die 3070 genau anders rum. Also sieht es doch so aus, als würde RDNA2 stärker einbrechen je höher der RT-Anteil an der Szene ist.
Dazu muss man kein Hellseher sein. Nvidias RT-Einheiten übernehmen deutlich mehr der RT-Arbeit. Nvidia beschleunigt BVH Traversal und Ray Casting, AMD nur Ray Casting. Das Traversal geht über die CUs. Bei RDNA2 werden die CUs mit Zusatzbelastung baufschlagt, welche bei Turing/Ampere komplett nicht vorhanden ist. Steigt die RT-Arbeit ist der Einbruch somit in jedem Fall geringer als bei der Lösung von AMD. Logisch wird das auf RDNA2 also langsamer sein. Da hilft auch der Infinity Cache nicht, um dies vollumfänglich zu kompensieren. Er wird aber sicher Vorteile bieten. Hier noch Infos dazu: https://www.golem.de/news/radeon-rx-6800-xt-im-test-die-rueckkehr-der-radeon-ritter-2011-152085-3.html
Noch zu den TMUs:
Die laufen nie dauerhaft zu 100% ausgelastet. Wahrscheinlich sind sie während der Ausführung der Pipeline nur über einen bestimmten Zeitraum voll ausgelastet und den Rest der Zeit drehen sie Däumchen. In dieser Zeit kann man RT auf den TMUs ausführen ohne dass man Leistung einbüsst. Weiss nicht ob pixeljetstream oder jemand anderes mal sowas erwähnt hat.
@dargo:
Wenn RT auf RDNA2 schneller läuft als auf Turing/Ampere ist das eher ungewöhnlich als der bei Optimierungen zu erwartende Effekt. Kann passieren, wird aber eher die Ausnahme sein. Egal ob optimiert oder nicht. Wenn ich mehr Arbeit via Shader machen muss, welche Turing/Ampere nicht machen muss, werden nicht plötzlich aus dem Nichts irgendwo ein paar FLOPS herbeigezaubert. Das wird langsamer werden. Einzelne Architekturmerkmale wie die Infinity Cache Latenz oder Async Compute können je nach dem ein Vorteil sein, aber bei gleichwertiger Optimierung für AMDs und Nvidias Ansatz sollte Nvidia in den allermeisten Fällen schneller sein.
Man kann sich eigentlich sicher sein, dass AMD mit RDNA3 seine RT-Cores aufbohren und den BVH Traversal auch beschleunigen wird. Dann könnte AMD mit dem Infinity Cache sogar im Vorteil sein. BVH Traversal Beschleunigung zusammen mit einer guten Umsetzung von FidelityFX Super Resolution und AMD duelliert sich auch bei RT auf Augenhöhe mit Nvidia.
Edit:
Wenn man es sich anschaut, werden bei Games mit starker RT Belastung (Control, SotTR) ~25-33% der ALUs für Raytracing und somit den BVH Traversal benötigt (Quervergleich 6900XT mit 3070). Bei Games mit weniger Belastung sind es nur ~10-15% (CoD, Metro). Wenn ich das nun für Cyberpunk 2077 extrapoliere und orakeln müsste: Die 6900XT wird mit RT Psycho @ 4K in etwa 50-60% so schnell wie die 3090 sein (ca. 35% ALU-Auslastung für RT). Genau wegen diesem Heavy-RT wird man BVH Traversal mit neueren GPU-Architekturen beschleunigen müssen, sonst muss man den Chip mit +50% ALUs füllen um das auszugleichen.
Der_Korken
2021-01-04, 23:42:25
Nein... es wird nicht richtiger je öfter dieser Schwachsinn wiederholt wird.
Wo ist das Schwachsinn? Selbst mit deinen beiden Beispielen steht es immer noch 6:2 für Nvidia (wenn man die Spiele von CB und Golem zusammenwirft), zumal WoW noch in sofern ein Ausreißer ist, als dass die 6800 ohne RT langsamer als die 3070 ist, sonst ist es immer andersrum.
Gut, die Regel dass der Abstand zwischen 6800 und 3070 größer wird, je größer insgesamt der Einbruch (und somit die zusätzliche RT-Last), gilt bei deinen Beispielen logischerweise nicht mehr. Wie sich das in Zukunft verhält, muss sich noch zeigen, aber Stand jetzt würde ich meine Aussage von oben jederzeit verteidigen.
Edit @basix: Dass AMD zusätzliche Arbeit erledigt, ist vom Ansatz her klar, aber es hätte ja sein können, dass die BVH-Traversals kaum ins Gewicht fallen und hardware-beschleunigte Intersection-Tests schon den Löwenanteil abfangen. Das scheint nicht so zu sein, denn zwischen 2080Ti und 3070 skaliert RT quasi identisch, d.h. die Unterschiede zwischen Turing und Ampere spielen keine Rolle, sondern nur das was zwischen Turing/Ampere und RDNA2 anders ist.
gruntzmaker
2021-01-05, 00:13:17
Zukünftige Spiele werden immer noch auf Raster Grafik setzen und eben gleichzeitig auf Raytracing Effekte.
Die Raster Grafik wird sicher dabei komplexer werden, die Texturen werden größer werden. Dann ist doch bei den mickrigen 8 bis 10 GiByte VRAM der Speicher schon fast voll bevor überhaupt Raytracing ins Spiel kommt.
IMHO werden weder Ampere noch RDNA2 Raytracing zum übergeordneten Thema machen. Dafür kostet das Alles selbst bei Ampere noch zuviel Leistung.
Dann haben wir mit Sony und Microsoft große Player im Business, die mit den Konsolen vorgeben werden, was im Mix aus Raster und Raytracing überwiegen wird.
Meine Prognose: NVIDIA wird ein paar Effekte mehr darstellen, mehr nicht, weniger nicht. Raytracing wird wahrscheinlich auf einer schnelleren RDNA2 auf dem PC auch eine gute Figur abgeben.
Ergo: Sind irgendwie alles ziemlich gute GPUs geworden. Aber über Raytracing verliert man derzeit wahrscheinlich zuviele Worte. Das kommt alles noch.
basix
2021-01-05, 00:32:32
Edit @basix: Dass AMD zusätzliche Arbeit erledigt, ist vom Ansatz her klar, aber es hätte ja sein können, dass die BVH-Traversals kaum ins Gewicht fallen und hardware-beschleunigte Intersection-Tests schon den Löwenanteil abfangen. Das scheint nicht so zu sein, denn zwischen 2080Ti und 3070 skaliert RT quasi identisch, d.h. die Unterschiede zwischen Turing und Ampere spielen keine Rolle, sondern nur das was zwischen Turing/Ampere und RDNA2 anders ist.
Das Ray Casting ist der mit Abstand aufwändigste Teil. Was obendrauf kommt ist BVH Traversal und Denoising. Ampere hat zwar schnellere RT-Cores, das scheint aber bei Turing so wie du das aufgezeigt hast nicht zu limitieren. Deswegen kann sich Ampere nur in Extremsituationen absetzen.
Raytracing Performance wird an mindestens vier Orten "gewonnen":
Ray Casting / Intersection
BVH Traversal
Denoising
Reduzierte Auflösung (DLSS, FidelityFX Super Resolution)
Der letzte grosse Punkt der obigen Liste, wo man noch nichts beschleunigt, ist das Denoising. Wird der noch irgendwie angegangen (entweder durch HW Beschleunigung oder super effiziente SW-Denoiser), wird RT on/off einen deutlich geringeren Performance Unterschied aufweisen. Ray Casting wird von RDNA2 beschleunigt. Bei AMDs FidelityFX gibt es als ersten Schritt einen neuen Denoiser und bald Super Resolution. BVH Traversal kommt mit RDNA3. Passt doch.
Ergo: Sind irgendwie alles ziemlich gute GPUs geworden. Aber über Raytracing verliert man derzeit wahrscheinlich zuviele Worte. Das kommt alles noch.
Jepp. RDNA2 ist wirklich gut. RDNA3 wird BVH Traversal Beschleunigung bringen und dann bin ich auf den Kampf mit Nvidia gespannt.
dargo
2021-01-05, 07:45:58
Wo ist das Schwachsinn? Selbst mit deinen beiden Beispielen steht es immer noch 6:2 für Nvidia (wenn man die Spiele von CB und Golem zusammenwirft), zumal WoW noch in sofern ein Ausreißer ist, als dass die 6800 ohne RT langsamer als die 3070 ist, sonst ist es immer andersrum.
Du kapierst es immer noch nicht oder? Die früheren Spiele mit RT-Support wurden ausschließlich Richtung Geforces RTX optimiert bzw. mit Hinblick auf diese entwickelt weil es schlicht nichts anderes gab! Diese Zeit musst du wieder aufholen um sich einen vernünftigen Vergleich überhaupt erlauben zu können. Wie Ampere RT vs. RDNA2 RT in Games tatsächlich stehen wirst du erst in 1-2 Jahren endgültig erfahren. Tendenz eher zu zwei Jahren da nun mal Games nicht einfach so vom Himmel fallen (erst recht mit RT-Support) und entsprechende Entwicklungszeit brauchen.
robbitop
2021-01-05, 11:05:46
Die Implementierungen von RT sind in vielen Spielen auch super unterschiedlich. In Bezug auf den Optimierungsgrad ist bei RNDA2 in Spielen sicherlich noch etwas zu holen.
Was ich aber meine ist, der Unterschied was durch RT übernommen wird und was klassisch läuft. Global Illumination, Dynamische lokale Beleuchtung, Reflexionen, Schatten etc.
Dazu kommen dann noch Limitierungen. Max x Objekte oder X Lichtquellen werden genutzt oder aber in Reflexionen werden nur bestimmte Objekte geraytract etc.
Cyberpunk nutzt RT am intensivesten und breit gefächertsten. Danach kommt Control IIRC. Viele Spiele nutzen RT auch nur "ein bisschen".
Das hat auch viel Einfluss auf den "Hit" und auch auf die Spreizung zwischen den Hardwareansätzen.
dargo
2021-01-05, 11:25:59
Cyberpunk nutzt RT am intensivesten und breit gefächertsten. Danach kommt Control IIRC. Viele Spiele nutzen RT auch nur "ein bisschen".
Vergiss den hingerotzten Quatsch mit CP77, Control ist zu alt für RDNA2.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12556959&postcount=1370
The update that is due to June will sort out all of the bugs. The code for the PS4/Xbox One is getting scrapped and done separately. PS5's code is an improvement on the PC due to the awesome dev kit Sony put together for this gen.
CP77 ist mit viel Glück im Sommer 2021 fertig, ich würde eher auf Herbst/Winter tippen. Bei CDPR brennt momentan die Hütte... zu recht!
Screemer
2021-01-05, 12:15:12
da steht aber nicht, dass der pc part auch die selben optimierungen erhalten wird wie die ps5. der ps5 part baut den pc code aus und verbessert ihn durch sonys sdk.
ich lass mich da überraschen ob sich irgendwas bewegt. gekauft hab ich es mir nach dem ganzen anfänglichen bohai aber nicht. das wird wie rdrd2 mal ein kauf im sale, wenn es dann so abhebt wie noman sky dann ist's noch besser.
robbitop
2021-01-05, 12:52:23
Soll PS5 und PC nicht relativ gut laufen? Der große Shitstorm betrifft doch iirc die last gen Konsolen?
Dampf
2021-01-05, 12:53:58
VRS lässt sich in der Beta Build dediziert abschalten.
Das ist interessant. Gibts da schon Ergebnisse?
dargo
2021-01-05, 12:56:06
Soll PS5 und PC nicht relativ gut laufen? Der große Shitstorm betrifft doch iirc die last gen Konsolen?
Der PS5 Code ist noch gar nicht drin. Die PS5 läuft praktisch im Fallback-Modus. Das ist nichts weiter als die PS4-Version auf PS5 lauffähig. Gleiches gilt für die XBox.
Iscaran
2021-01-05, 13:06:01
Der Infinity Cache ist imho ein erster Testballon für den HBX aus dem Chiplet-Patent von AMD:
https://www.computerbase.de/2021-01/patent-amd-gpu-chiplet-design/
Wie überhaupt auch schon die 2x40 CUs Anordnung im N21 darauf hindeutet, daß man genau dies versucht nur eben noch im "monolithischen" Chip.
y33H@
2021-01-05, 13:09:19
Das ist interessant. Gibts da schon Ergebnisse?Nicht weiter angeguckt, da die Build schon mehrere Wochen alt ist und keine Updates kommen.
robbitop
2021-01-05, 14:19:59
Der PS5 Code ist noch gar nicht drin. Die PS5 läuft praktisch im Fallback-Modus. Das ist nichts weiter als die PS4-Version auf PS5 lauffähig. Gleiches gilt für die XBox.
Stimmt, du hast Recht. Aber zumindest auf dem PC als Lead Plattform gibt es in letzter Zeit kaum noch Beschwerden mWn.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.