Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
BoMbY
2020-09-22, 21:49:50
Die Defect Density bei TSMC 7nm ist extrem gut, bei Zen2 sollte es mittlerweile >90% Yield haben, Salvage nicht eingerechnet.
Edit: Auf die Kosten von der Liste oben umgerechnet wären das weniger als $12 Kosten pro Zen2 CPU Chiplet.
Zergra
2020-09-22, 22:00:33
Die Defect Density bei TSMC 7nm ist extrem gut, bei Zen2 sollte es mittlerweile >90% Yield haben, Salvage nicht eingerechnet.
Ja der Prozess wird ganz gut sein, du hast trotzdem bei relativ großen Chips (z.B 500mm²) eine höhere Chance das ein Chip defekt ist, als bei einem kleinen.
NV verkauft nicht ohne Grund quasi nur Salvage Chips (vor allem bei den größeren)
dargo
2020-09-22, 22:06:26
7nm Wafer kosteten 10k$ vor ein paar Jahren, letztens habe ich eine Tabelle gesehen, in der sie auf 9,4k$ gefallen sein sollen. AMD wird durch die Menge weniger Zahlen, aber 8k$/Wafer sind es denke ich dennoch.
Die 158mm² passen fast 400 mal auf einen 300mm Wafer, das ergibt unter 25$ pro Chip. :wink:
E: Gefunden https://twitter.com/chiakokhua/status/1306437988801486848
https://pbs.twimg.com/media/EiFmaWJWsAE9M2v?format=jpg&name=small
Das meine ich ja. :) Milchmädchenrechnung... BigNavi kostet unter 70$ pro Chip.
ilibilly
2020-09-22, 22:09:06
Ich komme aus der Industrie und mehr als 1.5% an Ausschuss sind inakzeptabel!
Preispunkte für Schrott-kein Schrott:
449€-1099€
Sieht in der Bilanz erstklassig aus
Naja hört sich auf den erstblick gut an,aber die schrottchips werden in der regel mehr gekauft (bereich 250-400€) als der top dog im vollausbau.
Also absichtlich schrott produzieren,dazu müssten ja 80% oder mehr nicht für top dog reichen.
Wenn ich mich recht erinnere wars bei 7970 und 7950 so das der chip zugute ausbeute hatte und man die 7950er oft ummodden konnte.
Also viel mehr als eine stufe runter kann man imho schrott tollerieren.
basix
2020-09-22, 22:20:59
Das meine ich ja. :) Milchmädchenrechnung... BigNavi kostet unter 70$ pro Chip.
Ohne Packaging ;) Und bei >50% Bruttomarge bist du schon bei 150-200$, welcher ein Hersteller abdrücken muss und das nur für den Chip. Allenfalls sogar 250$ (z.B. bei ~60% Bruttomarge)
mczak
2020-09-22, 22:21:29
GF's 14nmHP Prozess kann eDRAM, wie man an den Power-CPUs von IBM sieht.
Der Prozess ist vermutlich exklusiv für IBM. Taugt wohl nicht für Massenmarkt :biggrin:.
Zergra
2020-09-22, 22:23:29
Je nach Stückzahl kommen da schnell ein paar Millionen € zusammen, die man durch ein paar mm² Chipgröße einsparen kann. Da wird man nicht unnötig viel Ballast mitschleppen.
amdfanuwe
2020-09-22, 22:50:58
Was 7nm und die weitere Entwicklung teuer macht, sind ja nicht nur die Waverkosten.
Es sind viel mehr Transistoren im Design unterzubringen die dann auch getestet werden müssen.
Die Kosten für die Design- und Testtools explodieren.
Unicous
2020-09-22, 22:57:29
Diese Waferkosten-Tabelle ist kompletter Bullshit. Wurde schon bei Beyond3D von einem (afair) Anandtech-Mitarbeiter angefechtet, leider darf er die ihm bekannten "Zahlen" nicht nennen.
Ian Cutress von Anandtech hatte im Twitterthread Folgendes geschrieben:
I have some more accurate numbers from an official source; keep putting off writing an article
https://twitter.com/IanCutress/status/1306633223900934148
Die Zahlen hat sich irgendein "Analyst" aus den Fingern gesogen und das wird jetzt als harter Fakt an Leichtgläubige verkauft.:mad:
why_me
2020-09-22, 23:06:32
Oh, gut zu wissen... dann sorry
Unicous
2020-09-22, 23:15:09
Alles gut, gibt genug "Journalisten" und "Experten", die das ungeprüft nachplappern, u.a. ein freier? Mitarbeiter von Anandtech der auch bei THG schreibt:
https://www.tomshardware.com/news/tsmcs-wafer-prices-revealed-300mm-wafer-at-5nm-is-nearly-dollar17000
Nur zur Info: Jedes Mal wenn man den Namen "Anton Shilov" liest sollte man sich ein Fässchen Salz vor den Monitor/das Display stellen.:wink:
unl34shed
2020-09-22, 23:23:55
Aluhüte aufsetzte, es wird wild! :freak:
Die Codenamen für die AMD Karten sind Farben + Fische
Dimgrey (https://encycolorpedia.de/696969) - greyscale = 0x696969
Sienna (https://encycolorpedia.de/a0522d) - greyscale = 0x676767
Navy (https://encycolorpedia.de/000080) - greyscale = 0x404040 -> dec 64 64 64*
:uponder:
Und damit ist N23 = bigger Navi confirmed :cool:
*was nicht passt wird passend gemacht :uhammer2:
Dampf
2020-09-23, 00:11:11
https://www.tweaktown.com/news/75291/amd-radeon-rx-6900-xt-specs-navi-21-gpu-with-16gb-could-cost-499/index.html
Wenn das wahr ist, hat AMD ein richtig heißes Eisen im Feuer. RTX 3080 Rohleistung für 500€ und mit mehr VRAM! Das ist auch genau den Weg, den ich AMD einschlagen sehe.
r3ptil3
2020-09-23, 00:15:33
https://www.tweaktown.com/news/75291/amd-radeon-rx-6900-xt-specs-navi-21-gpu-with-16gb-could-cost-499/index.html
Wenn das wahr ist, hat AMD ein richtig heißes Eisen im Feuer. RTX 3080 Leistung für 500€ und mit mehr VRAM! Das ist auch genau den Weg, den ich AMD einschlagen sehe.
Wenn die Karte nur 499 kostet, dann ist sie irgendwo bei einer 3070.
Bei 3080 Performance wäre die Karte mindestens bei 700$ mit 16Gb und selbst das wäre wirklich günstig.
SKYNET
2020-09-23, 00:23:12
mich interessieren diese mid-levelkarten irgendwie garnicht... go big, or go home ;D
Linmoum
2020-09-23, 00:23:27
Wenn die Karte nur 499 kostet, dann ist sie irgendwo bei einer 3070.Nach der kruden Logik hätte der 3900X mindestens das doppelte zum Launch Kosten müssen. Tat er aber nicht.
Preisspekulation zum jetzigen Zeitpunkt aber sowieso sinnlos.
r3ptil3
2020-09-23, 00:27:15
Nach der kruden Logik hätte der 3900X mindestens das doppelte zum Launch Kosten müssen. Tat er aber nicht.
Preisspekulation zum jetzigen Zeitpunkt aber sowieso sinnlos.
Nicht zu vergleichen mit den CPUs.
Schau dir einfach die letzten veröffentlichten Radeons an, dann kann man schon ungefähr ein Bild davon malen wo die Performance bei den Preisen hinführt.
Dampf
2020-09-23, 00:27:20
Wenn die Karte nur 499 kostet, dann ist sie irgendwo bei einer 3070.
Bei 3080 Performance wäre die Karte mindestens bei 700$ mit 16Gb und selbst das wäre wirklich günstig.
Nope, kann AMD nicht bringen. Allein schon weil sie in Sachen Raytracing wahrscheinlich und in AI ganz sicher deutlich hinterherhinken werden. RTX 3070 Leistung für 499€ und das Ding wäre DOA, da hilft auch der tolle VRAM nichts, den man in 99% der Fälle sowieso nicht spüren wird.
P/L ist DIE Stärke von AMD, die sie hier ausspielen MÜSSEN.
Unicous
2020-09-23, 00:30:35
Kann mir mal jemand erklären, warum dieser schrottige Clickbait-Artikel die 499 Dollar nur in der Überschrift und im Teaser/Untertitel erwähnt und im Fließtext selbst kein Sterbenswörtchen mehr darüber verloren wird oder gar erläutert wird wie man auf diesen Preis kommt?:rolleyes:
Daredevil
2020-09-23, 00:32:59
P/L ist DIE Stärke von AMD, die sie hier ausspielen MÜSSEN.
Es hilft dem Brand aber nichts, wenn man immer nur "So gut wie die anderen, aber billiger" ist. AMD hat dieses Jahr schon ein besseres P/L Verhältnis, trotzdem verkaufen sich Nvidia Karten besser und der Marktanteil sinkt.
Die Leute wollen Speed, Qualität und Stabilität haben und ein niedriger Preis vermittelt leider das Gegenteil, weil wenn das ganze nicht "billig" wäre, wieso wird es dann verschleudert?
Das öffentliche Aufsehen der Treiberprobleme ( Nicht meine Meinung, sind die News Seiten :c ) tut da ihr übriges bei.
Und btw., jetzt mal mein persönlicher Eindruck.
Ich habe gerade zum ersten mal das neue "Treiber Menu" aufgemacht und kotze im Strahl, wie unübersichtlich das ist.
Ich wollte den VMEM Takt senken, habe auf Übernehmen gedrückt, nichts ist passiert. Wegen sowas zahlen andere mehr Geld, weil es frustriert.
Mit dem Treiber von Sept 2019 geht das wunderbar...
Dampf
2020-09-23, 00:43:10
Es hilft dem Brand aber nichts, wenn man immer nur "So gut wie die anderen, aber billiger" ist. AMD hat dieses Jahr schon ein besseres P/L Verhältnis, trotzdem verkaufen sich Nvidia Karten besser und der Marktanteil sinkt.
Die Leute wollen Speed, Qualität und Stabilität haben und ein niedriger Preis vermittelt leider das Gegenteil, weil wenn das ganze nicht "billig" wäre, wieso wird es dann verschleudert?
Das öffentliche Aufsehen der Treiberprobleme ( Nicht meine Meinung, sind die News Seiten :c ) tut da ihr übriges bei.
Im Grunde hast du recht, aber ich muss dir widersprechen, dass Navi 1 ein gutes Preis Leistungsverhältnis hat. Ganz im Gegenteil, die Karten sind meiner Ansicht nach Elektroschrott und völlig überteuert.
Von der Rohleistung her mögen die ganz passabel sein, aber weshalb sollte ich für 350€ eine 5700XT kaufen, die weder den Next Gen Standard DX12 Ultimate, noch hardwarebeschleunigtes Raytracing unterstützt? Da kauf ich für das Geld doch lieber eine 2060 Super, die hat zwar ein paar Prozente weniger Rohleistung, ist dafür aber mit dem neuesten Feature-Set ausgestattet, hat HW-Raytracing und mit DLSS ist sie sogar deutlich schneller.
Mit RDNA2 hat AMD wieder eine gescheite Architektur, die Konkurrenzfähig ist. Wenn sie diese dann für einen deutlich günstigeren Preis anbietet, könnte AMD Nvidia den Hintern heiß machen.
Bezüglich den Treiberproblemen: die kriegen das schon hin bis zum Navi 2 Launch, da arbeiten ja viele kompetente Menschen dran. Gelernt aus den Fehlern haben sie sicherlich. So schlimm sind die Treiber ja auch nicht, da wird wieder viel Wind um nix gemacht.
Linmoum
2020-09-23, 00:48:34
Nope, kann AMD nicht bringen. Allein schon weil sie in Sachen Raytracing wahrscheinlich und in AI ganz sicher deutlich hinterherhinken werden. RTX 3070 Leistung für 499€ und das Ding wäre DOA, da hilft auch der tolle VRAM nichts, den man in 99% der Fälle sowieso nicht spüren wird.Rein hypothetisch: Eine 499€-GPU mit 3070-Performance die
a) effizienter ist,
b) mehr Speicher hat,
c) potentiell etwas höhere Rasterizing-Performance aber
d) geringere RT-Performance hat,
ist jederzeit einem Speicherkrüppel vorzuziehen. DOA ist eine Krüppel-3070 mit lächerlichen 8GiB. Wer ernsthaft glaubt, dass RT auch jetzt DAS Verkaufsargument ist, lebt hinter dem Mond. Vor allem ist es auch in Reviews immer noch eine Randerscheinung, relativ gesehen.
Ich wollte den VMEM Takt senken, habe auf Übernehmen gedrückt, nichts ist passiert. Wegen sowas zahlen andere mehr Geld, weil es frustriert.Erschließt sich mir nicht, kann man bei NV schließlich nicht direkt im Treiber regeln. Dann kann man das bei AMD nach der Logik auch gleich extern machen. "Dafür" zahlt also sicherlich niemand mehr Geld.
Dampf
2020-09-23, 00:56:09
Rein hypothetisch: Eine 499€-GPU mit 3070-Performance die
a) effizienter ist,
b) mehr Speicher hat,
c) potentiell etwas höhere Rasterizing-Performance aber
d) geringere RT-Performance hat,
ist jederzeit einem Speicherkrüppel vorzuziehen. DOA ist eine Krüppel-3070 mit lächerlichen 8GiB. Wer ernsthaft glaubt, dass RT auch jetzt DAS Verkaufsargument ist, lebt hinter dem Mond. Vor allem ist es auch in Reviews immer noch eine Randerscheinung, relativ gesehen.
Dieser Term Speicherkrüppel stammt von Leuten, die überhaupt keine Ahnung haben wie die Speicherzuweisung in modernen Spielen funktioniert.
Der Wert den ihr da bei MSI Afterburner seht zeigt nicht an, wie viel Speicher das Spiel braucht, es zeigt nur an wie viel die Engine reserviert. Ein Flight Simulator der 13 GB auf einer 16 GB Karte zuweist, läuft genauso gut auf einer 10 GB und 8 GB Karte.
Außerdem muss ich nicht erwähnen, dass der Next Gen Sprung in Sachen Texturen durch Techniken wie Sampler Feedback Streaming und Direct Storage passieren wird, denn diese Techniken sorgen dafür, dass der VRAM deutlich effizienter genutzt werden kann.
Die Leute interessieren sich dafür wie eine Karte in ihren Spielen bei Ultra performt und da wird jetzt Raytracing immer mehr zu finden sein. Wenn eine Karte besser in der RT Beschleunigung ist als eine andere, dann wird sie auch ein besseres Gesamtergebnis haben, besonders jetzt da RT gestützte Techniken wie RTXGI in Spielen Standard werden, da sie auch in Software ganz passabel laufen (aber mit HW halt deutlich besser).
Also ja, definitiv DAS Verkaufsargument, denn höhere Performance=besser. Das wird man deutlich eher bemerken, als den VRAM.
Daredevil
2020-09-23, 00:58:44
Whataboutism hilft AMD leider auch nicht weiter :(
Nur weil der eine es nicht hat, ist es nicht besser, wenn man den Kram einbaut, er aber nicht funktioniert. Eigentlich ist das sogar kontraproduktiv.
Entweder man macht es richtig, oder lässt es sein.
Der Ausflug mit der VII gerade zeigt mir nochmal direkt, wieso AMD Anteile verliert. x(
Linmoum
2020-09-23, 01:08:48
Dieser Term Speicherkrüppel stammt von Leuten, die überhaupt keine Ahnung haben wie die Speicherzuweisung in modernen Spielen funktioniert.
Der Wert den ihr da bei MSI Afterburner seht zeigt nicht an, wie viel Speicher das Spiel braucht, es zeigt nur an wie viel die Engine reserviert. Ein Flight Simulator der 13 GB auf einer 16 GB Karte zuweist, läuft genauso gut auf einer 10 GB und 8 GB Karte.
Außerdem muss ich nicht erwähnen, dass der Next Gen Sprung in Sachen Texturen durch Techniken wie Sampler Feedback Streaming und Direct Storage passieren wird, denn diese Techniken sorgen dafür, dass der VRAM deutlich effizienter genutzt werden kann. Es interessiert aber wenig, wie etwas funktioniert und auch nur sekundär, was AB oder sonstwer genau angezeigt wird. Keine Ahnung, warum das jetzt ausschlaggebend sein soll.
Relevant ist einzig das Ergebnis. Und das spiegelt sich entweder in Texturenmatsch wieder oder in unschönen Frametimes. Isso in UHD mit 8GiB. Nicht immer, aber immer öfters. Unschön, wenn man deswegen für saubere Performance und bestmögliche Optik runterdrehen muss, obwohl die Rohleistung da ist.
Die Leute interessieren sich dafür wie eine Karte in ihren Spielen bei Ultra performt und da wird jetzt Raytracing immer mehr zu finden sein. Wenn eine Karte besser in der RT Beschleunigung ist als eine andere, dann wird sie auch ein besseres Gesamtergebnis haben, besonders jetzt da RT gestützte Techniken wie RTXGI in Spielen Standard werden, da sie auch in Software ganz passabel laufen (aber mit HW halt deutlich besser).
Also ja, definitiv DAS Verkaufsargument, denn höhere Performance=besser. Das wird man deutlich eher bemerken, als den VRAM.Nein, es ist nicht DAS Verkaufsargument. Auch nicht, wenn es mehrfach wiederholt wird. Die 3080 schafft es nicht einmal in WQHD mit eingeschaltetem Raytracing, konstant die 60fps zu halten. Nur reden wir gerade sogar von einer 3070.
Raytracing wird mit den Jahren relevanter, aber selbst Ampere und sehr wahrscheinlich auch RDNA2 bieten noch immer keine zufriedenstellende Performance in der Hinsicht. Nicht einmal ansatzweise. Von den 3% aller am Markt erhältlichen Spiele, die das unterstützen, mal ganz zu schweigen. Das ist aktuell nice to have, nicht mehr und nicht weniger. Verkaufsargument(e) sind gerade dann, wenn man weiter nach unten geht, in erster Linie klassische Performance, logischerweise der Preis und dann eben auch noch potentiell Speicherausbau oder Stromverbrauch/Effizienz. Bei den Hardcore-Enthusiasten sieht das alles anders aus, aber da sind wir bei <500€ nicht mehr.
Wiseman
2020-09-23, 01:15:46
Im Grunde hast du recht, aber ich muss dir widersprechen, dass Navi 1 ein gutes Preis Leistungsverhältnis hat. Ganz im Gegenteil, die Karten sind meiner Ansicht nach Elektroschrott und völlig überteuert.
Von der Rohleistung her mögen die ganz passabel sein, aber weshalb sollte ich für 350€ eine 5700XT kaufen, die weder den Next Gen Standard DX12 Ultimate, noch hardwarebeschleunigtes Raytracing unterstützt? Da kauf ich für das Geld doch lieber eine 2060 Super, die hat zwar ein paar Prozente weniger Rohleistung, ist dafür aber mit dem neuesten Feature-Set ausgestattet, hat HW-Raytracing und mit DLSS ist sie sogar deutlich schneller.
Mit RDNA2 hat AMD wieder eine gescheite Architektur, die Konkurrenzfähig ist. Wenn sie diese dann für einen deutlich günstigeren Preis anbietet, könnte AMD Nvidia den Hintern heiß machen.
Bezüglich den Treiberproblemen: die kriegen das schon hin bis zum Navi 2 Launch, da arbeiten ja viele kompetente Menschen dran. Gelernt aus den Fehlern haben sie sicherlich. So schlimm sind die Treiber ja auch nicht, da wird wieder viel Wind um nix gemacht.
In mir drängt sich der Verdacht auf, dass du von der gleichen Firma bezahlt wirst wie Troyan. Du hast sicher keine Navi, sonst würdest du nicht einen solchen Schrott über Navi erzählen.
Im Unterschied zu Troyan arbeitest du allerdings mit subtileren Mitteln. Um Nvidias Karten anzupreisen, lässt du gönnerhaft ein paar Brocken für AMD vom Tisch fallen ("die kriegen das schon hin" oder "so schlimm sind die Treiber ja auch nicht") und denkst, wir merken nicht, dass du genau das Gegenteil meinst.
w0mbat
2020-09-23, 01:30:04
Dampf weiß, dass er BS schreibt. Turing ist komplett nutzlos was RT angeht, das ist wirklicher Elektroschrott, weil die Transistoren nicht genutzt werden. Ne 5700 XT hat schon jetzt die Krüppel 2070S eingeholt, weil RDNA einfach die überlegenere Architektur ist. Klar braucht man bei Nvidia da hässliches upsampling um bei der Leistung eine Chance zu haben.
Und der AMD Treiber ist schon seit langem besser als die buggy mess von Nvidia. Heißt ja nicht umsonst Niewieda, weil jeder der sich auskennt keine zweite Karte von denen kauft :ugly:
Das stört ihn halt, also verzapft er Dünnpfiff. Er erzählt ja auch gerne, dass upsampling schärfer als nativ ist ;D
Ex3cut3r
2020-09-23, 01:44:24
Dampf weiß, dass er BS schreibt. Turing ist komplett nutzlos was RT angeht, das ist wirklicher Elektroschrott, weil die Transistoren nicht genutzt werden. Ne 5700 XT hat schon jetzt die Krüppel 2070S eingeholt, weil RDNA einfach die überlegenere Architektur ist. Klar braucht man bei Nvidia da hässliches upsampling um bei der Leistung eine Chance zu haben.
Und der AMD Treiber ist schon seit langem besser als die buggy mess von Nvidia. Heißt ja nicht umsonst Niewieda, weil jeder der sich auskennt keine zweite Karte von denen kauft :ugly:
Das stört ihn halt, also verzapft er Dünnpfiff. Er erzählt ja auch gerne, dass upsampling schärfer als nativ ist ;D
Was ein Blödsinn du faselt. :facepalm:
Richtig Peinlich. Hast du das wirklich nötig? So ein Fanboy Geschwafel?
Brillus
2020-09-23, 01:54:00
Was ein Blödsinn du faselt. :facepalm:
Richtig Peinlich. Hast du das wirklich nötig? So ein Fanboy Geschwafel?
Mit den Treibern hat er recht, sobald man nicht gerade bei AAA Spielen ist oder mal ein altes Spiel hat, sind die NV Treiber einfach nur rotz Regressions wohin man schaut.
Von Linuxtreibern fang ich lieber erst garnicht an.
Berniyh
2020-09-23, 03:08:37
https://www.tweaktown.com/news/75291/amd-radeon-rx-6900-xt-specs-navi-21-gpu-with-16gb-could-cost-499/index.html
Wenn das wahr ist, hat AMD ein richtig heißes Eisen im Feuer. RTX 3080 Rohleistung für 500€ und mit mehr VRAM! Das ist auch genau den Weg, den ich AMD einschlagen sehe.
Er sagt doch selbst eigentlich schon, dass er keine Ahnung hat. :P
Ravenhearth
2020-09-23, 03:15:51
https://gifrific.com/wp-content/uploads/2013/04/Shocked-Troy-Walks-Into-Fire-With-Pizza-Community.gif
amdfanuwe
2020-09-23, 03:44:42
lol, ich tippe auch mal:
6800 8GB 499,- Performance leicht über RTX 3700
6800 XT 16GB 599,-
horn 12
2020-09-23, 07:37:34
Etliche Customs - Sapphire - Powercolor - MSI
kommen in etwa zeitgleich mit AMD Reference Design
und Preis unterhalb der RTX 3080 bei Geringerem - Gleichem Verbrauch
Zudem knapp unterhalb der RTX 3080 - oder teils auch um einiges darüber.
Preis wird noch entschieden 599 bis 649 Euro
Customs wohl um die >= 699
basix
2020-09-23, 08:16:33
Noch zur 256b Diskussion:
Kann es sein, dass RDNA den Speicher deutlich stärker komprimiert? Das könnte zumindest ein Erklärung für einen schmalen Bus sein. Wie das gehen soll? Keine Ahnung.
Wieso ich eine z.B. 1.5x oder 2.0x stärkere Kompression sexy finden würde:
Speicherinterface benötigt viel Saft. Siehe auch Ampere
Mit Chiplets werden die Off-Chip Links noch relevanter. Kann man deren Bandbreite/Takt z.B. halbieren gewinnt man massiv an Energieeffizienz
On-Chip Fabric / Datentransfer wird entlastet und ausserdem deutlich energieeffizienter
Man kann länger mit GDDR6 auskommen, ohne teurere HBM verwenden zu müssen.
Zergra
2020-09-23, 08:31:25
Noch zur 256b Diskussion:
Kann es sein, dass RDNA den Speicher deutlich stärker komprimiert? Das könnte zumindest ein Erklärung für einen schmalen Bus sein. Wie das gehen soll? Keine Ahnung.
Grundsätzlich ist das bestimmt möglich.
Mittlerweile gehe ich davon aus, das Navi 21 etwas über der 3070 (10-15%) landet, da reicht dann eben auch einfach 256bit, mit 80CUs wäre das natürlich etwas schwach (Auslastungsprobleme?) , aber wir wissen ja auch noch nicht genau wie AMD das RT Problem angeht.
Das Problem was ich eher sehe ist, das solche Worte wie "BigNavi" oder "Halo Produkt" schnell falsch aufgefast werden.
Denke auch das man in dem Marktsegment am meisten Karten verkaufen kann.
Zu RT: Wenn es heißt AMD ist viel langsamer als NV in RT, ist das für viele ein Argument. Egal wie viele Spiele das unterstützen.
[MK2]Mythos
2020-09-23, 08:32:02
Etliche Customs - Sapphire - Powercolor - MSI
kommen in etwa zeitgleich mit AMD Reference Design
und Preis unterhalb der RTX 3080 bei Geringerem - Gleichem Verbrauch
Zudem knapp unterhalb der RTX 3080 - oder teils auch um einiges darüber.
Preis wird noch entschieden 599 bis 649 Euro
Customs wohl um die >= 699
Hast du wieder feucht geträumt, oder gibts dafür ne Quelle?
Cyberfries
2020-09-23, 08:43:19
Etliche Customs - Sapphire - Powercolor - MSI
kommen in etwa zeitgleich mit AMD Reference Design
BiggestNavi nur Referenz, die Customs sind zum kleineren Chip.
Noch zur 256b Diskussion:
Kann es sein, dass RDNA den Speicher deutlich stärker komprimiert?
Wie alle Erklärungsvorschläge zu 256bit scheitert auch dieser an der Frage: Warum nur bei N21?
Mittlerweile gehe ich davon aus, das Navi 21 etwas über der 3070 (10-15%) landet
Für den 40CU-Chip steht momentan 2080/2080S-Leistung im Raum und du gehst mit 80CU von 2080Ti-Leistung aus?
Das wäre mehr als nur "Auslastungsprobleme"
Bei einer voraussichtlichen Bandbreite von nur 336GB/s wie es aussieht. N21 hätte dann 512GB/s, wie Fiji und Vega64 knapp. Ich tippe nach wie vor auf die "Infinity Caches". 128MB bei N21 und 64MB bei N22.
Adam D.
2020-09-23, 09:03:05
Mythos;12436073']Hast du wieder feucht geträumt, oder gibts dafür ne Quelle?
Dreimal darfst du raten, aus welchen physiologischen Untiefen er sich diesen Mist gezogen hat.
Die sichersten Infos gibt es weiterhin abgeleitet von Nvidias Plänen:
https://cdn.videocardz.com/1/2020/09/GALAX-GeForce-RTX-30-Roadmap-e1600832023417-1536x678.jpg
This roadmap is yet another confirmation that GeForce RTX 3080 20GB will launch at some point, but neither Gigabyte nor Galax have confirmed the timing. According to our sources, the date is strictly related to the launch of the Radeon RX 6000 series, so it is definitely coming, it just happens to be dependent on a competitor.
Wenn AMD etwas bringt, das NV sowohl bei 3070 als bei 3080 zu einer Reaktion zwingt, ist das IMO schon win genug für alle.
Zergra
2020-09-23, 09:06:53
Für den 40CU-Chip steht momentan 2080/2080S-Leistung im Raum und du gehst mit 80CU von 2080Ti-Leistung aus?
Das wäre mehr als nur "Auslastungsprobleme"
Naja schon 10-15% über der 2080TI, ja wären es. Ggf kommt der Chip ja auch nur als 72CU Salvage. AMD hatte früher schon Probleme mit der Auslastung. Navi 10 hat da viel geändert keine Frage, aber ggf stimmt da immer noch etwas nicht.
Finde die 80CU und 256bit nicht ganz harmonisch, daher wird irgendwo etwas klemmen, wodurch man lieber Geld spart. Der Cache scheint mir nicht realistisch zu sein.
Dampf
2020-09-23, 09:15:16
In mir drängt sich der Verdacht auf, dass du von der gleichen Firma bezahlt wirst wie Troyan. Du hast sicher keine Navi, sonst würdest du nicht einen solchen Schrott über Navi erzählen.
Im Unterschied zu Troyan arbeitest du allerdings mit subtileren Mitteln. Um Nvidias Karten anzupreisen, lässt du gönnerhaft ein paar Brocken für AMD vom Tisch fallen ("die kriegen das schon hin" oder "so schlimm sind die Treiber ja auch nicht") und denkst, wir merken nicht, dass du genau das Gegenteil meinst.
Warum sollte ich denn für das was ich schreibe bezahlt werden? :confused:
Ja klar hab ich keine Navi 1, so ein Teil würde ich mir auch nie kaufen, da sie ohne DX12U Support und HW-Raytracing einfach extrem veraltet ist. Das ist kein "Schrott über Navi erzählen" sondern einfach die schlichte Wahrheit und Fakt.
Das schreibe ich, weil ich AMD mag, nicht um irgendwas subtil anzudeuten. Ich bin einfach nicht überzeugt von RDNA1 und denke, dass das Ding furchtbar altern wird, sobald Next Gen Spiele erscheinen, die die neuen Features der Next Gen Konsolen nutzen. Aber es ist ja nicht nur Navi 1, Pascal wird sogar ein noch schlimmeres Schicksal erleiden, da das Ding nicht mal INT+FP gleichzeitig ausführen kann und auch noch extrem schlecht im Async Compute ist. Bäh!
Nein, es ist nicht DAS Verkaufsargument. Auch nicht, wenn es mehrfach wiederholt wird. Die 3080 schafft es nicht einmal in WQHD mit eingeschaltetem Raytracing, konstant die 60fps zu halten. Nur reden wir gerade sogar von einer 3070.
Diese Aussage ist komplett wertlos. Dafür braucht man zu der Aussage folgende Informationen: Spiel, Einstellungen, Raytracing Einstellungen.
Das ist als würde ich sagen, die 3080 schafft es nicht mal Screen Space Reflektionen in 4K60 darzustellen. Damit meine ich Control, während die meisten anderen Titeln sicherlich in 4K60 laufen.
Raytracing ist sehr skalierbar und hat verschiedene Einstellungsmöglichkeiten. Auf Mittel und mit moderaten Effekten wird die 3080 in einigen Spielen deutlich bessere Leistung bieten als 1440p60 und das beste ist ja, dass die Qualität der Raytracing Effekte keinen großen Einfluss auf die Grafik selbst hat, hauptsache die Effekte sind an, da ist der Unterschied dann schon groß. Die Reflektionen in BF5 kosten in Mittel beispielsweise nur 18% der FPS, sind kaum von Ultra zu unterscheiden und sehen deutlich besser aus als SSR.
Grafikkarten haben sich seit Anbeginn der Grafikkartenzeit über VRAM verkauft, das wird sich nicht ändern, weil du das gerne so hättest.
Dampf
2020-09-23, 09:27:12
Grafikkarten haben sich seit Anbeginn der Grafikkartenzeit über VRAM verkauft, das wird sich nicht ändern, weil du das gerne so hättest.
Nö, GPUs verkaufen sich durch Features und Leistung. Die Leute gucken in Benchmarks von Spielen wie die Karte performt und treffen dann eine Kaufentscheidung. Nur weil ein paar Leute in deutschen Foren so VRAM besessen sind, muss das nicht den Großteil der Käufer widerspiegeln, sonst wären die 16 GB Karten von AMD auch viel erfolgreicher gewesen. :tongue:
Killeralf
2020-09-23, 09:27:31
Ja klar hab ich keine Navi 1, so ein Teil würde ich mir auch nie kaufen, da sie ohne DX12U Support und HW-Raytracing einfach extrem veraltet ist. Das ist kein "Schrott über Navi erzählen" sondern einfach die schlichte Wahrheit und Fakt.
Fakt
Persönliche Meinung
Wenn jeder 2. titel mit diesen features daherkommt, kann man meinetwegen von extrem veraltet sprechen, aber bis es soweit ist, haben wir alle wahrscheinlich schon die übernächste generation (von welchem hersteller auf immer) im rechner. Bei gerade mal einer handvoll an titeln in einem meer von hunderten/tausenden neuerscheinungen finde ich diese Aussage extrem übertrieben.
basix
2020-09-23, 09:36:02
Grundsätzlich ist das bestimmt möglich.
Mittlerweile gehe ich davon aus, das Navi 21 etwas über der 3070 (10-15%) landet, da reicht dann eben auch einfach 256bit, mit 80CUs wäre das natürlich etwas schwach (Auslastungsprobleme?) , aber wir wissen ja auch noch nicht genau wie AMD das RT Problem angeht.
Das Problem was ich eher sehe ist, das solche Worte wie "BigNavi" oder "Halo Produkt" schnell falsch aufgefast werden.
Denke auch das man in dem Marktsegment am meisten Karten verkaufen kann.
Zu RT: Wenn es heißt AMD ist viel langsamer als NV in RT, ist das für viele ein Argument. Egal wie viele Spiele das unterstützen.
Bei 72-80CU zu 46SM erscheinen mir nur +15% als zu wenig. Mit Null IPC und Taktsteigerungen verglichen zur 5700 XT könnte das knapp so kommen bei 72 CU. In allen anderen Fällen sollte RDNA2 schneller sein (mehr CUs, mehr Takt, mehr IPC). Ich vermute eher, das ein Navi 22 im Bereich 3070 +10...15% sein wird. Das würde auch eher den vermuteten Specs entsprechen (56 CUs, 2.x GHz Takt, etwas mehr IPC, 12 GByte). Einzig die Speicherbandbreite ist nach aktueller Gerüchtelage ein grosses Fragezeichen. Oder ein bewusster Hoax ;)
Dampf
2020-09-23, 09:36:53
Fakt
Persönliche Meinung
Wenn jeder 2. titel mit diesen features daherkommt, kann man meinetwegen von extrem veraltet sprechen, aber bis es soweit ist, haben wir alle wahrscheinlich schon die übernächste generation (von welchem hersteller auf immer) im rechner. Bei gerade mal einer handvoll an titeln in einem meer von hunderten/tausenden neuerscheinungen finde ich diese Aussage extrem übertrieben.
Argh diese Farben!
Naja, Raytracing ist ja auch schon weit verbreitet. Alle kommenden großen Titel werden es unterstützen und mit den neuen Konsolen wird die Adaption der DX12U Features auch schneller von statten gehen, als man meinen könnte.
Ich gehe auch davon aus, dass Raytracing ein paar Grafikeffekte in naher Zukunft ersetzen wird, weil die Software-Lösungen auch immer schneller werden, sodass sie auch auf alten Karten gut läuft und weil es dermaßen viel Zeit und Entwicklungskosten für die Studios spart. Wenn du dann aber eine Karte mit DXR Beschleunigung hast, zieht die davon. Zu sehen ist es ja schon bei Crysis, auch wenn das natürlich von der CPU her schlecht optimiert ist und die Beschleunigung über ein cleveres Gefrickel gelöst wurde, trotzdem ist der Unterschied ersichtlich:
https://i.imgur.com/wjsaOsl.png
Cyberfries
2020-09-23, 09:45:40
Könntet ihr euer peinliches Fanboy-Gehabe einstellen?
Bei einer voraussichtlichen Bandbreite von nur 336GB/s wie es aussieht.
336GB/s? Wohl eher 384GB/s, 33% mehr als die 5600xt.
Naja schon 10-15% über der 2080TI, ja wären es. AMD hatte früher schon Probleme mit der Auslastung.
Selbst die Fury X, die in FullHD wirklich Probleme hatte, war 70% schneller als die 380X.
Das was du da skizzierst sind so +35%.
Bei 72-80CU zu 46SM ...
Ich vermute eher, das ein Navi 22 im Bereich 3070 +10...15% sein wird. Das würde auch eher den vermuteten Specs entsprechen (56 CUs, 2.x GHz Takt, etwas mehr IPC, 12 GByte)
SM und CU sind nicht direkt vergleichbar.
Wenn die Zuordnung N22=Navy Flounders stimmt, ist N22 der 40CU-Chip. 60CU dann N23 oder N24.
Die Einträge aus pal die er erwähnt wurden tatsächlich gestrichen, sind aber in der Historie noch verfügbar:
bzgl. dem Zitat von ihm liegt es daran, dass der entsprechende Branch gestrichen wurde
Vielen Dank, das hilft mir weiter.
WedgeAntilles
2020-09-23, 09:45:55
Grafikkarten haben sich seit Anbeginn der Grafikkartenzeit über VRAM verkauft, das wird sich nicht ändern, weil du das gerne so hättest.
Weswegen AMD in den letzten Jahren bei denen sie öfter mehr VRAM als Nvidia hatten auch stetig an Marktanteil gewonnen haben.
Mh, wait, da stimmt was nicht...
Ich behaupte GraKas verkaufen sich bei der Masse des Marktes über Performance und "Sicherheit".
Mit Sicherheit meine ich eine subjektive Einschätzung, wie groß die Gefahr ist, dass es mit der Karte Probleme gibt. Wie gesagt, SUBJEKTIV.
Und wenn man sich da umhört liegt in diesem Thema Nvidia meilenweit vorne. Ob das faktisch genau stimmt oder nicht spielt keine Rolle.
Deswegen kann Nvidia auch - bei identischen technischen Specs - einen Aufpreis nehmen.
Weil viele sagen: Oh, AMD, gibt es da nicht ständig Probleme?
Nö, kein Bock, zahl ich halt 10-20% mehr aber habe dafür ne Nvidia die keine Probleme macht.
Und sorry, AMD bringt halt auch immer wieder Aktionen die genau diesen Eindruck verstärken. Stichwort Bios-Update.
Bei jenen die sich nur oberflächlich mit dem Thema beschäftigen kommt halt an: Nvidia, das sind die, bei denen man die Karte kauft, nen Treiber drauf schmeißt und sich nicht mehr drum kümmern muss.
Ich behaupte GraKas verkaufen sich bei der Masse des Marktes über Performance und "Sicherheit".
Und für mich ist "Sicherheit", das ich auch in ~3-4Jahren noch immer genug RAM habe.
Die Zeiten wo ich auf jede neue Gen. zugegriffen habe sind lange vorbei...
Und dann kommen sie meist noch in den 2t Rechner, falls sie noch gut benutzbar ist.
Bei sehr langer Nutzung, "enttäuschen" NV Karten meist mehr als AMD Karten. (meine persönliche Erfahrung)
M.f.G. JVC
Palpatin
2020-09-23, 10:01:25
Weswegen AMD in den letzten Jahren bei denen sie öfter mehr VRAM als Nvidia hatten auch stetig an Marktanteil gewonnen haben.
Mh, wait, da stimmt was nicht...
Ich würde die R9 Fury als eine der größten Flops von AMD der letzten Jahre bezeichnen und Polaris hätte sicherlich zu einem noch deutlich höheren Marktanteilsverlust geführt wenn AMD die Karte nur mit 4GB angeboten hätte.
Also ja der VRAM hat AMD geholfen den Verlust von Marktanteilen geringer zu halten.
Nö, GPUs verkaufen sich durch Features und Leistung. Die Leute gucken in Benchmarks von Spielen wie die Karte performt und treffen dann eine Kaufentscheidung. Nur weil ein paar Leute in deutschen Foren so VRAM besessen sind, muss das nicht den Großteil der Käufer widerspiegeln, sonst wären die 16 GB Karten von AMD auch viel erfolgreicher gewesen. :tongue:
Das ist Blödsinn, sry. VRAM ist immer ein gewichtiger Faktor gewesen. RTX2060 -> niedrige Verkäufe, RX5600 -> niedrige Verkäufe, warum wohl? Die Leute gucken auf die Leistung, dann auf ob VRAM ok ist. Die Marke ist auch wichtiger als der Stromverbrauch beispielsweise, wobei sich das mMn angenähert hat. Lautstärke ist regional wichtig, aber nicht überall. Sobald die Karten mit 16GB verfügbar sind für akzeptable Preise und die Leistung stimmt, wird auch genau das gekauft. Exoten wie die VII oder AMDs FE werden natürlich nicht verkauft, das ist ein anderer Fall. Das sind ja beides keine wirklichen Gaming-Karten. Bei der 1080Ti und 2080Ti hat auch der größere VRAM ne wichtige Rolle gespielt.
Übrigens hat sich die 390 recht gut verkauft, trotz der massiven Nachteile ggü. der Maxwell-Reihe. die 8GB haben schon 2015 gezogen und wer die jetzt noch einsetzt hat auch Vorteile davon.
[...]
336GB/s? Wohl eher 384GB/s, 33% mehr als die 5600xt.
Nope, die werden bei der kleineren ja 14GT Speicher verbauen. 16GT ist ja teurer, den wird nur N21 bekommen.
basix
2020-09-23, 10:09:34
SM und CU sind nicht direkt vergleichbar.
Natürlich nicht. Aber ich rechne anhand den 3080 Reviews auch mit 1.3x IPC für die Ampere SMs gegenüber den RDNA1 CUs ;)
Wenn die Zuordnung N22=Navy Flounders stimmt, ist N22 der 40CU-Chip. 60CU dann N23 oder N24.
OK, kann sein. Sollten die CUs aber nicht Vielfache von 8 sein? Dann wäre 56 CU das naheliegenste. N22 * 1.4 = N23; N23 * 1.43 = N21
Dampf
2020-09-23, 10:09:46
Das ist Blödsinn, sry. VRAM ist immer ein gewichtiger Faktor gewesen. RTX2060 -> niedrige Verkäufe, RX5600 -> niedrige Verkäufe, warum wohl? Die Leute gucken auf die Leistung, dann auf ob VRAM ok ist. Die Marke ist auch wichtiger als der Stromverbrauch beispielsweise, wobei sich das mMn angenähert hat. Lautstärke ist regional wichtig, aber nicht überall.
Gehst du von Mindfactory Verkäufen aus? Das ist nur ein sehr kleiner Teil der Käuferschicht.
Die 1060 6 GB ist die beliebteste Karte auf Steam und ein absoluter Renner überall. Die RTX 2060 ist die beliebteste RTX Karte auf Steam.
Und eine 1650 mit 4 GB wird auch immer beliebter.
Also diese Verkaufsstatistiken von ein paar Verkäufern in Deutschland sehe ich jetzt nicht unbedingt als repräsentativ für den Spielemarkt generell an.
Aber wie gesagt, sollte eine Navi 2 Karte mit 3080 Leistung für 599€ kommen, dann ist der VRAM ein netter Bonus, aber die meisten Leute werden sie sich aufgrund des P/L Verhältnisses kaufen.
Redneck
2020-09-23, 10:13:13
Dieser Term Speicherkrüppel stammt von Leuten, die überhaupt keine Ahnung haben wie die Speicherzuweisung in modernen Spielen funktioniert.
Der Wert den ihr da bei MSI Afterburner seht zeigt nicht an, wie viel Speicher das Spiel braucht, es zeigt nur an wie viel die Engine reserviert. Ein Flight Simulator der 13 GB auf einer 16 GB Karte zuweist, läuft genauso gut auf einer 10 GB und 8 GB Karte.
Außerdem muss ich nicht erwähnen, dass der Next Gen Sprung in Sachen Texturen durch Techniken wie Sampler Feedback Streaming und Direct Storage passieren wird, denn diese Techniken sorgen dafür, dass der VRAM deutlich effizienter genutzt werden kann.
Die Leute interessieren sich dafür wie eine Karte in ihren Spielen bei Ultra performt und da wird jetzt Raytracing immer mehr zu finden sein. Wenn eine Karte besser in der RT Beschleunigung ist als eine andere, dann wird sie auch ein besseres Gesamtergebnis haben, besonders jetzt da RT gestützte Techniken wie RTXGI in Spielen Standard werden, da sie auch in Software ganz passabel laufen (aber mit HW halt deutlich besser).
Also ja, definitiv DAS Verkaufsargument, denn höhere Performance=besser. Das wird man deutlich eher bemerken, als den VRAM.
Auch wenn es Dir nicht gefallen mag, aber die Leadplattformen sind und werden wieder die Konsolen sein und die bringen nun einmal mehr Speicher mit als die 8GB , über die hier gesprochen wird. 8GB sind da einfach zu wenig.. Die Entwickler werden den Speicher der Konsolen schon nutzen und inwiefern die PC ports dann optimiert und im Speicherhandling getrimmt werden.. naja.. ich glaube nicht dran. Das ist schon eine offene Schwachstelle die man so offen benennen muß. NV hat sicherlich aus Preis und Marketinggründen bei 8GB das limit gesetzt um die 499 präsentieren zu können und die 3080 mit 10gb nicht blöde da stehen zu lassen, deren Speicher sicher um einiges teurer ist als die normalo Variante.
Palpatin
2020-09-23, 10:14:02
Gehst du von Mindfactory Verkäufen aus? Das ist nur ein sehr kleiner Teil der Käuferschicht.
Die 1060 6 GB ist die beliebteste Karte auf Steam und ein absoluter Renner überall.
Ja und wie beliebt ist die 1060 3GB?
dildo4u
2020-09-23, 10:15:32
Das ist Blödsinn, sry. VRAM ist immer ein gewichtiger Faktor gewesen. RTX2060 -> niedrige Verkäufe, RX5600 -> niedrige Verkäufe, warum wohl? Die Leute gucken auf die Leistung, dann auf ob VRAM ok ist. Die Marke ist auch wichtiger als der Stromverbrauch beispielsweise, wobei sich das mMn angenähert hat. Lautstärke ist regional wichtig, aber nicht überall. Sobald die Karten mit 16GB verfügbar sind für akzeptable Preise und die Leistung stimmt, wird auch genau das gekauft. Exoten wie die VII oder AMDs FE werden natürlich nicht verkauft, das ist ein anderer Fall. Das sind ja beides keine wirklichen Gaming-Karten. Bei der 1080Ti und 2080Ti hat auch der größere VRAM ne wichtige Rolle gespielt.
Aber die 2060 ist die best verkaufte RTX Karte.
https://store.steampowered.com/hwsurvey/videocard/
Was Sinn macht da der Preis schon angestiegen ist gegenüber GTX 1060.
300€ ist immer noch der Sweet Spot und übertrumpft alles andere.
Dampf
2020-09-23, 10:21:15
Auch wenn es Dir nicht gefallen mag, aber die Leadplattformen sind und werden wieder die Konsolen sein und die bringen nun einmal mehr Speicher mit als die 8GB , über die hier gesprochen wird. 8GB sind da einfach zu wenig.. Die Entwickler werden den Speicher der Konsolen schon nutzen und inwiefern die PC ports dann optimiert und im Speicherhandling getrimmt werden.. naja.. ich glaube nicht dran. Das ist schon eine offene Schwachstelle die man so offen benennen muß. NV hat sicherlich aus Preis und Marketinggründen bei 8GB das limit gesetzt um die 499 präsentieren zu können und die 3080 mit 10gb nicht blöde da stehen zu lassen, deren Speicher sicher um einiges teurer ist als die normalo Variante.
Na dann auf ein Neues:
Die Konsolen haben 16 GB shared RAM. Das heißt, der Speicher wird zwischen CPU und GPU geteilt, anders als beim PC wo du dedizierten DRAM und VRAM hast. Jetzt ist es aber so, dass einiges vom Speicher nicht mal für Spiele, sondern für das OS reserviert wird, bei der Xbox Series X sind deshalb nur 13.5 GB für Spiele zur Verfügung.
Von diesen 13.5 GB sind von Microsoft 10 GB als Videospeicher über einen schnelleren Bus angebunden. Dieser Videospeicher kann aber ebenso von der CPU genutzt werden, wenn nötig. Soll heißen, es ist gut möglich, dass in einem Next Gen Spiel das viel auf Physik, AI und Interaktion setzt, die CPU von diesen 10 GB auch einiges in Anspruch nehmen wird, was auf dem PC dann einfach im RAM ausgelagert wird, dann können auch mal 7-9 GB VRAM übrig bleiben. Von der Xbox Series S, die dann wirklich die Baseline darstellt und deutlich weniger RAM hat, will ich mal nicht anfangen.
Noch dazu ist die XSX für 4K konzipiert, die meisten PCler spielen sowieso in 1440p, da sollten die 8 GB ebenso locker reichen.
Also nein, es gibt kein Indiz dafür, dass mit den neuen Konsolen mehr VRAM benötigt wird, solange die Featureset Parity gegeben ist (Sampler Feedback)
Cyberfries
2020-09-23, 10:23:31
16GT ist ja teurer, den wird nur N21 bekommen.
Deshalb nutzt die 5700 ja auch den billigeren 12GT-Speicher...
Ich glaube an 16GT bei allen N2x XT-Karten, die GDDR6 nutzen.
Sollten die CUs aber nicht Vielfache von 8 sein? Dann wäre 56 CU das naheliegenste. N22 * 1.4 = N23; N23 * 1.43 = N21
Damit hatte ich bisher auch gerechnet. Aber angeblich sind es bei allen N2x-Karten 5WGP je SE.
Finde ich persönlich suboptimal, riesiger Abstand von 20 zu 40 und kleiner Abstand von 60 zu 80.
a.) Steam-Umfrage liefert nur gequirlte Kacke zum Vorschein und hat 0,0 Aussagekraft, das sage ich jetzt schon seit 2015 oder so
b.) Palpatin danke, man muss das natürlich in der Relation sehen
Dampf, wir lassen dich dann mal auf deinem dämlichen anti-VRAM-Kreuzzug alleine und gucken dann nächstes Jahr zu, wie du mit einer 8GB die Texturen runterstellst, weil die Welt nunmal etwas anders funktioniert und VRAM mehr verbraucht wird und nicht weniger ;). Ich frag mich echt, wie man sich in so eine Scheisse verrennen kann, das ist doch nicht mehr normal.
Nenne mir einen Zeitraum, in dem der VRAM-Verbrauch in den letzten 35 Jahren, seit es Grafikkarten gibt, gesunken wäre. Du wirst keinen finden. Die Konsolen haben viel mehr VRAM als die letzte Generation, was glaubst du was da passiert? Sowas verblendetes hab ich selten erlebt.
AMD sagte selbst 8GB ist unterste Kante demnächst, das sagt der Hersteller der Konsolen SoCs zu einem Zeitpunkt, wo noch nicht klar war, dass NV tatsächlich so dämlich ist und Speicherkrüppel rausbringt sondern es hätte durchaus sein können, dass NV per se mehr Speicher bieten wird. Zudem hat Raff jetzt zig mal nachgewiesen, wie knapp VRAM werden kann bei heutiger Software und mir ist es furzpiepegal, wie angeblich schlecht das optimiert ist, ich geb keine 600€ für ne Karte aus, die da schon jetzt Einschränkunen hat. Da braucht man nur 3 funktinierende Gehirnzellen um vorherzusehen, was nächstes Jahr passiert...
WedgeAntilles
2020-09-23, 10:24:40
Und für mich ist "Sicherheit", das ich auch in ~3-4Jahren noch immer genug RAM habe.
Die Zeiten wo ich auf jede neue Gen. zugegriffen habe sind lange vorbei...
Und dann kommen sie meist noch in den 2t Rechner, falls sie noch gut benutzbar ist.
Mache ich nicht anders, ich überspringe normalerweise sogar 2 Generationen. (Bin noch auf der 970).
Aber zugegebenermaßen bin ich da hier im Forum natürlich eine Low-End Ausnahme.
Und ich spiele eh kaum noch die anspruchsvollen AAA Titel, da spricht mich einfach nix an.
Du gehörst aber auch nicht zur breiten Masse der wenig interessierten Käufer - ich glaube nicht, dass VRAM für die meisten Leute eine sehr relevante Größe ist. Da machen sich denke ich wenige riesige Gedanken wie lange da Ram reicht oder halt knapp wird.
Redneck
2020-09-23, 10:29:45
Nope, kann AMD nicht bringen. Allein schon weil sie in Sachen Raytracing wahrscheinlich und in AI ganz sicher deutlich hinterherhinken werden. RTX 3070 Leistung für 499€ und das Ding wäre DOA, da hilft auch der tolle VRAM nichts, den man in 99% der Fälle sowieso nicht spüren wird.
P/L ist DIE Stärke von AMD, die sie hier ausspielen MÜSSEN.
Die Stärke von AMD ist, das Ihre Technologie in den Konsolen steckt. Diese Karte müssen sie ausspielen. Was gut auf den Konsolen läuft muß auch im Desktop flutschen.
Dann kommt hinzu, das (falls sie nicht doch HBM verbauen sondern den normalen GDDR6) der Speicher günstiger ist als die Variante der 3080.
Ich gehe daher davon aus, das BN auf 3080 Level landet mit 16GB für 599.
dargo
2020-09-23, 10:29:45
Jetzt ist es aber so, dass einiges vom Speicher nicht mal für Spiele, sondern für das OS reserviert wird, bei der Xbox Series X sind deshalb nur 13.5 GB für Spiele zur Verfügung.
Nur? ;D
Bei der aktuellen Gen sind es gerade mal 5,5GB. Wieso brauchen wir dann am PC aktuell mindestens 8GB Vram? :rolleyes: Oder würdest du heute noch jemanden 6GB Grakas empfehlen?
basix
2020-09-23, 10:32:03
Ich gehe daher davon aus, das BN auf 3080 Level landet mit 16GB für 599.
Wäre schön, wird mMn aber nicht passieren. Solch eine Karte wird eher 649...699 Kosten. Bessere P/L, aber nicht zu stark reduzierter Preis ("billig" Image und so).
Redneck
2020-09-23, 10:36:08
Na dann auf ein Neues:
Die Konsolen haben 16 GB shared RAM. Das heißt, der Speicher wird zwischen CPU und GPU geteilt, anders als beim PC wo du dedizierten DRAM und VRAM hast. Jetzt ist es aber so, dass einiges vom Speicher nicht mal für Spiele, sondern für das OS reserviert wird, bei der Xbox Series X sind deshalb nur 13.5 GB für Spiele zur Verfügung.
Von diesen 13.5 GB sind von Microsoft 10 GB als Videospeicher über einen schnelleren Bus angebunden. Dieser Videospeicher kann aber ebenso von der CPU genutzt werden, wenn nötig. Soll heißen, es ist gut möglich, dass in einem Next Gen Spiel das viel auf Physik, AI und Interaktion setzt, die CPU von diesen 10 GB auch einiges in Anspruch nehmen wird, was auf dem PC dann einfach im RAM ausgelagert wird, dann können auch mal 7-9 GB VRAM übrig bleiben. Von der Xbox Series S, die dann wirklich die Baseline darstellt und deutlich weniger RAM hat, will ich mal nicht anfangen.
Noch dazu ist die XSX für 4K konzipiert, die meisten PCler spielen sowieso in 1440p, da sollten die 8 GB ebenso locker reichen.
Also nein, es gibt kein Indiz dafür, dass mit den neuen Konsolen mehr VRAM benötigt wird, solange die Featureset Parity gegeben ist (Sampler Feedback)
Eben.. und weshalb siehst du dann das Problem nicht ?? Sorry, aber Du bringst Fakten, die eindeutig gegen 8GB sprechen.
Der Fall, das die CPU mehr Speicher beansprucht als die GPU wird eher selten bis gar nicht auftauchen. Schau Dir doch mal die Speicherauslastung beim Spielen unter Windows an (und da steckt noch das fette Win im Speicher).
Dampf
2020-09-23, 10:36:16
Dampf, wir lassen dich dann mal auf deinem dämlichen anti-VRAM-Kreuzzug alleine und gucken dann nächstes Jahr zu, wie du mit einer 8GB die Texturen runterstellst, weil die Welt nunmal etwas anders funktioniert und VRAM mehr verbraucht wird und nicht weniger ;). Ich frag mich echt, wie man sich in so eine Scheisse verrennen kann, das ist doch nicht mehr normal.
Nenne mir einen Zeitraum, in dem der VRAM-Verbrauch in den letzten 35 Jahren, seit es Grafikkarten gibt, gesunken wäre. Du wirst keinen finden. Die Konsolen haben viel mehr VRAM als die letzte Generation, was glaubst du was da passiert? Sowas verblendetes hab ich selten erlebt.
Warum wirst du so emotional?
Ich denke nicht, dass der VRAM Bedarf sinkt. Er wird gleich bleiben.
Sampler Feedback Streaming und Direct Storage werden dafür sorgen, dass man deutlich höhere Textur-Qualität ohne pop ins darstellen kann, da diese Techniken den effektiven VRAM im Vergleich zu dieser Generation deutlich erhöhen:
https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg
Deswegen haben die Konsolen ja auch so wenig RAM. Der Next Gen Sprung wird durch Sampler Feedback und SSD-Streaming stattfinden. Und wie ich bereits geschrieben habe, hat die XSX nur 10 GB als "VRAM" und die XSS deutlich weniger.
Ich vermute mal, in baldiger Zukunft werden die höchsten Texturen aufgrund von Sampler Feedback nur auf DX12 Ultimate kompatiblen Karten verfügbar sein, ganz egal wie viel Speicher du hast. Selbst eine 8 GB Ampere Karte verhält sich durch Sampler Feedback wie eine 20 GB Pascal GPU. Zum Glück ist RDNA2 kompatibel dazu.
Eben.. und weshalb siehst du dann das Problem nicht ?? Sorry, aber Du bringst Fakten, die eindeutig gegen 8GB sprechen.
Der Fall, das die CPU mehr Speicher beansprucht als die GPU wird eher selten bis gar nicht auftauchen. Schau Dir doch mal die Speicherauslastung beim Spielen unter Windows an (und da steckt noch das fette Win im Speicher).
"Schau dir mal die Speicherauslastung von Spielen unter Windows an"
Diese Spiele sind aber alle im Hintergedanken der grottigen Jaguar-CPUs der alten Konsolen programmiert. Sobald die Spiele davon entfesselt werden und die neuen Ryzen CPUs nutzen, wird die CPU auch deutlich mehr Speicher benötigen. Das hat Microsoft mit den 3,5 GB CPU Speicher aus der XSX schon einkalkuliert (Current Gen hat ungefähr 1.5 GB für CPU) Trotzdem könnte in Zukunft der Speicherverbrauch der CPU noch mehr ansteigen als das. Der VRAM wird immer noch mehr einnehmen, aber CPU und VRAM werden näher zusammen sein, als diese Generation.
Redneck
2020-09-23, 10:40:10
Wäre schön, wird mMn aber nicht passieren. Solch eine Karte wird eher 649...699 Kosten. Bessere P/L, aber nicht zu stark reduzierter Preis ("billig" Image und so).
Geht ja nicht nur um Billig image...
Nimm mal in deine Kalkulation den besagten , teuren Wunderkühler der FE der angeblich $150 kostet (glaube ich mein Leben nicht dran). Wenn man diesen Kostenfaktor nicht in der Grösse hat und das PCB auch einfacher gestalten kann, kann man die geringeren kosten auch an den Kunden weitergeben.
599 ist genauso ein wichtiger psychologischer Faktor wie die 699 bei der 3080.
1) günstigerer Speichertyp als 3080
2) weniger aufwendiges PCB
3) günstigerer Kühler
ich bleibe bei 599 :D
w0mbat
2020-09-23, 10:43:00
DirectStorage ist noch ein paar Jahre entfernt. Nächstes Jahr kommt erst mal die API beta von Microsoft und dann brauchen wir eine gewisse Marktdurchdringung von NVMe M.2 SSDs.
Die neuen Konsolen haben mehr als doppelt so viel RAM/VRAM und haben schon ihre eigene DirectStorage Implementierung. Der RAM/VRAM Bedarf am PC wird sich erst mal stark erhöhen.
Dampf, ich finde es zum einen sehr toll, wie sehr du dich auf neue Technologien freust und da kommt auch wirklich viele geiles Zeugs auf uns zu. Aber das braucht alles seine Zeit. Wenn wir Sampler Feedback und DirectStorage in 2-3 Jahren auf dem Markt sehen, abseits von Halo-Produkten, dann wäre das schnell.
Dampf
Du verrenst dich dauernd in Details und siehst das große Ganze einfach nicht. Es ist toll, dass es solche Techniken gibt und sie werden sicherlich auch genutzt werden, das hat aber rein überhaupt gar nichts mit der tatsächlich verbrauchten VRAM-Menge in den nächsten Jahren zu tun, genau 0. Die Praxis wird sein, dass die Spiele die Konsole ausnutzen werden und auf dem PC trotzdem mehr oder weniger klassisch laufen und im Gegensatz zu jetzt halt ne SSD voraussetzen. Warum zum Teufel sollte auf dem PC der VRAM-Bedarf sinken? Das ergibt einfach keinen Sinn.
Das einzige, was NV jetzt mit der schwachsinnigen 10GB-Aktion verbrochen hat, ist, dass Studios die LODs jetzt so krass anpassen müssen, damit sie bei den Käufern dieses Elektroschrotts vorerst keine Nachteile kassieren... das hat aber kurze Beine, die 10GB werden trotz NVs Bettelei an die Studios doch bitte nicht mehr als 10GB zu verbrauchen, sehr schnell sehr knapp werden. Ich sehe das sogar so krass, dass selbst die 12GB der N22 knapp werden. Das ist bei der Karte dann aber egal, weil die für maximal 400€ an die Kunden gehen wird wenn der Anfangshype nach nem halben Jahr dann abebbt.
Ein kleiner Hinweis, nicht der GA102-Chip ist Elektroschrott, die Karte wird Elektroschrott, sobald der Speicher knapp wird.
dargo
2020-09-23, 10:44:43
Und wie ich bereits geschrieben habe, hat die XSX nur 10 GB als "VRAM" und die XSS deutlich weniger.
Es ist kompletter Bullshit was du hier schreibst. Wie du vorher schon geschrieben hast stehen der XSX 13,5GB Speicher für Spiele zur Verfügung. 10GB sind mit 560GB/s angebunden, 3,5GB mit 336GB/s. Zweiteres ist immer noch recht schnell angebunden und keineswegs mit irgendwas am PC außerhalb von Vram-Bandbreite vergleichbar. Sowas kann man sich halt nur bei einer festen Konsolenhardware erlauben. Sachen die nicht extrem zeitkritisch zum Zeitpunkt X sind landen dann halt in den 3,5GB. Der Vergleich zwischen Konsole und PC ist einfach albern und das weißt du auch. Schon alleine die Tatsache, dass eine Konsole shared Speicher hat spart man sich dort viele Kopiervorgänge die du zwangsläufig am PC hast.
Dampf
2020-09-23, 10:48:44
Gut es gibt durchaus ein Szenario, in dem ihr Recht haben könntet. Nämlich dann, wenn die Technologien auf der Xbox genutzt werden, aber nicht am PC.
DirectStorage wird erst nächstes Jahr auf den PC kommen, aber Sampler Feedback ist schon länger verfügbar. Es ist aber möglich, dass die beiden Features aufeinander aufbauen, sollte das der Fall sein dann wird der VRAM Bedarf für die höchsten Einstellungen deutlich in die Höhe gehen, bis DirectStorage auf dem PC angekommen ist.
Für diese Spiele könnte es sich übergangsweise lohnen, auf mehr VRAM zu setzen. Es ist halt eine Frage, wie schnell DirectStorage auf den PC kommt.
@dargo Bandbreite ist aber nicht alles. Die CPU benötigt nicht viel Bandbreite, aber geringe Latenzen. DDR4 RAM hat deutlich niedrigere Latenzen als GDDR6 Speicher, auf der CPU Seite hat der PC ein Vorteil.
Du gehst doch nicht davon aus, dass die CPU nichts von den 13.5 GB in Anspruch nehmen wird?
basix
2020-09-23, 10:50:29
Sampler Feedback Streaming und Direct Storage werden dafür sorgen, dass man deutlich höhere Textur-Qualität ohne pop ins darstellen kann, da diese Techniken den effektiven VRAM im Vergleich zu dieser Generation deutlich erhöhen:
Das stimmt alles. Nur ändert es nichts an dem Fakt, dass die neuen Konsolen absolut gesehen einfach mehr Speicher haben ;) Ob die Konsolen jetzt schneller in den VRAM rein streamen oder SFS unterstützen interessiert nicht in dieser Frage, das kann der PC via DirectStorage auch. Ergo Feature Parität PC vs. Konsole und mehr Speicher NextGen vs. OldGen. Deswegen wird man auch am PC mehr Speicher benötigen.
Ich denke nicht, dass der VRAM Bedarf sinkt. Er wird gleich bleiben.
Hier würde ich sagen unmittelbar stagnieren und dann steigen. Stagnieren, da die Konsolen mit 4K näher an die PC-Auflösungen ranrutschen. Somit fällt dieser Speicherfresser in dieser Gen weg. Ausserdem haben sehr viele PC-Spieler Karten mit 8-11 GByte, die will man nicht aussen vor lassen. Steigen, da die Konsolen wie gesagt einfach mehr Speicher haben. 8GB und 10GByte werden bei den NextGen Spielen in 4K limitieren (8GByte für 1080p und 10-12Gbyte 1440p sollten kurz bis mittelfristig noch knapp passen). Ich sehe 12 GByte für 1440p und 16 GByte VRAM für 4K als vernünftige Speichermengen an. Nicht zu wenig, aber auch nicht zu viel. Wenn du jede GPU-Generation die Karte wechselst, spielt die Speichermenge eh fast keine Rolle.
richtig basix
Der VRAM-Verbrauch wird trotz des Einsatzes von Directstorage steigen (wenn das in 22 oder so mal eingesetzt wird), dann gibts halt entsprechend mehr Inhalt :freak:.
Ehrlich, zu glauben, dass der VRAM-Bedarf sinken könnte ist bar jeglicher Realität.
Nächstes Jahr werden aber die Verbräuche erst mal nach oben schießen, weil die Games komplexer werden und noch ganz klassisch auf der SATA-SSD laufen werden.
Gipsel
2020-09-23, 10:58:10
In mir drängt sich der Verdacht auf, dass du von der gleichen Firma bezahlt wirst wie Troyan.
Ernste Warnung!
Solche Vorwürfe sind ein No Go, sind sie doch regelmäßig haltlos (das Gleiche gilt für Vorwürfe, die Moderation würde von irgendwem bezahlt). Von einigen Leuten im Forum wissen wir, daß ihre Arbeitgeber in der Branche aktiv sind. Diese Leute verfallen aber meines Wissens aber nicht in plattes Fanboytum und füttern das Forum mit FUD. Solche Statements tun es. Sie sind also zu unterlassen.
Danke.
Dampf
2020-09-23, 11:00:18
Die Konsolen haben aber nicht mehr Speicher. 10 GB hat Microsoft für die Speichermenge auf der XSX für 4K einkalkuliert. Was hat eine 3080? 10 GB. Also für 4K sollte das kein Problem darstellen. Und den ganzen CPU Krempel der bei den Konsolen GDDR6 Speicher auffrisst, kann der PC einfach in den RAM auslagern, da DRAM. 8 GB werden reichen für 1440p, die 3070 ist eine 1440p Karte.
Die Spiele werden immer Konsolen limitiert bleiben, so wie auch jetzt. DirectStorage wird erheblich mehr Inhalt ermöglichen, aber eben ohne den physikalischen VRAM erhöhen zu müssen. Wenn ihr dann mehr VRAM habt als die Konsolen, sind theoretisch bessere Texturen und Assets als auf den Konsolen möglich, aber ihr kennt es doch, Entwickler werden sich die Mühe nicht machen, zumal die Texturen absolut scharf genug in der Next Gen aussehen werden.
Abseits von Raytracing, höherer Auflösung und höheren Framerate sehen Spiele auf dem PC fast genauso aus wie auf der Xbox One X. Das wird auch in der Next Gen so bleiben, der PC wird nur in den seltenen Fällen bessere Assets und Texturen als die PS5/XSX bieten.
basix
2020-09-23, 11:06:10
Die Konsolen haben aber nicht mehr Speicher. 10 GB hat Microsoft für die Speichermenge auf der XSX für 4K einkalkuliert. Was hat eine 3080? 10 GB. Also für 4K sollte das kein Problem darstellen. Und den ganzen CPU Krempel der bei den Konsolen GDDR6 Speicher auffrisst, kann der PC einfach in den RAM auslagern, da DRAM. 8 GB werden reichen für 1440p, die 3070 ist eine 1440p Karte.
Da stimme ich dir nur bei den FirstGen Spielen zu und wenn man auf dem PC in ~Konsolen-Qualität spielt. Alles was in 1-2 Jahren kommt, wird arg an diesem Speicher knabbern. Ausserdem hat man noch Windows + Treiber-Overhead, allenfalls langsamere SSDs usw. was den Speicher noch knapper machen können. Am PC hat man aber zum Glück noch den CPU-RAM, darüber wird man wohl viel abfangen müssen.
Der PC wird den VRAM-Speicher einfach nicht so effizient wie die Konsolen nutzen können und am PC wird man relativ bald höhere Settings fahren, da mehr GPU-Leistung vorhanden. Dann wird man automatisch mehr Speicher benötigen. Das selbe haben wir auch schon bei PS4 und XBoneS gesehen. Mehr Raytracing = Mehr Speicherverbrauch; höhere Weitsicht = mehr Speicherverbrauch; höher aufgelöste Texturen, Shadowmaps, Geometriedetails = mehr Speicherverbrauch. All das wirst du am PC bekommen, auch ohne >4K gehen zu müssen.
Edit:
Die Spiele werden immer Konsolen limitiert bleiben, so wie auch jetzt. DirectStorage wird erheblich mehr Inhalt ermöglichen, aber eben ohne den physikalischen VRAM erhöhen zu müssen. Wenn ihr dann mehr VRAM habt als die Konsolen, sind theoretisch bessere Texturen und Assets als auf den Konsolen möglich, aber ihr kennt es doch, Entwickler werden sich die Mühe nicht machen, zumal die Texturen absolut scharf genug in der Next Gen aussehen werden.
Ja, DirectStorage wird ein Segen werden ;) Der visuelle Unerschied zwischen 4K und 8K Texturen ist nicht so wahnsinnig gross, frisst aber dennoch speicher und ist für den Entwickler kein grosser Aufwand, um die PCMR zu befriedigen ;)
Dampf
RDR2 PC z.B. erzählt da aber ne ganz andere Geschichte ;).
Dampf
2020-09-23, 11:12:49
Dampf
RDR2 PC z.B. erzählt da aber ne ganz andere Geschichte ;).
Findest du?
https://www.youtube.com/watch?v=mQXfD20rqtc
Finde ich jetzt nicht. Weitsicht ist hier und da etwas höher, aber nichts was auffallen würde. Die Wassereffekte sind zumindest ein Unterschied.
Aber was Geometrie, Texturen, Lichtberechnung usw angeht, sind die Unterschiede sehr gering. Trotzdem ist der Hardware-Hunger auf dem PC gigantisch.
@basix da hast du recht. In meinen Annahmen gehe ich nur von Next Gen Konsolen-Settings aus. Wenn der PC deutlich bessere Settings fährt, dann ist es natürlich vorteilhaft, mehr Speicher zu haben. Dann sollte es sich aber auch lohnen, nicht so wie bei Red Dead 2.
Redneck
2020-09-23, 11:13:12
Die Konsolen haben aber nicht mehr Speicher. 10 GB hat Microsoft für die Speichermenge auf der XSX für 4K einkalkuliert. Was hat eine 3080? 10 GB. Also für 4K sollte das kein Problem darstellen. Und den ganzen CPU Krempel der bei den Konsolen GDDR6 Speicher auffrisst, kann der PC einfach in den RAM auslagern, da DRAM. 8 GB werden reichen für 1440p, die 3070 ist eine 1440p Karte.
Wenn die Konsolen 4k ausgeben, weshalb sollte ich mit einer diskreten Grafikkarte für €500 dies nicht auch tun dürfen ? Merkste was ?
NV hat Murks gebaut und Du argumentierst quasi so, das es NV in die Arme spielt.
Dann könnte NV ja gleich um die Ecke kommen und sagen, hey unsere 3070 ist nur für 1440p gut aber nicht für mehr .
Dann würde ich mir die Frage stellen, weshalb ich eine 3070 brauche, wenn ich 4K von einer gleich teuren Konsole bekommen kann.
basix
2020-09-23, 11:21:17
Nächstes Jahr werden aber die Verbräuche erst mal nach oben schießen, weil die Games komplexer werden und noch ganz klassisch auf der SATA-SSD laufen werden.
Ich hoffe, dass die langsameren SSDs eben nicht einen erhöhten Speicherverbrauch auf der Grafikkarte zur Folge haben. Dazu wäre meiner Meinung nach der System-RAM als Zwischenpuffer deutlich besser geeignet und zudem deutlich günstiger / einfach aufrüstbar. Ausserdem kann man die Daten noch komprimiert im RAM lassen, was den RAM-Footprint im Zaum hält, und erst beim Transfer in den VRAM via RTX IO und Co. dekomprimiert.
Optimum für 4K und NextGen: NVMe SSD, 32 GByte System-RAM und 16 GByte VRAM. Mit einer SATA-SSD sollten die 32 GByte aber auch noch knapp reichen.
https://lists.freedesktop.org/archives/amd-gfx/2020-September/054110.html
basix
2020-09-23, 11:32:18
Wieso hat man dort zum Teil die RDNA2 Einträge entfernt?
Wieso hat man dort zum Teil die RDNA2 Einträge entfernt?
Gute Frage
Dampf
2020-09-23, 11:39:56
Naja, letztlich ist es ja euer Geld, ihr müsst für euch selbst entscheiden was für euch wichtig ist. Ich hab ja meinen Standpunkt schon häufiger erläutert, warum ich denke, dass die derzeitige Speicherausstattung ausreichen wird, zumindest für Xbox Series X Grafik in deutlich schneller.
Ich fänds halt nur doof, wenn AMD als Verkaufsargument jetzt voll auf den VRAM gehen würde. Dass das schief laufen kann hat man mit den 16 GB Dingern ja gesehen :( Sollte Navi 2 aber wirklich 499 - 599€ kosten, 3080 Rohleistung bieten UND dann auch noch 16 GB VRAM haben, dann ist das imo ein sehr gutes P/L Verhältnis.
Im Gegensatz zu Navi 1 ist das ja eine gute zukunftsfähige Architektur :) DXR Beschleunigung hat sie ja, genauso wie DX12 Ultimate Support! Das ist das allerwichtigste.
basix
2020-09-23, 11:48:53
DXR Beschleunigung hat sie ja, genauso wie DX12 Ultimate Support! Das ist das allerwichtigste.
Japp, die Features sind wichtig. Aber speziell DirectStorage sehe ich mMn als kritisch an (sonst grillt es dir die CPU), welches nichtmal Teil von DX12U ist. Und sowas wie DLSS wäre auch Nice.
Ich fänds halt nur doof, wenn AMD als Verkaufsargument jetzt voll auf den VRAM gehen würde. Dass das schief laufen kann hat man mit den 16 GB Dingern ja gesehen :( Sollte Navi 2 aber wirklich 499 - 599€ kosten, 3080 Rohleistung bieten UND dann auch noch 16 GB VRAM haben, dann ist das imo ein sehr gutes P/L Verhältnis.
Glaube nicht, dass AMD das macht. Aber 16GB > 10GB. Somit Vorteil AMD Marketing. Und damals waren 8GByte meistens noch genug und 16GB Overkill. Heute sind 10GB je nach Anwendung knapp und NextGen steht vor der Tür. Das ist eine etwas andere Ausgangslange für 16GByte VRAM.
Die AMD Karten könnten schon relativ günstig sein was $/GB anbelangt. Nvidias G6X wird einiges teurer sein. Würde mich nicht wundern, wenn die Mehrkosten für PCB, Kühlung und Speicher den Unterschied zwischen 10GB G6X zu 16GB G6 fast egalisieren.
Linmoum
2020-09-23, 11:58:15
256bit is in Emulation Mode ?
HBM2e ?????
I can't understand it at all.
I'll tweet again until October 28.
https://mobile.twitter.com/KittyYYuko/status/1308699315804798976
Ich glaube, bei AMD gab es noch nie derart wenig "Fakten" knapp einen Monat vorher. Man weiß im Prinzip gar nichts weil jeden Tag was Neues kommt.
Dampf
2020-09-23, 11:58:57
Japp, die Features sind wichtig. Aber speziell DirectStorage sehe ich mMn als kritisch an (sonst grillt es dir die CPU), welches nichtmal Teil von DX12U ist. Und sowas wie DLSS wäre auch Nice.
Die AMD Karten könnten schon relativ günstig sein was $/GB anbelangt. Nvidias G6X wird einiges teurer sein. Würde mich nicht wundern, wenn die Mehrkosten für PCB, Kühlung und Speicher den Unterschied zwischen 10GB G6X zu 16GB G6 fast egalisieren.
DirectStorage wird zu 100% auch für RDNA2 Karten kommen, Xbox nutzt ja auch die RDNA2 Architektur. AMD wird auf dem PC wohl etwas ähnliches vor haben wie Nvidia mit RTX I/O. Richtig, es ist kein Teil von DX12U. Ich habe aber im April mal mit einem Senior Engineer für DX im Microsoft Entwickler-Discord gesprochen, dieser hat angedeutet, dass Sampler Feedback Streaming und Direct-Storage doch ziemlich eng zusammen arbeiten, also eine DX12U kompatible Karte scheint schon wichtig zu sein für DirectStorage, genauso wie ein schnelles Laufwerk (wohl NVMe).
Stimmt, der GDDR6 Speicher wird deutlich günstiger sein als GDDR6X Speicher, was höhere Mengen zum gleichen Preis ermöglicht, die 16 GB für den Top-Dog machen imo schon Sinn.
DLSS wäre natürlich toll, ich hoffe insgeheim, dass AMD den RDNA2 Karten noch schnell auf Matritzenoperationen optimierte Einheiten spendiert. So als kleine Überraschung, das wäre dann wirklich der Oberhammer. Aber realistisch betrachtet, wird das wohl erst mit RDNA3 der Fall sein.
ChaosTM
2020-09-23, 12:04:46
Ich erinnere mich an einen Test DLSS1 vs AMDs Upscaling/Schärfe Ding aber ich hab vergessen wo ich das gesehen hab.
AMD hat damals knapp gewonnen.. war es vielleicht Igor? .. Hirn lässt nach
Gefunden.: https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
quote.: Bottom Line
Radeon Image Sharpening is genuinely impressive. It doesn’t require any developer implementation and it works well by sharpening the image which can be useful in a variety of situations.
Screemer
2020-09-23, 12:07:01
Das war imho Digital foundry. Die Zug Szene war glaub ich aus metro, wenn ich mich recht erinnere. Gibt aber auch ein bis von igor: https://m.youtube.com/watch?v=RDaEnQ9ftIo
Complicated
2020-09-23, 12:08:04
Bei all der VRAM Diskussion sollte man nicht vergessen den Systemspeicher zu dem Vergleich hinzuzufügen. Da hat die Konsole immer noch weniger als der Normal-PC und nicht alles übersetzt sich in sinnvollen VRAM auf einer dGPU.
ChaosTM
2020-09-23, 12:10:24
@ Screemer .. das wars. Die kommen zum selben Ergebnis.
Complicated
2020-09-23, 12:14:18
DirectStorage ist noch ein paar Jahre entfernt.Das gibt es seit der Radeon SSG - das ist schon jahrelang etablierte Technik seit HBCC atomic read/writes nutzt.
Nennt sich halt DirectGMA und hat damals noch HBM benötigt.
stinki
2020-09-23, 12:15:01
Solange ich nicht verstehe wie AMD bei RDNA2 die doppelte Anzahl an CUs mit höherem Takt als der RDNA1 Vorgänger mit ca. der gleichen Bandbreite (grob vielleicht +14% Bandbreite) versorgen will, bleibe ich dabei, dass BN nur knapp über GA104 (3070Ti 16GB) Performance (die wir noch gar nicht kennen) rauskommen wird.
Ich sehe momentan einfach nicht wie man mit so wenig Bandbreite 3080 Performance erreichen will. Aber wie gesagt, wenn sie das mit Dunkler Materie und Magie hinbekommen, dann ziehe ich meinen Hut vor ihnen. Aber das will ich erst einmal sehen und verstehen.
Nvidia haut ja nicht aus Spaß an der Freud 760 GB/sec Bandbreite rein, wenn 512 GB/sec (oder sogar nur 448GB/sec) auch reichen würden. Wir reden hier also über mindestens fast 50% mehr Bandbreite auf Nvidia Seite. Auf diesen speziellen Trick von AMD, mit dem sie das kompensieren wollen, bin ich wirklich gespannt.
Und preislich, da ich nur etwas über 3070Ti 16GB Leistung erwarte, erwarte ich einen Preis von €599.
Cyberfries
2020-09-23, 12:16:15
256bit is in Emulation Mode ?
HBM2e ?????
Plot-Twist: Es kommt wie erwartet
Dass das schief laufen kann hat man mit den 16 GB Dingern ja gesehen
Dem einen Ding, das kaum verfügbar war, da nur in Minimalmengen auf dem Markt und dementsprechend hohen Preisen?
Aus Stichprobengröße 1 kann man hervorragend eine Regelmäßigkeit ableiten.
Dampf
2020-09-23, 12:17:14
Ich erinnere mich an einen Test DLSS1 vs AMDs Upscaling/Schärfe Ding aber ich hab vergessen wo ich das gesehen hab.
AMD hat damals knapp gewonnen.. war es vielleicht Igor? .. Hirn lässt nach
Gefunden.: https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
quote.: Bottom Line
Radeon Image Sharpening is genuinely impressive. It doesn’t require any developer implementation and it works well by sharpening the image which can be useful in a variety of situations.
In 4K reicht imo auch upscaling + sharpening (FidelityFX) Die Auflösung ist da immer noch sehr hoch, sehr viele Details. Klar sieht natives 4K immer noch besser aus, aber für die extra FPS ist das schon eine gute Lösung.
https://static.techspot.com/articles-info/1873/images/F-16.jpg
Auf einem 1440p Monitor sieht man da nicht viele Unterschiede, denn die interne Auflösung von FidelityFX ist immer noch höher als das. Da muss man schon ranzoomen. Wer ein 4K Monitor hat wird sicherlich auch im Live-Bild einen subtilen Unterschied merken, aber wie gesagt, die Auflösung ist noch hoch genug.
Das alte DLSS war aber wirklich nicht sonderlich toll. Die Unterschiede zu Upscaling+Sharpening hielten sich in Grenzen.
https://static.techspot.com/articles-info/1873/images/F-17.jpg
DirectStorage wird zu 100% auch für RDNA2 Karten kommen, Xbox nutzt ja auch die RDNA2 Architektur. AMD wird auf dem PC wohl etwas ähnliches vor haben wie Nvidia mit RTX I/O. Richtig, es ist kein Teil von DX12U. Ich habe aber im April mal mit einem Senior Engineer für DX im Microsoft Entwickler-Discord gesprochen, dieser hat angedeutet, dass Sampler Feedback Streaming und Direct-Storage doch ziemlich eng zusammen arbeiten, also eine DX12U kompatible Karte scheint schon wichtig zu sein für DirectStorage, genauso wie ein schnelles Laufwerk (wohl NVMe).
Stimmt, der GDDR6 Speicher wird deutlich günstiger sein als GDDR6X Speicher, was höhere Mengen zum gleichen Preis ermöglicht, die 16 GB für den Top-Dog machen imo schon Sinn.
DLSS wäre natürlich toll, ich hoffe insgeheim, dass AMD den RDNA2 Karten noch schnell auf Matritzenoperationen optimierte Einheiten spendiert. So als kleine Überraschung, das wäre dann wirklich der Oberhammer. Aber realistisch betrachtet, wird das wohl erst mit RDNA3 der Fall sein.
Minimum für die nächsten 2-3 Jahre wird die GTX1660 bzw.RX5600/V56 sein. Das zieht sich durch wie ein roter Faden, dass immer die 6er der vorletzten Generation Minimum für die nächste Gen wird. Minimum FL wird bis auf Weiteres 12_0 sein. Soviel zu der Theorie.
- 6GB Minimum
- 8GB Mainstream
Empfohlen bis auf Weiteres 10GB
davidzo
2020-09-23, 12:30:58
Solange ich nicht verstehe wie AMD bei RDNA2 die doppelte Anzahl an CUs mit höherem Takt als der RDNA1 Vorgänge mit ca. der gleichen Bandbreite (grob vielleicht +14% Bandbreite) versorgen will, bleibe ich dabei, dass BN nur knapp über GA104 (3070Ti 16GB) Performance (die wir noch gar nicht kennen) rauskommen wird.
Ich sehe momentan einfach nicht wie man mit so wenig Bandbreite 3080 Performance erreichen will. Aber wie gesagt, wenn sie das mit Dunkler Materie und Magie hinbekommen dann ziehe ich meinen Hut vor ihnen. Aber das will ich erst einmal sehen und verstehen.
Ich meine die Industrie geht bei stark parallelisierbaren Anwendungen in Richtung In-Memory-Computing und on-chip memory. Das ist ohnehin klar dass ohne diese Technologien die Exascale Barriere nicht genommen werden kann.
AMD hat unter Lisa Su sehr viel auf industriebekannte Zukunftstechnologien gesetzt, darunter data Fabrics, neural networks, CCIX, CXL, HBM2, Chip stacking, Interposer, Chiplet, etc. - Intel forscht an diesen zwar auch und zum Teil schon länger, hat aber noch nicht viel mehr als ein paar Prototypen und Nischenprodukte damit heraus gebracht.
Es würde zu Lisas Stil passen wenn AMD jetzt on-chip memory als die nächste Zukunftstechnologie aufgreift und in ihre GPUs integriert.
stinki
2020-09-23, 12:34:05
Solange mehr als 98% aller Grafikkarten bei den Spielern <=8GB haben, werden alle Spiele auch ganz gut auf 4K (mit leicht reduzierten Details) mit diesen laufen.
Aber natürlich schadet mehr VRAM bestimmt nie und ich persönlich würde auch lieber 16GB oder 20GB kaufen als 8GB oder 10GB.
dargo
2020-09-23, 12:39:03
@dargo Bandbreite ist aber nicht alles. Die CPU benötigt nicht viel Bandbreite, aber geringe Latenzen. DDR4 RAM hat deutlich niedrigere Latenzen als GDDR6 Speicher, auf der CPU Seite hat der PC ein Vorteil.
Alter... :facepalm:
Ist dir überhaupt bewusst wie nah man bei der Konsole an Metal programmiert? Besonders bei Sony? Vom Vorteil beim PC im Bereich CPU zu sprechen hat schon was von Comedy. :ulol:
Die Konsolen haben aber nicht mehr Speicher. 10 GB hat Microsoft für die Speichermenge auf der XSX für 4K einkalkuliert. Was hat eine 3080? 10 GB. Also für 4K sollte das kein Problem darstellen. Und den ganzen CPU Krempel der bei den Konsolen GDDR6 Speicher auffrisst, kann der PC einfach in den RAM auslagern, da DRAM. 8 GB werden reichen für 1440p, die 3070 ist eine 1440p Karte.
Es ist mit dir leider sinnlos über das Thema zu sprechen da du anscheinend die Vorteile vom gemeinsamen Speicher den ein PC nun mal nicht hat nicht verstehst.
just4FunTA
2020-09-23, 12:39:31
Solange mehr als 98% aller Grafikkarten bei den Spielern <=8GB haben, werden alle Spiele auch ganz gut auf 4K (mit leicht reduzierten Details) mit diesen laufen.
klar schließlich garantiert einem jeder hersteller seit Jahren das man mit ihren Grafikkarten in 4k spielen kann, ach ups das stimmt ja garnicht.
stinki
2020-09-23, 12:44:11
klar schließlich garantiert einem jeder hersteller seit Jahren das man mit ihren Grafikkarten in 4k spielen kann, ach ups das stimmt ja garnicht.
Ich spiele mit einer 980Ti 6GB teilweise in 4K auf 30FPS mit reduzierten Details, klar geht das.
Die Vorstellungen was "spielen" ist gehen halt oft weit auseinander.
4K max. Details mit 240Hz dürften wohl nur die wenigsten Karten heute schaffen.
Solange mehr als 98% aller Grafikkarten bei den Spielern <=8GB haben, werden alle Spiele auch ganz gut auf 4K (mit leicht reduzierten Details) mit diesen laufen.
Aber natürlich schadet mehr VRAM bestimmt nie und ich persönlich würde auch lieber 16GB oder 20GB kaufen als 8GB oder 10GB.
Das stimmt für 1440p, aber nicht für 4k.
Dampf
2020-09-23, 12:46:05
Minimum für die nächsten 2-3 Jahre wird die GTX1660 bzw.RX5600/V56 sein. Das zieht sich durch wie ein roter Faden, dass immer die 6er der vorletzten Generation Minimum für die nächste Gen wird. Soviel zu der Theorie.
- 6GB Minimum
- 8GB Mainstream
Empfohlen bis auf Weiteres 10GB
Solange die alten Konsolen noch mitgezogen werden, wird sich an den Minimalanforderungen nichts oder kaum was ändern.
Sieht man ja bei Cyberpunk:
https://oyster.ignimgs.com/wordpress/stg.ign.com/2020/09/Cyberpunk-Specs-PC-720x405.png?fit=bounds&width=640&height=480
Es ist interessant zu beobachten, dass die Minimalanforderungen bei den meisten Spielen um den Dreh bei 2-3 GB, sehr selten auch auf bei 4 GB landet. Das liegt daran, wie der Speicher auf den alten Konsolen zugeteilt wird. Die meisten Current Gen Spiele belegen 3 GB VRAM und 1.5 GB DRAM auf der dynamischen Speicherzuteilung einer PS4:
https://i.imgur.com/wx7XRap.png
Folglich ist die 3 GB Karte für low in 1080p ausreichend.
Je nach Spiel ist die Speicherzuteilung unterschiedlich.
Die Cross Gen Phase dürfte noch 2 Jahren gehen. Danach werden die Anforderungen aber sicherlich auf das Niveau steigen, das du angegeben hast. Xbox Series S hat beispielsweise 8 GB geteilten RAM. Wenn man dafür die von MS einkalkulierten 3.5 GB CPU Speicher abzieht, bleiben noch 4,5 GB für den VRAM übrig. 4 GB könnten also ganz knapp noch überleben, die ganzen RTX 3030/1650 und was es sonst noch alles gibt User wird man sicherlich auch mitziehen wollen. Aber 3 GB Karten werden wohl nicht mehr für die Next Gen tauglich sein.
Irgendwann werden sicherlich auch DX12U Karten vorausgesetzt werden. Wann? Keine Ahnung, eventuell auch schon in 2-3 Jahren. In 2-3 Jahren wird die Userbase von DX12U auch sehr hoch sein. Immerhin gibts dann auch die ganzen Low End Ampere und RDNA2 Karten und natürlich die Konsolen.
Berniyh
2020-09-23, 12:51:01
Solange ich nicht verstehe wie AMD bei RDNA2 die doppelte Anzahl an CUs mit höherem Takt als der RDNA1 Vorgänger mit ca. der gleichen Bandbreite (grob vielleicht +14% Bandbreite) versorgen will, bleibe ich dabei, dass BN nur knapp über GA104 (3070Ti 16GB) Performance (die wir noch gar nicht kennen) rauskommen wird.
Sagen wir es mal so:
AMD wird keinen Chip bauen der zwar doppelt so viele CUs wie Navi 10 hat, aber dann übelst an der Bandbreite verhungert.
Dafür ist die Chipfläche die man mit den vielen CUs benötigt, einfach zu teuer und verschwendet.
Insofern ist deine Schlussfolgerung halt irgendwo nutzlos, denn das wird nicht passieren.
Entweder AMD bringt 80 CU mit adäquater Bandbreite (oder Kompensationstechniken) oder es wird keine 80 CU geben.
Da die 80 CU aber praktisch bestätigt sind wird sich da schon irgendwas ergeben.
256bit is in Emulation Mode ?
HBM2e ?????
I can't understand it at all.
I'll tweet again until October 28.
https://mobile.twitter.com/KittyYYuko/status/1308699315804798976
Ich glaube, bei AMD gab es noch nie derart wenig "Fakten" knapp einen Monat vorher. Man weiß im Prinzip gar nichts weil jeden Tag was Neues kommt.
Ich denke er bezieht sich da auf diesen einen Teil im Linux Treiber, wo von einer GDDR6 Emulation die Rede ist.
Das ist aber nur für Sienna Cichlid und nicht (oder noch nicht?) für Navy Flounders.
Die Theorie, dass es sich deshalb um ein HBM2 Speicherinterface handelt, welches – in irgendeiner Form – GDDR6 emulieren kann, gab es schon früher, aber ist letztendlich doch eine eher wilde Theorie.
Solange die alten Konsolen noch mitgezogen werden, wird sich an den Minimalanforderungen nichts oder kaum was ändern.
Sieht man ja bei Cyberpunk:
https://oyster.ignimgs.com/wordpress/stg.ign.com/2020/09/Cyberpunk-Specs-PC-720x405.png?fit=bounds&width=640&height=480
Es ist interessant zu beobachten, dass die Minimalanforderungen bei den meisten Spielen um den Dreh bei 2-3 GB, sehr selten auch auf bei 4 GB landet. Das liegt daran, wie der Speicher auf den alten Konsolen zugeteilt wird. Die meisten Current Gen Spiele belegen 3 GB VRAM und 1.5 GB DRAM auf der dynamischen Speicherzuteilung einer PS4:
https://i.imgur.com/wx7XRap.png
Folglich ist die 3 GB Karte für low in 1080p ausreichend.
Je nach Spiel ist die Speicherzuteilung unterschiedlich.
Die Cross Gen Phase dürfte noch 2 Jahren gehen. Danach werden die Anforderungen aber sicherlich auf das Niveau steigen, das du angegeben hast. Xbox Series S hat beispielsweise 8 GB geteilten RAM. Wenn man dafür die von MS einkalkulierten 3.5 GB CPU Speicher abzieht, bleiben noch 4,5 GB für den VRAM übrig. 4 GB könnten also ganz knapp noch überleben, die ganzen RTX 3030/1650 und was es sonst noch alles gibt User wird man sicherlich auch mitziehen wollen. Aber 3 GB Karten werden wohl nicht mehr für die Next Gen tauglich sein.
Irgendwann werden sicherlich auch DX12U Karten vorausgesetzt werden. Wann? Keine Ahnung, eventuell auch schon in 2-3 Jahren. In 2-3 Jahren wird die Userbase von DX12U auch sehr hoch sein. Immerhin gibts dann auch die ganzen Low End Ampere und RDNA2 Karten und natürlich die Konsolen.
Speicher für Kosolen:
5,5GB XBox/PS4 für 1080p
8GB für Lockhart für 1440p +DS
9,5GB für OneX für 4k (7,5GB PS4p)
13,5GB SerX für 4k (wobei der FB im schnellen Speicherbereich liegt)+DS
Soviel dazu. Du kannst dir noch so viel Kram aus den Fingern saugen, das funktioniert so nicht. Du versuchst mit nem 5l-Auto mit abgezähltem Tank von Hamburg nach München zu fahren und wirst scheitern.
Frag mal Raff, wie toll 3GB für Low noch reichen übrigens. Du machst nur Theorie und hast keinen Schimmer von der Praxis und suchst dein Heil in neuen Techniken, die so aber nicht durchschlagen werden, wie du dir das vorstellst. Ein PC ist nunmal nach wie vor ne völlig andere Kiste als ne Konsole und neue Technologien dort durchzusetzen dauert einfach seine Zeit. Bis DS soweit ist sind wie bei ganz anderen Speicherverbräuchen angekommen und die Spiele werden auf der Konsole intern schon wieder in 1440p oder niedriger bereichnet, weil Speicher zu knapp und/oder Grafikleistung zu niedrig ist.
Redneck
2020-09-23, 13:00:24
Ich spiele mit einer 980Ti 6GB teilweise in 4K auf 30FPS mit reduzierten Details, klar geht das.
Die Vorstellungen was "spielen" ist gehen halt oft weit auseinander.
4K max. Details mit 240Hz dürften wohl nur die wenigsten Karten heute schaffen.
jo, aber dann kauft man sich auch keine neue Karte >€500 .. dann kann man auch mit der alten weiterleben, wenn einem das reicht.
Dampf
2020-09-23, 13:01:07
Ich sauge mir nichts aus dem Finger. Die Speicherangaben die du da hast sind geteilter RAM, kein dedizierter VRAM und ich habe dir eine Memory Map von Killzone Shadowfall gegeben, damit du siehst wie dieser heute mit den schwachen Jaguar CPUs eingeteilt wird. Meinst du der CPU Speicherverbrauch wird in der nächsten Generation sinken, trotz dass die CPUs 4x schneller sind? Weit gefehlt. Microsoft hat ja schon 3,5 GB einkalkuliert, das ist ein großer Unterschied zu den bisherigen ~1,5 GB. In der Realität wirds wohl noch etwas mehr werden, was den effektiv nutzbaren VRAM auf den Konsolen verringert.
Naja, wir wissen nicht ob die PS4 wirklich 1080p hinkriegt in Cyberpunk, die Minimalspecs könnten auch für 720p sein. In vielen Titeln ist die PS4 ja schon unter 1080p. Das muss man dann natürlich auch auf die 3 GB PC Karten anwenden.
WedgeAntilles
2020-09-23, 13:07:28
jo, aber dann kauft man sich auch keine neue Karte >€500 .. dann kann man auch mit der alten weiterleben, wenn einem das reicht.
Falsches Argument - natürlich kauft man sich irgendwann ne neue Karte.
Jetzt z.B. ne 3080 für sogar 700 - und hat damit wieder 5 Jahre seine Ruhe.
Oder halt ne vergleichbare BigNavi die man dann 5 Jahre drin hat.
Nicht jeder hat ein Problem damit, wenn eine Textur mal schlechtere Qualität hat.
Und für genau diese Leute genügen eben auch weniger Ram.
Habe ich maximale Anforderungen halt nicht.
Es gibt Spieler die wollen mit einer neuen GraKa erstmal alles Max spielen.
Und im Laufe der Jahre wird nach und nach der eine oder andere Regler nach links gerückt.
Und nach 5 Jahren oder so ist man auf einem Niveau, wo man wieder mal ne neue GraKa braucht.
Das sind Leute, die weder 1000 Euro für eine perfekte Lösung mit 16GB Aufwärts ausgeben wollen.
Aber eben auch nicht nur 200 Euro für die GraKa raushauen.
Typisch ist da normalerweise 300-500 Euro, aber falls das Preis-Leistungsverhältnis der teureren Karte halt super ist (war es bisher ja nie. Warum sollte ein oben beschriebener Spieler ne 2080 kaufen, wenn die 5700XT nicht so viel langsamer ist?) holen sich diese Leute auch so eine Karte.
Da bleibt der Regler halt 1-2 Jahre länger rechts bevor man sich ans reduzieren machen muss.
Ich sauge mir nichts aus dem Finger. Die Speicherangaben die du da hast sind geteilter RAM, kein dedizierter VRAM und ich habe dir eine Memory Map von Killzone Shadowfall gegeben, damit du siehst wie dieser heute mit den schwachen Jaguar CPUs eingeteilt wird. Meinst du der CPU Speicherverbrauch wird in der nächsten Generation sinken, trotz dass die CPUs 4x schneller sind? Weit gefehlt. Microsoft hat ja schon 3,5 GB einkalkuliert, das ist ein großer Unterschied zu den bisherigen ~1,5 GB. In der Realität wirds wohl noch etwas mehr werden, was den effektiv nutzbaren VRAM auf den Konsolen verringert.
Naja, wir wissen nicht ob die PS4 wirklich 1080p hinkriegt in Cyberpunk, die Minimalspecs könnten auch für 720p sein. In vielen Titeln ist die PS4 ja schon unter 1080p. Das muss man dann natürlich auch auf die 3 GB PC Karten anwenden.
Das gilt dann doch in ein paar Jahren für die neuen, wenn sich DS mal am PC durchsetzen wird. Natürlich ist da auch SystemRAM-Verbrauch drin, ja und? Das ist doch sowieso für jedes Spiel unterschiedlich, die haben doch keine festen Speicherbereiche, sonst hätte ne Konsole einfach auch SystemRAM, ist doch billiger. Das wird aufgeteilt wie man das braucht. Und was du noch gar nicht bedacht hast und was kaum einer hier bedenkt, ist, dass Allokation != Speicherverbrauch ist... Ich hör jetzt auf, ist einfach sinnlos mit dir. Ich finds nur unverantwortlich, dass du Leuten einredest, sie bräuchten nicht mehr Speicher und sie damit wenigstens Potenziell in Unglück stürzt...
WedgeAntilles
du kaufst keine 600€-Karte um dann Matschtexturen zu haben.
Akkarin
2020-09-23, 13:15:00
Könnte man nen I/O die an ein HBM Interface hängen bzw. ein Interface designen das beides kann ?
Redneck
2020-09-23, 13:33:48
Falsches Argument - natürlich kauft man sich irgendwann ne neue Karte.
Jetzt z.B. ne 3080 für sogar 700 - und hat damit wieder 5 Jahre seine Ruhe.
Oder halt ne vergleichbare BigNavi die man dann 5 Jahre drin hat.
Nicht jeder hat ein Problem damit, wenn eine Textur mal schlechtere Qualität hat.
Und für genau diese Leute genügen eben auch weniger Ram.
Habe ich maximale Anforderungen halt nicht.
Es gibt Spieler die wollen mit einer neuen GraKa erstmal alles Max spielen.
Und im Laufe der Jahre wird nach und nach der eine oder andere Regler nach links gerückt.
Und nach 5 Jahren oder so ist man auf einem Niveau, wo man wieder mal ne neue GraKa braucht.
Das sind Leute, die weder 1000 Euro für eine perfekte Lösung mit 16GB Aufwärts ausgeben wollen.
Aber eben auch nicht nur 200 Euro für die GraKa raushauen.
Typisch ist da normalerweise 300-500 Euro, aber falls das Preis-Leistungsverhältnis der teureren Karte halt super ist (war es bisher ja nie. Warum sollte ein oben beschriebener Spieler ne 2080 kaufen, wenn die 5700XT nicht so viel langsamer ist?) holen sich diese Leute auch so eine Karte.
Da bleibt der Regler halt 1-2 Jahre länger rechts bevor man sich ans reduzieren machen muss.
ja, da gebe ich dir ja auch recht. deshalb ist der Ansatz aber nicht falsch. Das kann man so machen, muß man aber nicht.
Nochmal : wenn ich 4k haben möchte... kann ich mir gleich eine ganzes System in Form eine Konsole holen und habe damit auch 5 Jahre Ruhe.
Bei einer 3070/80 mit 8/10Gb muß ich halt nach gewisser Zeit Kompromisse eingehen. Die Konsolen werden optimiert, der PC weniger bis gar nicht (siehe Extrembeispiel Horizon Zero Dawn).
Bei der Konsole kann ich das Balancing aufgrund des shared Ram selber vornehmen und bin als Entwickler flexibler. Bei Fixed VRAM schaust du in die Röhre .. Daher ist es abzusehen, das die Zeit von neuen 6/8 GB Karten abgelaufen ist bzw in naher Zukunft enden wird. Keiner möchte eine Neuanschaffung machen und dann sofort Kompromisse eingehen.
Ähnliche Problematik beim Stromverbrauch.. wenn die 3080 mehr einbüßen würde bei den runter gesetzten TDP auf 270W als die gemittelten 4%, würden das viele auch nicht in Erwägung ziehen.
Man kauft doch kein neues Produkt, wenn mann es nicht ausfahren kann und ich würde auch keine Graka >500 kaufen, von der ich weiß, das ich im kommenden Jahr den Regler gleich auf Mittel bzw Hoch setzen muß, damit es nicht stottert.
Cyberfries
2020-09-23, 13:35:27
Könnte man nen I/O die an ein HBM Interface hängen bzw. ein Interface designen das beides kann ?
Wozu einen I/O-Die? N2x sind vermutlich vier Chips:
Sienna Cichlid mit 4SE/80CU/HBM
??? mit 3SE/60CU/256bit GDDR6
Navy Flounders mit 2SE/40CU/192bit GDDR6
??? mit 1SE/20CU/128bit GDDR6
Die Verwirrung kam daher, dass es keine Custom-Karten von Sienna Cichlid gibt und
somit auf den üblichen Leaker-Wegen nur Daten der 60CU-Karte nach außen gedrungen sind.
Die verwirrenden N2x-Bezeichnungen haben das Übrige zur allgemeinen Konfusion beigetragen.
edit: vermutlich eingefügt, vor offizieller Bestätigung gilt Konjunktiv
Berniyh
2020-09-23, 13:40:19
Wozu einen I/O-Die? N2x sind vier Chips:
Sienna Cichlid mit 4SE/80CU/HBM
??? mit 3SE/60CU/256bit GDDR6
Navy Flounders mit 2SE/40CU/192bit GDDR6
??? mit 1SE/20CU/128bit GDDR6
Ich denke Dimgrey Cavefish/Navi 23 wird die 20 CU Variante sein, ist aber nur ne Vermutung.
Dass es noch einen Chip zwischen Sienna Cichlid und Navy Flounders geben wird bezweifle ich ein bisschen.
Ich vermute eher, dass Navi 24 eine andere Verwendung hat. Workstation, Custom-Design mit HBM2 statt GDDR6 o.ä.
(sofern Sienna Cichlid mit GDDR6 kommt, wonach es ja derzeit aussieht)
Redneck
2020-09-23, 13:43:35
Das gilt dann doch in ein paar Jahren für die neuen, wenn sich DS mal am PC durchsetzen wird. Natürlich ist da auch SystemRAM-Verbrauch drin, ja und? Das ist doch sowieso für jedes Spiel unterschiedlich, die haben doch keine festen Speicherbereiche, sonst hätte ne Konsole einfach auch SystemRAM, ist doch billiger. Das wird aufgeteilt wie man das braucht. Und was du noch gar nicht bedacht hast und was kaum einer hier bedenkt, ist, dass Allokation != Speicherverbrauch ist... Ich hör jetzt auf, ist einfach sinnlos mit dir. Ich finds nur unverantwortlich, dass du Leuten einredest, sie bräuchten nicht mehr Speicher und sie damit wenigstens Potenziell in Unglück stürzt...
WedgeAntilles
du kaufst keine 600€-Karte um dann Matschtexturen zu haben.
korrekt.
manchmal frage ich mich, ob wir PC Spieler eine eigene Spezies sind und nicht über den Tellerrand schauen können.
Die Konsolen kommen nunmal so wie angekündigt und haben die Option mehr Speicher für die Grafik zur Verfügung zu stellen und der Games Markt richtet sich an den Konsolen aus. Ich weiß nicht wie man da pro 8gb bei Diskreten Grafikkarten argumentieren kann (bei Karten wohlgemerkt, die gleich und mehr Kosten als die besagten Konsolen). Das ist einfaches 1+1 Leute... keine Pseudo Wissenschaft.
Palpatin
2020-09-23, 13:44:29
Falsches Argument - natürlich kauft man sich irgendwann ne neue Karte.
Jetzt z.B. ne 3080 für sogar 700 - und hat damit wieder 5 Jahre seine Ruhe.
Oder halt ne vergleichbare BigNavi die man dann 5 Jahre drin hat.
Eben auf die Zeitspanne von 5 Jahren werden sich die 10gb negativ bemerkbar machen. Plant man eine 3080 für die nächsten 2-3 Jahre anzuschaffen kann man bedenkenlos bei der 10gb Variante zugreifen, plant man auf 5-6 Jahre würde ich zwingend die 20gb Variante oder halt was von AMD mit 16GB empfehlen.
Um das zu belegen braucht man nur Titel aus dem Jahr 2018 nehmen und sie auf einer Ur-Titan 6gb gegen eine 780ti 3gb benchen.
Sunrise
2020-09-23, 13:56:05
Wozu einen I/O-Die? N2x sind vier Chips:
Sienna Cichlid mit 4SE/80CU/HBM
??? mit 3SE/60CU/256bit GDDR6
Navy Flounders mit 2SE/40CU/192bit GDDR6
??? mit 1SE/20CU/128bit GDDR6
Die Verwirrung kam daher, dass es keine Custom-Karten von Sienna Cichlid gibt und
somit auf den üblichen Leaker-Wegen nur Daten der 60CU-Karte nach außen gedrungen sind.
Die verwirrenden N2x-Bezeichnungen haben das Übrige zur allgemeinen Konfusion beigetragen.
Die Theorie mit den geleakten GDDR6-Chips/SKUs klingt plausibel, ja.
Navi21 wäre dann das Halo-Produkt, mit einem deutlich höheren Preis, dafür aber auch ordentlich Potential nach oben. Darunter gibt es extrem gute Kampfpreise wo NV in die Mangel genommen wird. Wahrscheinlich kommt deshalb auch GA103 bald nach, damit kann man einen kleineren Die produzieren, mit 3070Ti/3080-Leistung, während man bei besserer Ausbeute dann die 3090/GA102 auch etwas billiger anbieten könnte, je nachdem, wie stark N21 wird.
Diese ganzen Cache-Gerüchte halte ich für einen lustigen Fake (von AMD gestreut oder wem auch immer).
Ich denke bevor sie auf ein 512bit SI gehen, kommt direkt HBM. Man sieht ja, dass es zwar nur wenige Prozent interessiert, aber das tatsächlich Auswirkungen auf die Käufer hat, die 3090 wird wohl auch sofort ausverkauft sein. Und AMD benötigt sowieso ein HBM-Produkt für andere Kunden/Anwendungen.
Berniyh
2020-09-23, 14:11:23
Diese ganzen Cache-Gerüchte halte ich für einen lustigen Fake (von AMD gestreut oder wem auch immer).
Naja, ganz ohne Basis ist das halt nicht, da es ja dieses eine Foto von einem Dev Board (mit 256 Bit GDDR6) gibt, bei welchem die Bohrungen eben zu dem (von AMD) geteasten Produkt in Fortnite passen.
Da für 256 Bit GDDR6 aber Navi 22 nicht in Frage kommt und AMD dieses Jahr wohl nur noch Karten auf Basis von Navi 21 und Navi 22 vorstellen wird liegt es halt nahe, dass es sich dabei in der Tat um Navi 21 (und damit Big Navi) handelte.
Es wäre höchstens denkbar, dass man zwar das Board von Navi 22 auf 8 VRAM Chips ausgelegt hat, aber davon dann nur 6 Stück nutzt. Da wäre aber dann die Frage: warum?
Insofern: wenn das eine große Verarsche ist, dann ist wohl AMD selbst darin verwickelt.
Ich denke bevor sie auf ein 512bit SI gehen, kommt direkt HBM. Man sieht ja, dass es zwar nur wenige Prozent interessiert, aber das tatsächlich Auswirkungen auf die Käufer hat, die 3090 wird wohl auch sofort ausverkauft sein. Und AMD benötigt sowieso ein HBM-Produkt für andere Kunden/Anwendungen.
Nachdem was wir inzwischen wissen können wir eine 512 Bit Speicherinterface mit 99%iger Wahrscheinlichkeit ausschließen.
(Zu wenig SPD Interfaces.)
HBM2 mit 2048 Bit Speicheranbindung wäre möglich. 256 Bit GDDR6 scheint aber derzeit die wahrscheinlichere Option zu sein (wie auch immer das dann in der Realität funktionieren soll).
Genauer gesagt: Speicheranbindung entweder wie bei Navi 10 oder Navi 12.
BoMbY
2020-09-23, 14:27:00
Auch wenn es eher unwahrscheinlich ist, aber je mehr ich drüber nachdenke, desto mehr würde ich die Möglichkeit in Betracht ziehen dass Navi 21 weder GDDR6 noch HBM2(e) nutzt, sondern möglicherweise etwas wie Speicherbausteine nach vorläufigem HBM3 Schema.
Auch wenn ich sowas von Cadance lese, zum Beispiel:
By using a 512bit bus with the higher clocks, the new standard can achieve the same higher bandwidth with much lower cost by not requiring a silicon interposer at all.
Even though the HBM3 specification is still under development, it is very clear that semiconductor companies don’t plan on waiting for the official specification to be released in order to work on their designs.
https://community.cadence.com/cadence_blogs_8/b/ip/posts/why-is-the-evolving-hbm3-such-a-revolutionary-technology-and-how-can-you-be-ready-for-it
Ich könnte mir durchaus vorstellen dass auch Samsung an so einer Entwicklung Interesse hätte.
unl34shed
2020-09-23, 14:41:11
Selbst HBM2 braucht nicht mehr zwingend einen Interposer, das soll wohl auch auf dem Substrat verdrahtet werden können.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12423595#post12423595
Leonidas
2020-09-23, 14:56:20
Meiner Meinung nach machen die 256 Bit für 80 CUs einfach nicht viel Sinn, wenn die Karte mit 40 CUs schon 192 Bit bekommt. 384 Bit wären viel logischer.
Denke ich nicht. Die Tendenz geht dahin, Rechenleistung und Bandbreite nicht mehr im selben Faktor zu skalieren. Man braucht heutzutage vergleichsweise mehr Rechenleistung.
Complicated
2020-09-23, 16:21:16
Auch wenn ich sowas von Cadance lese, zum Beispiel:
https://community.cadence.com/cadence_blogs_8/b/ip/posts/why-is-the-evolving-hbm3-such-a-revolutionary-technology-and-how-can-you-be-ready-for-it
Weiterführend sind diese Features gelistet:
https://ip.cadence.com/ipportfolio/verification-ip/memory-models/volatile-memory/hbm3
Supports new WDQS-based architecture with 2X WDQS speed for Read and Write (Ballot: 04/07/2020)
Preamble and Postamble are supported
WDQS timing parameters and differential clocks are checked
tCCD related checkers are implemented
Supports unmatched WDQS to DQ path parameter - tWDQS2DQ
Supports auto-precharge feature
Ravenhearth
2020-09-23, 16:28:44
Denke ich nicht. Die Tendenz geht dahin, Rechenleistung und Bandbreite nicht mehr im selben Faktor zu skalieren. Man braucht heutzutage vergleichsweise mehr Rechenleistung.
Ja von einer Architektur auf die nächste, aber innerhalb einer Generation? Nvidia macht mit 3070 -> 3080 übrigens das Gegenteil.
X-Bow
2020-09-23, 16:39:14
Naja, ganz ohne Basis ist das halt nicht, da es ja dieses eine Foto von einem Dev Board (mit 256 Bit GDDR6) gibt, bei welchem die Bohrungen eben zu dem (von AMD) geteasten Produkt in Fortnite passen.
Habt Ihr schonmal in betracht gezogen das die Bohrungen auf den Karten (zumindest innerhalb einer Generation) intern genormt wird um Synergieeffekte z.b. bei den Kühlern zu ermöglichen?
Berniyh
2020-09-23, 16:43:59
Habt Ihr schonmal in betracht gezogen das die Bohrungen auf den Karten (zumindest innerhalb einer Generation) intern genormt wird um Synergieeffekte z.b. bei den Kühlern zu ermöglichen?
Klar, kann sein, war aber nicht der wesentliche Punkt.
Das Argument ist, dass diese Bohrungen andeuten, dass das Dev Board eine Navi 2x Karte war und da kommt, wenn man von 8 Speicherbausteinen ausgeht, nach aktuellem Wissensstand nur Navi 21, d.h. Big Navi in Frage.
Rampage 2
2020-09-23, 16:48:45
Nachdem was wir inzwischen wissen können wir eine 512 Bit Speicherinterface mit 99%iger Wahrscheinlichkeit ausschließen.
(Zu wenig SPD Interfaces.)
Seit wann ist das bekannt?
R2
Berniyh
2020-09-23, 17:04:28
Seit wann ist das bekannt?
R2
Im Prinzip seit Treiber 20.30, wenn ich das richtig verstanden habe, denn daher scheint die untersuchte Firmware von Sienna Cichlid zu kommen.
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae
gc_num_tccs entspricht der Breite des Speicherinterfaces (da geht es um die Anzahl der Kanäle, wenn ich mich recht entsinne). Aus Seiten des Treibers sind die tccs wiederum identisch zu den spd Interfaces.*
Das sind bei Navi 10 (256 Bit GDDR6) und Navi 12 (2048 Bit HBM2) gleich viele (nämlich 16).
Für 512 Bit GDDR6 müssten es vermutlich 32 sein, das fällt damit raus.
Für 4096 Bit HBM2 wissen wir, dass es 32 sein müssten, das fällt damit auch raus.
384 Bit GDDR6 wären entsprechend dann 24.
Daher: 256 Bit GDDR6 (wie bei Navi 10) oder 2048 Bit HBM2 (wie bei Navi 12).
* Einziger Aufhängepunkt wäre, dass im Treiber zu der Sache noch der Zusatz "for now" steht, d.h. prinzipiell könnte es einen Unterschied zwischen tccs und spd geben.
Dürfte aber eher unwahrscheinlich sein, dass das hier eine Rolle spielt.
Nazar
2020-09-23, 17:13:52
Eben auf die Zeitspanne von 5 Jahren werden sich die 10gb negativ bemerkbar machen. Plant man eine 3080 für die nächsten 2-3 Jahre anzuschaffen kann man bedenkenlos bei der 10gb Variante zugreifen, plant man auf 5-6 Jahre würde ich zwingend die 20gb Variante oder halt was von AMD mit 16GB empfehlen.
Um das zu belegen braucht man nur Titel aus dem Jahr 2018 nehmen und sie auf einer Ur-Titan 6gb gegen eine 780ti 3gb benchen.
Die Aussage ist so nicht richtig. Sie pauschal und deshalb falsch.
Schon jetzt zeigt die 3080 in DCS, dass sie in VR am Speicher verhungert, obwohl der Speicher dort dynamisch verwaltet wird.
Es zeigt sich eindeutig, dass wenn Spiele nicht für die neue "Speicher Kompremierungstechnik" (whaterver) optimiert wurden, nichts mehr Speicher schlagen kann und zwar schon gestern und erst recht heute!
Die 3080 hat in VR, in DCS, kaum Performancevorteile gegen eine 2080Ti mit 11GiB VRAM. Sie läuft sofort voll.
9.6 GiB VRAM sind ständig belegt. Die Erhöhung von Sichtweiten, Objekt Preloading, etc. pp. ändern daran nichts mehr. Der Speicher ist "hacke dicke voll"!
Somit ist deine pauschale Aussage bezüglich der Dauer, bis sich der geringe Speicher bemerkbar macht, im besten Fall ein Wunschdenken. ;)
Bezüglich des SI finde ich die Diskussion schon fast lächerlich, was da alles als angeblicher Fakt nur aufgrund eines Fotos hingestellt wird.
Bei manche einem kann man die Grundzüge des Schlechtredens erkennen und andere wollen das die Karte günstig wird und spekulieren deshalb vom Wunschpreis auf das was die nächste GPU so haben darf, damit es mit dem Preis auch ja passt.
Schlimm finde ich die angeblichen Leaks, die 1:1 einige Tage später nur das wiedergeben, was vor Wochen als reine Spekulation oder sogar Fake abgetan wurde und weil es jetzt noch einmal wiederholt wird, da wird daraus eine quasi Fakt. Ganz nach dem Motte, wenn ich eine "Lüge" nur oft genug erzähle, wird daraus eine Wahrheit. Es scheint zu funktionieren. :freak:
Cyberfries
2020-09-23, 17:21:40
Ich denke Dimgrey Cavefish/Navi 23 wird die 20 CU Variante sein, ist aber nur ne Vermutung.
Dass es noch einen Chip zwischen Sienna Cichlid und Navy Flounders geben wird bezweifle ich ein bisschen.
Das wäre eine riesige Lücke, gerade in einem Segment wo zuletzt sehr viel Umsatz gemacht wurde.
.... dieses eine Foto von einem Dev Board
Kann genauso gut N10 sein (oder ein 60CU N2x-Chip).
... Bohrungen auf den Karten... genormt wird um Synergieeffekte z.b. bei den Kühlern zu ermöglichen?
Ergibt keinen Sinn, dafür sind die Packages zu unterschiedlich.
Vergleich einfach mal N10 und N14. Oder schau dir PCBs von Partnern an.
gc_num_tccs entspricht der Breite des Speicherinterfaces
Nicht direkt, das ist die Anzahl an Texture Channel Caches.
Bei N10 ist der L2$ in 16 Partitionen aufgeteilt, dahinter kommen dann 16 Memory Controller.
Mit Ausnahme der xBox One X war das Verhältnis in jüngerer Vergangenheit immer passend.
edit: Bild dazu:
https://pics.computerbase.de/8/8/1/1/7/26-1080.689b6c21.jpg
Ich empfehle als Lektüre noch Locuzas Gedanken auf Twitter dazu:
https://twitter.com/Locuza_/status/1304407437450137600
Berniyh
2020-09-23, 17:28:58
Nicht direkt, das ist die Anzahl an Texture Channel Caches.
Bei N10 ist der L2$ in 16 Partitionen aufgeteilt, dahinter kommen dann 16 Memory Controller.
Mit Ausnahme der xBox One X war das Verhältnis in jüngerer Vergangenheit immer passend.
edit: Bild dazu:
https://pics.computerbase.de/8/8/1/1/7/26-1080.689b6c21.jpg
Ich empfehle als Lektüre noch Locuzas Gedanken auf Twitter dazu:
https://twitter.com/Locuza_/status/1304407437450137600
Ja, aber:
https://cgit.freedesktop.org/mesa/mesa/tree/src/amd/common/ac_gpu_info.c?id=283686ad6762182037b708f1b5187129aff0a5dd#n737
Und die SPD Interfaces hängen nun mal direkt mit den Speicherkanälen zusammen.
Daher müssen wir nach derzeitigem Wissensstand davon ausgehen, dass Sienna Cichlid 16 SPD Interfaces hat.
Complicated
2020-09-23, 17:44:15
Ich empfehle als Lektüre noch Locuzas Gedanken auf Twitter dazu:
https://twitter.com/Locuza_/status/1304407437450137600
Der entscheidende Hinweis ist wohl dieser hier:
...that Add-in-Board (AIB) Partners are awaiting GPU+Memory from AMD, only with HBM AIBs are getting a bundle, GDDR6 is not distributed by AMD. The open source driver situation is a weirdo. Parameters for the unified memory controller indicate a 2048-Bit HBM2 Interface...
AMD liefert Speicher nur wenn er als Package (HBM) schon verbaut ist.
Und wenn AIB auch den Speicher von AMD erwarten ist die Sache deutlich.
Komisch, dass sich hier keiner darauf einlässt, dass der really Big_Navi wohl gestrichen wurde-damit meine ich N23
Weil alles nur Gestocher im Nebel ist.
Wie wäre es mit der Vermutung, dass das Chiplet-Design in 5nm praktisch schon in den Startlöchern steht?!
Berniyh
2020-09-23, 18:09:32
Komisch, dass sich hier keiner darauf einlässt, dass der really Big_Navi wohl gestrichen wurde-damit meine ich N23
Wie kommst du denn darauf? Navi 23 wurde doch gerade erst zum Treiber hinzugefügt.
Das macht man normalerweise nicht mit gestrichenen Chips.
Wie kommst du denn darauf? Navi 23 wurde doch gerade erst zum Treiber hinzugefügt.
Das macht man normalerweise nicht mit gestrichenen Chips.
Ich habe heute morgen einen Treibereintrag hinzugefügt, wo er ebend gestrichen wurde. Auftauchen tun nur noch Cichlid und Flounders-thats it
Zergra
2020-09-23, 18:15:43
Wie wäre es mit der Vermutung, dass das Chiplet-Design in 5nm praktisch schon in den Startlöchern steht?!
Bei den langsamen Release Zyklen würde ich da nicht mit vor Ende 2022 rechnen.
Chiplets haben halt auch vor und Nachteile, ob man die so schnell in Gaming GPUs sieht, bezweifle ich.
CDNA ware da eher eine Anwendung.
X-Bow
2020-09-23, 18:16:07
Ergibt keinen Sinn, dafür sind die Packages zu unterschiedlich.
Vergleich einfach mal N10 und N14. Oder schau dir PCBs von Partnern an.
Jo hab ich, hab mal Spaßeshalber die MSI 5700XT mit der MSI 5500XT verglichen (Teardown Bilder von Igor), Trotz unterschiedlichen Packages ist die Bohrungen für die Kühler so ziemlich exakt gleichweit auseinander.
Und selbst wenn es in der Vergangenheit mal nicht so war heißt es doch nicht das es in Zukunft genauso weitergehen muss.
Bei den langsamen Release Zyklen würde ich da nicht mit vor Ende 2022 rechnen.
Chiplets haben halt auch vor und Nachteile, ob man die so schnell in Gaming GPUs sieht, bezweifle ich.
CDNA ware da eher eine Anwendung.
Alles hat Vor- und Nachteile, Einstein und so. Allerdings gab es eine ältere Folie, wo RDNA3 noch für 2020 angekündigt wurde. Mag ja sein, dass N21 die Performance einer 3080 erreicht und warum auch immer, wenig bandbreitenhungrig ist. Halo-Produkt imo trotzdem nicht, selbst wenn das Ding für 499€ über die Ladentheke wandert.
Berniyh
2020-09-23, 18:30:06
Ich habe heute morgen einen Treibereintrag hinzugefügt, wo er ebend gestrichen wurde. Auftauchen tun nur noch Cichlid und Flounders-thats it
Soweit ich sehen kann sind die Einträge immer noch da:
https://cgit.freedesktop.org/mesa/mesa/tree/src/amd/common/ac_gpu_info.c#n403
Cyberfries
2020-09-23, 18:35:43
Ja, aber:...
Daher müssen wir nach derzeitigem Wissensstand davon ausgehen, dass Sienna Cichlid 16 SPD Interfaces hat.
Ich wollte dir an der Stelle nicht widersprechen, nur noch etwas einschieben.
Übrigens muss das mit 16bit je SDP (nicht SPD)-Interface nicht passen, gibt auch Beispiele für 32bit.
Aber wie gesagt: Ich stimme dir bei dem Gesagten zu.
Komisch, dass sich hier keiner darauf einlässt, dass der really Big_Navi wohl gestrichen wurde-damit meine ich N23
Gestrichene Einträge sind nicht gleichbedeutend mit einem gestrichenen Chip.
Und zu N23 als really_Big_Navy, ne glaube ich nicht dran. Gab keine Hinweise in die Richtung.
Trotz unterschiedlichen Packages ist die Bohrungen für die Kühler so ziemlich exakt gleichweit auseinander.
Gemeint ist nicht das X, sondern Schraube Nr.5/6 oben und unten. Ist bei dem N10-Ref-PCB dabei, bei N14 nicht.
Bei Igor gibts zwei 5700: Evoke ähnlich Referenz mit 6 Schrauben und Gaming X mit anderem PCB und nur 4 Schrauben.
Die 6x00 hat auch 6 Schrauben, wobei Schraube 5 und 6 links und rechts des Chips liegen.
Ich wollte dir an der Stelle nicht widersprechen, nur noch etwas einschieben.
Übrigens muss das mit 16bit je SDP (nicht SPD)-Interface nicht passen, gibt auch Beispiele für 32bit.
Aber wie gesagt: Ich stimme dir bei dem Gesagten zu.
Gestrichene Einträge sind nicht gleichbedeutend mit einem gestrichenen Chip.
Und zu N23 als really_Big, ne glaube ich nicht.
80CU an HBM sollten selbst bei mieser Auslastung für die 3080 reichen, wenn der 40CU-Chip auf 2080-Niveau landet.
(2080 laut 3dc bei 192 *1,7 (wie Fiji) = 326 3080 bei 324) (Milchmädchenrechnung!!!)
Gemeint ist nicht das X, sondern Schraube Nr.5/6 oben und unten. Ist bei dem N10-Ref-PCB dabei, bei N14 nicht.
Bei Igor gibts zwei 5700: Evoke ähnlich Referenz mit 6 Schrauben und Gaming X mit anderem PCB und nur 4 Schrauben.
Die 6x00 hat auch 6 Schrauben, wobei Schraube 5 und 6 links und rechts des Chips liegen.
Sorry, aber wenn der 40CU-Chip lediglich auf 2080-Niveau rauskommt, dann wäre eigentlich alles gelogen, in Bezug auf p/w. Bei 225W sollte das Ding bei ziemlich exakt 2080Ti rausgekommen. Und eigentlich: 80CUs bei 280W sollten Angesicht dessen nicht nur 3080-Performance bedeuten. Allerdings sollte dann die Bandbreite im gleichen Verhältnis mit ansteigen. Von daher frage ich mich ehrlich, ob das Ding bereits EOL ist, bevor es verkauft wurde.
KodeX
2020-09-23, 18:52:22
Und zu N23 als really_Big_Navy, ne glaube ich nicht dran. Gab keine Hinweise in die Richtung.
In einem ziemlich alten Gerücht schon:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-august-2019
Berniyh
2020-09-23, 18:56:22
In einem ziemlich alten Gerücht schon:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-august-2019
Ja, und seitdem nie wieder was in die Richtung gehört, also naja …
KodeX
2020-09-23, 19:00:21
Ja, und seitdem nie wieder was in die Richtung gehört, also naja …
Wollte ich nur nicht unerwähnt lassen. Sinn ergäbe es schon. Hieß es nicht auch, dass "Real Big Navi" deutlich später erscheinen sollte? ;-)
Berniyh
2020-09-23, 19:02:47
Ich wollte dir an der Stelle nicht widersprechen, nur noch etwas einschieben.
Übrigens muss das mit 16bit je SDP (nicht SPD)-Interface nicht passen, gibt auch Beispiele für 32bit.
Wirklich? Bei welchem Chip.
Alle die ich bislang gesehen haben waren 16bit.
Linmoum
2020-09-23, 19:14:20
Sorry, aber wenn der 40CU-Chip lediglich auf 2080-Niveau rauskommt, dann wäre eigentlich alles gelogen, in Bezug auf p/w. Bei 225W sollte das Ding bei ziemlich exakt 2080Ti rausgekommen.Und dass der 40CU-Chip mit 225W statt 1xxW läuft, hat dir AMD gesteckt?
Cyberfries
2020-09-23, 19:16:30
Sorry, aber wenn der 40CU-Chip lediglich auf 2080-Niveau rauskommt, dann wäre eigentlich alles gelogen, in Bezug auf p/w.
Kennst du die Leistungsaufnahme des 40CU-N2x-Chip?
225watt wahrscheinlich nicht, mit 160watt (Beispiel) sieht die Welt ganz anders aus.
In einem ziemlich alten Gerücht schon:
Stimmt zwar durchaus, dass da mal was in die Welt gesetzt wurde, aber das würde ich nicht als bedeutsamen Hinweis werten.
Es gab auch mal die Aussage, dass Big Navi N12 wäre....
Wirklich? Bei welchem Chip.
Vor ziemlich genau vor einem Jahr wurde hier schonmal über sdp_interfaces gesprochen, mit Raven Ridge als 32bit Beispiel.
War V20 nicht auch 32bit? Finde da gerade keine Quelle.
dargo
2020-09-23, 19:24:38
Und dass der 40CU-Chip mit 225W statt 1xxW läuft, hat dir AMD gesteckt?
Was ist mit gedi in den letzten Tagen nur los? Ich mache mir langsam Sorgen.
HarryHirsch
2020-09-23, 19:28:32
Was ist mit gedi in den letzten Tagen nur los? Ich mache mir langsam Sorgen.
er hat letztens was von suizidgefährdet geschrieben...
vielleicht nimmt er irgendwelche medikamente
Kennst du die Leistungsaufnahme des 40CU-N2x-Chip?
225watt wahrscheinlich nicht, mit 160watt (Beispiel) sieht die Welt ganz anders aus.
Stimmt zwar durchaus, dass da mal was in die Welt gesetzt wurde, aber das würde ich nicht als bedeutsamen Hinweis werten.
Es gab auch mal die Aussage, dass Big Navi N12 wäre....
Vor ziemlich genau vor einem Jahr wurde hier schonmal über sdp_interfaces gesprochen, mit Raven Ridge als 32bit Beispiel.
War V20 nicht auch 32bit? Finde da gerade keine Quelle.
Und selbst mit 180W wäre ich in etwa auf gleichem Niveau!
@Harry
Ja, die nimmt er. Das liegt allerdings nicht an dem GPU Krempel, nur an der persönlichen Situation, welche etwas schwierig ist
40CU und 225W bei etwa RTX 2070S Niveau hat schon die 5700XT. Als 6600XT mit etwas mehr Takt ist 2080 Niveau erreichbar. Dazu braucht man keinen neuen Chip.
Berniyh
2020-09-23, 19:43:46
Vor ziemlich genau vor einem Jahr wurde hier schonmal über sdp_interfaces gesprochen, mit Raven Ridge als 32bit Beispiel.
War V20 nicht auch 32bit? Finde da gerade keine Quelle.
Nein, Vega 20 hat 32 SPD Interfaces und damit 128 Bit / Kanal bzw. 128 Bit / SPD Interface:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12105284#post12105284
Passt also mit Vega 10 und Navi 12 zusammen (ebenfalls 128 Bit / Kanal).
Raven habe ich da auch angesprochen.
Die APUs scheinen 2 SPD Interfaces zu haben -> Dual Channel Support per DDR4.
Edit: mit HBM3 wären es bei Navi 21 – hypothetisch – wohl 1024 Bit, allerdings bei höherer Taktrate, da die Busbreite auf 64 Bit / Kanal sinkt.
Daredevil
2020-09-23, 19:45:45
40CU und 225W bei etwa RTX 2070S Niveau hat schon die 5700XT. ...Dazu braucht man keinen neuen Chip.
Aber auch mit RT dabei?
RT frisst doch sicherlich auch ein wenig Ressourcen im Chip, da wäre gleiche Leistung + ordentliche RT Leistung ein Fortschritt.
( Bei Pascal > Turing ähnlich )
Aber auch mit RT dabei?
RT frisst doch sicherlich auch ein wenig Ressourcen im Chip, da wäre gleiche Leistung + ordentliche RT Leistung ein Fortschritt.
( Bei Pascal > Turing ähnlich )
Ich hoffe doch, dass N2x ziemlich fette Alus hat, so dass die Performance ohne RT nicht leiden sollte. Zudem sollte es doch einen Scheduler geben, welcher eben jene Sachen regelt. Ich glaube aber, hier ist Gipsel der Ansprechpartner
BTW. ich psychisch am Arsch, so müsst ihr doch den Thread nicht EOL machen. Also bitte postet!
w0mbat
2020-09-23, 20:22:59
Ich finde es geil, dass fünf Wochen vor der Vorstellung noch alles offen ist. HBM, 256-bit + "secret sauce", 384-bit, etc., alles möglich. Wir wissen nix.
Ich finde es geil, dass fünf Wochen vor der Vorstellung noch alles offen ist. HBM, 256-bit + "secret sauce", 384-bit, etc., alles möglich. Wir wissen nix.
Danke :)
crux2005
2020-09-23, 20:24:57
Ich finde es geil, dass fünf Wochen vor der Vorstellung noch alles offen ist. HBM, 256-bit + "secret sauce", 384-bit, etc., alles möglich. Wir wissen nix.
AMD bringt endlich eine Soundkarte? :freak:
Complicated
2020-09-23, 20:30:18
;D Na das Fahrrad war umgehend ausverkauft....gibt noch Tassen.
Cyberfries
2020-09-23, 20:35:41
Und selbst mit 180W wäre ich in etwa auf gleichem Niveau!
5700xt
173pt @ 225watt -> 0,77 pt/watt
40CU N2x
192pt @ 180watt -> 1,07 pt/watt
1,07/077 = 1,39
Bedeutet: Mit diesen (Fantasie!)-Werten wäre N2x bereits 39% besser, mit 166watt wäre das 50%-Versprechen erfüllt.
Custom-Design, non-xt oder eigene Übertaktungen sind uninteressant, es zählt jeweils ab Werk bei XT.
Für einen N10-Besitzer sicher uninteressant, für andere gibts RT,12GB und viel Effizienz.
(Nochmal: Speku auf Gerüchtebasis)
why_me
2020-09-23, 20:45:44
Ja, und seitdem nie wieder was in die Richtung gehört, also naja …
Vergess bitte nicht die Farb hex codes von gestern ;D
5700xt
173pt @ 225watt -> 0,77 pt/watt
40CU N2x
192pt @ 180watt -> 1,07 pt/watt
1,07/077 = 1,39
Bedeutet: Mit diesen (Fantasie!)-Werten wäre N2x bereits 39% besser, mit 166watt wäre das 50%-Versprechen erfüllt.
Custom-Design, non-xt oder eigene Übertaktungen sind uninteressant, es zählt jeweils ab Werk bei XT.
Für einen N10-Besitzer sicher uninteressant, für andere gibts RT,12GB und viel Effizienz.
(Nochmal: Speku auf Gerüchtebasis)
Quellen sagen 60% auf RDNA1 voraus. Als die 50% anvisiert wurden, wusste man noch nicht, wie weit der Fertigungsprozess ist. Es gibt auf Twitter ne lustige Annahme in Form einer Kalkulation (inclusive dem dämlichen Cache) wonach N21 deutlich ne 3090 abzieht. Die ist alles andere als reprententessasiv, da ich denke der Cache ist nur Wunschdenken.
In etwa 3080 Performance bei 499€ und vielleicht etwas OC-Headroom. Was will man mehr.
crux2005
2020-09-23, 20:52:14
In etwa 3080 Performance bei 499€ und vielleicht etwas OC-Headroom. Was will man mehr.
Nicht gleich hyperventilieren.
Wenn sie die 3080 schlagen, weniger verbrauchen wird die Karte 100-150€ billiger ggü 3080.
Nicht gleich hyperventilieren.
Wenn sie die 3080 schlagen, weniger verbrauchen wird die Karte 100-150€ billiger ggü 3080.
Ich habe nicht geschlagen gesagt. Lass das Ding im Schnitt 5% unter ner 3080 rauskommen, habe allerdings 100W an OC-Headroom. Da bin ich bei ner 3090.
dargo
2020-09-23, 20:57:56
In etwa 3080 Performance bei 499€ und vielleicht etwas OC-Headroom. Was will man mehr.
Von Anfang an gute Customs. :) Mit "gut" meine ich natürlich verdammt leise bei angenehmen Temps.
Von Anfang an gute Customs. :) Mit "gut" meine ich natürlich verdammt leise bei angenehmen Temps.
Der Kühler sieht mir doch relativ fähig aus.
crux2005
2020-09-23, 21:10:33
Ich habe nicht geschlagen gesagt. Lass das Ding im Schnitt 5% unter ner 3080 rauskommen, habe allerdings 100W an OC-Headroom. Da bin ich bei ner 3090.
Ahso. Trotzdem wären 499€ zu wenig.
Der kleinere Navi soll 3070 "klar schlagen". Also 10-15%(?) über 2080 Ti mit 12 GiB VRAM für 499€. Ist schon ein guter Deal.
bbott
2020-09-23, 21:37:18
Wäre der Infinity Cache als extra Chiplet denkbar z. B. inkl. Interface? Dann evtl. noch in 10/14nm Prozess?
Berniyh
2020-09-23, 22:01:24
Wäre der Infinity Cache als extra Chiplet denkbar z. B. inkl. Interface? Dann evtl. noch in 10/14nm Prozess?
Denkbar ist vieles, aber dürfte unwahrscheinlich sein.
dargo
2020-09-23, 22:05:56
Der Kühler sieht mir doch relativ fähig aus.
Das siehst du anhand von Bildern? :uconf3: Ich verlasse mich da eher auf Tests. Referenz hat mich noch nie überzeugt. War immer lauter und/oder heißer als gute Customs. Einzige Ausnahme bisher Vega64 AIO.
why_me
2020-09-23, 23:16:58
Gibt wieder ein paar Patente im Zusammenhang mit GPUs:
Near-memory data-dependent gather and packing (https://www.freepatentsonline.com/10782918.pdf)
Texture residency checks using compression metadata (https://www.freepatentsonline.com/10783694.pdf)
Memory with expandable row (https://www.freepatentsonline.com/10783953.pdf)
pilzsammler2002
2020-09-23, 23:36:45
Gibt wieder ein paar Patente im Zusammenhang mit GPUs:
Near-memory data-dependent gather and packing (https://www.freepatentsonline.com/10782918.pdf)
Texture residency checks using compression metadata (https://www.freepatentsonline.com/10783694.pdf)
Memory with expandable row (https://www.freepatentsonline.com/10783953.pdf)
Ich hatte es ja letztens unter ne News schon geschrieben, aber AMD verwendet bei den 4*** APUs auch schon eine Art von "Secret RAM Sauce".
Anders kann ich mir das festgestellte verhalten nicht erklären, und zwar dass sobald das Spiel den vram aufbraucht (bei der 4650g APU stock @512mb) und auf dem System RAM zugreift (was bisher nie ein Problem war da er ja gleich schnell ist) es zu frametimes spikes kommt da es anscheinend Unterschiede in der allocation gibt. (Hat computerbase z.b. stark bei F1 2020 festgestellt aber es anscheinend nicht hinterfragt das Verhalten)
Oder habe ich etwas anderes übersehen? (Komprimierung sollte ja kein prob sein)
Ich poste es hier da es vllt Hinweise auf rdna 2 gibt und der "verbesserten memory usage"?
why_me
2020-09-23, 23:42:41
Hast du eventuell einen link zum Computerbase test?
pilzsammler2002
2020-09-23, 23:47:45
Hast du eventuell einen link zum Computerbase test?
https://www.computerbase.de/2020-08/amd-ryzen-5-4650g-4750g-test/2/
Kalmar
2020-09-24, 00:13:34
Der entscheidende Hinweis ist wohl dieser hier:
AMD liefert Speicher nur wenn er als Package (HBM) schon verbaut ist.
Und wenn AIB auch den Speicher von AMD erwarten ist die Sache deutlich.
mit dem hinweis, das die 16gb laut den treibern nur zur Simulation genutzt werden, ist es ne in sich schlüssige Variante.
würde denn die Anzahl der Chips bei hbm und 16gb gleich sein? So dann man ggf. kühler usw testen könnte?
*******
zu der Sache mit die 1060 6gb ist so weit verbreitet. Ich selber hab sie zwangsweise auch. Damals gab es keine andere karte, wegen dem miningboom. Rx580/590 mondpreise, falls lieferbar. Hatte vor der 1060 ne 580 nitro+ die irgendwann leider nicht mehr starten wollte. Hätte zu den Zeitpunkt 70 € mehr für die gleiche 580 zahlen müssen. Die 1060 war ne ganze ecke billiger ~120€, bezieht sich immer auf das, was lieferbar war....
Für moderne Renderpipelines von Spielen wäre das relativ sinnfrei. Es gibt noch keine effektive und effiziente Möglichkeit mehrere GPUs transparent zur 3D Anwendung einzusetzen, so dass es weder Schwierigkeiten mit der Skalierung der Leistung noch Kompatibilität gibt.
Ich werfe da einfach mal ein paar zufällig Gedanken ein:
Raytracing ist eher High-Level parallelisierbar und Rasterisierung auf Low-Level. Das ist für RT Fluch und Segen zugleich. Man verliert Leistung durch zufälligere Zugriffspattern, aber kann dafür gut auch mit etwas höheren Latenzen parallelisieren
Pathtracing hat da am wenigsten Probleme (wenig generierten Daten mit Wiederverwendung. Keine Shadowmaps, keine Lightprobes und TEURE einzelne, unabhängige Pixel.
Intraframe Kommunikation mit mehreren GPUs ist trotzdem nicht geil
Es wäre doch toll, wenn man ein Technologie hätte, die aus Samples von unterschiedlichen Zeitpunkten ein fertiges aktuelles Bild zusammensetzen kann. Das würde die Entkoppelung von GPUs drastisch verbessern. Irgendwo hab ich sowas doch schon mal gesehen... ;D
Es gibt keinen Markt für SLI und deshalb wird niemand da auch nur ein Minimum investieren.
ChaosTM
2020-09-24, 00:52:03
Guten Morgen ..hab ich was verpasst ?
BoMbY
2020-09-24, 08:48:02
Nein, Vega 20 hat 32 SPD Interfaces und damit 128 Bit / Kanal bzw. 128 Bit / SPD Interface:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12105284#post12105284
Passt also mit Vega 10 und Navi 12 zusammen (ebenfalls 128 Bit / Kanal).
Raven habe ich da auch angesprochen.
Die APUs scheinen 2 SPD Interfaces zu haben -> Dual Channel Support per DDR4.
Edit: mit HBM3 wären es bei Navi 21 – hypothetisch – wohl 1024 Bit, allerdings bei höherer Taktrate, da die Busbreite auf 64 Bit / Kanal sinkt.
Bezüglich der Scalable Data Ports (SDPs): Eine Analogie dafür wäre dabei Netzwerkadapter zum Scalable Data Fabric (SDF) was der Switch in diesem Bild wäre. Jeder SDP hat eine bestimmte Bandbreite, und die Gesamtanzahl bestimmt mit welcher Bandbreite die CUs (oder vermutlich spezieller der L2) Daten über das Fabric zu den Speichercontrollern übertragen können.
Bei RDNA1 hat jeder SDP 32B/C, selbst wenn die 16 SDP für Navi21 stimmen, wissen wir nicht ob AMD nicht vielleicht 64B/C daraus gemacht hat, und/oder ob der Takt nicht vielleicht erhöht wurde. Das heißt die Anzahl der SDP gibt nur sehr bedingt eine Auskunft darüber wie hoch die Speicherbandbreite sein könnte.
AMD bringt endlich eine Soundkarte? :freak:
Radeon Surround inc?;D
Redneck
2020-09-24, 09:11:13
Quellen sagen 60% auf RDNA1 voraus. Als die 50% anvisiert wurden, wusste man noch nicht, wie weit der Fertigungsprozess ist. Es gibt auf Twitter ne lustige Annahme in Form einer Kalkulation (inclusive dem dämlichen Cache) wonach N21 deutlich ne 3090 abzieht. Die ist alles andere als reprententessasiv, da ich denke der Cache ist nur Wunschdenken.
In etwa 3080 Performance bei 499€ und vielleicht etwas OC-Headroom. Was will man mehr.
Zu niedrig angesetzt der Preis bei der Leistung.. es muß ja noch Raum für die Karten sein, die die 3060 und 3070 schlagen sollen.. an den Dingern muß man auch noch etwas verdienen.
499 macht bei 3080 Leistung keinen Sinn (nicht, wenn man gleichzeitig auch mehr Speicher bieten will). Bei soviel Mehrleistung gegenüber einer 5700XT muß man preislich auch weiter entfernt sein von dieser.
3060 pendant : €299 mit 8gb
3070 pendant : €399-449 mit 12gb
3080 pendant : €599 mit 16gb GDDR6 / €699 mit 16gb HBM
Cyberfries
2020-09-24, 09:20:06
Yuko Yoshida @KittyYYuko
A lot of the rumors on twitter about the Next Gen Navi are wrong.
For example, why do you all say Navi22 is Navy Flounder?
Woher diese Annahme stammt ist bekannt. Ob sie richtig ist?
Quellen sagen 60% auf RDNA1 voraus.
Die "Quelle" ist RedGamingTech, der Typ der den Infinity Cache Unsinn von sich gibt.
60% kann sein, weiß ich nicht. Beachten sollte man aber: 50% @ same power & same configuration.
In etwa 3080 Performance bei 499€
Jetzt Preise zu nennen ist wie Fischen in der Wüste Gobi. Wie kannst du was angeln, was nicht da ist?
Abgesehen davon: 549€ für die 60CU-Karte mit 16GB wäre mein Tipp.
Wäre der Infinity Cache als extra Chiplet denkbar
Bei dem Aufwand der dafür notwendig wäre, ist es sinnvoller direkt HBM zu verbauen.
Berniyh
2020-09-24, 09:25:39
Bezüglich der Scalable Data Ports (SDPs): Eine Analogie dafür wäre dabei Netzwerkadapter zum Scalable Data Fabric (SDF) was der Switch in diesem Bild wäre. Jeder SDP hat eine bestimmte Bandbreite, und die Gesamtanzahl bestimmt mit welcher Bandbreite die CUs (oder vermutlich spezieller der L2) Daten über das Fabric zu den Speichercontrollern übertragen können.
Bei RDNA1 hat jeder SDP 32B/C, selbst wenn die 16 SDP für Navi21 stimmen, wissen wir nicht ob AMD nicht vielleicht 64B/C daraus gemacht hat, und/oder ob der Takt nicht vielleicht erhöht wurde. Das heißt die Anzahl der SDP gibt nur sehr bedingt eine Auskunft darüber wie hoch die Speicherbandbreite sein könnte.
Da klammerst du dich aber an Strohhalme.
Die 16 Bit kommen nicht von ungefähr, denn die Busbreite von GDDR6 ist halt 2x 16 Bit. d.h. für einen Chip GDDR6 brauchst du zwei Kanäle die je eine Busbreite von 16 Bit haben.
Bei GDDR5 war es noch ein Kanal je 32 Bit.
Siehe dazu z.B. auch:
https://www.techsiting.com/gddr6-vs-hbm2/
GDDR6 comes as a single chip, but that chip actually behaves like two DRAMs that are completely independent. They each have their own command/address bus, as well as their own 16-bit data bus.
Bei HBM2 ist es ähnlich, auch hier hat man 2 Kanäle je Die und die haben je eine Breite von 128 Bit, was perfekt mit den Beobachtungen zu den SDP Interfaces passt:
https://www.techsiting.com/gddr6-vs-hbm2/
Compared to other DRAM memories, the HBM memory bus is very wide. If you have four DRAM dies in the stack (4-Hi), there are two 128-bit channels for each die, which totals 8 channels and 1024 bits.
Entsprechend: 16 SDP Interfaces entspricht dann bei HBM2 eben 16 Kanälen bzw. 8 Dies (typischerweise in 2 Stacks) und damit einem 2048 Bit Speicherinterface.
Was die SDP Interfaces bei Sienna Cichlid und Navy Flounders angeht:
diese Informationen stammen aus den Firmware Dateien von AMDs eigenem Treiber. Bis auf die Annahme "TCCS == SDP" wüsste ich nicht, warum das nun nicht stimmen sollte.
Ok, ich hab das nicht selbst ausgelesen, d.h. nicht selbst überprüft, aber ich sehe dazu jetzt auch keine Notwendigkeit, das sollte schon stimmen.
Und damit sind wir eben bei:
Sienna Cichlid: 16 SDP Interfaces ≙ 256 Bit GDDR6 oder 2048 Bit HBM2
Navy Flounders: 12 SDP Interfaces ≙ 192 Bit GDDR6 (ich denke HBM2 kann man hier ausschließen)
Der einzige Strohhalm, den ich hier noch für ein noch breiteres Interface sehe ist, dass die Annahme TCCS ==SDP nicht stimmt, aber das steht halt so im Treiber drin …
Redneck
2020-09-24, 09:31:27
Das siehst du anhand von Bildern? :uconf3: Ich verlasse mich da eher auf Tests. Referenz hat mich noch nie überzeugt. War immer lauter und/oder heißer als gute Customs. Einzige Ausnahme bisher Vega64 AIO.
am liebsten wäre mir eine nackte Karte ohne Kühler zum günstigeren Preis, so das Kunden selber entscheiden können, welchen Kühler sie draufschnallen.
Würde halt bedeuten, das man das entsprechend simpel designed , damit das auch jeder Dau hinbekommt. Ich finde das immer so öddelig, wenn man die dicken Kühler mitbezahlt wenn man vorher schon weiß, das man eine Wasserkühlung nutzen möchte.
basix
2020-09-24, 09:35:20
Ich finde das immer so öddelig, wenn man die dicken Kühler mitbezahlt wenn man vorher schon weiß, das man eine Wasserkühlung nutzen möchte.
Schade für die 2% WaKü Nutzer, gut für die anderen 98%, 100% besser für den Hersteller.
Redneck
2020-09-24, 09:42:44
Schade für die 2% WaKü Nutzer, gut für die anderen 98%, 100% besser für den Hersteller.
100% besser für Hersteller würde ich nicht so unterschreiben.
z.B. weißt Du nicht, ob der Lieferengpaß der 3080 momentan an den Chips, dem Speicher oder dem Kühler geschuldet ist..
Ausserdem fängt sich der Hersteller bei schlechtem Kühler Design nicht zu Unrecht Kritik ein. Wenn man ein Modell ohne liefern würde, könnte man den Kritikern den Wind aus den Segeln nehmen... wäre als Option zu verstehen.
basix
2020-09-24, 10:11:10
Garantie, Gewährleistung, Abhebung von Konkurrenten, Preisgestaltung, SKU und Branding, usw. wird deutlich schwieriger ohne Kühler.
Die Karte ist gross, schwer und leise oder ich habe eine ASUS Strix ist deutlich einfacher zu vermarkten als "Hey, hier haben wir 10x 100A Power Stages". Das PCB und die Elektronik interessiert 98% der User nicht.
Und aufgrund Konkurrenz und Kritik werden die Kühler tendenziell immer besser ;) Bei der 3080 ist der Grossteil der Kühler wirklich gut, wenn man sich die 320+W Verbrauch vor Augen hält.
Lieferengpässe könnten ein negativer Grund sein, das mag sein. Das sollte aber nur ganz am Anfang bei Release ein Problem sein. Absolut gesehen verkauft man dadurch nicht wirklich weniger Karten.
Berniyh
2020-09-24, 10:16:31
btw, noch mal bzgl. tccs und sdp. Ein bisschen Hoffnung gibt es noch, denn es gibt ja auch gpu info Dateien für Arcturus, Vega 10, Picasso und Renoir. Daraus kann man auslesen:
Acturus: gc_num_tccs = 16
Vega 10: gc_num_tccs = 16
Picasso: gc_num_tccs = 4
Renoir: gc_num_tccs = 4
Nun ist es sehr unwahrscheinlich, dass Arcturus (128 CU) und Vega 10 (64 CU) die gleiche Anzahl an SDP Interfaces bzw. Speicherkanäle haben, oder?*
Und bei den APUs wissen wir eigentlich (zumindest war das bei Raven so), dass sie 2 SDP Interfaces haben und nicht 4.
d.h. hier deutet sich an, dass #tccs != #sdp.
Aber im Treiber wird das auch nur für gfx 10 gesetzt, d.h. Navi, gilt also wohl nicht für Vega-basierte GPUs.
* Würde nur Sinn machen, wenn Arcturus HBM3 nutzt und nicht HBM2.
Edit: leider gibt es zu Navi 12 keine gpu_info Firmware, die wäre durchaus auch interessant.
Redneck
2020-09-24, 10:24:36
Garantie, Gewährleistung, Abhebung von Konkurrenten, Preisgestaltung, SKU und Branding, usw. wird deutlich schwieriger ohne Kühler.
Sorry, aber das ist Quatsch... Schau dir einmal die ganzen Mainboards an auf dem Markt. Die werden auch nackt geliefert und es gibt Modelle von bis... Mach nen farbiges PCB.. pack ein paar RGB lichter drauf.. andere Mosfets/Spannungsversorgung etc.. gibt genügend Möglichkeiten sich zu differenzieren.
Ein 700€ Motherboard muß man ja auch selber bestücken.. geht auch/bekommen die Leute auch hin. Wer sich das nicht zutraut, kauft sich einen fertig PC.
Weshalb sollte das bei einer €700 Graka nicht gehen.
Cyberfries
2020-09-24, 10:24:47
Nochmal Yuko Yoshida, mit einer Codezeile die Navy Flounders klar gfx1032 zuordnet, also N23:
https://pbs.twimg.com/media/Eiqjj1lX0AIbCCZ?format=jpg&name=small
gfx1030 = N21
gfx1031 = N22
gfx1032 = N23
gfx1033 = Van Gogh
gfx1034 = N24
edit: mglw. falsche Zuordnung.
... SDP ... SPD ... SPD Interfaces .... "TCCS == SPD" .... 16 SPD .....12 SPD .... TCCS ==SPD …
Glückwunsch zum 1000sten Beitrag. (SDP nicht SPD)
Berniyh
2020-09-24, 10:28:56
Ups, sorry. ;)
Edit: und korrigiert
(Und danke :))
dargo
2020-09-24, 11:19:54
Die "Quelle" ist RedGamingTech, der Typ der den Infinity Cache Unsinn von sich gibt.
60% kann sein, weiß ich nicht. Beachten sollte man aber: 50% @ same power & same configuration.
Nochmal nachgerechnet...
Das würde bedeuten, dass RDNA 2 bei 180W GPU Power (ca. 210-225W gesamte Karte) fast die 2080TI erreicht bzw. etwa gleichauf mit der 3070 liegt sofern letzteres tatsächlich knapp unter der 2080TI landen wird.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12437188&postcount=12348
Damit wäre AMD dann bei Perf/W etwa gleichauf mit GA104. Ich hoffe somit die 60% stimmen eher als die 50%. Erst recht wenn man in Richtung der 80CU GPU schielt. :)
Nochmal nachgerechnet...
Das würde bedeuten, dass RDNA 2 bei 180W GPU Power (ca. 210-225W gesamte Karte) fast die 2080TI erreicht bzw. etwa gleichauf mit der 3070 liegt sofern letzteres tatsächlich knapp unter der 2080TI landen wird.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12437188&postcount=12348
Damit wäre AMD dann bei Perf/W etwa gleichauf mit GA104. Ich hoffe somit die 60% stimmen eher als die 50%. Erst recht wenn man in Richtung der 80CU GPU schielt. :)
In Ashes ist se gleich auf mit ner Ti.
dargo
2020-09-24, 11:32:00
Wen interessiert das? Ich spreche natürlich vom Schnitt. Einzelne Ausreißer wird es wie immer in beide Richtungen geben.
btw.
2080TI Performance in max. 200W (ganze Karte), das wäre mein Traum. Aber wahrscheinlich erwarte ich etwas zu viel. :redface:
why_me
2020-09-24, 11:45:33
Nochmal Yuko Yoshida, mit einer Codezeile die Navy Flounders klar gfx1032 zuordnet, also N23:
https://pbs.twimg.com/media/Eiqjj1lX0AIbCCZ?format=jpg&name=small
gfx1030 = N21
gfx1031 = N22
gfx1032 = N23
gfx1033 = Van Gogh
gfx1034 = N24
https://twitter.com/KittyYYuko/status/1309038483986698240
Antwort darunter:
"N12 (gfx1011) -> 10_1_2
N14 (gfx1012) -> 10_1_1"
Also vermutlich nur eine falsche Annahme von ihm.
Die Navi22 range wurde duch Navy flounder range ersetzt, siehe hier:
https://videocardz.com/newz/amd-adds-dimgrey-cavefish-navi-23-to-linux-opengl-driver
N22 = Navy flounder ist also ziemlich eindeutig.
basix
2020-09-24, 12:29:47
2080TI Performance in max. 200W (ganze Karte), das wäre mein Traum. Aber wahrscheinlich erwarte ich etwas zu viel. :redface:
Genau auf diese Werte komme ich auch bei einer optimistischen Schätzung. Ich habe mal ein Lineup mit allen Chips, Speichergrössen, Performance und Preisen zusammengestellt und diese Karten wäre eine der interessantesten in diesem hypothetischen Portfolio ;)
Wenn der Launch in 1 Monat stattfindet, kann ich ja mal schauen, wie weit ich von der Realität entfernt war :D
Sorry, aber das ist Quatsch... Schau dir einmal die ganzen Mainboards an auf dem Markt. Die werden auch nackt geliefert und es gibt Modelle von bis... Mach nen farbiges PCB.. pack ein paar RGB lichter drauf.. andere Mosfets/Spannungsversorgung etc.. gibt genügend Möglichkeiten sich zu differenzieren.
Ein 700€ Motherboard muß man ja auch selber bestücken.. geht auch/bekommen die Leute auch hin. Wer sich das nicht zutraut, kauft sich einen fertig PC.
Weshalb sollte das bei einer €700 Graka nicht gehen.
RGB-Glitter, Kühlkörper usw. sieht man beim Mainboard. Bei der GPU würde man das in den meisten Fällen nicht. Mit der Spannungsversorgung kann man sich abheben, natürlich. Nur wie gesagt interessiert das die meisten Leute nicht, solange die Karte stabil läuft. Und Bei Mainboards kann man alles in entsprechend codierte Slots einstecken, da kann man fast nichts falsch machen. Einzige Ausnahme ist die CPU, dort kann man aber nur an einem Ort einen Kühler montieren. Bei einer GPU müsste man sich noch Gedanken über RAM und MOSFETs machen. Pads oder Kühlkörper? Vormontiert oder nicht?
Und wie gesagt, kann mit einem vormontierten Kühler der Hersteller garantieren, dass die Karte laufen muss. Wenn man als Kunde den Kühler falsch montiert läuft gar nichts. Nicht dass wir hier das nicht können, aber den DAU muss man trotzdem berücksichtigen. Und dass etwas kühl und ruhig arbeitet, kann man deutlich besser an den Mann bringen.
Berniyh
2020-09-24, 12:35:48
btw, schade, dass AMD in der gpu_info die "SOC Bounding Box" entfernt hat, denn dann wüssten wir jetzt was für einen Speicher die neuen Chips verwenden. Es gibt hier nämlich einen Parameter dram_channel_width_bytes, welcher vom Display Code/Core verwendet wird (aber wohl in Zukunft obsolet wird, da sie das wohl gerade umschreiben).
Die Navi 1x Chips sind die einzigen, die diese Sektionen in den FW Dateien haben.
Hier steht bei Navi 10 dann 2 (Bytes, also 16 Bit, d.h. GDDR6) und bei Navi 12 entsprechend 16 (Bytes, also 128 Bit, d.h. HBM2).
Aber wie gesagt, bei Sienna Cichlid und Navy Flounders existieren diese Bereiche leider nicht mehr. :(
Dort werden die meisten Infos direkt von der GPU ausgelesen und nicht von der Firmware, soweit ich das bislang verstehen konnte.
Adam D.
2020-09-24, 13:04:55
Genau auf diese Werte komme ich auch bei einer optimistischen Schätzung. Ich habe mal ein Lineup mit allen Chips, Speichergrössen, Performance und Preisen zusammengestellt und diese Karten wäre eine der interessantesten in diesem hypothetischen Portfolio ;)
Denke auch, dass das zu optimistisch ist. Aber wenn sie in etwa in die Region vorstoßen, hat AMD echt ein heißes Eisen im Feuer. Ja, ich weiß, die 3080/90-Regionen sind aus Prestigegründen wichtig, aber wenn man auf dem Performance-Niveau einer 2080Ti ein überzeugendes Gesamtpaket mit ausreichend VRAM veröffentlicht, wird das Ding (hoffentlich) verkauft werden wie blöd.
https://twitter.com/davideneco25320/status/1309041504166518784?s=21
Cyberfries
2020-09-24, 14:09:30
Antwort darunter
Also vermutlich nur eine falsche Annahme von ihm.
78sek zu spät, hatte meinen Beitrag bereits editiert. Trotzdem danke.
case CHIP_VEGA10:
case CHIP_VEGA12:
case CHIP_VEGA20:
pc_lines = 2048;
break;
case CHIP_RAVEN:
case CHIP_RAVEN2:
case CHIP_RENOIR:
case CHIP_NAVI10:
case CHIP_NAVI12:
case CHIP_SIENNA_CICHLID:
case CHIP_NAVY_FLOUNDER:
case CHIP_DIMGREY_CAVEFISH:
pc_lines = 1024;
break;
case CHIP_NAVI14:
pc_lines = 512;
break;
case CHIP_VANGOGH:
pc_lines = 256;
break;
Meine Suchmaschine weiß nicht was pc_lines bedeutet. Zusammenhang mit PCIe-Lanes?
N14 PCIe x8 pc_lines=512
N10/N12 PCIe x16 pc_lines=1024
Die Vegas.... 2048 wegen Crossfire-Unterstützung? Keine Ahnung.
Wenn dieser Zusammenhang besteht, würde das auf PCIe x16 bei Dimgrey Cavefish hindeuten.
unl34shed
2020-09-24, 14:17:01
Vermutlich Cache lines, sehr sicher nicht PCIe.
Vega hat AFAIK 4MB L2$ und N10 hat schon 8MB.
Berniyh
2020-09-24, 14:41:58
Es scheint mir, als wenn Sienna Cichlid kein HBM nutzen würde.
Dazu gibt es ein paar vage Hinweise. So gibt es im file smu11_driver_if_navi10.h aus dem powerplay Code eine Stelle
typedef enum {
MEMORY_TYPE_GDDR6 = 0,
MEMORY_TYPE_HBM,
} MemoryType_e;
Sowie ein paar defines, wie z.B. HBM_DIE_TEMPERATURE_THROTTLING_BIT und HBM_TEMPERATURE_EXCEEDING_TEMPERATURE_LIMIT_BIT.
Im entsprechenden File smu11_driver_if_sienna_cichlid.h fehlt das, hier findet HBM nirgends Erwähnung (soweit ich das sehen konnte).
Könnte ja jetzt vermuten, dass man die Unterscheidung nicht benötigt, da Sienna Cichlid evtl. nur einen Typ Speicher hat, aber
1. Steht das Zeug auch in smu11_driver_if_arcturus.h drin und Arcturus hat ja definitiv HBM Speicher
2. Nutzt auch Navy Flounder diesen Header und ich denke bei Navy Flounder können wir ziemlich sicher von GDDR6 ausgehen
Da Sienna Cichlid auch nicht den _navi10.h Header referenziert wäre HBM damit wohl sehr unwahrscheinlich.
Auf der anderen Seite wird aber nach der Datei smu_v11_0_7_ppsmc.h auch etwas definiert:
#define PPSMC_MSG_SetNumBadHbmPagesRetired 0x44
Die Version v11_0_7 des smu Codes bezieht sich hier explizit auf Sienna Cichlid:
grep -r v11_0_7
swsmu/smu11/sienna_cichlid_ppt.c:#include "smu_v11_0_7_pptable.h"
swsmu/smu11/sienna_cichlid_ppt.c:#include "smu_v11_0_7_ppsmc.h"
Das ist aber der einzige Hinweis zu Sienna Cichlid + HBM, den ich finden konnte, ansonsten gibt der powerplay Code dazu nichts her.
Ganz im Gegensatz zu den anderen HBM Chips, da finden sich recht viele Referenzen auf HBM. Im Falle von Navi 1x zwar nicht so ohne weiteres auf Navi 12, aber immerhin ist es da. Bei Sienna Cichlid scheint da eher nichts zu sein.
Letztendlich scheint es aber auf 256 Bit GDDR6 hinaus zu laufen.:frown:
Wie auch immer das in der Realität mit 80 CU funktionieren soll …
Edit: es kann natürlich noch sein, dass da einfach entsprechende Patches noch fehlen und der Powerplay Code für Sienna Cichlid noch nicht (vollständig) funktioniert.
Ravenhearth
2020-09-24, 15:00:02
Vega hat AFAIK 4MB L2$ und N10 hat schon 8MB.
Ne, beide haben 4MB
https://images.anandtech.com/galleries/7177/Mike_Mantor-Next_Horizon_Gaming-Graphics_Architecture_Updated_06132019_09.jpg
Neurosphere
2020-09-24, 15:14:28
Da das von Gedi wohl untergegangen ist:
https://abload.de/img/unknownhejvc.png
Cyberfries
2020-09-24, 15:24:00
Vermutlich Cache lines, sehr sicher nicht PCIe.
Welcher Cache? L2$ nicht, passt nicht zu tccs. L1$ gabs bei Vega noch nicht. L0$ ist CUs zugeordnet.
Da das von Gedi wohl untergegangen ist:
Ist nicht untergegangen, ist nur weder eine neue Information, noch eine Bestätigung.
Außerdem hast du den interessantesten Teil weggelassen.
mironicus
2020-09-24, 15:39:28
Stimmt das mit HBM2 für Navi21 dann wird es viele Orgasmen bei AMD-Fans geben. :)
basix
2020-09-24, 16:24:34
Wenn ich mir die 3090 reviews so anschaue: Nvidia ist mit der Karte ans absolute Limit gegangen. Bei Turing haben +35% gegenüber dem Vorgänger ja auch gereicht, nun mussten es aber +45...50% sein. Hätte man bei der Karte -10% Leistung akzeptiert, wäre man etwa bei 270-280W rausgekommen. Ich deute das mMn so, dass Nvidia ein sehr starkes RDNA2 erwartet.
Zergra
2020-09-24, 17:39:04
W Ich deute das mMn so, dass Nvidia ein sehr starkes RDNA2 erwartet.
Das ist halt wirklich die Frage, das Problem war bei Turing das NV zu wenig Mehrperformance gebracht hat. Dadurch sind eben viele auf der 1080TI hängen geblieben. Durch den größeren Sprung werden halt mehr wechseln und dadurch verdienen sie auch viel mehr. Die Super Gen hat sich wesentlich besser verkauft, da man dort eben eine Ecke mehr bekommen hat, für einen kleinen Aufpreis.
Ob RDNA2 wirklich was damit zu tun hat ?
Ich habe es eine Zeit lang geglaubt, aber bei den 80CUs mit 256bit ... sehe ich da nicht so viele Gründe die für eine 3080 Konkurrenz sprechen, obwohl es schön wäre....
Meine letzten 10 Karten vor der TitanX waren alles AMD Karten....
Ravenhearth
2020-09-24, 17:41:21
Falls es HBM2 ist, dann sind angesichts der 16 L2 Cache Tiles ja 2048 Bit/2 Stacks wahrscheinlich (Locuza geht außerdem vom 512KB pro Tile aus, also 8MB L2). Da bräuchte AMD schon HBM2e für genug Bandbreite: Mit 3,2Gbps erreicht man zum Beispiel ca. 820GB/s und mit 3,6Gbps kommt man auf 920GB/s.
Ihr hättet euch mal das letzte Video von Coreteks anschauen sollen. Hier erklärt er genau warum die Test-Platine ebend keinen 6900 aufnehmen kann!
Zudem: https://twitter.com/azorfrank/status/1309135810495684613?s=21
Naja, was soll er auch anderes sagen ...:
Noch was: https://twitter.com/azorfrank/status/1309134647410991107?s=21
why_me
2020-09-24, 18:49:14
Coretek labert aber einfach nur Müll. Eine HBM + GDDR version von N21 macht einfach überhaupt keinen Sinn. Man verschwendet keine Chipfläche für ein Speicherinterface, dass man dann nicht nutzt (von glaube Tonga und salvages mal abgesehen).
Mit IO-DIE wäre es zwar möglich, aber
Mit der ganzen Spekulation der letzten Zeit, ob HBM oder GDDR, game cache, "nvidia killer" etc. es sind alles wirre Informationen, die irgendwie nicht zusammen passen wollen.
Reine Spekulation, ich versuche jetzt einfach mal irgendwelche logischen Schlüsse aus dem Durcheinander zu ziehen. Es gab ja schon einmal die überlegung, dass es eigentlich 2 "big navis" geben könnte und deshalb alles so durcheinander ist:
N22 = 6500 = 240mm², kleine GPU, 5500 Nachfolger, 40 CUs, 192 bit GDDR6 passt.
N21 = 6700 = 340mm², mittlere GPU, 5700 Nachfolger, 80 CUs, 256 bit GDDR6 (könnte mit 16GT/s sogar passen, ausgehend von der 5600)
N23 = 6900 = 505mm²,biggest Navi, der "Nvidia killer" (wie schon vor einem Jahr angekündigt), 120 CUs + HBM, Release im Januar 2021 zur CES
So abwegig es auch klingen mag, aber vielleicht ist an dieser Spinnerei ja doch etwas dran ;D
Aluhüte aufsetzte, es wird wild! :freak:
Die Codenamen für die AMD Karten sind Farben + Fische
Dimgrey (https://encycolorpedia.de/696969) - greyscale = 0x696969
Sienna (https://encycolorpedia.de/a0522d) - greyscale = 0x676767
Navy (https://encycolorpedia.de/000080) - greyscale = 0x404040 -> dec 64 64 64*
:uponder:
Und damit ist N23 = bigger Navi confirmed :cool:
*was nicht passt wird passend gemacht :uhammer2:
basix
2020-09-24, 18:53:53
Das ist halt wirklich die Frage, das Problem war bei Turing das NV zu wenig Mehrperformance gebracht hat. Dadurch sind eben viele auf der 1080TI hängen geblieben. Durch den größeren Sprung werden halt mehr wechseln und dadurch verdienen sie auch viel mehr. Die Super Gen hat sich wesentlich besser verkauft, da man dort eben eine Ecke mehr bekommen hat, für einen kleinen Aufpreis.
Ob RDNA2 wirklich was damit zu tun hat ?
Turing brachte aber nicht nur wenig Mehrleistung sondern wurde deutlich teurer bei zum Teil sogar weniger Speicher. Das hat die Leute abgeschreckt, erst recht weil die Killerfeatures RTX und DLSS damals nicht brauchbar waren (wieso also kaufen?).
Die Super Karten waren nicht nur schneller sondern auch noch etwas günstiger. Und RTX und DLSS zeigten erste Früchte.
Das Paradebeispiel ist ja nun die 3080 FE. Sie ist ein gutes Stück schneller als die 2080 Ti, aber die angesprochene Käuferschaft sind die 2070S und 2080S Käufer als auch alle mit einer 1070 bis und mit 1080 Ti. Dort ist der Performance-Gewinn enorm. Und im Falle Pascal kommt noch RTX obendrauf. Wieso hier also die letzten 5-10% noch rauskitzeln, welche man bei den Partnerkarten sowieso bekommen hätte oder mit einem Super-Refresh nachschieben könnte? Wenn man AMD hier nicht mit ins Bild nimmt, macht die SKU-Gestaltung einfach keinen Sinn.
Coretek labert aber einfach nur Müll. Eine HBM + GDDR version von N21 macht einfach überhaupt keinen Sinn. Man verschwendet keine Chipfläche für ein Speicherinterface, dass man dann nicht nutzt (von glaube Tonga und salvages mal abgesehen).
Mit IO-DIE wäre es zwar möglich, aber
Mit der ganzen Spekulation der letzten Zeit, ob HBM oder GDDR, game cache, "nvidia killer" etc. es sind alles wirre Informationen, die irgendwie nicht zusammen passen wollen.
Reine Spekulation, ich versuche jetzt einfach mal irgendwelche logischen Schlüsse aus dem Durcheinander zu ziehen. Es gab ja schon einmal die überlegung, dass es eigentlich 2 "big navis" geben könnte und deshalb alles so durcheinander ist:
N22 = 6500 = kleine GPU, 5500 Nachfolger, 40 CUs, 192 bit GDDR6 passt.
N21 = 6700 = mittlere GPU, 5700 Nachfolger, 80 CUs, 256 bit GDDR6 (könnte mit 16GT/s sogar passen, ausgehend von der 5600)
N23 = 6900 = biggest Navi, der "Nvidia killer" (wie schon vor einem Jahr angekündigt), 120 CUs + HBM, Release im Januar 2021 zur CES
So abwegig es auch klingen mag, aber vielleicht ist an dieser Spinnerei ja doch etwas dran ;D
Was er sagt macht schon Sinn. Auch er hat bereits vor Monaten von Biggest_Navi@HBM gesprochen. Zudem gibt es da ein Blabla mit 160CUs!
Vielleicht ist N21 nur ne stinknormale 6700XT mit 16GB@256-Bit und 40CUs. Performance 15% über ner 2080TI und somit so schnell wie ne 3070Ti mit 16GB.
Auch das hat er angerissen!
basix
2020-09-24, 19:15:00
1.7x Performance-Steigerung bei 40CU wäre aber "etwas" überraschend. But wait, 2.5GHz incoming! :D
Berniyh
2020-09-24, 19:15:37
Es gab ja schon einmal die überlegung, dass es eigentlich 2 "big navis" geben könnte und deshalb alles so durcheinander ist:
[...]
N23 = 6900 = 505mm²,biggest Navi, der "Nvidia killer" (wie schon vor einem Jahr angekündigt), 120 CUs + HBM, Release im Januar 2021 zur CES
So abwegig es auch klingen mag, aber vielleicht ist an dieser Spinnerei ja doch etwas dran ;D
Ok, mal angenommen da ist was dran. Warum sollte AMD den ganz großen Navi 23 Chip zurück halten, wo sie doch gerade ständig etwas von einem Halo Produkt (welches mehrfach bestätigt noch dieses Jahr kommen soll) reden?
Das macht einfach Null Sinn.
Der einzige Grund, der mir dazu einfällt ist, dass man die Chance gesehen hat frühzeitig auf N5* gehen zu können (und Huawei Kapazitäten etc.).
Aber das sind alles Dinge die man bei der Planung der Chipreihe vor X Jahren nicht hat vorhersehen können, insofern muss man eigentlich ziemlich sicher davon ausgehen, dass auch Navi 23 in N7e (o.ä.) kommt, wie eben die anderen auch.
Also sehe ich nicht wirklich, warum man zuerst einen "Big Navi" und dann später noch einen "Bigger Navi" releasen sollte.
Ne, die 80 CU werden wohl das Maximum sein was wir in absehbarer Zeit zu Gesicht bekommen.
Berniyh
2020-09-24, 19:20:19
Was er sagt macht schon Sinn. Auch er hat bereits vor Monaten von Biggest_Navi@HBM gesprochen. Zudem gibt es da ein Blabla mit 160CUs!
160 CU? Yeah, right …
Vielleicht ist N21 nur ne stinknormale 6700XT mit 16GB@256-Bit und 40CUs.
Nein, Navi 21 hat 80 CU. Das ist fix.
1.7x Performance-Steigerung bei 40CU wäre aber "etwas" überraschend. But wait, 2.5GHz incoming! :D
Auch bei RDNA1 hat AMD untertrieben. Man wusste ja nicht wie der Fertigungsprozess verläuft. Die 50% waren lediglich auf die eigenen Fortschritte gemünzt, zudem nur geschätzt! Vielleicht gibbet ne 6700XT nur mit 16GB, was für mich heißt, das Ding knallt in nativer Auflösung mit RT!
Das Ding für 499€ mischt den Graka-Markt ziemlich brutal auf!
BoMbY
2020-09-24, 19:24:53
Naja, eine Konfusion könnte schon dadurch entstanden sein dass 80 WGUs als 80 CUs interpretiert wurden. Aber ja, 160 ist vermutlich zu viel.
Wobei festzuhalten gilt: Es gibt praktisch nichts was wirklich bestätigt ist, weder die Chipgröße, noch der Speichertyp, noch die Anzahl CUs. Selbst die Werte in den Linux-Treibern können noch Platzhalter sein.
Berniyh
2020-09-24, 19:31:59
Naja, eine Konfusion könnte schon dadurch entstanden sein dass 80 WGUs als 80 CUs interpretiert wurden. Aber ja, 160 ist vermutlich zu viel.
Wobei festzuhalten gilt: Es gibt praktisch nichts was wirklich bestätigt ist, weder die Chipgröße, noch der Speichertyp, noch die Anzahl CUs. Selbst die Werte in den Linux-Treibern können noch Platzhalter sein.
Ne, die Anzahl der CUs stammt aus der Firmware des offiziellen 20.30 Treibers den AMD zum Download anbietet.
Aber klar, das ist bestimmt nur ein Platzhalter … ;D
Cyberfries
2020-09-24, 19:34:54
.... Coreteks ... erklärt er genau warum die Test-Platine ebend keinen 6900 aufnehmen kann!
Wo? Er erklärt gar nichts in der Hinsicht. Stattdessen sehr viel Blödsinn angerührt mit Ahnungslosigkeit.
ich versuche jetzt einfach mal irgendwelche logischen Schlüsse aus dem Durcheinander zu ziehen.
Träumereien über 120CUs bringen kein Stück weiter. Logisch ist an der Überlegung gar nichts.
Bandbreite, Chipgröße, wie furchtbar müssten die Chips da skalieren? Dann könnte AMD wirklich dicht machen.
Sienna kann übrigens sein:
(Rec. 601 luma) #656565
(Rec. 709 luma) #606060
(Rec. 2020 luma) #646464
https://www.farb-tabelle.de/de/rgb2hex.htm?q=sienna
Auch das hat er angerissen!
Er hat auch behauptet, dass über dem 3070+10% Chip nichts weiteres kommt.
1.7x Performance-Steigerung bei 40CU wäre aber "etwas" überraschend.
Das werden aber auch jeden Tag 10% mehr. Bei dem Tempo sind wir bis zur Vorstellung bei +510%.
Vielleicht gibbet ne 6700XT nur mit 16GB, was für mich heißt, das Ding knallt in nativer Auflösung mit RT!
Das Ding für 499€ mischt den Graka-Markt ziemlich brutal auf!
499€ mit +510%perf/watt, da kann nVidia einpacken!
Daredevil
2020-09-24, 19:41:11
Die 3090, die für ~1% der Spieler attraktiv war, ist heute sicherlich für mehr als die hälfte gestorben.
AMD hat also eigentlich nur ein einziges Ziel, ne Karte mit der Performance einer 2080ti ( Zwischen 3070/3080 ) zu bringen mit mehr Speicher und für weniger Taler. Das sollte doch machbar sein.
160 CU? Yeah, right …
Nein, Navi 21 hat 80 CU. Das ist fix.
Sagt wer? Ich konnte diesbezüglich keine offiziellen oder inoffiziellen States ausmachen. Vielleicht ist auch N22 mit 80 CUs bei nach wie vor 256-Bit SI bestückt. Target ganz klar die 3080.
@Daredevil
AMD hat ganz einfach den Vorteil des Fertigungsprozesses.
Langlay
2020-09-24, 19:46:11
Die 3090, die für ~1% der Spieler attraktiv war, ist heute sicherlich für mehr als die hälfte gestorben.
AMD hat also eigentlich nur ein einziges Ziel, ne Karte mit der Performance einer 2080ti ( Zwischen 3070/3080 ) zu bringen mit mehr Speicher und für weniger Taler. Das sollte doch machbar sein.
Ich hätte gerne ~3080 Leistung mit 16GB VRAM. Von mir aus auch gerne für 699€.
Laut Gerüchten läuft die 160CU-Version bei 1.35G und ist lediglich 15% schneller als ne 3090
Linmoum
2020-09-24, 19:50:00
Die 3090, die für ~1% der Spieler attraktiv war, ist heute sicherlich für mehr als die hälfte gestorben.
AMD hat also eigentlich nur ein einziges Ziel, ne Karte mit der Performance einer 2080ti ( Zwischen 3070/3080 ) zu bringen mit mehr Speicher und für weniger Taler. Das sollte doch machbar sein.Nur grob 2080Ti ist natürlich nicht AMDs Ziel. Dafur braucht es eigentlich nur gesunden Menschenverstand, gerade bei einem 80CU-Chip und dem Umstand, dass Ampere alles andere als gut im Vergleich zu Turing die Rohleistung in Perf. umsetzen kann. (Mindestens) 3080-Perf, mehr Speicher, effizienter. Ich glaube, nach der teils traurigen Ampere-Vorstellung hat Lisa bae zur House Party eingeladen.
Weihnachtsfest findet dieses Jahr schon im Oktober statt.
why_me
2020-09-24, 19:54:14
Träumereien über 120CUs bringen kein Stück weiter. Logisch ist an der Überlegung gar nichts.
Bandbreite, Chipgröße, wie furchtbar müssten die Chips da skalieren? Dann könnte AMD wirklich dicht machen.
Willst du das noch etwas weiter ausführen?
Bandbreite: 2x 5600XT = 72 CUs bei 576 GB/s. So weit von 80 und 512GB/s ist das nicht entfernt, dass es unmöglich wäre.
Chipgröße: 240, 340, 505 wurden Anfang des Jahres für RDNA2 genannt, die Quelle lag meines Wissens schon öfters richtig.
Das wurde mit N23 = 240, N22 = 340, N21 = 505 in Verbindung gebracht (https://twitter.com/KOMACHI_ENSAKA/status/1255161800116416512?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1255161 800116416512%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwccftech.com%2Famd-radeon-big-navi-21-gpu-505-mm-die%2F), aber das passt halt einfach nicht zu den CU zahlen
Skalierung: :confused:
Berniyh
2020-09-24, 19:55:20
Sagt wer? Ich konnte diesbezüglich keine offiziellen oder inoffiziellen States ausmachen. Vielleicht ist auch N22 mit 80 CUs bei nach wie vor 256-Bit SI bestückt. Target ganz klar die 3080.
Alter, kannst du mal aufhören zu phantasieren?
Noch mal zum Mitschreiben. Es gibt Firmware-Dateien von AMD zu Sienna Cichlid und Navy Flounder.
Und die sagen ziemlich eindeutig für ersteren 80 CU und für letzteren 40 CU.
Aber klar, irgendwelche abstrusen Gerüchte aus dem Netz sind natürlich viel glaubwürdiger als Infos die von AMD selbst kommen … :rolleyes:
Nein, das was hier in dieser Tabelle steht ist korrekt (hab das inzwischen auch selbst überprüft).
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae
Zum Speicherinterface gibt es noch Fragezeichen, da aber auch da sind 256 Bit für Sienna Cichlid und 192 Bit für Navy Flounder sehr wahrscheinlich.
dargo
2020-09-24, 19:59:38
Das ist halt wirklich die Frage, das Problem war bei Turing das NV zu wenig Mehrperformance gebracht hat. Dadurch sind eben viele auf der 1080TI hängen geblieben. Durch den größeren Sprung werden halt mehr wechseln und dadurch verdienen sie auch viel mehr.
Ich sehe das eher wie basix.
Es hätte Nvidia überhaupt nicht geschadet wenn man beim GA102 ~5% Performance geopfert hätte um dadurch bei unter 300W zu bleiben. Der Hauptaugenmerk beim Marketing war sowieso 2070 --> 3070 und 2080 --> 3080. Ob die Dinger letztendlich 100% oder 95% (fiktive Zahlen) schneller sind spielt dann keine Rolle mehr.
Falls es HBM2 ist, dann sind angesichts der 16 L2 Cache Tiles ja 2048 Bit/2 Stacks wahrscheinlich (Locuza geht außerdem vom 512KB pro Tile aus, also 8MB L2). Da bräuchte AMD schon HBM2e für genug Bandbreite: Mit 3,2Gbps erreicht man zum Beispiel ca. 820GB/s und mit 3,6Gbps kommt man auf 920GB/s.
Warum sollten deiner Meinung nach 820GB/s zu wenig sein? HBM2e mit 3,6 Gbit/s kam für RDNA 2 leider zu spät. Die Massenproduktion startete in Juli 2020.
https://www.anandtech.com/show/15892/sk-hynix-hbm2e-memory-now-in-mass-production
Sorry... falsch gelesen. Du gehst gar nicht davon aus die 820GB/s wären ein Problem.
Alter, kannst du mal aufhören zu phantasieren?
Noch mal zum Mitschreiben. Es gibt Firmware-Dateien von AMD zu Sienna Cichlid und Navy Flounder.
Und die sagen ziemlich eindeutig für ersteren 80 CU und für letzteren 40 CU.
Aber klar, irgendwelche abstrusen Gerüchte aus dem Netz sind natürlich viel glaubwürdiger als Infos die von AMD selbst kommen … :rolleyes:
Nein, das was hier in dieser Tabelle steht ist korrekt (hab das inzwischen auch selbst überprüft).
https://www.reddit.com/r/Amd/comments/ixktae/navy_flounder_has_40_cus_and_192bit_bus_source/?utm_content=title&utm_medium=post_embed&utm_name=919d3d3b028a4b018c3a0c06d03aea7f&utm_source=embedly&utm_term=ixktae
Zum Speicherinterface gibt es noch Fragezeichen, da aber auch da sind 256 Bit für Sienna Cichlid und 192 Bit für Navy Flounder sehr wahrscheinlich.
Du willst mir ein glaubhaftes VBios präsentieren, wo die Dinger noch nicht mal geschrieben wurden? Du bist echt witzig, stützt dich auf auf irgendwelche TXT.files welche du aus Linux gesaugt hast mit eigener Interpretation, also bitte!
WedgeAntilles
2020-09-24, 20:04:51
Ich sehe das eher wie basix.
Es hätte Nvidia überhaupt nicht geschadet wenn man beim GA102 ~5% Performance geopfert hätte um dadurch bei unter 300W zu bleiben. Der Hauptaugenmerk beim Marketing war sowieso 2070 --> 3070 und 2080 --> 3080. Ob die Dinger letztendlich 100% oder 95% (fiktive Zahlen) schneller sind spielt dann keine Rolle mehr.
+1
Egal was BigNavi macht.
Hat BigNavi jetzt exakt 3080 Niveau bei nur 270W Verbrauch kann AMD sagen: Ok, wir sind nicht schneller - aber WEIT sparsamer.
Es wäre für Nvidia immer besser gewesen, auf ein paar Prozent Performance zu verzichten und stattdessen merklich weniger STrom zu verbrauchen.
Langlay
2020-09-24, 20:06:10
Warum sollten deiner Meinung nach 820GB/s zu wenig sein? HBM2e kam für RDNA 2 leider zu spät. Die Massenproduktion startete in Juli 2020.
https://www.anandtech.com/show/15892/sk-hynix-hbm2e-memory-now-in-mass-production
Samsung hat HBM2E schon im Feb. gelauncht.
https://news.samsung.com/global/samsung-to-advance-high-performance-computing-systems-with-launch-of-industrys-first-3rd-generation-16gb-hbm2e
dargo
2020-09-24, 20:09:40
Samsung hat HBM2E schon im Feb. gelauncht.
https://news.samsung.com/global/samsung-to-advance-high-performance-computing-systems-with-launch-of-industrys-first-3rd-generation-16gb-hbm2e
Wobei ich mich hier frage ob das auch von der Zeit nicht zu knapp ist? Wenn RDNA 2 in Oktober/November kommen soll wann fängt die Produktion an? Und die Entscheidungen für den Speicher müssen schon wesentlich früher getroffen werden imho. Stelle dir vor bei Samsung wäre was schief gegangen und der HBM2e käme paar Monate später. Dann guckst du blöd aus der Wäsche.
Berniyh
2020-09-24, 20:11:22
Du willst mir ein glaubhaftes VBios präsentieren, wo die Dinger noch nicht mal geschrieben wurden? Du bist echt witzig, stützt dich auf auf irgendwelche TXT.files welche du aus Linux gesaugt hast mit eigener Interpretation, also bitte!
:facepalm:
Aber gut, leb halt weiter in deiner Phantasiewelt. :crazy2:
Wird das Aufwachen halt etwas ruppiger, nicht mein Problem.
Unicous
2020-09-24, 20:13:09
Ich dachte gedi wollte seinen Account löschen?;(
basix
2020-09-24, 20:14:46
Er hat auch behauptet, dass über dem 3070+10% Chip nichts weiteres kommt.
Momentan bewegen wir uns zwischen 3070 + 10% (knapp 2080 Ti Performance) bei 275W bis hin zu 3090 FE Performance bei 300W. Das ist eine Effizienzsteigerung von 1.25...1.70, ausgehend von der 5700 XT. Theoretisch ist alles möglich und es ist faszinierend, dass wirklich keiner mehr weiss, auch nicht von den oft gut informierten Leakern.
Ich tendiere am ehesten dazu, dass die 2080 Ti + 10% Performance vom mittleren Chip kommen (~56 CU, 220W) und dass es noch einen Chip darüber gibt. Das würde am ehesten zu der erwartenden Performance als auch zu den 12GB und 16GB passen. Performanceabschätzung ist rein nach Anzahl CUs, Taktraten und IPC. Ein 72 CU Chip hätte dann das Potential für die 3080 FE (~280W) und ein 80 CU Chip wäre im Bereich der 3090 FE (300+W). Sollte das so kommen, kann sich AMD glücklich schätzen und es wäre ein "partly exceeded" in der Bewertung.
Berniyh
2020-09-24, 20:14:59
Wobei ich mich hier frage ob das auch von der Zeit nicht zu knapp ist? Wenn RDNA 2 in Oktober/November kommen soll wann fängt die Produktion an? Und die Entscheidungen für den Speicher müssen schon wesentlich früher getroffen werden imho. Stelle dir vor bei Samsung wäre was schief gegangen und der HBM2e käme paar Monate später. Dann guckst du blöd aus der Wäsche.
AMD nutzt ja seit Jahren HBM(2) und hat sicher einen halbwegs guten Draht zu Samsung.
Da wird man schon halbwegs gewusst haben wohin die Reise geht und möglicherweise sogar schon darauf zugreifen können bevor das in das offizielle Portfolio aufgenommen wird.
Hat Nvidia mit GDDR6X ja auch so gemacht.
Palpatin
2020-09-24, 20:16:22
+1
Egal was BigNavi macht.
Hat BigNavi jetzt exakt 3080 Niveau bei nur 270W Verbrauch kann AMD sagen: Ok, wir sind nicht schneller - aber WEIT sparsamer.
Es wäre für Nvidia immer besser gewesen, auf ein paar Prozent Performance zu verzichten und stattdessen merklich weniger STrom zu verbrauchen.
Natürlich wäre das besser gewesen, man hätte die Karten als Bonus auch noch für die gute OC Fähigkeit gelobt.
Jetzt ist OC Mies, die Customs boosten zu hoch was zu Abstürzen führt und das Flaggschifg 3090 frißt Netzteile zum Frühstück.
Einzig die Lautstärke haben sie mit extrem teuren aufwendigen Kühlern (welche wiederum an den margen knabbern) gut im Griff.
dargo
2020-09-24, 20:17:39
AMD nutzt ja seit Jahren HBM(2) und hat sicher einen halbwegs guten Draht zu Samsung.
Da wird man schon halbwegs gewusst haben wohin die Reise geht und möglicherweise sogar schon darauf zugreifen können bevor das in das offizielle Portfolio aufgenommen wird.
Hat Nvidia mit GDDR6X ja auch so gemacht.
Da ist was dran.
Langlay
2020-09-24, 20:19:32
Wobei ich mich hier frage ob das auch von der Zeit nicht zu knapp ist? Wenn RDNA 2 in Oktober/November kommen soll wann fängt die Produktion an? Und die Entscheidungen für den Speicher müssen schon wesentlich früher getroffen werden imho. Stelle dir vor bei Samsung wäre was schief gegangen und der HBM2e käme paar Monate später. Dann guckst du blöd aus der Wäsche.
Samsung expects to begin volume production during the first half of this year.
Es ist aber nicht ungewöhnlich für Grafikkarten, das sie RAM benutzen der quasi erst kurz vorher gelauncht ist. Von GDDR6X hat bis vor ein paar Wochen auch quasi noch niemand was gehört.
Ich dachte gedi wollte seinen Account löschen?;(
Ich habe es Leo geschrieben. Vielleicht dauert es ein wenig, da er sicher noch anderes zu tun hat!
@Bernih
AMD wollte ein Halo-Produkt entwickeln-nur daran müssen sie sich messen lassen. Und sicher nehme ich Dinge von 0x22 auf, da hier Hintergrund vorhanden ist. Dass was wir hier machen, ist der Rede 0 Wert!
Zudem kann es ja wohl nicht sein, dass dein BN nicht viel mehr kann, als ne 5700xt unter Wasser mit nem 420er Radi passiv (!) gekühlt
HarryHirsch
2020-09-24, 20:26:30
leo ist dafür der falsche ansprechpartner. versuche es mal bei seph ;)
leo ist dafür der falsche ansprechpartner. versuche es mal bei seph ;)
Link? Trotzdem danke, sehr nett
Daredevil
2020-09-24, 20:34:02
Momentan bewegen wir uns zwischen 3070 + 10% (knapp 2080 Ti Performance) bei 275W bis hin zu 3090 FE Performance bei 300W. Das ist eine Effizienzsteigerung von 1.25...1.70, ausgehend von der 5700 XT.
Eine 5700XT als Basis zu haben ist allerdings auch recht leicht, weil die ist im Gegensatz zur 5600XT ja auch schon ordentlich auf Kante genäht. ( Perf/Watt Graphen von Igor ausm 3090 Test ).
Hoffen wir mal nicht, dass davon ausgegangen wird. ^^
HarryHirsch
2020-09-24, 20:34:45
Link? Trotzdem danke, sehr nett
https://www.forum-3dcenter.org/vbulletin/member.php?u=208
Cyberfries
2020-09-24, 20:41:28
Chipgröße: 240, 340, 505 wurden Anfang des Jahres für RDNA2 genannt, die Quelle lag meines Wissens schon öfters richtig.
Komachi ist nicht die Quelle, sondern Einer aus einem chinesischen Kommentarbereich.
Komachi versieht das mit einem zweifelnden Emoji und RetiredEngineer (Chinese) bestätigt, dass das nur "guessing" ist.
Willst du das noch etwas weiter ausführen?
Du legst etwa +150% an Leistung drauf, aber nur +80% an Bandbreite (80CU-Speku vs 5600)
Hier wird ja bereits bei 40CUs an 192bit gezweifelt, davon ausgehend mindestens ca.650GB/s für 80CU.
Außer du meinst, die 120CU-Karte wäre 3080-Konkurrenz, dann liegt die Skalierung bei +70% Leistung bei +200% CU.
Alles natürlich Milchmädchenrechnungen.
Momentan bewegen wir uns zwischen 3070 + 10% (knapp 2080 Ti Performance) bei 275W bis hin zu 3090 FE Performance bei 300W.
Sortier doch mal alle Albernheiten über "BigNavi" aus und fang mit Navi Flounders an.
Dann kommt was sinnvolles raus.
Und sicher nehme ich Dinge von 0x22 auf, da hier Hintergrund vorhanden ist. Dass was wir hier machen, ist der Rede 0 Wert!
Sehr freundlich...
0x22h schreibt nirgends von 120 oder 160CU, der wird ebenfalls wissen dass das Blödsinn ist.
Komachi ist nicht die Quelle, sondern ein Unbekannter aus einem chinesischen Kommentarbereich.
Komachi versieht das mit einem zweifelnden Emoji und RetiredEngineer (Chinese) bestätigt, dass das nur "guessing" ist.
Du legst etwa +150% an Leistung drauf, aber nur +80% an Bandbreite (80CU-Speku vs 5600)
Hier wird ja bereits bei 40CUs an 192bit gezweifelt, davon ausgehend mindestens ca.650GB/s für 80CU.
Außer du meinst, die 120CU-Karte wäre 3080-Konkurrenz, dann liegt die Skalierung bei +70% Leistung bei +200% CU.
Alles natürlich Milchmädchenrechnungen.
Sortier doch mal alle Albernheiten über "BigNavi" aus und fang mit Navi Flounders an.
Dann kommt was sinnvolles raus.
Sehr freundlich...
0x22h schreibt nirgends von 120 oder 160CU, der wird ebenfalls wissen dass das Blödsinn ist.
Oha-auch er spricht von HBM2. Von daher Flügel flach halten. Aber sicher nicht für ne 6700
Komachi ist nicht die Quelle, sondern Einer aus einem chinesischen Kommentarbereich.
Komachi versieht das mit einem zweifelnden Emoji und RetiredEngineer (Chinese) bestätigt, dass das nur "guessing" ist.
Du legst etwa +150% an Leistung drauf, aber nur +80% an Bandbreite (80CU-Speku vs 5600)
Hier wird ja bereits bei 40CUs an 192bit gezweifelt, davon ausgehend mindestens ca.650GB/s für 80CU.
Außer du meinst, die 120CU-Karte wäre 3080-Konkurrenz, dann liegt die Skalierung bei +70% Leistung bei +200% CU.
Alles natürlich Milchmädchenrechnungen.
Sortier doch mal alle Albernheiten über "BigNavi" aus und fang mit Navi Flounders an.
Dann kommt was sinnvolles raus.
Sehr freundlich...
0x22h schreibt nirgends von 120 oder 160CU, der wird ebenfalls wissen dass das Blödsinn ist.
Ich habe in dem Kontext nicht von 0x22 gesprochen. Es war nur etwas was ich hier auf Firma aufgenommen habe. Und wir programmieren hardwarenah!
Ich wünsche euch ganz ehrlich nur das Beste! Ich hoffe, dass mein Account nu gelöscht wird und möge all das was ihr euch vorstellt, in Erfüllung gehen! Wenn ich genervt haben sollte, sorry-tut mir leid.
Es war mir eine Freude-Game On
w0mbat
2020-09-24, 21:02:56
Wieso soll dein Acc gelöscht werden?
Gipsel
2020-09-24, 21:05:30
Es gibt PNs. Hier ist das OT.
basix
2020-09-24, 21:14:02
Eine 5700XT als Basis zu haben ist allerdings auch recht leicht, weil die ist im Gegensatz zur 5600XT ja auch schon ordentlich auf Kante genäht. ( Perf/Watt Graphen von Igor ausm 3090 Test ).
Hoffen wir mal nicht, dass davon ausgegangen wird. ^^
Ja klar. 5700 XT ist etwas über dem Sweet Spot. Das war Vega 64 aber auch ;)
Willst du das noch etwas weiter ausführen?
Bandbreite: 2x 5600XT = 72 CUs bei 576 GB/s. So weit von 80 und 512GB/s ist das nicht entfernt, dass es unmöglich wäre.
Chipgröße: 240, 340, 505 wurden Anfang des Jahres für RDNA2 genannt, die Quelle lag meines Wissens schon öfters richtig.
Das wurde mit N23 = 240, N22 = 340, N21 = 505 in Verbindung gebracht (https://twitter.com/KOMACHI_ENSAKA/status/1255161800116416512?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1255161 800116416512%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwccftech.com%2Famd-radeon-big-navi-21-gpu-505-mm-die%2F), aber das passt halt einfach nicht zu den CU zahlen
Skalierung: :confused:
Ich finde es immer wieder lustig, wie hoch die Bandbreite der Resultate sein kann. Je nachdem welche Basis man nimmt :D
Es gibt einige Infos, welche sich deutlich widersprechen: 80 CUs, 192bit und 256bit, 12GB und 16GB, Chipgrössen. Irgendwie passt das alles nicht.
Eigentlich müssten wir aber anhand des XBSX Chips einen sehr guten Anhaltspunkt haben. Dort ist die komplette GPU exklusive I/O, Speicherinterface und Multimedia-Zeugs 170mm2 gross. Das ist sehr klein. In 505mm2 hätten da auch 120 CUs mit 384b SI Platz. Vielleicht verarscht uns AMD ja gewaltig und bringt 48, 84 und 128 CUs bei 192, 256 und 384b ;D
Was es dazu benötigen würde:
>= 1/3 bessere Bandbreiteneffizienz pro FLOP verglichen mit RDNA1 (5600 XT)
24-32 CUs pro Shader Engine
WGP = 4.3mm2 (2x CUs)
GPU common Core = 10mm2
Shader Engine Frontend = 20mm2
64b SI = 16mm2
Multimedia + PCIe = 40mm2
Die Flächenangaben sind zum Teil aus dem Navi 10 und XBSX Die Shot abgeleitet:
56 CU, 2 Shader Engines
170mm2 - 2*20mm2 - 10mm2 = 120mm2 für 56CUs
120mm2 / 28 WGPs = 4.3mm2 pro WGP --> Navi 10 = 4.5mm2
Wenn ich damit rechne, ergibt sich folgendes:
MM/PCIe + Core + 192b + 2 Shader Engines + 48 CU = 241.2 mm2
MM/PCIe + Core + 256b + 3 Shader Engines + 84 CU = 340.6 mm2
MM/PCIe + Core + 384b + 4 Shader Engines + 128 CU = 501.2 mm2
Ups, Hype Train chooo chooo ;D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.