Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Sofern ich das beurteilen kann, sind die 255 W TGP der Standard bei der XT. Mit OC sind wie gesagt 290 W TGP möglich. Um ganz genau zu sein sind es 289 W (für die Korinthenkacker unter euch). :P Mehr ist laut AMD nicht erlaubt. Es scheint auch so, dass bei allen XT Karten, der max. Takt mit 2577 MHz im vBIOS angegeben wird. Bei der XL ist der max. Takt mit 2475 MHz angegeben. Standard TGP scheint 203 W zu sein und maximal erlaubt sind 230 W.
Wenn ich mir also die TGP anschaue, liegt zwischen Standard und max. erlaubter TGP immer ~13,3 %.
Was jetzt ein wenig enttäuschend ist, aber wofür gibts das MPT:biggrin: Manche Customs kommen sehr sicher mit 3x8 PIN Netz.
Cyberfries
2020-10-21, 16:59:10
AMD selbst sprach damals auf dem FAD im März von höherer IPC für RDNA2.
Folie zu IPC ist nur das hier:
https://pics.computerbase.de/9/1/7/9/2/78-1080.3151eaa8.jpg
Relativ allgemein, obs bei RDNA2 nochmal bergauf geht, kann man da nicht rauslesen.
Ist aber auch egal, war nicht mein Punkt. Mir gings nur um einen Brems-check am Hype-Train.
... wäre das ein ~340mm2 Die. Ich habe 14.8x23.2mm ausgemessen.
Gut, dann bin ich also nicht der Einzige. Mit Geodreieck kam ich auf rund 370mm²,
Pixel gezählt hab ich nicht, bei dem Pixelhaufen auch nicht wirklich sinnig.
Afair habe ich dies hier in diesem Thread auch mal verlinkt.
Du hast die Behauptung schonmal aufgestellt, ja.
Die Quelle konntest du aber nicht liefern.
Bin auch gespannt was mit Undervolting geht, die 5700XT @150W ist kaum langsamer als stock.
Folie zu IPC ist nur das hier:
https://pics.computerbase.de/9/1/7/9/2/78-1080.3151eaa8.jpg
Relativ allgemein, obs bei RDNA2 nochmal bergauf geht, kann man da nicht rauslesen.
Fraglich ob der Sprung von RDNA zu RDNA2 auch so ausfällt wie der von Zen 2 zu Zen 3. Sprich man genauso viel aus 7nm raus holen kann.
dargo
2020-10-21, 17:00:43
Doch haben sie.
Haben sie nicht afaik, ansonsten Link bitte.
Doch haben sie. War glaube ich auch bei THG. Der Artikel war allerdings afair Anfang des Jahres.
dargo
2020-10-21, 17:07:57
Sofern ich das beurteilen kann, sind die 255 W TGP der Standard bei der XT. Mit OC sind wie gesagt 290 W TGP möglich. Um ganz genau zu sein sind es 289 W (für die Korinthenkacker unter euch). :P Mehr ist laut AMD nicht erlaubt. Es scheint auch so, dass bei allen XT Karten, der max. Takt mit 2577 MHz im vBIOS angegeben wird. Bei der XL ist der max. Takt mit 2475 MHz angegeben. Standard TGP scheint 203 W zu sein und maximal erlaubt sind 230 W.
Sind diese 203W TGP bei der XL absolut sicher? Das wäre auf jeden Fall schon mal super. Denn das bedeutet je nach Ausführung der AIBs (siehe Pulse vs. Nitro+) ca. 225-240W für die gesamte Karte. Igor verrennt sich da einfach mit den TGP Angaben. Der zählt die 17W vom Speicher nochmal dazu um auf 220W TGP zu kommen obwohl die 203W TGP bereits den Speicher inkludiert.
unl34shed
2020-10-21, 17:10:02
Doch haben sie. War glaube ich auch bei THG. Der Artikel war allerdings afair Anfang des Jahres.
Wie bereits von anderen gesagt, bitte suche den Link raus. Mein Stand ist auch, dass du ihn damals nicht gefunden hast.
Zergra
2020-10-21, 17:11:17
Doch haben sie. Suchen kannst selbst. Afair habe ich dies hier in diesem Thread auch mal verlinkt.
Du kommst immer wieder mit solchen Aussagen, aber nie mit einer Quelle....
Dural
2020-10-21, 17:12:28
Selbst wenn die 6900XT nur 10% schneller als eine 3070 ist, ich würde sie sofort kaufen. NV hat es ja nicht nötig meine vor einem Monat bestellte 3090 zu liefern :rolleyes: wobei RT noch ein grossen Fragezeichen ist, da habe ich min. Ansprüche die eingehalten werden müssen...
Aber ich befürchte fast bei AMD wird das nix mit gut lieferbar und fairen Preise :rolleyes:
patrickschur
2020-10-21, 17:12:55
Ich habe doch bereits in einen meiner Tweets erklärt, dass die AIBs mit verschiedenen TGPs experimentieren. Bei der XL sind das 203, 220 und 230 W.
Daredevil
2020-10-21, 17:14:37
del
Du kommst immer wieder mit solchen Aussagen, aber nie mit einer Quelle....
War Tweak Town, sorry. Auch sonst schien die Seite sehr gut informiert zu gewesen sein. https://www.tweaktown.com/news/73886/amds-next-gen-rdna-2-major-leap-forward-up-to-225-faster-than/index.html
dargo
2020-10-21, 17:16:21
Ich habe doch bereits in einen meiner Tweets erklärt, dass die AIBs mit verschiedenen TGPs experimentieren. Bei der XL sind das 203, 220 und 230 W.
Mich interessieren ausschließlich die 203W. Warum? Weil das zu 99,9% Referenzvorgaben sind. Kein AIB geht unter Referenz Powerlimit. Irgendwelche OC-Modelle interessieren mich da erstmal nicht. :)
War Tweak Town, sorry. Auch sonst schien die Seite sehr gut informiert zu gewesen sein. https://www.tweaktown.com/news/73886/amds-next-gen-rdna-2-major-leap-forward-up-to-225-faster-than/index.html
Also nichts weiter als irgendwelche Träume vom Spekulanten, dachte ich mir.
Birdman
2020-10-21, 17:16:54
Sprich man genauso viel aus 7nm raus holen kann.
Wie soll das gemeint sein?
AMD hat doch mit Zen3 nicht mehr aus dem 7nm Prozess rausgeholt. Die Taktraten sind nicht höher und bei der reale Verlustleistung geht es auch eher hoch als runter.
AMD hat einfach die Architektur deutlich aufgebohrt um das nun gebotene Mehr an an Performance zu erreichen, mit dem Prozess hat das ganze aber nichts zu tun.
Wie soll das gemeint sein?
AMD hat doch mit Zen3 nicht mehr aus dem 7nm Prozess rausgeholt. Die Taktraten sind nicht höher und bei der reale Verlustleistung geht es auch eher hoch als runter.
AMD hat einfach die Architektur deutlich aufgebohrt um das nun gebotene Mehr an an Performance zu erreichen, mit dem Prozess hat das ganze aber nichts zu tun.
Nicht mehr Takt? Bei gleichem Verbrauch? Ähm... Ich sehe da schon deutliche Verbesserungen beim Prozess.
https://twitter.com/TUM_APISAK/status/1318919878401617920
edit: Wir bekommen mit RDNA2 deutlich mehr Takt, deutlich mehr CUs und ja der Verbrauch geht hoch, in welchem Verhältnis wird man sehen. Bin gespannt auf den IPC uplift, denke schon das sich da auch was getan hat.
Du kommst immer wieder mit solchen Aussagen, aber nie mit einer Quelle....
Mich interessieren ausschließlich die 203W. Warum? Weil das zu 99,9% Referenzvorgaben sind. Kein AIB geht unter Referenz Powerlimit. Irgendwelche OC-Modelle interessieren mich da erstmal nicht. :)
Also nichts weiter als irgendwelche Träume vom Spekulanten, dachte ich mir.
Lies den Artikel bitte nochmals. Die liegen ziemlich exakt dran. 72CUs und up to 225% + Performance im Vergleich zur 5700XT. Klingelt da was bei dir?
Elite_Warrior
2020-10-21, 17:27:11
OT: Haben wir einen Gerd W. im Forum? Falls er hier mitlesen sollte, würde ich es ganz schön finden, wenn er vielleicht nicht auf Twitter schreiben würde[...]
Als Hinweis: Das Forum wurde schon häufig als Informationsquelle von anderen genutzt. Da sitzen ein paar mit Googleübersetzer. Da hat sogar jemand Internationales mal den Horn12 zitiert :freak:
Auch wenn ich deine Info geil finde, poste nur das was du dir leisten kannst damit Niemand zu Schaden kommt:wink:
Daredevil
2020-10-21, 17:29:21
würde ich es ganz schön finden, wenn er vielleicht nicht auf Twitter schreiben würde, dass das VBIOS von einer XFX ist. Auch wenn ich euch das gesagt habe. Das muss ja nicht gleicher jeder mitkriegen. ;)
Das hat Igor auch schon geteilt, aka "Ein Hersteller am Ende des Alphabets".
Da war wohl jedem klar, das es weder Asus noch MSI sein wird.
Daher habe ich das zumindest und nicht von dir. ^^
Und natürlich das, was Elite_Warrior schreibt.
dargo
2020-10-21, 17:29:52
Lies den Artikel bitte nochmals. Die liegen ziemlich exakt dran. 72CUs und up to 225% + Performance im Vergleich zur 5700XT. Klingelt da was bei dir?
Noch nicht, ich habe keine Benchmarks der 6800 XT gesehen, du etwa? Dann teile die mit uns bitte.
Es gibt ja nur die 3 Benchmarks der XE. Rechnest du 15% drauf und du hast die XT.
Erbsenkönig
2020-10-21, 17:37:13
Da hat sogar jemand Internationales mal den Horn12 zitiert :freak:
Lass mich raten: War das italienische Mydealz Äquivalent nach einer seiner Wasserstandsmeldungen zu Preisen bei italienischen Händlern:biggrin:
Adam D.
2020-10-21, 17:50:32
Es gibt ja nur die 3 Benchmarks der XE. Rechnest du 15% drauf und du hast die XT.
Seufz, lass doch bitte endlich mal diesen Unsinn.
dargo
2020-10-21, 17:51:04
Es gibt ja nur die 3 Benchmarks der XE. Rechnest du 15% drauf und du hast die XT.
:facepalm:
Es gibt 3 Benchmarks von AMD mit BigNavi. Welche es genau war weiß außer AMD niemand. :rolleyes: Nicht falsch verstehen... ich fände es auch toll wenn das was AMD da gezeigt hatte N21XL wäre. Aber wissen tun wir es nicht.
maximus_hertus
2020-10-21, 18:03:00
Seufz, lass doch bitte endlich mal diesen Unsinn.
Warum, das kann doch dann die 7900 XT sein ;)
Echt witzig wie der Hypetrain an Fahrt aufgenommen hat. Anfang September, also keine 6 Wochen her, hieß es "R.I.P. Radeon / AMD". AMD kann Ampere niemals schlagen.
Nun ist es gar nicht mehr die Frage ob, sondern wie viele Karten schneller als die 3090 sind.
Zum Glück sind es nur noch 7 Tage, wobei der "echte" Launch wohl erst in 3-4 Wochen stattfinden wird.
Seufz, lass doch bitte endlich mal diesen Unsinn.
Mit meinem Unsinn war ich glaube ich, beinahe der Einzige der bis dato richtig gelegen haben zu (!)scheint(!) glaubt. Man hat Aussagen seitens AMD wie Halo-Produkt, da hätten wir auch gleich unsere 16k Performance zeigen können (war von Azor ironisch gemeint, aber macht euch mal nem Kopf)?! Habt ihr jemals von Zen3 zwecks Halo-Produkt gehört? Also ich nicht....
Zudem weiß ich ich was Ampere kann und eben nicht kann. Die 3080 ist echt ne gute GPU, allerdings ist die Performance im Vergleich zur 2080Ti insbesondere mit RT doch etwas meh, da die Performance im Verhältnis sogar gesunken ist. Auch sonst: wenn man von einer Ti mit 2.2G kommt, dann ist der Zuwachs etwas wenig.
Was mir gerade noch einfällt: Die 2.57G max. an Boost können per se nicht stimmen, wenn die Treibereinträge passen, denn da geht es zu 2.8G (real 2.72G)
patrickschur
2020-10-21, 18:33:39
WTF? Wenn ich schon sage, dass der Game Clock bei einer Karte bei ~2,4 GHz liegt. Wie kommt man dann auf 2,8 GHz? Die 2,8 GHz sind wahrscheinlich das Maximum, welches du in Wattman einstellen kannst. Das wird aber sicherlich keine einzige Karte erreichen. Das ist wie mit dem 3000 MHz Limit in Ryzen Master für die Infinity Fabric. Hat mit der Realität nichts zu tun. Das GFX Maximum liegt bei allen XTs bei 2577 MHz (laut vBIOS).
Sunrise
2020-10-21, 18:34:40
Schade, dass jetzt soviele Infos schon raus sind. Macht die eigentliche Vorstellung natürlich etwas langweiliger, auch wenn wir echte Architektur- und Leistungsdaten natürlich noch bekommen werden.
Sieht aber alles nach wirklich extrem guten Daten aus, der Verbrauch ist auch vollkommen OK, wenn man bedenkt, dass da bis zu 80CUs am Werk sind. Da hat sich AMD wie schon erwartet aber richtig ins Zeug gelegt.
Ist jetzt die Frage, wie man bei RT abschneiden wird, aber sonst haben die Teile (bis runter zur XL) wohl ordentlich Rohleistung.
Dass hier einige und natürlich die Klickbaiter im Netz wieder maßlos übertreiben müssen...
bbott
2020-10-21, 18:34:46
Natürlich wird die IPC garantiert steigen, AMD selbst sprach damals auf dem FAD im März von höherer IPC für RDNA2.
In einer Folie stand 25%, finde die gerade nicht mehr.
unl34shed
2020-10-21, 18:35:34
In einer Folie stand 25%, finde die gerade nicht mehr.
Das war RDNA1 vs GCN
BigBangBacket
2020-10-21, 18:39:30
WTF? Wenn ich schon sage, dass der Game Clock bei einer Karte bei ~2,4 GHz liegt. Wie kommt man dann auf 2,8 GHz? Die 2,8 GHz sind wahrscheinlich das Maximum, welches du in Wattman einstellen kannst. Das wird aber sicherlich keine einzige Karte erreichen. Das ist wie mit dem 3000 MHz Limit in Ryzen Master für die Infinity Fabric. Hat mit der Realität nichts zu tun. Das GFX Maximum liegt bei allen XTs bei 2577 MHz (laut vBIOS).
Das hat Igor auch genauso erklärt. Aber du wirst mit der Zeit feststellen das Gedi solche Informationen anders verarbeitet.
Gibt es schon irgendwelche Infos/Gerüchte über eine 6900xtx mit AiO?
SKYNET
2020-10-21, 18:41:09
Wie soll das gemeint sein?
AMD hat doch mit Zen3 nicht mehr aus dem 7nm Prozess rausgeholt. Die Taktraten sind nicht höher und bei der reale Verlustleistung geht es auch eher hoch als runter.
AMD hat einfach die Architektur deutlich aufgebohrt um das nun gebotene Mehr an an Performance zu erreichen, mit dem Prozess hat das ganze aber nichts zu tun.
du hast schon gesehen das zen3 inzwischen mit über 5GHz boost vertreten ist in benchmark datenbanken? das sind knapp 10% über dem von zen2, das bei gleicher fertigung ist schon ne hausnummer.
dargo
2020-10-21, 18:43:35
Was mir gerade noch einfällt: Die 2.57G max. an Boost können per se nicht stimmen, wenn die Treibereinträge passen, denn da geht es zu 2.8G (real 2.72G)
Liest du eigentlich die Posts in diesem Thread oder reimst du dir wieder nur was zusammen? Patrick sprach von 2,577GHz bei den XTs! Von der XTX kann Patrick noch gar nichts wissen. Das wird was Exklusives erstmal nur von AMD. Da wäre es durchaus möglich, dass es dort >2,6Ghz im Boost sein werden. Denn ansonsten machen die max. 2,8Ghz in der PP-Table wenig Sinn. Da würden dann eher max. 2,6-2,7Ghz stehen.
WTF? Wenn ich schon sage, dass der Game Clock bei einer Karte bei ~2,4 GHz liegt. Wie kommt man dann auf 2,8 GHz? Die 2,8 GHz sind wahrscheinlich das Maximum, welches du in Wattman einstellen kannst. Das wird aber sicherlich keine einzige Karte erreichen. Das ist wie mit dem 3000 MHz Limit in Ryzen Master für die Infinity Fabric. Hat mit der Realität nichts zu tun. Das GFX Maximum liegt bei allen XTs bei 2577 MHz (laut vBIOS).
Aber wenn es bereits per Treiber bis zu 2.8G geht. Ist ja nur nen Soft-Hack welcher jeder AiB hinterlegen muss, vorausgesetzt man lädt den Treiber nicht von AMD direkt, sondern von ASUS, MSI, Sapphire usw.
@dargo
Ich glaube kaum, dass ne 6900 (oder XTX) nur annähernd (selbst unter Wasser) die realen 2.5g sehen wird. Das Ding kommt minimum wenigstens z.T mit HBM.
Ich könnte jetzt auch Dural spielen und sagen, dass RDNA2 jedes Mhz braucht um vor ner 3070 zu bleiben und es einer 6900 benötigt um wenigstens an einer 3080 zu schnuppern ...
Ich denke es ist kein Sport wo die grünen Jungs alle in der Südtribüne verharren und ihre Mannschaft anfeuern und die roten Fans eben in der Nordkurve.
Beide wollen nur eines! Ich denke die Message kann nur lauten: Lasst uns Highend Grafik darstellen beinahe unabhängig der Rechnerkonfiguration! Ich denke, das wäre mal so richtig geil. Man nehme einen Zen1 und hat annähernd die gleiche Performance wie bei Zen3. Das wäre der Heilsbringer
Echt witzig wie der Hypetrain an Fahrt aufgenommen hat. Anfang September, also keine 6 Wochen her, hieß es "R.I.P. Radeon / AMD". AMD kann Ampere niemals schlagen.
Das ist richtig, allerdings war das die Meinung der grünen Fraktion.
Mittlerweile sind die NV Freunde bei DLSS als Argument für die RTX angelangt, nachdem zu befürchten ist, dass RDNA 2 doch nicht so lahm ist.
Natürlich ist auch der Verbrauch jetzt bei RDNA eher suboptimal.
Irgend einen Strohhalm muss man ja haben.
Brillus
2020-10-21, 19:16:01
Ihr diskutiert jetzt nicht ernsthaft über den max Takt der im Bios hinterlegt ist?
Wird ja immer besser hier :freak:
Aber immerhin sind wir vom Speicher Ausbau jetzt zum Takt gekommen. Das ist wie vor 25 Jahren wo jeder nur auf MHz und KB geschaut hat. Läuft.
Und nur so, sollten die 320Watt stimmen, muss die 6900XT um 3080 Leistung zu generieren 40% effektiver Arbeiten als die 5700XT (220W) Kann man ohne Probleme ausrechnen, aber auf die Idee ist wohl noch keiner gekommen.
Dann ist doch alles in Butter da sie min 50% egffizienter Arbeitet.
Dann ist doch alles in Butter da sie min 50% egffizienter Arbeitet.
:biggrin:
mironicus
2020-10-21, 19:20:15
Um den Zeitraum der Veröffentlichung von Big Navi wird NVidia wohl den Markt mit RTX 3070 fluten.
Aber wer kauft sich eigentlich eine RTX 3070 mit 8 GB für 520-600 Euro (Custom-Preis), wenn es eine schnellere RX 6800 mit 16 GB zu einem ähnlichen Preis gibt? Da wird NVidia den Preis bestimmt senken müssen.
Linmoum
2020-10-21, 19:27:01
Wo soll die Flut an 3070 herkommen? Proshop legt transparent die Stückzahlen offen, da kam bisher fast nichts an, vor allem in Relation zu der bestellten Menge.
Paperlaunch 2.0. AMD muss nur halbwegs vernünftige Stückzahlen liefern können.
Nightspider
2020-10-21, 19:28:33
Aber wer kauft sich eigentlich eine RTX 3070 mit 8 GB für 520-600 Euro (Custom-Preis), wenn es eine schnellere RX 6800 mit 16 GB zu einem ähnlichen Preis gibt?
Dural
scnr
Vielleicht haben se Ampere komplett eingestampft, zuerst die Meldung zwecks TSMC und heute aka Chiplet. Tja, da seid ihr etwas spät dran. Er hätte Lisa fi.... sollen wo es noch geht. Jetzt ist es ne Beleidigung
Adam D.
2020-10-21, 19:36:59
Wo soll die Flut an 3070 herkommen? Proshop legt transparent die Stückzahlen offen, da kam bisher fast nichts an, vor allem in Relation zu der bestellten Menge.
Paperlaunch 2.0. AMD muss nur halbwegs vernünftige Stückzahlen liefern können.
Igor hat dazu was in seinem letzten Video (von heute) gesagt. Da kommen Unmengen von Karten, nur eben nicht direkt zum Launch. Und er sagt selbst, dass fraglich bleibt, wer sich das Ding nach der Navi-Präsentation überhaupt kauft :ulol:
Igor hat dazu was in seinem letzten Video (von heute) gesagt. Da kommen Unmengen von Karten, nur eben nicht direkt zum Launch. Und er sagt selbst, dass fraglich bleibt, wer sich das Ding nach der Navi-Präsentation überhaupt kauft :ulol:
Ich habe das Video nicht gesehen, aber wie würdest du es interpretieren? Zu teuer, zu wenig Leistung ...
Okay, habe ich mir angeschaut. Nix was man nicht schon weiß. Und das ist das untere Limit der möglichen Blabla! Reicht trotzdem dicke für Ampere
dargo
2020-10-21, 19:54:35
Um den Zeitraum der Veröffentlichung von Big Navi wird NVidia wohl den Markt mit RTX 3070 fluten.
Du meinst die gleiche Flut wie bei GA102? :ulol: Ich erwarte zwar nicht so ein Desaster wie bei GA102 aber eine Flut auch nicht.
Edit:
Läuft bei Nvidia. X-D
https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb
Du meinst die gleiche Flut wie bei GA102? :ulol: Ich erwarte zwar nicht so ein Desaster wie bei GA102 aber eine Flut auch nicht.
Edit:
Läuft bei Nvidia. X-D
https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb
Hm... das ist ein Hammer. Das muss ja bedeuten, dass sich diese Produkte nicht lohnen für NV. Die News kommt just in dem Moment, in dem AMDs Performancedaten an NV durchgesickert sein dürften durch einen Boardpartner.
Igors Aussage zur N21 XTX ist auch ein Hammer, dass das AMDs Titan wird. Performancekrone FTW? Wir sind extrem gespannt.
WedgeAntilles
2020-10-21, 20:05:22
Hm... das ist ein Hammer. Das muss ja bedeuten, dass sich diese Produkte nicht lohnen für NV. Die News kommt just in dem Moment, in dem AMDs Performancedaten an NV durchgesickert sein dürften.
Ich glaube da nicht dran.
Nvidia würde jeden, der viel Speicher will mit Gewalt zu AMD treiben.
Es sei denn, BigNavi wäre ein Flop.
Dann gäbe es für die Käufer keine Alternative.
Aber das glaube ich nicht, bisher deutet ja alles darauf hin, dass BigNavi ähnlich wie die 3080 werden wird.
10% Leistung / Stromverbrauch hin oder her sind ja irrelevant.
Da wäre Nvidia ja völlig bescheuert, keine Karten mit doppeltem Speicher anzubieten.
Vermutlich wird es eine Verschiebung geben, z.B. wegen Verfügbarkeit oder so.
Ja, im Bericht steht ausdrücklich gecancelt, aber das würde ich nicht auf die Goldwage legen.
Möglich, dass mit Cancel auch einfach "nur" Cancel für November gemeint ist.
Und der Release vielleicht erst Anfang 2021 erfolgt.
Linmoum
2020-10-21, 20:07:13
Nvidia würde jeden, der viel Speicher will mit Gewalt zu AMD treiben.
Was der Punkt ist.
So eine 3070 mit 16GiB kostet sicherlich nicht nur $50 mehr. Die würde wahrscheinlich eher bei $599+ liegen. Wenn NV jetzt aber mitbekommt, dass da eine andere GPU mit schon 16GiB sich platziert, die aber deutlich flotter sein wird, dann... nunja. Kein Sinn mehr dafür. Bei der 3080 könnte ich mir unter Umständen eher noch vorstellen, dass man da wegen zu viel Abfall eventuell noch eine 3080Ti stattdessen auflegt, die ein paar mehr SM hat. Aber auch das passiert nicht einfach aus Spaß und weil Nvidia dazu Bock hat.
Lehdro
2020-10-21, 20:12:34
Vielleicht cancelt man die nur weil sie nicht gut im Markt stehen würden (Gründe mal offengelassen...) und holt dass dann mit GA103 + Salvage davon wieder raus.
Cyberfries
2020-10-21, 20:14:16
Das muss ja bedeuten, dass sich diese Produkte nicht lohnen für NV.
Alle Kräfte auf GA103, wird ja auch 2021 erwartet?
Mehrspeicher hilft bei der Lieferbarkeit der 3080 und der Minderperformance der 3070 nicht weiter.
Also murkst man sich mit kaum lieferbaren GA102/104 bis zum GA103 durch.
Lies den Artikel bitte nochmals. Die liegen ziemlich exakt dran.
Der Artikel ist eine Abschrift des MLID-Videos.
Und dann noch ziemlich inkonsistent, mal 100%, mal 225%.
Auf jeden Fall keine offizielle AMD-Aussage dabei, wie du mal behauptet hast.
Also bei der Situation muss man sich fragen, ob die Navis so extrem gut sind... NV cancelt die Karten ja nicht, wenn sie nicht nötig sind (das sind sie ja, man würde ja mehr daran verdienen), sondern, weil sie keinen Sinn mehr ergeben. Wenn eine 3070 16GB hat aber auf dem Niveau klar unter N22 landet, braucht die Karte keine 16GB mehr, sie wäre so oder so nicht konkurrenzfähig - man müsste über den Preis gehen. Und die 3070 ist in jedem Fall mit 16GB machbar. 16Gb-Chips sind sicher kein Problem.
Wenn AMD zeitnah zur Vorstellung liefern kann haben sie alles richtig gemacht. Das muss man sich mal vorstellen, CPU, GPU und Konsolenlaunch in einem Monat weltweit und - so wie es sich momentan darstellt, Intel hat nicht Gleichwertiges und Nvidia kann nicht liefern.
Absurd.
Sunrise
2020-10-21, 20:20:50
Wenn NV schon solche Probleme hat, die 3080 (GA102) in diesen Mengen (was ja scheinbar nie geplant war) zu liefern, dann werden sie SKUs mit dem doppelten Speicher wohl sicher nicht mehr liefern können.
NV hat sich da einfach verkalkuliert und GA103 wird jetzt doch kommen, denn der war von vorneherein ein Zwischenschieber den es vorher noch nie gab.
Sich das jetzt durch zusätzliche, nicht lieferbare Karten kaputt zu machen ergibt keinen Sinn. Dass scheinbar selbst eine 3090 schwer lieferbar ist (für mehr als das Doppelte des Preises) sagt doch eigentlich schon alles.
Es sieht so aus, als ob AMD da tatsächlich mit disruptiver Preis/Leistung kommen wird, die selbst NV vor Probleme stellt, trotz Samsung-Fertigung und aggressiven Preisen.
Alle Kräfte auf GA103, wird ja auch 2021 erwartet?
Mehrspeicher hilft bei der Lieferbarkeit der 3080 und der Minderperformance der 3070 nicht weiter.
Also murkst man sich mit kaum lieferbaren GA102/104 bis zum GA103 durch.
[...]
Ist zu vermuten. Leider ist der Chip noch weit weg, April wirds bestimmt.
Wenn das stimmt, dass die AMDs stärker sind und mehr Speicher haben muss NV eine Chipstufe abrutschen und die TDP begrenzen. Man müsste also GA103 auf 250W begrenzen und mit 16GB 16Gb 16GT-Speicher verbauen, um möglichst downgecostete PCBs anzubieten, das wäre dann die 3070 Super.
WedgeAntilles
2020-10-21, 20:26:41
Also bei der Situation muss man sich fragen, ob die Navis so extrem gut sind... NV cancelt die Karten ja nicht, wenn sie nicht nötig sind (das sind sie ja, man würde ja mehr daran verdienen), sondern, weil sie keinen Sinn mehr ergeben. Wenn eine 3070 16GB hat aber auf dem Niveau klar unter N22 landet, braucht die Karte keine 16GB mehr, sie wäre so oder so nicht konkurrenzfähig - man müsste über den Preis gehen. Und die 3070 ist in jedem Fall mit 16GB machbar. 16Gb-Chips sind sicher kein Problem.
Und die 3080?
Die canceln die 3080 mit 20GB auch, weil AMD so unglaublich stark wird, dass keiner mehr eine 3080 mit 20GB kaufen würde.
Für 850 Euro oder so.
Trotz Nvidiamarkenname, trotz DLSS, trotz RT?
Was erwartest du eigentlich von BigNavi? 400 Euro oder was?
Oder +30% Mehrperformance vs der 3080 für trotzdem nur 700 Euro?
Sorry, damit sich die 3080 mit 20GB nicht verkauft, müsste AMD entweder irre viel besser oder irre billig werden.
Das ist doch Käse...
Sunrise
2020-10-21, 20:29:55
Es reicht schon vollkommen, wenn AMD mit 16GB VRAM (das ist vielen wichtig) etwas liefern kann, was etwa 3080 10GB-Niveau hat und evtl. sogar noch leicht billiger ist. Der $599-Preispunkt wurde ja nun schon öfter genannt.
NV müsste dann trotz schon aggressiven Preisen bei >600mm2 Die, komplexer Platine, GDDR6X usw. die 20GB-Versionen fast verschenken für einen ähnlichen Preis -> wird nicht passieren.
Und die 3080?
Die canceln die 3080 mit 20GB auch, weil AMD so unglaublich stark wird, dass keiner mehr eine 3080 mit 20GB kaufen würde.
Für 850 Euro oder so.
Trotz Nvidiamarkenname, trotz DLSS, trotz RT?
Was erwartest du eigentlich von BigNavi? 400 Euro oder was?
Oder +30% Mehrperformance vs der 3080 für trotzdem nur 700 Euro?
Sorry, damit sich die 3080 mit 20GB nicht verkauft, müsste AMD entweder irre viel besser oder irre billig werden.
Das ist doch Käse...
Du verstehst es nicht. Schau dir mal Leos Umfrage an - fast die Hälfte der Nutzer wartet auf die 20GB-Variante... die gibts jetzt nicht und wandern jetzt samt und sonders nach AMD ab.
[MK2]Mythos
2020-10-21, 20:32:30
Du verstehst es nicht. Schau dir mal Leos Umfrage an - fast die Hälfte der Nutzer wartet auf die 20GB-Variante... die gibts jetzt nicht und wandern jetzt samt und sonders nach AMD ab....oder holen sich jetzt ne 2080Ti/bleiben dabei. :freak:
mironicus
2020-10-21, 20:33:54
Eine 2080 Ti zu behalten wäre auf jeden Fall vernünftig. Vielleicht legt NVidia ja auch bald wieder Turing neu auf. Super Super RTX 2080. :D
WedgeAntilles
2020-10-21, 20:34:01
Du verstehst es nicht. Schau dir mal Leos Umfrage an - fast die Hälfte der Nutzer wartet auf die 20GB-Variante... die gibts jetzt nicht und wandern jetzt samt und sonders nach AMD ab.
Sorry - DU schreibst doch, Nvidia würde die canceln, weil AMD so toll wäre und keiner die 20GB Variante kaufen will.
Und da sage ich, dass das völliger Blödsinn ist.
Ich sage, dass die 20GB Version selbstverständlich gekauft wird.
Und das AMD unmöglich so gut sein kann, dass die keiner will.
Die Umfrage belegt genau meinen Punkt.
Daredevil
2020-10-21, 20:37:00
Das einzige was immer noch bremsen kann ist der sagenumwobene Cache bei AMD, der hoffentlich mehr hilft, als das er Probleme macht.
Entweder hisst Nvidia die Fahne, oder sie brauchen schlicht keine 3080 20GB mehr.
Beides ist möglich, in ein paar Tagen wissen wir mehr.
Entweder wird es eine Vorstellung einer riesen Gurke von AMD, oder ein mächtiger Tritt Richtung Nvidia. :D
Mittlerweile würde ich tatsächlich eher auf letzteres tippen, da Nvidia sich gerade ungewöhnlich peinlich verhält. Das würden sie nicht tun, wenn sie alles unter Kontrolle hätten. ( Beispiel Super Karten, die direkt zu Navi fertig waren ).
Das mit dem Takt und Cache ist mir aber alles noch zu spanisch.
Es ist zu gut dafür, dass es eine AMD GPU sein wird, so aus der Vergangenheit gesehen.
Sorry - DU schreibst doch, Nvidia würde die canceln, weil AMD so toll wäre und keiner die 20GB Variante kaufen will.
Und da sage ich, dass das völliger Blödsinn ist.
Ich sage, dass die 20GB Version selbstverständlich gekauft wird.
Und das AMD unmöglich so gut sein kann, dass die keiner will.
Die Umfrage belegt genau meinen Punkt.
Lt. Leak sind das 2 Bestätigungen, die unabhängig voneinander eingegangen sind. Der Zeitpunkt ist einfach frappierend. Klar du kannst das nicht glauben, wir werden ja sehen.
Wenn es simmt ist AMD so gut und für NV zu billig bei der Liefersituation, es gibt keine andere Erklärung.
Daredevil
Igor hat den Cache bestätigt und weiß auch, wie er funktioniert, wollte dazu aber nichts weiter sagen. Das mit dem Cache stimmt also. Ein Cache wäre ja auch transparent, da muss nix gesondert unterstützt werden oder so.
dargo
2020-10-21, 20:38:23
Mythos;12468363']...oder holen sich jetzt ne 2080Ti/bleiben dabei. :freak:
Bleiben ok.... aber wer ist so bescheuert und kauft jetzt noch eine völlig überteuerte 2080TI? :freak: Diese Leistung gibt es bald für deutlich weniger Geld und mit mehr Speicher.
Linmoum
2020-10-21, 20:39:38
Wenn es simmt ist AMD so gut und für NV zu billig bei der Liefersituation, es gibt keine andere Erklärung.Es kann natürlich auch einfach sein, dass die Yields bei Samsung auf absehbare Zeit noch beschissen bleiben und NV ursprünglich erwartet hatte, dass sich das zeitnah bessert.
SKYNET
2020-10-21, 20:40:15
Bleiben ok.... aber wer ist so bescheuert und kauft jetzt noch eine völlig überteuerte 2080TI? :freak: Diese Leistung gibt es bald für deutlich weniger Geld und mit mehr Speicher.
denke er spielt drauf an, das wenn die 3080 endlich breit verfügbar ist/wäre, die gebrauchtpreise so um die 400 taler liegen dürften, kein schlechter deal dann.
dargo
2020-10-21, 20:40:59
denke er spielt drauf an, das wenn die 3080 endlich breit verfügbar ist/wäre, die gebrauchtpreise so um die 400 taler liegen dürften, kein schlechter deal dann.
400€ für eine gebrauchte 2080TI ist ein schlechter Deal. ;)
WedgeAntilles
2020-10-21, 20:42:05
Lt. Leak sind das 2 Bestätigungen, die unabhängig voneinander eingegangen sind. Der Zeitpunkt ist einfach frappierend. Klar du kannst das nicht glauben, wir werden ja sehen.
Wenn es simmt ist AMD so gut und für NV zu billig bei der Liefersituation, es gibt keine andere Erklärung.
Na dann freuen wir uns auf eine AMD Karte auf 3080 Niveau zum Preis von maximal 500 Euro.
Mit ähnlichem Raytracing-Niveau.
Falls das der Grund ist - wunderbar! Wo kann ich diese BigNavi Karten PreOrdern?
Denn so eine Karte hole ich mir sofort. :)
Sei du aber bitte nicht enttäuscht, wenn AMD auch ca. 700 Euro für seine Karte verlangen wird. Zen 3 hat doch gezeigt, dass AMD nix verschenkt sondern für gute Produkte gutes Geld sehen will.
Es kann natürlich auch einfach sein, dass die Yields bei Samsung auf absehbare Zeit noch beschissen bleiben und NV ursprünglich erwartet hatte, dass sich das zeitnah bessert.
Das wäre der absolute Epic-Fail. Dann hätte NV es echt geschafft, die ganze Generation in den Sand zu setzen. Das glaube ich aber nicht, der Yield von GA104 soll angeblich gut sein.
WedgeAntilles
wir bewegen uns immer noch im Bereich der Spekulation. Selbstredend kann es auch völlig anders kommen. Am 28. sind wir schlauer ;). Enttäscht bin ich von den 10GB der 3080 i.Ü. und von der Perf/W bei Ampere. Da brauch ich AMD gar nicht für. Da hab ich mir ernsthaft mehr von versprochen.
Daredevil
2020-10-21, 20:42:21
Daredevil
Igor hat den Cache bestätigt und weiß auch, wie er funktioniert, wollte dazu aber nichts weiter sagen. Das mit dem Cache stimmt also.
Irgendwas muss es ja sein bei 256bit+GDDR6, das ist mir klar.
Ich Frage mich nur, ist das nur mit Vorteilen, oder auch mit Nachteilen behaftet?
Geht das ootb, oder muss man dafür Support leisten?
Weil mit Support von GPU Funktionen hat man sich in letzter Zeit öfter mal... verbrannt. Hoffentlich dieses mal nicht. :)
Ich suche noch den Haken, möchte ihn aber nicht finden. :<
dargo
2020-10-21, 20:43:43
Das wäre der absolute Epic-Fail. Dann hätte NV es echt geschafft, die ganze Generation in den Sand zu setzen. Das glaube ich aber nicht, der Yield von GA104 soll angeblich gut sein.
Naja... ganze nicht unbedingt. Schließlich sollten die Yields bei den kleineren SKUs keine großen Probleme bereiten.
Linmoum
2020-10-21, 20:47:23
TSMC ist für AMD jetzt das, was TSMC für NV all die Jahre davor war.
Und Samsung ist für NV jetzt das, was GloFo für AMD all die Jahre davor war. Sbubjektiver Eindruck allerdings noch mal schlimmer. ;D
Ex3cut3r
2020-10-21, 20:49:19
Selbst schuld. Da hat Nvidia bei TSMC zu hoch gepokert. Der Samsung Prozess ist IMO eine Katastrophe.
Sunrise
2020-10-21, 20:50:10
Das wäre der absolute Epic-Fail. Dann hätte NV es echt geschafft, die ganze Generation in den Sand zu setzen. Das glaube ich aber nicht, der Yield von GA104 soll angeblich gut sein.
Dass der Yield von GA104 besser ist, ist ja aber auch keine Überraschung (viel viel kleiner, deutlich mehr Chips pro Wafer) und auch die Platine wird zusätzlich zum Speicher deutlich billiger. Das heißt aber nicht, dass da Samsung nicht doch ein Problem ist.
Es scheint aber IMHO nicht unbedingt nur an Samsung zu liegen, GDDR6X ist nagelneu, ist NV-exklusiv, die Module sind für den doppelten Speicher zu klein oder man landet wieder bei einem 3090-Aufbau. Ergo, was noch nicht produziert wird und sonst viel viel zu teuer wird, wird eben aufgegeben. Zumindest vorerst...
Der Witz bei AMD ist ja, dass man mit einem 256bit SI und GDDR6 auszukommen scheint. Das verändert den Markt und die Situation natürlich gravierend. Eventuell rechnete NV ja sogar damit, dass AMD aufgrund der hohen Menge an CUs auch mit HBM kommt, weil sie sonst die GPU nicht mit Bandbreite füttern könnten. Das hatte NIEMAND auf dem Schirm.
[MK2]Mythos
2020-10-21, 20:50:49
Na dann freuen wir uns auf eine AMD Karte auf 3080 Niveau zum Preis von maximal 500 Euro.
Mit ähnlichem Raytracing-Niveau.
Davon träumt absolut niemand, das wird von den Grünen nur immer behauptet. Wenn AMD vergleichbare Performance bietet, dürfen die Karten auch vergleichbar viel kosten. Weil sie dann a) lieferbar sind und b) auch zu Preisen, die zu der UVP passen und nicht in den Himmel schießen, wie bei den (verfügbaren) Ampere Karten.
mboeller
2020-10-21, 20:54:08
Selbst schuld. Da hat Nvidia bei TSMC zu hoch gepokert. Der Samsung Prozess ist IMO eine Katastrophe.
würde ich so nicht sagen. Ich gehe immer noch davon aus, dass GA102 für Samsungs 7nmEUV Prozess geplant war. Die 8nm sind nur der Notfallplan weil Samsung den anderen Prozess nicht auf die Reihe bekommt.
Sunrise
2020-10-21, 20:56:21
würde ich so nicht sagen. Ich gehe immer noch davon aus, dass GA102 für Samsungs 7nmEUV Prozess geplant war. Die 8nm sind nur der Notfallplan weil Samsung den anderen Prozess nicht auf die Reihe bekommt.
7LPP wäre an EUV-Belichter gebunden und viel teurer zu produzieren. Auf der anderen Seite wurde sehr häufig von 7nm gesprochen. Werden wohl nie rausfinden. Das kann aber keine kurzfristige Sache gewesen sein, denn man designed einen Chip mit den entsprechenden Libraries für den Prozess und das passiert nach der Blaupausen-Phase relativ am Anfang. Es ist also extrem unwahrscheinlich.
würde ich so nicht sagen. Ich gehe immer noch davon aus, dass GA102 für Samsungs 7nmEUV Prozess geplant war. Die 8nm sind nur der Notfallplan weil Samsung den anderen Prozess nicht auf die Reihe bekommt.
Ich musst mich da auch eines besseren belehren lassen, das geht nicht. Das wäre nur dann möglich, wenn man die Entscheidung dafür spätestens Anfang 2019, wahrscheinlich eher nocht früher, getroffen hätte. Ansonsten ist GAxxx 8N und fertig. Es gibt keine 7nm Amperes außer GA100. Wenn 7nm, dann neue Generation.
Jupiter
2020-10-21, 21:06:30
Das lustige ist, dass das Wort Navi weniger häufig im Ampere spekuthread vorkommt als alleine 3080 hier im navi-faden. Nimmt man noch Ampere und 3090 dazu, dann liegt Nvidia deutlich vor AMD im jeweils anderen Spekulationsfaden :ugly:
Über eine ach so häufig diskutierte überlegene perf/w gibt es seit gut einem Monat quasi keinen post. Mmmmh. An was das wohl liegt?
Vielleicht sollte auch mal überprüft werden, wer hauptsächlich etwas von RTX-Karten schreibt. In diesem Thread sind es sicher nicht die Nvidia-Anhänger. Im Nvidia-Thread stehen jetzt auch wieder viel von AMD von den AMD-Anhängern.
Und was du jetzt liest ist Fakt oder auch nur Spekulation? Am Ende kommt auch deine Schadenfreude zu früh und bleibt dir im Halse stecken.
Doppelter N10 bei 50% gesteigerter P/W stehen im Raum.
Wir werden sehen, ob die 220 Watt bei RTX 3080-Performance eintreten.
dargo
2020-10-21, 21:11:56
Wir werden sehen, ob die 220 Watt bei RTX 3080-Performance eintreten.
Du solltest besser im Kontext lesen oder nochmal in Mathe nachsitzen.
Linmoum
2020-10-21, 21:13:11
Wir werden sehen, ob die 220 Watt bei RTX 3080-Performance eintreten.Wie kommst du bei +50% Perf/Watt auf 220W und 3080-Performance? :freak:
bbott
2020-10-21, 21:21:59
Wie kommst du bei +50% Perf/Watt auf 220W und 3080-Performance? :freak:
Don't feet the troll. Sich über SPAMER im NV Thread beschweren und selbst der größte SPAMER im AMD Thread :freak:
Jupiter
2020-10-21, 21:24:50
Soll das ein Scherz sein? Unter den 742 Seiten habe ich hier gerade einmal sieben Kommentare inklusive diesem!
Die anderen beiden Personen haben jeweils sicher hunderte Kommentare in den Nvidia-Threads.
Wie kommst du bei +50% Perf/Watt auf 220W und 3080-Performance? :freak:
Das sind nicht meine Aussagen.
Du solltest besser im Kontext lesen oder nochmal in Mathe nachsitzen.
Gerade als Person, welche ständig über das angeblich sehr schlechte Performance/Watt-Verhältnis schrieb und einen Verbrauch von mehr als 300 Watt als untragbar hielt, sollte man ruhig sein. AMD wird trotz 7nm keinen erheblichen Vorsprung haben und evtl. sogar weiterhin leicht dahinter liegen.
Cyberfries
2020-10-21, 21:25:53
Im Nvidia-Thread stehen jetzt auch wieder viel von AMD von den AMD-Anhängern.
Stimmt schon.
Kommt mir aber auch so vor, als ob diese üblichen Verdächtigen allgemein vermehrt in Speku-Threads unterwegs sind.
Wir werden sehen, ob die 220 Watt bei RTX 3080-Performance eintreten.
Gemeint sind nicht 50% zur 3080, sondern 50% zum Vorgänger.
Das ist ein großer Unterschied, schließlich hat auch Ampere an Effizienz gewonnen.
edit: Wenn das keine eigene Rechnung, sondern ein Zitat ist,
würde mich die Quelle interessieren. Hoffentlich nicht horn12
Es ist horn12, oder?
Linmoum
2020-10-21, 21:40:32
https://pbs.twimg.com/media/Ek39DdQXUAUSLvn?format=jpg&name=large
Läuft schon für Mittwoch. :D
Lurtz
2020-10-21, 21:45:13
https://pbs.twimg.com/media/Ek39DdQXUAUSLvn?format=jpg&name=large
Läuft schon für Mittwoch. :D
Kontext?
Unicous
2020-10-21, 21:46:00
Das dürfte Scott Herkelman sein.
CVP & GM AMD Radeon
https://twitter.com/sherkelman?lang=de
Wäre natürlich nett wenn man Quellen angeben würden, statt ein Foto in den Thread zu klatschen.
Dural
2020-10-21, 21:46:24
NV storniert die 3070ti 16gb und 3080 20gb... und hier wird darüber gesprochen das eine 3080 20gb unverkäuflich ist...
Nur so als erinnerung, nv hat selbst die FX relativ erfolgreich verkauft...
Sunrise
2020-10-21, 21:46:39
Kontext?
Das ist ein Teaser der AMD-Vorstellung. Wirkt sehr selbstsicher.
Linmoum
2020-10-21, 21:46:41
Kontext?Weiß nicht. Mittwoch soll ja was sein. Und Herkelmann hat bei AMD ja was mit GPUs zu tun. Und Borderlands 3 ist ein Spiel. Hab ich gehört. ;)
dargo
2020-10-21, 21:49:22
Gerade als Person, welche ständig über das angeblich sehr schlechte Performance/Watt-Verhältnis schrieb und einen Verbrauch von mehr als 300 Watt als untragbar hielt, sollte man ruhig sein.
Bist du jetzt mein Aufpasser? Und ja... mich interessieren auch bei AMD keine Grafikkarten mit >300W. In jedem Fall sehe ich schon einen sehr guten Kandidaten als Upgrade bei der N21XL mit um die 225-240W sofern die 203W TGP stimmen, was ja von Patrick bestätigt wurde.
16GB *check
sparsam + leise *check
Es könnte sogar eine XT werden sofern es eine mit <300W gibt. Bei 255W GPU + Speicher sieht es aber nicht danach aus. Da muss ich erstmal schauen ob ich mit UV in Richtung 225-250W bei der gesamten Karte komme. Und natürlich muss ich erst die Preise sehen ob so eine XT in Frage kommt.
Weiß nicht. Mittwoch soll ja was sein. Und Herkelmann hat bei AMD ja was mit GPUs zu tun. Und Borderlands 3 ist ein Spiel. Hab ich gehört. ;)
Und der Boden sieht nach einem Seitenhieb Richtung Raytracing aus. :D
Ex3cut3r
2020-10-21, 21:56:19
:ulol: Ampere muss schon ein ziemlicher Rohrkrepierer sein, wenn bei den Ampere Käufern, jetzt schon das große Schwitzen anfängt. Tja, selbst schuld, wenn man sich einen Speicherkrüppel für 850€ andrehen lässt.
Unicous
2020-10-21, 22:08:41
@Linmoum
Ist es eigentlich wirklich so schwer eine Quelle zu posten?:confused:
https://twitter.com/AzorFrank/status/1318988512235053060
Ich denke mal, dass NV Schwierigkeiten hat, die 20 GB Speicher auf die Karte zu bringen aufgrund der Kapazität.
Interessant ist auch, dass Huang die 7 nm Fertigung in 2019 nicht wollte, weil er den Prozess für zu unausgereift hielt und er erst mal abwarten wollte bis AMD mit TSMC zur Reife gebracht hat.
Blöderweise fällt Ihn jetzt wahrscheinlich diese Entscheidung vor die Füße, ist immer Sch..... wenn man zu gierig ist.
patrickschur
2020-10-21, 22:12:48
Können wir uns jetzt mal alle besinnen und zurück zum eigentlich Thema kommen? Läuft das hier immer so? Ich dachte wir sind hier im Navi Thread und ich lese die ganze Zeit nur etwas von Nvidia RTX. :freak:
[MK2]Mythos
2020-10-21, 22:13:26
So oder so, es scheint ein gravierender strategischer Fehler zu sein und ich hätte nicht gedacht, dass nvidia sowas nochmal passiert.
Können wir uns jetzt mal alle besinnen und zurück zum eigentlich Thema kommen? Läuft das hier immer so? Ich dachte wir sind hier im Navi Thread und ich lese die ganze Zeit nur etwas von Nvidia RTX.
Gerne, fütter uns doch mit was neuem, über das wir diskutieren können! :biggrin:
Screemer
2020-10-21, 22:14:47
@Linmoum
Ist es eigentlich wirklich so schwer eine Quelle zu posten?:confused:
https://twitter.com/AzorFrank/status/1318988512235053060
Erinnert mich an: https://youtu.be/gUnxzVOs3rk?t=175
@TRX
Was dumm ist, denn Nvidia erbt nicht AMDs Knowhow der letzten zwei Jahre for free. AMD und TSMC basteln schon einen custom 5nm Prozess, auf den wird nur AMD Zugriff haben. Und ist AMD nicht mittlerweile größter Kunde dort? Die Machtverhältnisse verschieben sich.
WedgeAntilles
2020-10-21, 22:17:50
Mythos;12468406']Davon träumt absolut niemand, das wird von den Grünen nur immer behauptet. Wenn AMD vergleichbare Performance bietet, dürfen die Karten auch vergleichbar viel kosten. Weil sie dann a) lieferbar sind und b) auch zu Preisen, die zu der UVP passen und nicht in den Himmel schießen, wie bei den (verfügbaren) Ampere Karten.
HOT behauptet doch, dass Nvidia die 3080 mit 20GB einstellt, weil die keiner kaufen würde, da AMD so viel attraktiver ist.
Das wäre nur in dem von mir geschriebenen Szenario wahr.
Das das lächerlich ist weiß ich - zeigt ja mein letzter Satz: Stell dich darauf ein, dass BigNavi ähnlich wie Ampere kostet.
Linmoum
2020-10-21, 22:18:11
Können wir uns jetzt mal alle besinnen und zurück zum eigentlich Thema kommen? Läuft das hier immer so? Ich dachte wir sind hier im Navi Thread und ich lese die ganze Zeit nur etwas von Nvidia RTX. :freak:Dann sorg dafür, dass es sich ändert. ;D
patrickschur
2020-10-21, 22:20:37
Dann sorg dafür, dass es sich ändert. ;D
Wenn mich jemand zum Admin macht, gerne. :D
[MK2]Mythos
2020-10-21, 22:22:20
HOT behauptet doch, dass Nvidia die 3080 mit 20GB einstellt, weil die keiner kaufen würde, da AMD so viel attraktiver ist.
Das wäre nur in dem von mir geschriebenen Szenario wahr.
Das das lächerlich ist weiß ich - zeigt ja mein letzter Satz: Stell dich darauf ein, dass BigNavi ähnlich wie Ampere kostet.
Was nvidia für eine 20GB 3080 verlangt hätte, werden wir wohl nie erfahren, aber ich denke wir sind uns einig, dass es auf keinen Fall unter 799USD gewesen wäre, eher 850. Wenn man sich jetzt aber die Straßenpreise der 3080 10GB ansieht, dann sollte einem klar werden, dass die Karten nicht unter 1000 USD kosten würden und deswegen wären sie obsolet, da viel zu teuer im Vergleich zu RX 6800XT 16GB. Das hat er gemeint, niemand träumt von einer 6800XT für 500USD, aber 650 bis 700USD sind realistisch.
WedgeAntilles
2020-10-21, 22:28:16
Mythos;12468545']Was nvidia für eine 20GB 3080 verlangt hätte, werden wir wohl nie erfahren, aber ich denke wir sind uns einig, dass es auf keinen Fall unter 799USD gewesen wäre, eher 850. Wenn man sich jetzt aber die Straßenpreise der 3080 10GB ansieht, dann sollte einem klar werden, dass die Karten nicht unter 1000 USD kosten würden und deswegen wären sie obsolet, da viel zu teuer im Vergleich zu RX 6800XT 16GB. Das hat er gemeint, niemand träumt von einer 6800XT für 500USD.
Sorry, da hast du bzw. Hot einen Denkfehler drin.
Ja, 850 wäre der zu erwartende Preis gewesen.
Aber du argumentierst mit dem Straßenpreis - der ist ja aber nur so hoch, weil die Nahcfrage so hoch ist.
Ist die Nachfrage niedrig, ist auch der Straßenpreis nicht mehr exorbitant.
Gehen wir von einer AMD Karte, 3080 Niveau, 16GB Ram, ca. 700 Euro aus.
Jetzt die 3080 mit 20GB für 850.
Das sind 20% Aufpreis für
+4 GB Ram
+DLSS
+ Nvidia als Markenname
+ ggf. besseres RT
Das ist am Markt locker durchsetzbar.
Klar holt sich AMD seinen Marktanteil, aber der wird nicht durch die Decke gehen.
Denn wie gesagt - 1000 Euro Straßenpreis gilt ja nur, wenn die Nachfrage das Angebot gigantisch übersteigt.
Wenn es aber gigantische Nachfrage gibt, stimmt das Argument "will keiner kaufen" ja nicht mehr. ;)
Dann geht der Preis runter, und wir sind wieder bei den von Nvidia genannten offiziellen Preisen von 850 Euro (also offiziell in unserem Szenario) - klar, Custom-Karten gehen höher, aber das gilt ja für AMD auch. Daher bleibt die Relation gleich.
Entweder gibt es auf der Angebotsseite so massive Probleme, dass Nvidia es nicht schafft neue Produkte zu bringen.
Oder aber - was ich glaube - es ist eine Falschmeldung und bedeutet nur eine Verschiebung.
Linmoum
2020-10-21, 22:32:33
Das Nachfrage-Argument ist überflüssig und vorgeschoben, da die exorbitant hohen Preise an der nicht-Existenz der Karten liegen, weil wegen Samsungs mieser Yields kaum was rumkommt. Die Zahlen von Proshop sind eindeutig und damit kann man die Diskussion auch endlich mal nach drüben verlagern und nicht noch weiter 50 Seiten im Navi-Fred darüber diskutieren, was nun mit Ampere los ist.
[MK2]Mythos
2020-10-21, 22:32:48
Wir unterliegen keinem Denkfehler. Viel mehr arbeitest du mit "whataboutism". NV hat bestätigt, dass sich die Liefersituation auf absehbare Zeit nicht verbessern wird, entsprechend werden auch die Preise nicht sinken. NV weiß das. Und deswegen wird kein theoretisches nicht lieferbares zu teures Produkt auf den Markt geschmissen, was selbst mit UVP Preis noch zu teuer wäre.
Keiner weiß was AMD genau liefern wird aber ich denke es wird recht schnell sein. Mann wird sehen.
patrickschur
2020-10-21, 22:35:16
Ich habe für euch mal das 290 W (aka 289 W) vBIOS ausgelesen. Wie bereits schon erwähnt, liegt der max. Clock auch hier bei 2577 MHz.
https://i.imgur.com/50STzO6.gif
[MK2]Mythos
2020-10-21, 22:37:12
Ich habe für euch mal das 290 W (aka 289 W) vBIOS ausgelesen. Wie bereits schon erwähnt ist der max. Clock auch hier 2577 MHz.
https://i.imgur.com/50STzO6.gif
Ist das nur ein AIB, oder fahren mehrere diese hohen Taktraten/Biose?
Danke jedenfalls! :)
Cool, wie man sieht werden die letzten Prozent wieder teuer.
edit: Ist bestimmt sowas in Richtig Asus Strix OC.
WedgeAntilles
2020-10-21, 22:39:50
Mythos;12468559']Wir unterliegen keinem Denkfehler. Viel mehr arbeitest du mit "whataboutism". NV hat bestätigt, dass sich die Liefersituation auf absehbare Zeit nicht verbessern wird, entsprechend werden auch die Preise nicht sinken. NV weiß das. Und deswegen wird kein theoretisches nicht lieferbares zu teures Produkt auf den Markt geschmissen, was selbst mit UVP Preis noch zu teuer wäre.
Na dann ist das Problem - wie ich ja schrieb - eben auf der Angebotsseite.
Ich bin es doch nicht, der es auf der Nachfrageseite verordet.
Die Nachfrage ist >>> Angebot.
Wie kommst du darauf, dass eine 3080 mit 20GB zu teuer wäre? Das Problem ist nicht die zu niedrige Nachfrage, sondern das kaum existente Angebot.
Das Canceln (falls es denn passiert) ist also nicht weil die Nachfrage schlecht ist oder schlecht wäre - sondern weil es auf der Angebotsseite völlig vermurkst ist.
Damit sind wir uns doch eigentlich einig :)
Aber ja, jetzt ist wirklich genug hier im BigNavi Thread.
Linmoum
2020-10-21, 22:41:52
@patrickschur :up:
Mythos;12468570']Ist das nur ein AIB, oder fahren mehrere diese hohen Taktraten/Biose?
Danke jedenfalls! :)Im Prinzip hat doch (fast) jeder Hersteller mindestens ein Top-Modell, was nahe an der Grenze operiert. Daher wirst du das sicherlich nicht (nur) bei XFX (darf man das sagen? :D ) finden.
nairune
2020-10-21, 22:41:56
Alter, kann das kein Screenshot sein? Musste mir das Ding runterladen und im MPC pausieren :ugly:
Naja wie final sind diese Dinger? Das sieht aus als wäre einfach nur das PL erhöht worden, um der Karte mal freien Lauf zu lassen.
Der Fan-Reiter gruselt mich jedenfalls schon mal, aber so lang das nur XFX ist... in Sapphire we trust :D
Armaq
2020-10-21, 22:42:47
Das mit dem Takt und Cache ist mir aber alles noch zu spanisch.
Es ist zu gut dafür, dass es eine AMD GPU sein wird, so aus der Vergangenheit gesehen.
Zen3 *hust*
Tatsächlich bin ich auch gespannt auf das Event an sich, wie zieht AMD es auf und was sagen sie, außerdem teasern sie wohl auch was Neues auf Server-Ebene an. Wenn das so ist, dann ist das echt ein Konzert von Highlight zu Highlight.
Bei der Performance wird es spannend, Verbrauch usw. sind ja nun relativ klar. Preis wird eigentlich der Knackpunkt wie man nvidia anfässt. AMD wird wahrscheinlich nicht zu weit weg gehen preislich, einerseits hat nvidia viele mit 699 überrascht, andererseits scheint 649 ein Preispunkt der zu logisch ist.
Cyberfries
2020-10-21, 22:43:00
Ich habe für euch mal das 290 W (aka 289 W) vBIOS ausgelesen.
Jetzt wissen wir also was zu tun ist, wenn wir neue Infos wollen:
Einfach den Navi-Thread mit nVidia zuspammen.
patrickschur
2020-10-21, 22:44:30
Alle XT Karten haben diese hohen Taktraten im vBIOS hinterlegt.
SKYNET
2020-10-21, 22:44:36
NV storniert die 3070ti 16gb und 3080 20gb... und hier wird darüber gesprochen das eine 3080 20gb unverkäuflich ist...
Nur so als erinnerung, nv hat selbst die FX relativ erfolgreich verkauft...
nicht an mich... warum auch, meine weltrekord 4200Ti 128MB war massiv schneller als ne 5800 ultra... ok, war auch um 80%(GPU) und 70%(speicher) übertaktet und lief so im dauerzustand... ethanolchiller sei dank :P
wurde dann von etwas abgelöst das NV in angst und schrecken versetzt hatte... 9700pro... und das wird sich wohl in einer woche wiederholen, wenn ich so auf mein "bauchgefühl" vertraue...
was sagte ich nochmals weiter vorne im faden? 5.6% auf NVs topdog... der rest: :whistle:
in Sapphire we trust :D
Amen. ;D
[MK2]Mythos
2020-10-21, 22:45:23
Ich hoffe eh, ne 6900xt zu bekommen und die dann fluten zu können. Allerdings werde ich meine Budgetgrenze auch für AMDs erste Enthusiastenkarte seit einem Jahrzehnt nicht (deutlich) überfahren. :biggrin:
Armaq
2020-10-21, 22:46:44
Alter, kann das kein Screenshot sein? Musste mir das Ding runterladen und im MPC pausieren :ugly:
Naja wie final sind diese Dinger? Das sieht aus als wäre einfach nur das PL erhöht worden, um der Karte mal freien Lauf zu lassen.
Der Fan-Reiter gruselt mich jedenfalls schon mal, aber so lang das nur XFX ist... in Sapphire we trust :D
Ja, eine Sapphire ... Auf dem Regal steht noch was von denen als Schmuck.
Screemer
2020-10-21, 22:47:13
Mythos;12468594']Ich hoffe eh, ne 6900xt zu bekommen und die dann fluten zu können. Allerdings werde ich meine Budgetgrenze auch für AMDs erste Enthusiastenkarte seit einem Jahrzehnt nicht (deutlich) überfahren. :biggrin:
Da geh ich mit. Allerdings liegt mein Limit unter dem Preis einer 3080 + block. Muss mir jetzt erst Mal nen Ladeziegel für die Zoe kaufen.
Linmoum
2020-10-21, 22:48:09
Mein Limit liegt bei 1000€, allerdings für GPU+Fullcover. Daher mir auch egal welcher Hersteller, solange Referenz. 2500MHz unter Wasser dann natürlich das Mindeste. ;D
patrickschur
2020-10-21, 22:48:23
Alter, kann das kein Screenshot sein? Musste mir das Ding runterladen und im MPC pausieren :ugly:
Tut mir leid, aber ich dachte es wäre besser ein Bild zu haben, statt mehrere. Ich kann dir auch nicht sagen ob die Fan Einstellungen schon richtig ausgelesen werden.
@Cyberfries Bitte nicht... außer ihr wollt mich loswerden.
dargo
2020-10-21, 22:49:31
Ich habe für euch mal das 290 W (aka 289 W) vBIOS ausgelesen. Wie bereits schon erwähnt, liegt der max. Clock auch hier bei 2577 MHz.
https://i.imgur.com/50STzO6.gif
Man muss da auch nichts anpassen für das 289W Bios. Sind ja bloß 34 Wattchen mehr. Wenn die Karte mit dem 255W Bios bei ~2,4Ghz real operiert dann wird sie mit dem 289W Bios irgendwo bei ~2,5Ghz laufen, viel mehr würde ich da jetzt nicht erwarten. Oben rum ist die Frequenz im Verhältnis immer teuer. Diese ganzen OC-Biose werden sich wie immer nicht lohnen. Ich meine was will man auch bei 4-5% mehr Takt großartig an der Performance erwarten? :tongue:
Cool, wie man sieht werden die letzten Prozent wieder teuer.
edit: Ist bestimmt sowas in Richtig Asus Strix OC.
Sollte immer noch XFX sein. :tongue:
Ju, schön das Silent BIOS undervolten. Bin gespannt was da geht.
Mich interessiert auch was sie nächste Woche an Software vorstellen. RT sollte klar sein.
@dargo: Ja, wahrscheinlich das OC BIOS was alle haben werden, 255W dann das "Silent".
patrickschur
2020-10-21, 22:54:14
Ich meine was will man auch bei 4-5% mehr Takt großartig an der Performance erwarten? :tongue:
Zwischen dem 255 W und 290 W Model sollen tatsächlich ~4 % Differenz liegen (gemessen in einem Benchmark). :wink:
dargo
2020-10-21, 22:58:50
Zwischen dem 255 W und 290 W Model sollen tatsächlich ~4 % Differenz liegen (gemessen in einem Benchmark). :wink:
Echt jetzt? Das wäre eine verdammt gute Skalierung 1:1 mit dem Takt und somit auch TFLOPs. Die Wakü-Freunde werden ne Menge Spaß mit N21 haben. :tongue:
Ach Mist... du hast ja die realen Taktraten @255W und 289W gar nicht verraten du Sack. :wink:
nairune
2020-10-21, 23:01:42
Das spräche wohl dafür, dass die Speicherbandbreite kein Thema ist.
Finde aber natürlich die andere Richtung interessanter, bin gespannt ob eine gezügelte XT oder eher eine XL interessanter ist, wenn man ~200W PL nicht überschreiten möchte. Kommt natürlich auch noch auf die Preise an.
dargo
2020-10-21, 23:03:35
@nairune
Ich merks schon... wir basteln uns wieder unsere Green-Editions zurecht. ;D
[MK2]Mythos
2020-10-21, 23:08:14
Das spräche wohl dafür, dass die Speicherbandbreite kein Thema ist.
Ich glaube, da unterliegen wir alle einem veralteten Denkmuster, da ein großer Teil der nötigen Speicherbandbreite ja durch den Cache kompensiert wird, könnte es doch sein, dass mit GPU OC die durch den Cache ausgeglichene Speicherbandbreite mitwächst, weil er eben Teil der GPU ist. Also so erkläre ich mir gerade zumindest, dass die "oberen" Karten alle die gleiche Speicherbandbreite haben und sich trotzdem voneinander absetzen.
Edit:
Ich gehe jetzt mal davon aus, dass die 6900xt ebenfalls 256 Bit GDDR6 hat.
dargo
2020-10-21, 23:15:19
Wieso könnte? Ein Cache hängt immer am Coretakt. Ob jetzt 1:1 oder anderer Teiler spielt dabei erstmal keine Rolle. Taktet die GPU höher taktet auch der Cache höher.
SKYNET
2020-10-21, 23:18:37
Wieso könnte? Ein Cache hängt immer am Coretakt. Ob jetzt 1:1 oder anderer Teiler spielt dabei erstmal keine Rolle. Taktet die GPU höher taktet auch der Cache höher.
nicht zu vergessen: die latenzen vom cache sinken mit steigendem takt...
[MK2]Mythos
2020-10-21, 23:20:24
Wieso könnte? Ein Cache hängt immer am Coretakt. Ob jetzt 1:1 oder anderer Teiler spielt dabei erstmal keine Rolle. Taktet die GPU höher taktet auch der Cache höher.
Eben. Das war ja nicht der Punkt, der Punkt ist, dass sich ja offensichtlich viele Fragen, wie Navi21 bei OC nicht an der mikrigen Speicherbandbreite verhungert. Und über den Weg des Caches wächst die "ersetzte" Speicherbandbreite ja mit.
Das ist doch ne spannende Geschichte.
HOT behauptet doch, dass Nvidia die 3080 mit 20GB einstellt, weil die keiner kaufen würde, da AMD so viel attraktiver ist.
Das wäre nur in dem von mir geschriebenen Szenario wahr.
Falsch. Ich behaupte, dass NV die Preise nicht mehr abrufen kann, die dafür vorgesehen waren. Dadurch wird das Produkt für NV obsolet.
patrickschur
2020-10-21, 23:25:45
@dargo Mir liegen noch keine Taktraten vor. Mit Ausnahme der ~2,4 GHz Game Clock (ebenfalls gemessen in einem Benchmark).
Mich würde eure Meinung mal interessieren. Was haltet ihr von den derzeitigen Gerüchten und was denkt ihr, wie die finalen Spezifikationen aussehen werden?
Ich bin auf jeden Fall schon sehr gespannt wie die Taktraten am Ende ausfallen werden. Die Gerüchteküche geht ja derzeit von deutlich niedrigen Taktraten aus. Auch wenn ich das nicht ganz verstehen kann. Wir können jedenfalls nur hoffen, dass AMD die AIBs nicht auf das Glatteis geführt hat und das vBIOS manipuliert hat. ;D
Wobei ich das für sehr unwahrscheinlich halte. Schließlich müssen die AIBs ihre Karten bereits testen und der Treiber war auch bereits freigeschaltet. Das vBIOS (wenn nicht manipuliert) bestätigt zu mindestens meine Annahme, dass wir es mit einer GPU zu tun haben werden, welche auf sehr hohe Taktraten ausgelegt ist.
dargo
2020-10-21, 23:26:04
Mythos;12468652']Eben. Das war ja nicht der Punkt, der Punkt ist, dass sich ja offensichtlich viele Fragen, wie Navi21 bei OC nicht an der mikrigen Speicherbandbreite verhungert. Und über den Weg des Caches wächst die "ersetzte" Speicherbandbreite ja mit.
Das ist doch ne spannende Geschichte.
Naja... wir reden hier von mickrigen 4%. :freak: Also wenn da sich schon starke Anzeichen von Bandbreitenmangel bemerkbar machen würden dann hätte die Karte schon ohne OC zu wenig davon. Ich würde da erstmal vernünftige Skalierungstests abwarten. Und zwar mit deutlich mehr als nur ~4% Unterschied im Takt.
Der_Korken
2020-10-21, 23:30:39
Können wir uns jetzt mal alle besinnen und zurück zum eigentlich Thema kommen? Läuft das hier immer so? Ich dachte wir sind hier im Navi Thread und ich lese die ganze Zeit nur etwas von Nvidia RTX. :freak:
Ja, das ist oft so, weil immer wieder irgendwer Nvidia einbringt. Auf technischer Seite wurde hier aber mittlerweile auch so gut wie alles mal irgendwie durchspekuliert und den Leuten wird irgendwann langweilig. Die wirklich interessante und bisher ungeklärte Frage ist, wie AMD den Bedarf an Speicherbandbreite reduziert hat. 16GB lassen nur 256bit SI, 512bit SI oder 2 HBM-Stacks zu, wobei alles auf ersteres hindeutet. Mit 512GB/s würde die Karte nach herkömmlichen Maßstab aber zu stark bzw. unnötig gebremst. Außer dem Buzzword "Infinity Cache" und der Zahl "128MB" haben wir keine Hinweise, was dort geändert wurde. 128MB SRAM klingen erstmal nach Silizium-Verschwendung und da wir die Die Size nur irgendwo zwischen 340mm² und 536mm² eingrenzen können, kann auch keiner sagen, wie plausibel das wäre. Es gäbe da zwar auch noch das Patent um das Cache-Sharing zwischen CUs oder SAs, aber da habe ich schon geschrieben, dass dadurch vielleicht Strom aber keine externe Bandbreite gespart wird, weil sich die Gesamtmenge an gecachten Daten auf dem Chip nicht erhöht. Eventuell hat die Architektur an sich auch eine höhere Datenlokalität, so wie Nvidia das damals mit dem Tile-Renderer von Maxwell geschafft hat. Wir wissen es halt nicht.
Ansonsten drehen wir uns seit über 100 Thread-Seiten im Kreis, was genaue Taktraten angeht und auch Leistungseinschätzungen. Da ist von "N21 schlägt 3070, kommt aber selbst mit Taktkeule nur knapp an die 3080 ran" und "N21 Salvage besiegt locker die 3080, die schnellste Version dann auch locker die 3090" alles dabei.
Dass die Taktraten steigen sollen, wissen wir seit dem FAD im März, wo AMD das selbst gesagt hat und seit wir die Taktraten der PS5 kennen. Jetzt hieß es neulich noch, dass die neuen Karten quasi genauso viel Basetakt wie RDNA1 haben sollen und gerade so über 2Ghz Game Clock kommen. Und nun kommst du an und leakst irgendwelche BIOSe mit knapp 2,6Ghz Boost Clock und Igor meint die Customs schaffen auch 2,3Ghz Game Clock.
Da sich Leaks (ob echte oder falsche) sich immer wieder widersprechen, habe ich mich aus der Diskussion ausgeklinkt, denn FLOPs/s ausrechnen und anhand dessen von N10 aus die Performance hochrechnen kann ich selbst. Da in einer Woche hoffentlich viele Fragen beantwortet werden, auch zur Architektur, sind die aktuellen Zahlenspiele für mich eher Nebensache. Es derailed halt immer ein bisschen wenn User A reinkommt und sagt, wir hätten alle gekokst bei unseren überoptimistischen Performance-Prognosen und wenn User B ankommt und sich irgendwelche Taktraten von 2,8Ghz zurechtphantasiert.
Nazar
2020-10-21, 23:38:26
Sorry, da hast du bzw. Hot einen Denkfehler drin.
Ja, 850 wäre der zu erwartende Preis gewesen.
Aber du argumentierst mit dem Straßenpreis - der ist ja aber nur so hoch, weil die Nahcfrage so hoch ist.
Ist die Nachfrage niedrig, ist auch der Straßenpreis nicht mehr exorbitant.
Gehen wir von einer AMD Karte, 3080 Niveau, 16GB Ram, ca. 700 Euro aus.
Jetzt die 3080 mit 20GB für 850.
Das sind 20% Aufpreis für
+4 GB Ram
+DLSS
+ Nvidia als Markenname
+ ggf. besseres RT
Das ist am Markt locker durchsetzbar.
Klar holt sich AMD seinen Marktanteil, aber der wird nicht durch die Decke gehen.
Denn wie gesagt - 1000 Euro Straßenpreis gilt ja nur, wenn die Nachfrage das Angebot gigantisch übersteigt.
Wenn es aber gigantische Nachfrage gibt, stimmt das Argument "will keiner kaufen" ja nicht mehr. ;)
Dann geht der Preis runter, und wir sind wieder bei den von Nvidia genannten offiziellen Preisen von 850 Euro (also offiziell in unserem Szenario) - klar, Custom-Karten gehen höher, aber das gilt ja für AMD auch. Daher bleibt die Relation gleich.
Entweder gibt es auf der Angebotsseite so massive Probleme, dass Nvidia es nicht schafft neue Produkte zu bringen.
Oder aber - was ich glaube - es ist eine Falschmeldung und bedeutet nur eine Verschiebung.
Da hast du im Grunde recht, nur, damit du etwas verkaufen kannst, muss es auch vorhanden sein und das wird vermutlich erneut das Problem von nV sein.
Ich habe das Szenario schon mal beschrieben und kann diese "Lächerlichkeit" auch gerne noch einmal wiederholen: bisher deutet alles darauf hin, dass sämtliche Gerüchte, die über die 3080 mit 20GB getätigt wurden, alleine dazu dienten Vorbesteller von der Stornierung abzuhalten.
Wenn es AMD nun wirklich schafft auf die 3080 aufzuschließen (-5% bis +5%) und nVidia bis zum Verkauf der AMD GPUs nichts aufzuweisen hat, dann sind viele Kunden vermutlich weg und das wird eine Sogwirkung haben und mit jedem Tag stärker je länger nV nicht in vernünftigen Stückzahlen liefern kann.
Wenn ich mir die Techartikel derzeit durchlese, sieht es so aus, dass nV derzeit alles auf RT setzt. Angeblich "verschenkt" nV derzeit seine Techniker für die Unterstützung für RT Spiele, damit diese noch dieses Jahr -vor Weihnachten- auf den Markt kommen. Richtig "schlimm" soll es bei CP2077 sein. Das ist allerdings Hörensagen.
Fakt ist und bleibt: du kannst nicht verkaufen, was du nicht hast (wenn du nicht an der Börse bist ;))!
@dargo Mir liegen noch keine Taktraten vor. Mit Ausnahme der ~2,4 GHz Game Clock (ebenfalls gemessen in einem Benchmark).
Mich würde eure Meinung mal interessieren. Was haltet ihr von den derzeitigen Gerüchten und was denkt ihr, wie die finalen Spezifikationen aussehen werden?
Ich bin auf jeden Fall schon sehr gespannt wie die Taktraten am Ende ausfallen werden. Die Gerüchteküche geht ja derzeit von deutlich niedrigen Taktraten aus. Auch wenn ich das nicht ganz verstehen kann. Wir können jedenfalls nur hoffen, dass AMD die AIBs nicht auf das Glatteis geführt hat und das vBIOS manipuliert hat. ;D
Wobei ich das für sehr unwahrscheinlich halte. Schließlich müssen die AIBs ihre Karten bereits testen und der Treiber war auch bereits freigeschaltet. Das vBIOS (wenn nicht manipuliert) bestätigt zu mindestens meine Annahme, dass wir es mit einer GPU zu tun haben werden, welche auf sehr hohe Taktraten ausgelegt ist.
Denke XT Varianten werden um die 2100Mhz takten (AMD Referenz). OC AIB Modelle kann ich mir die 2400Mhz schon vorstellen.
Linmoum
2020-10-21, 23:42:11
Mich würde eure Meinung mal interessieren. Was haltet ihr von den derzeitigen Gerüchten und was denkt ihr, wie die finalen Spezifikationen aussehen werden?
Ich bin auf jeden Fall schon sehr gespannt wie die Taktraten am Ende ausfallen werden. Die Gerüchteküche geht ja derzeit von deutlich niedrigen Taktraten aus. Auch wenn ich das nicht ganz verstehen kann. Wir können jedenfalls nur hoffen, dass AMD die AIBs nicht auf das Glatteis geführt hat und das vBIOS manipuliert hat. ;DDas, was da heute von Videocardz kam, dürfte für die Referenz gut passen. Wenn AiB ~2.4GHz Game Clock mit 255W TGP schaffen, dann wird man mit 2,0xGHz bei der Referenz sicher irgendwo Richtung 280W-290W TBP landen.
Unklar ist natürlich noch die Komponente Cache als Ersatz/Ergänzung für das kleine(re) SI, gerade in höheren Auflösungen. IPC als Puzzleteil fehlt natürlich genauso noch. Im Prinzip ist alles möglich. Man "kennt" zwar mittlerweile langsam aber sicher immer mehr Eckdaten, aber die Performance bleibt weiterhin unklar. Von RT mal ganz zu schweigen, da weiß man noch absolut Null zu.
Als Wakü-Nutzer interessiert mich natürlich noch, was mit OC möglich sein wird. 2,5GHz(+) wäre schon schick.
patrickschur
2020-10-21, 23:45:40
@Der_Korken Vielen Dank für die ausführliche Antwort.
@Nazar Natürlich kann ich etwas verkaufen, dass ich noch nicht habe...
Mark Cerny hat im PS5 Talk darauf hingewiesen, dass für ihn eine Architektur mit mehr Takt sinnvoller ist, um die CUs vernünftig auszulasten. Die PS5 hat 36 davon bei ~2,2GHz. RDNA2 hat sogar höhere Taktraten und mehr CUs, das klingt für mich erstmal spannend. Hinzu kommt der Infinity Cache.
AMD hat mit Sony sicher lange an der Architektur gesessen. Von der XBox SX sagt man sie hätte noch RDNA1 Anteile, daher 52 CU bei ~1,8GHz. Den Unterschied finde ich spannend, habe aber leider keine Ahnung von der PS5. Ist die schon komplett RDNA2?
AMD vereint nun beides in bspw. einer 6800XT mit 255/289W Dual BIOS.
Unrockstar
2020-10-21, 23:52:47
Angeblich "verschenkt" nV derzeit seine Techniker für die Unterstützung für RT Spiele, damit diese noch dieses Jahr -vor Weihnachten- auf den Markt kommen. Richtig "schlimm" soll es bei CP2077 sein. Das ist allerdings Hörensagen.
Fakt ist und bleibt: du kannst nichts verkaufen, was du nicht hast (wenn du nicht an der Börse bist ;))!
Und der Entwickler von Baldurs Gate 3 bekommt keine Ampere, weil es keine gibt :(
Leonidas
2020-10-21, 23:53:13
Tut mir leid, aber ich dachte es wäre besser ein Bild zu haben, statt mehrere.
Passt schon.
Davon abgesehen:
Ich überlege mir gerade, was passieren würde, wenn nVidia vor Publikum eine Grafikkarte mit Taktraten klar über 2 GHz vorstellen würde ... ich vermute, YouTube müsste den Ton (oder gleich auch noch das Bild) abdrehen.
https://i.imgur.com/eC3dziz.jpg
RitterRost
2020-10-21, 23:55:11
Mich würde eure Meinung mal interessieren. Was haltet ihr von den derzeitigen Gerüchten und was denkt ihr, wie die finalen Spezifikationen aussehen werden?
Spezifikationen sind halt nur ein Teil der interessanten Infos.
AMD hat ja gezeigt (die 3 Benchmarks), dass sie 3080 Performance liefern werden.
Aber, wie sieht die Performance bei RT aus? Und wie funktioniert 3080 Performance mit einem einem 256bit DDR6 Speicherinterface?
Ich befürchte, dass am 28.10. auch nur so oberflächliche Infos kommen, wie bei der Zen3 Vorstellung am 8.10.
Spannend fände ich die Details z.B. zum Cache (falls es ihn gibt).
Elite_Warrior
2020-10-22, 00:03:49
Was mich gerade wundert ist der kleine Chip. Pi mal Daumen komme ich auch bei 350m² raus. Navi 22 wirds nicht sein, da es wohl nur ein 192Bit Bus haben wird (entsprechend 6 Ram chips), N23 ist zu weit weg und wäre viel zu groß dafür. Navi 10 ist an sich schon 251 mm². Klar, das SI ist gleich geblieben. Da könnte es eventuell doch hinhauen wenn nur es nur an CU's und etwas Cache zulegt. Aber eben kein Anzeichen von "InfinityCache" oder so ein Gedöns.
Bei der Größe kann man sich wohl mehrere Cuts leisten.
Patrick selber hält das Board für plausibel:
https://www.igorslab.de/community/threads/das-können-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verrät-die-details.3363/#post-80997
Da geht sicherlich mehr.... wann kommt NaviQuadrat :D
Brillus
2020-10-22, 00:07:50
NV storniert die 3070ti 16gb und 3080 20gb... und hier wird darüber gesprochen das eine 3080 20gb unverkäuflich ist...
Nur so als erinnerung, nv hat selbst die FX relativ erfolgreich verkauft...
Naja ich storniere wohl kaum ein Produkt weil ich davon ausgehe das es ein Kassenschlager wird.
Linmoum
2020-10-22, 00:12:34
Davon abgesehen:
Ich überlege mir gerade, was passieren würde, wenn nVidia vor Publikum eine Grafikkarte mit Taktraten klar über 2 GHz vorstellen würde ... ich vermute, YouTube müsste den Ton (oder gleich auch noch das Bild) abdrehen.
Wieso würde? :D
24m45s
VipvF26XRNY
Sowas müsste AMD nächste Woche dann mit >2.5GHz machen. :tongue:
Armaq
2020-10-22, 00:14:38
Mark Cerny hat im PS5 Talk darauf hingewiesen, dass für ihn eine Architektur mit mehr Takt sinnvoller ist, um die CUs vernünftig auszulasten. Die PS5 hat 36 davon bei ~2,2GHz. RDNA2 hat sogar höhere Taktraten und mehr CUs, das klingt für mich erstmal spannend. Hinzu kommt der Infinity Cache.
AMD hat mit Sony sicher lange an der Architektur gesessen. Von der XBox SX sagt man sie hätte noch RDNA1 Anteile, daher 52 CU bei ~1,8GHz. Den Unterschied finde ich spannend, habe aber leider keine Ahnung von der PS5. Ist die schon komplett RDNA2?
AMD vereint nun beides in bspw. einer 6800XT mit 255/289W Dual BIOS.
Das sehe ich auch als springenden Punkt.
Auch die 20x0 Serie ist bei mehr Takt deutlich angenehmer. Einfach nur breit und mit weniger Takt scheint einfach nicht so sinnvoll zu sein.
Wenn man sich die Konsolen nimmt, dann ist der Sprung gigantisch. 800 Mhz zu 2200 Mhz bei Sony.
Warum also nicht ein Chip mit 2400 Mhz? Das Twitter-Foto finde ich extrem interessant. Es sieht massiv nach Spiegelungen / RT -Ausblick aus. Performance ist konkurrenzfähig, ist jetzt auch noch RT schnell?
patrickschur
2020-10-22, 00:20:34
Patrick selber hält das Board für plausibel
Die Lochabstände stimmen auch und es hat eine sehr starke Ähnlichkeit zu anderen Evaluation Boards. Der Die ist natürlich völliger Käse. Das hat er auch in einen seiner Videos gesagt. Das ist einfach nur eine Montage.
Nazar
2020-10-22, 00:25:43
@Der_Korken Vielen Dank für die ausführliche Antwort.
@Nazar Natürlich kann ich etwas verkaufen, dass ich noch nicht habe...
Ich sprach von nicht haben... du von noch nicht haben... ein kleiner aber wichtiger Unterschied. ;)
@Thema
Du schriebst etwas von einer 2.4Ghz Game Clock. Lag die Game Clock Frequenz dauerhaft an?
Ich kann mir nicht vorstellen, wie die XTX das toppen soll und besonders, da mit mehr CUs die Wahrscheinlichkeit so hohe Frequenzen ebenso stabil zu erreichen, exponentiell schlechter wird.
Derzeit halte ich den Abstand von gerade mal 8 CUs zwischen XT und XTX für zu gering, als das man sich mit der XTX mit 8 CUs mehr und vermutlich mindestens 150 Mhz weniger Game Clock, noch vernünftig absetzen könnte.
Eventuell gibt es die XTX doch nur mit Liquidkühlung als "Halo" Produkt? :confused:
Wenn die AIBs derzeit so einen Aufwand betreiben, die 72CU so hochzuprügeln (overall ~300Watt), nur um zu schauen was geht, dann vermute ich, dass sie die 3080 damit attackieren wollen, vermutlich viel näher an der 3080 als an der 3070.
Ohne das große OC landen sie vermutlich genau zwischen 3070 und 3080.
Die XTX würde dann, mit super gebinnten Chips, die 3080 angehen.. aber mit mindestens 320 Watt overall.. voll ausgelastet eher 400 Watt.
Es kann aber auch ganz anders sein und schon die XT wird der 3080 Paroli bieten können, doch dann hätte AMD ein wahres Wunder geschafft und das glaube ich (noch ;)) nicht. :wink:
nairune
2020-10-22, 00:42:59
Also bei RDNA1 war der offizielle "game clock" noch, was man an realer, durchschnittlicher Taktrate etwa erwarten konnte, und zwar tendenziell in den anspruchsvollen Spielen (also worst case). Wäre nun interessant, was das für ein Benchmark war, wo die 2400 MHz anlagen. Wenn es so etwas wie TimeSpy war, wäre das mit dem 255W BIOS schon nicht übel.
Bei AMD sind etwas geringere Abstände nicht so ungewöhnlich, also wenn die 11% mehr CU-Power der XTX gut in Leistung übersetzt wird, reicht ihnen das vielleicht schon. Dazu noch andere Leckerli wie ein höheres Powerlimit und schon hat man etwas für die Enthusiasten, während XL und XT zu hoffentlich humanen Preisen verkauft werden können - so meine Wunschvorstellung :D
patrickschur
2020-10-22, 00:51:56
@Nazar Touché. ;)
Die ~2,4 GHz lagen sicherlich nicht dauerhaft an. Deswegen auch das Ungefähr-Zeichen vor der Zahl.
Der Takt dürfte sich sicherlich irgendwo zwischen 2,3 - 2,4 GHz bewegt haben (reine Spekulation). Aber das ist doch der Sinn des Game Clocks? Er gibt die Frequenz an, welche während eines Spiels oder Benchmarks am häufigsten anliegt.
@nairune Es war nicht Timespy. :D
Brillus
2020-10-22, 01:11:45
Mythos;12468652']Eben. Das war ja nicht der Punkt, der Punkt ist, dass sich ja offensichtlich viele Fragen, wie Navi21 bei OC nicht an der mikrigen Speicherbandbreite verhungert. Und über den Weg des Caches wächst die "ersetzte" Speicherbandbreite ja mit.
Das ist doch ne spannende Geschichte.
Ne da hast du einen Denkfehler beim erhöhen des Takt erhöht sich die benötigte Speicherbandbreite im gleichen Masse. Wenn der Chip pro Takt N bytes Speicherbandbreite braucht macht er es beim höher Takten auch. Durch den Cache wird nur das initiale N kleiner.
Daher bleibt die Aussage gleich wenn beim erhöhen des Chip Takts die Performance quasi linear steight hängt der Chip nicht an der Bandbreite.
Dampf
2020-10-22, 01:14:06
Eines sage ich euch, die Speicherbandbreite ist nicht von Bedeutung. Ihr werdet sehen, warum, ihr werdet sehen.
Haltet eure Augen auf nach der Wahrheit...!
Genießt es einfach!
[MK2]Mythos
2020-10-22, 01:25:33
Eines sage ich euch, die Speicherbandbreite ist nicht von Bedeutung. Ihr werdet sehen, warum, ihr werdet sehen.
Haltet eure Augen auf nach der Wahrheit...!
Genießt es einfach!
Bitte nicht so geheimnisvoll, hau raus was du weißt, wenn du was weißt. :P
Digidi
2020-10-22, 02:25:36
2577 ist eine verdammt grummen Zahl könnte das ein Code sein um leaker zu verraten?
OgrEGT
2020-10-22, 06:53:36
2577 ist eine verdammt grummen Zahl könnte das ein Code sein um leaker zu verraten?
2+5=7
7+7+7=21
2+1=3
HL3 confirmed :ugly:
crux2005
2020-10-22, 06:58:52
Es ist doch ganz einfach. Wenn AMD mit 80 CUs ankommt die effizienter sind als Turing, dazu 20% höher Takten... sollte diese Grafikkarte sogar der RTX 3090 Konkurrenz machen können. Außer etwas anderes Limitiert.
Meine Rechnung: RTX2080 Ti (68 SMs) +45% (4K, FE vs FE) komme ich auf "99 SMs" 3090 (in neuen Titeln wohl mehr). 80 RDNA2 CUs mit +5-10% Effizienz und +20% höher Takt (grob 2,4 vs. 2 GHz) sind "101-105,6" SMs. Wenn auch AMD minimal schlechtere Treiber bringt sollte das ein Kopf an Kopf Rennen sein. Fraglich wird natürlich der Preis, bzw. ob AMD only/AiO? Würde ich diesmal sogar begrüßen bei 320W TGP.
Screemer
2020-10-22, 07:05:49
@nairune Es war nicht Timespy. :D
Port royal ;)
mboeller
2020-10-22, 07:28:47
Eines sage ich euch, die Speicherbandbreite ist nicht von Bedeutung. Ihr werdet sehen, warum, ihr werdet sehen.
Haltet eure Augen auf nach der Wahrheit...!
Genießt es einfach!
aha.... die Karten sind also jetzt endlich bei den Reviewern
prinz_valium_2
2020-10-22, 08:12:27
Eines sage ich euch, die Speicherbandbreite ist nicht von Bedeutung. Ihr werdet sehen, warum, ihr werdet sehen.
Haltet eure Augen auf nach der Wahrheit...!
Genießt es einfach!
Wäre das erste mal in der Geschichte von GPUs, dass das der Fall ist.
Also verrat doch das große Geheimnis:rolleyes:
Nightspider
2020-10-22, 08:18:49
Haltet die Augen auf nach der Wahrheit ;D
dargo
2020-10-22, 08:27:33
Habe mir schon den Wecker für Mittwoch und die Wahrheit gestellt. :D
patrickschur
2020-10-22, 08:34:38
2577 ist eine verdammt grummen Zahl könnte das ein Code sein um leaker zu verraten?
Da jedes XT vBIOS einen max. Takt von 2577 MHz hinterlegt hat, kann das nicht sein.
Nazar
2020-10-22, 09:01:57
@Nazar Touché. ;)
Die ~2,4 GHz lagen sicherlich nicht dauerhaft an. Deswegen auch das Ungefähr-Zeichen vor der Zahl.
Der Takt dürfte sich sicherlich irgendwo zwischen 2,3 - 2,4 GHz bewegt haben (reine Spekulation). Aber das ist doch der Sinn des Game Clocks? Er gibt die Frequenz an, welche während eines Spiels oder Benchmarks am häufigsten anliegt.
@nairune Es war nicht Timespy. :D
Danke für die Antwort. :)
Ich war schon lange nicht mehr auf ein Produkt so sehr gespannt, wie auf die neue GPU von AMD.
AMD könnte damit für gewaltigen Wirbel sorgen. Schaffen sie es, ähnlich wie bei der CPU, auch so kontinuierlich abzuliefern und sich dabei auf Augenhöhe mit nVidia zu duellieren, kann das auch ein -im wahrsten Sinne des Wortes- ein "Gamechanger" werden.
Momentan bestimmt nV die Richtung der Spieleentwicklung, wenn es technische "Innovationen" geht und nicht jeder ist damit glücklich (auch nicht die Entwickler ;)). Es fehlte bisher an einem Partner, auf den man ausweichen kann. Wenn AMD endlich wieder gute Hardware liefert, würde das allen gut tun, den Spielern und den Entwicklern.
Ich drücke AMD die Daumen für einen großen Wurf. :wink:
mironicus
2020-10-22, 09:02:46
Na hoffentlich kommt mit der höheren Taktrate auch eine höhere IPC. Was nützt ein höherer Takt gegenüber NVidia wenn man pro CU dann doch eine geringere Leistung hat.
Berniyh
2020-10-22, 09:27:26
Mark Cerny hat im PS5 Talk darauf hingewiesen, dass für ihn eine Architektur mit mehr Takt sinnvoller ist, um die CUs vernünftig auszulasten. Die PS5 hat 36 davon bei ~2,2GHz. RDNA2 hat sogar höhere Taktraten und mehr CUs, das klingt für mich erstmal spannend. Hinzu kommt der Infinity Cache.
AMD hat mit Sony sicher lange an der Architektur gesessen. Von der XBox SX sagt man sie hätte noch RDNA1 Anteile, daher 52 CU bei ~1,8GHz. Den Unterschied finde ich spannend, habe aber leider keine Ahnung von der PS5. Ist die schon komplett RDNA2?
Ne, die PS5 dürfte genau wie die XBox irgendwo zwischen RDNA1 und RDNA2 zu verorten sein.
Das Speicherinterface der PS5 passt ja auch in etwa zu dem der XBox, wenn man es auf die CUs runterrechnet bzw. eigentlich ist es sogar minimal größer (man käme auf 42 CU).
Aber dennoch bleibt die Sache mit dem Cache bei RDNA2 extrem spannend.
Nicht nur, da man so ggf. wesentlich weniger Speicherbausteine/-kanäle einsetzen kann (was ja in weniger Verlustleistung resultiert), sondern es macht auch die PCBs günstiger und vor allem wäre es – wenn es denn funktioniert – ein erster wichtiger Schritt in Richtung GPU Chiplets.
Deren Umsetzbarkeit wurde bislang immer als unrealistisch abgetan mit dem wesentlichen Argument, dass GPUs immense Bandbreiten benötigen.
Wenn AMD es also bei RDNA2 schafft das wirkungsvoll einzudämmen/abzufangen, dann werden GPU Chiplets auf jeden Fall deutlich realistischer.
Birdman
2020-10-22, 09:29:37
Derzeit halte ich den Abstand von gerade mal 8 CUs zwischen XT und XTX für zu gering, als das man sich mit der XTX mit 8 CUs mehr und vermutlich mindestens 150 Mhz weniger Game Clock, noch vernünftig absetzen könnte.
Für den Einsatz als "Halo" Produkt sehe ich hier weniger ein Problem.
+8 CUs, höheres PowerLimit, ab Werk höhere getakteten Speicher, besserer Kühler (Liquid?!?) - viel mehr ist imho nicht nötig um sich in den Reviews genug (10%+) von den XT Karten abzusetzen und sowas zu rechtfertigen.
Schlussendlich entscheidet der Aufpreis und nicht die Performancedifferenz für so eine Karte darüber, ob sie sich für Kunden lohnt oder nicht.
Man muss ja keine 3090 produzieren, welche mal eben quasi doppelt so teuer daherkommt wie der leicht abgespeckte Bruder
N21XL: 64CUs bei ca. 2,1-2,2GHz Gameclock -> knapp 18TFLOPs (fast das Doppelte der N10 XT)
N21XT: 72CUs bei ca. 2,3-2,4GHz Gameclock -> knapp 22TFLOPs (fast 2,5x N10 XT)
N21XTX: 80CUs bei 2,4-2,5GHz Gameclock -> knapp 25TFLOPs (fast 2,75x N10)
nur um mal ne Rohleistungsorientierung zu haben.
Daredevil
2020-10-22, 09:39:49
Wichtig ist es bei solchen Produkten doch auch nur, schneller in den Benchmarks zu sein, siehe z.B. die 5700xt Anniversary. Hatte die hier jemand im Forum? Glaube nicht.
Ich mein, hübsch war sie schon, und da war es nur der Takt. :)
https://gzhls.at/i/44/44/2074444-n1.jpg
BigBangBacket
2020-10-22, 09:50:18
@patrickschur
Hast du Infos über eine starke Brise oder einem warmen Sommerregen bezüglich der XTX? 🤭
Piefkee
2020-10-22, 09:54:40
@Nazar Touché. ;)
Die ~2,4 GHz lagen sicherlich nicht dauerhaft an. Deswegen auch das Ungefähr-Zeichen vor der Zahl.
Der Takt dürfte sich sicherlich irgendwo zwischen 2,3 - 2,4 GHz bewegt haben (reine Spekulation). Aber das ist doch der Sinn des Game Clocks? Er gibt die Frequenz an, welche während eines Spiels oder Benchmarks am häufigsten anliegt.
@nairune Es war nicht Timespy. :D
Kannst du den irgendwas zur Performance sagen ? Grob ?
WedgeAntilles
2020-10-22, 09:59:17
Für den Einsatz als "Halo" Produkt sehe ich hier weniger ein Problem.
Hauptsache, es wird kein Halo Infinite Produkt :biggrin:
Die reine Leistung ist mir sogar relativ egal - ob die 6800XT jetzt 5% über der 3080 liegt oder auch 10% drunter - was solls.
Wegen mir kann gerne etwas mehr als 10% drunter liegen, falls es dafür unter 300W Verbrauch gibt. (Wäre mir weit lieber, als ne Karte mit 320W und mehr Leistung!)
Für mein Einsatzgebiet ist das egal.
Wichtig ist mir persönlich, dass RT gut funktioniert.
Wenn ich Cyberpunk bei FullHD mit allem Max und RT mit guten FPS spielen kann, ist die Karte für mich attraktiv.
Bisher war ich klar für die 3080 mit 10GB der klare Favorit.
Knackpunkt ist für mich halt wie gesagt RT - sollte ich Cyberpunk nicht mit Max-Settings und RT spielen können, käme BigNavi für mich nicht in Frage.
Wegen Treibern und Co warte ich ab, werde eh nicht vor Februar / März kaufen. Dann wird man schon wissen, was jetzt die Treibersituation bei Ampere + BigNavi ist und ob es da bei einer Firma Schwachpunkte gibt oder nicht. (Da ich nicht der große Bastler bin, kommt für mich ein: "Für Spiel X nehme ich dieses Lastprofil, für Spiel Y jenen Treiber, für Spiel Z ein anderes Lastprofil und einen anderen Treiber" nicht in Frage. Ein Treiber für alle Spiele, ein Lastprofil für alle. Wenn das nicht gut funktioniert kommt es für mich nicht in Frage.)
Die Chance eine AMD Karte zu kaufen war noch nie so groß - ich bin jetzt echt auf nächste Woche gespannt.
Flinx
2020-10-22, 10:00:14
Es sollte jemand nicht so bedrängt werden. Und ein 2. User Name wäre sinnvoll. Könnte ja intern doch mal Ärger geben. Trotzdem Danke für ...
Ravenhearth
2020-10-22, 10:09:18
Wichtig ist es bei solchen Produkten doch auch nur, schneller in den Benchmarks zu sein, siehe z.B. die 5700xt Anniversary. Hatte die hier jemand im Forum? Glaube nicht.
Ich mein, hübsch war sie schon, und da war es nur der Takt. :)
https://gzhls.at/i/44/44/2074444-n1.jpg
:D
Ich besitze eine 5700 XT 50th Anniversary Edition ;)
Nightspider
2020-10-22, 10:19:19
Ich hoffe es gibt eine Wakü Variante.
Adam D.
2020-10-22, 10:25:11
Wichtig ist mir persönlich, dass RT gut funktioniert.
Wenn ich Cyberpunk bei FullHD mit allem Max und RT mit guten FPS spielen kann, ist die Karte für mich attraktiv.
Bisher war ich klar für die 3080 mit 10GB der klare Favorit.
Du gibst wirklich 600-700€ für eine Grafikkarte aus, um im Jahr 2021 in Full HD zu spielen? Diese Nutzungsszenarien hier faszinieren mich jeden Tags aufs Neue :biggrin:
Armaq
2020-10-22, 10:26:35
Die Leistung ist tatsächlich nicht egal. Also mir als 2080Ti Besitzer reicht eine 3080 nicht aus. Auch dem Gesamtpublikum aka große Masse wird eine leicht langsamere Variante nicht viel Reaktion entlocken. Eine schnellere Karte wird für aufsehen sorgen.
dildo4u
2020-10-22, 10:28:27
Du gibst wirklich 600-700€ für eine Grafikkarte aus, um im Jahr 2021 in Full HD zu spielen? Diese Nutzungsszenarien hier faszinieren mich jeden Tags aufs Neue :biggrin:
Realität?Ubisoft hat doch gerade die Specs für Watch Dogs veröffentlich für eine 3080 sehen bei RTX Einsatz mit 4k DLSS Performance dieses skaliert von 1080p nach oben.
https://live.staticflickr.com/65535/50459916903_faa8f7eb39_h.jpg (https://flic.kr/p/2jSYgii)Ej33Cf3XgAEDV87 (https://flic.kr/p/2jSYgii) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Brillus
2020-10-22, 10:31:20
Ne, die PS5 dürfte genau wie die XBox irgendwo zwischen RDNA1 und RDNA2 zu verorten sein.
Das Speicherinterface der PS5 passt ja auch in etwa zu dem der XBox, wenn man es auf die CUs runterrechnet bzw. eigentlich ist es sogar minimal größer (man käme auf 42 CU).
Aber dennoch bleibt die Sache mit dem Cache bei RDNA2 extrem spannend.
Nicht nur, da man so ggf. wesentlich weniger Speicherbausteine/-kanäle einsetzen kann (was ja in weniger Verlustleistung resultiert), sondern es macht auch die PCBs günstiger und vor allem wäre es – wenn es denn funktioniert – ein erster wichtiger Schritt in Richtung GPU Chiplets.
Deren Umsetzbarkeit wurde bislang immer als unrealistisch abgetan mit dem wesentlichen Argument, dass GPUs immense Bandbreiten benötigen.
Wenn AMD es also bei RDNA2 schafft das wirkungsvoll einzudämmen/abzufangen, dann werden GPU Chiplets auf jeden Fall deutlich realistischer.
Das Problem ist nicht Bandbreite zum Speicher sondern zwischen CUs. Das könnte sogar mit dem Cache größer werden. Wobei ich denke das die gleichen Techniken die so einen Cache helfen auch Chiplets helfen, sprich mehr Datenlokalität.
Cyberfries
2020-10-22, 10:40:10
Mal eine andere Überlegung, ohne Infinity Cache als Klotz auf dem Die, sondern schlicht mit Optimierungen.
Zum Bandbreitenbedarf drängt sich als Vergleich Maxwell auf, mit Effizienzsteigerung etwa um ein Drittel.
Verantwortlich laut nVidia: bessere Kompression und effizienteres Caching, L2$ x4 (512kb -> 2mb)
Eine Milchmädchenrechnung ergäbe bei gleichem Effekt für N21 ca. 683 GB/s, klar unter 3080/3090 (760/912).
Von der 5600 (120%) zur 6800xt (15% hinter 3080 ->276% -> Faktor 2,3) 2,3x 288GB/s -> 662GB/s
Geleakte 128mb dann Gesamt-SRAM (Vega 45mb), mit 16mb L2$ (4xVega/N10) ca. 372mm².
Passt etwa zum Coreteks-Bild. Und die 6900xt? HBM2 2,5GT, 640GB/s *1,3 -> 853GB/s.
Setzt voraus, dass AMD einen Maxwell-Effekt findet und ein Kombi-Interface verbaut.
Ist aber eine denkbare Erklärung für die Geheimnistuerei um die 6900xt und deren größeren Leistungsvorsprung.
2577 ist eine verdammt grummen Zahl könnte das ein Code sein um leaker zu verraten?
Krumme Zahlen gibts doch schon länger, die 5500xt hat einen Basistakt von 1607mhz,
Vega 64 einen Boosttakt von 1548mhz und die RX 470 einen von 1206mhz.
Davon würde ich mich nicht verwirren lassen.
Sunrise
2020-10-22, 10:48:09
@Cyberfries
TBDR...
Brillus
2020-10-22, 10:50:11
Mal eine andere Überlegung, ohne Infinity Cache als Klotz auf dem Die, sondern schlicht mit Optimierungen.
Zum Bandbreitenbedarf drängt sich als Vergleich Maxwell auf, mit Effizienzsteigerung etwa um ein Drittel.
Verantwortlich laut nVidia: bessere Kompression und effizienteres Caching, L2$ x4 (512kb -> 2mb)
Eine Milchmädchenrechnung ergäbe bei gleichem Effekt für N21 ca. 683 GB/s, klar unter 3080/3090 (760/912).
Von der 5600 (120%) zur 6800xt (15% hinter 3080 ->276% -> Faktor 2,3) 2,3x 288GB/s -> 662GB/s
Geleakte 128mb dann Gesamt-SRAM (Vega 45mb), mit 16mb L2$ (4xVega/N10) ca. 372mm².
Passt etwa zum Coreteks-Bild. Und die 6900xt? HBM2 2,5GT, 640GB/s *1,3 -> 853GB/s.
Setzt voraus, dass AMD einen Maxwell-Effekt findet und ein Kombi-Interface verbaut.
Ist aber eine denkbare Erklärung für die Geheimnistuerei um die 6900xt und deren größeren Leistungsvorsprung.
Krumme Zahlen gibts doch schon länger, die 5500xt hat einen Basistakt von 1607mhz,
Vega 64 einen Boosttakt von 1548mhz und die RX 470 einen von 1206mhz.
Davon würde ich mich nicht verwirren lassen.
Klar kan es auch was anderes sein da gabs in der Vergangenheit ja noch viel heftigere Beispiele. Ich denke an PowerVR.
basix
2020-10-22, 10:50:38
...siehe z.B. die 5700xt Anniversary. Hatte die hier jemand im Forum? Glaube nicht.
https://gzhls.at/i/44/44/2074444-n1.jpg
:wave2:
Edit:
Ravenhearth war schneller :D
stinki
2020-10-22, 11:09:22
Wissen wir eigentlich schon welche Spiele in diesem Jahr DXR und (damit) Navi2x unterstützen werden?
Momentan läuft doch alles nur auf Nvidia Hardware, oder?
w0mbat
2020-10-22, 11:11:27
DXR hat nichts mit Nvidia zu tun. Alles was mit DXR läuft, sollte auch auch einer AMD Karte laufen.
stinki
2020-10-22, 11:15:11
DXR hat nichts mit Nvidia zu tun. Alles was mit DXR läuft, sollte auch auch einer AMD Karte laufen.
Ja, das war ja genau mein Punkt bzw. meine Frage.
Welche Spiele unterstützen denn DXR Stand heute?
Also wie wollen wir die Raytracing Performane von Navi21 gegen GA102/Nvidia denn am Launch-Tag vergleichen?
Dino-Fossil
2020-10-22, 11:18:26
Die Leistung ist tatsächlich nicht egal. Also mir als 2080Ti Besitzer reicht eine 3080 nicht aus. Auch dem Gesamtpublikum aka große Masse wird eine leicht langsamere Variante nicht viel Reaktion entlocken. Eine schnellere Karte wird für aufsehen sorgen.
Wie oft hat es sich den leistungsmäßig wirklich gelohnt, jede Generation die GPU zu tauschen, sofern man im gleichen Marktsegment bleibt?
Mir persönlich wäre das eigentlich zu wenig Fortschritt angesichts der Investition. Ja, ich weiß, mancher will nur das Bestmögliche und Geld interessiert da nicht, aber das dürfte eher eine Minderheit sein.
Navi2 (und Ampere) sind definitiv eher für diejenigen interessant, die noch auf älteren Generationen sitzen oder eben in ein höheres Segment wechseln wollen.
Der_Korken
2020-10-22, 11:19:24
Geleakte 128mb dann Gesamt-SRAM (Vega 45mb), mit 16mb L2$ (4xVega/N10) ca. 372mm².
Wie genau kommst du auf diese Zahlen? V10 hatte afaik 256kB Register pro CU, also insgesamt 16MB. Dazu noch 64x16kB L1$ (=1MB) und 4MB L2$, ergibt zusammen 21MB. Gibt noch ein paar Skalarregister in den CUs, aber viel wird das nicht sein. Bei N21 ergibt es von N10 aus hochgerechnet ca. 20MB (80x256KB Register) + 1,25MB (80x16KB L0$) + 1MB (8x128KB L1$) + 8MB L2$ = 30,25MB plus Skalarregister. Da müsstest du schon einen 96MB großen L3$ verbauen, um auf 128MB SRAM zu kommen, was knapp 100mm² Fläche kosten würde (geschätzt anhand L3$ von Matisse). Das ist in 370mm² unmöglich, die würden vielleicht gerade so reichen, wenn man nur einen doppelten N10 verbaut mit dem alten 256bit Interface und verbesserter Packdichte.
Cyberfries
2020-10-22, 11:28:52
@Cyberfries
TBDR...
Was willst du mir mit deinem Einzeiler sagen? Wie gesagt bei Speicher "laut nVidia" (gm204 Whitepaper),
zusätzliche Maxwell-Verbesserungen habe ich nicht gelistet, ist aber ohnehin nur ein Rechenexempel.
Läuft DSBR eigentlich mittlerweile vollumfänglich? Mein letzter Stand war: auf N10 nur teilweise.
Wie genau kommst du auf diese Zahlen?
Zu Vegas 45mb, offizielle AMD-Folie:
https://pics.computerbase.de/7/9/4/9/4/1-1080.195753945.jpg
Zu Navi konnte ich heute morgen nichts finden, ich bilde mir ein, dass es höher war.
Das verdoppelt + ein vergrößerter L2$ könnte an die spekulierten 128mb ran kommen.
Complicated
2020-10-22, 11:29:36
Mal eine andere Überlegung, ohne Infinity Cache als Klotz auf dem Die, sondern schlicht mit Optimierungen.
Ich bin nach wie vor der Überzeugung, dass der Infinity-Cache nicht aus zusätzlichen Bauteilen besteht, sondern eine Kombination aus Technologien ist, die einerseits eine zusätzliche Verwendung der RT-Ressourcen ist:
https://forum.planet3dnow.de/index.php?threads/amd-rdna2-navi-2-und-bignavi.435377/post-5302633
Meine Spekulkation ist derzeit, dass AMD den in den Texturprozessoren vorhandenen größeren Cache für Hybrid-Raytracing bei deaktiviertem RT als Cache für normales Rendering verwenden kann. AMD Hybrid-RT-Patent schreibt davon, eine FFU für RT nutzen zu können mit einem eigenen Datachannel, der parallel zur TXT verläuft und auch davon, dass man diese umgehen kann mit "programable state machine"
und der Optimierung des L1-Caches andererseits wie in diesem Video beschrieben:
https://www.youtube.com/watch?v=CGIhOnt7F6s
Bei Minute 3:00 ist die Zusammenfassung, wie durch eliminieren der Daten-Replizierung im gemeinsam genutzten L1 Cache, die effektiv nutzbare Größe des L1 deutlich erhöht wird, wodurch weniger Anfragen an den L2-Cache gehen weil die L1-Missrate um 80% reduziert wird.
Daraus erfolgt ein +49% bei der Energieeffizienz RDNA->RDNA2 (Bekannte Kennzahl ;) )
Und hier würde auch ein +22% bei der IPC erfolgen, was bei den Spekulationen ja bisher überhaupt nicht berücksichtigt wurde. Ich spekuliere dieses grundlegende Cache-Redesign ermöglicht die kleineren SIs und überwindet Skalierungsprobleme bei mehr CUs.
Nazar
2020-10-22, 11:36:02
Realität?Ubisoft hat doch gerade die Specs für Watch Dogs veröffentlich für eine 3080 sehen bei RTX Einsatz mit 4k DLSS Performance dieses skaliert von 1080p nach oben.
https://live.staticflickr.com/65535/50459916903_faa8f7eb39_h.jpg (https://flic.kr/p/2jSYgii)Ej33Cf3XgAEDV87 (https://flic.kr/p/2jSYgii) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Lol
RT OFF = 2080ti
RT ON = ab 2060
Realitätsverlust oder "geschickte" Werbung? Ich tippe eher auf "geschickte" Werbung. :biggrin:
Der_Korken
2020-10-22, 11:46:10
Zu Vegas 45mb, offizielle AMD-Folie:
https://pics.computerbase.de/7/9/4/9/4/1-1080.195753945.jpg
Zu Navi konnte ich heute morgen nichts finden, ich bilde mir ein, dass es höher war.
Das verdoppelt + ein vergrößerter L2$ könnte an die spekulierten 128mb ran kommen.
OK, die Folie kannte ich noch nicht. Allerdings werden diese 45MB im wesentlichen irgendwelche kleinen Buffer an allen möglichen Stellen sein, denn der nominelle Cache auf dem Chip ist viel kleiner, wie ich oben schrieb - selbst wenn man die Register mitzählt. Es wäre schon merkwürdig, wenn AMD hunderte kleine Puffer zusammenkratzt und dann sagst, dass das jetzt der "Infinity Cache" sei. Der Name suggeriert ja eher, dass es sich um ein Element handelt oder meinetwegen auch um einen Verbund aus einer Hand voll Elementen (z.B. Caches, die sich dynamisch zusammenschalten).
WedgeAntilles
2020-10-22, 11:50:28
Du gibst wirklich 600-700€ für eine Grafikkarte aus, um im Jahr 2021 in Full HD zu spielen? Diese Nutzungsszenarien hier faszinieren mich jeden Tags aufs Neue :biggrin:
Wenn es eine gute GraKa für 350 Euro gibt, ist mir das lieber.
Wenn ich aber die Wahl zwischen einer 3070 für 500 Euro und einer 3080 für 700 Euro habe, ist die 3080 die bessere Wahl.
Die hat 40% mehr Leistung (ja, unter Full HD weniger, aber in ein paar Jahren mit anspruchsvolleren Spielen wird sich das wohl eher erweitern) und ist - für FullHD - mit 10GB akzeptabel bestückt. 8GB könnte da schon eher eng werden.
Die 3080 kostet mich 200 Euro mehr, dafür kann ich die aber locker wieder 5 Jahre verwenden. Vielleicht auch 6 Jahre.
(Zum Vergleich: Aktuell habe ich eine inzwsichen 5,5 Jahre alte GTX 970 drin. Und die 3080 ist näher an der absoluten Leistungsspitze dran, als es die GTX 970 war. Wenn ich mit der GTX 970 also über 5 Jahre klar komme, komme ich mit der 3080 auch mindestens 5 Jahre klar.)
Gleichzeitig kann ich mit der 3080 deutlich länger alles auf Max laufen haben wie mit der 3070.
(Denn klar: Ich kann nicht 5-6 Jahre alles auf Max haben - im Laufe der Zeit muss da reduziert werden.)
Die 3080 ist für mich überdimensioniert - richtig, keine Diskussion.
Die Alternative, die 3070, ist leistungstechnisch eigentlich ausreichend.
Aber der Preisunterschied ist so gering, dass es sich IMO kaum lohnt zur 3070 zu greifen.
Das sind - bei einer Nutzungsdauer von 5 Jahren - nur 40 Euro pro Jahr.
Dafür bessere Reserven, länger maximale Details und Co.
(Würde die 3070 nur 350 Euro kaufen, würde ich zur 3070 greifen.)
Möglich, dass bei BigNavi die Preisgestaltung anders ist - und da dann eine Karte die eine Nummer kleiner ist, mein FAvorit werden. Ich kann aber nur von dem ausgehen, was bisher bekannt ist.
Und das ist bisher nur das Ampere-Setup mit der 3080 + 3070.
Kannst du meinen Gedankengang halbwegs nachvollziehen?
Denn ja, der Gedanke eine 700 Euro GraKa zu kaufen für FullHD ist zunächst mal eher abartig^^
Und bevor Nvidia die Preisgestaltung + Leistung bekannt gegeben hat, habe ich es für völlig ausgeschlossen gehalten, dass mich die 3080 interessieren könnte.
Ich war da nach den Gerüchten an einer 3060TI, 3070, so was in der Art interessiert gewesen.
Bei der 3080 hätte ich mit deutlich weniger Mehrleistung im Vergleich zur 3070 gerechnet, und außerdem mit einem höheren Preis. Also ähnlich wie bei der 2070 vs 2080, bei der die 2080 völlig unattraktiv für mich ist.
Es wäre schon merkwürdig, wenn AMD hunderte kleine Puffer zusammenkratzt und dann sagst, dass das jetzt der "Infinity Cache" sei.
War nicht genau von sowas die Rede in dem AMD Patent was vor einiger Zeit auftauchte?
Einfach nur eine Art ESRAM mit 128MB fände ich merkwürdig/verzweifelt.
Complicated
2020-10-22, 11:56:53
Es wäre schon merkwürdig, wenn AMD hunderte kleine Puffer zusammenkratzt und dann sagst, dass das jetzt der "Infinity Cache" sei. Der Name suggeriert ja eher, dass es sich um ein Element handelt oder meinetwegen auch um einen Verbund aus einer Hand voll Elementen (z.B. Caches, die sich dynamisch zusammenschalten).
Genau das zeigt mein verlinktes Video.
WedgeAntilles
2020-10-22, 11:58:48
Wie oft hat es sich den leistungsmäßig wirklich gelohnt, jede Generation die GPU zu tauschen, sofern man im gleichen Marktsegment bleibt?
Mir persönlich wäre das eigentlich zu wenig Fortschritt angesichts der Investition. Ja, ich weiß, mancher will nur das Bestmögliche und Geld interessiert da nicht, aber das dürfte eher eine Minderheit sein.
Navi2 (und Ampere) sind definitiv eher für diejenigen interessant, die noch auf älteren Generationen sitzen oder eben in ein höheres Segment wechseln wollen.
Nur mal als Vergleich:
Auf der letzten Lan im Dezember 2019 war ich mit meiner GTX 970 im oberen Drittel der GraKas.
Bei ca. 20 Leuten.
Ich sage nicht, dass wir eine repräsentative Gruppe sind - aber wenn man sich außerhalb von Foren wie dem 3DC umsieht, hat kaum einer ne 2070 oder ähnliches.
Da ist ne 1060 schon fast das höchste der Gefühle, meist noch viel älter. (Passt auch recht gut zu dem ,was man bei STeam so sieht.)
Die überwältigende Mehrheit der Leute wird vermuitlich 2, eher sogar 3-4 Generationen überspringen bis da mal eine neue GraKa kommt.
Screemer
2020-10-22, 12:06:05
nicht nur das. es wird auch schlicht in nem preis- und nicht performancebereich gekauft.
WedgeAntilles
2020-10-22, 12:16:55
nicht nur das. es wird auch schlicht in nem preis- und nicht performancebereich gekauft.
Richtig, ich war im Freundeskreis eigentlich fast der einzige, der sich eine neue GraKa im Bereich 250 Euro aufwärts gekauft hat.
Also quasi die xx70 Version.
Die meisten haben für ne GraKa so 150 Euro, 180 Euro, vielleicht mal 200 Euro ausgegeben.
Eben die xx60 Version (wobei sich die Namen natürlich im Laufe der Jahre, bei mir Jahrzehnte, geändert haben)
Und nein, ich will natürlich nicht meinen Freundeskreis zu einer repräsentativen Gruppe machen.
Aber man muss sich klar vor Augen halten, wie wenig die User des 3DC mit der großen Marktmehrheit zu tun haben.
(Das meine ich jetzt weder positiv noch negativ.)
mironicus
2020-10-22, 12:28:08
Aber man muss sich klar vor Augen halten, wie wenig die User des 3DC mit der großen Marktmehrheit zu tun haben.
(Das meine ich jetzt weder positiv noch negativ.)
Ja, und die Marktdurchdringung von Turing-Karten war schon extrem gering. RDNA2 wird dagegen schon in wenigen Wochen in mehreren Millionen Haushalten stehen... :freak:
Birdman
2020-10-22, 12:28:25
Lol
RT OFF = 2080ti
RT ON = ab 2060
Realitätsverlust oder "geschickte" Werbung? Ich tippe eher auf "geschickte" Werbung. :biggrin:
Du solltest diese Bilder/Tabellen nochmals anschauen/lesen und korrekt interpretieren. Machst dich hier ansonsten nur lächerlich.
Cadmus
2020-10-22, 12:45:03
Mein Ziel ist es, Cyberpunk sowie Control in 4k60 mit höchstmöglichen Details zu spielen, RT nehme ich gerne als Topping obendrauf mit. Eigentlich ist es mir auch ziemlich egal, ob Ampere oder BN ... wenn denn das eine oder das andere mal zur Verfügung stehen würde :)
Piefkee
2020-10-22, 12:48:19
https://twitter.com/patrickschur_/status/1319221360867086336?s=21
[MK2]Mythos
2020-10-22, 12:56:26
https://twitter.com/patrickschur_/status/1319221360867086336?s=21
Wie ich es schon seit wochen sage, es läuft auf bignavi vs ga104 hinaus.
Wer nach der aktion was anderes behauptet darf das gerne machen... eintreffen wird es nur nicht.
Mist, Dural hatte recht. Nur dass Big Navi die RTX3070 um 30% schlägt, hat er halt verschwiegen. :(
Der_Korken
2020-10-22, 13:02:23
War nicht genau von sowas die Rede in dem AMD Patent was vor einiger Zeit auftauchte?
Einfach nur eine Art ESRAM mit 128MB fände ich merkwürdig/verzweifelt.
Genau das zeigt mein verlinktes Video.
Nein. Die 45MB SRAM, die V10 angeblich haben soll, sind nur zu einem winzigen Teil Caches, wie ich oben bereits ausgrechnet habe. Die Zahl wirkt eher so, als ob man jedes Flip-Flop auf dem Chip gezählt hat und dann gesagt hat, die ergeben zusammen 45MB. Register sind im eigentlichen Sinne auch kein Cache, sondern direkt adressierbarer Speicher. Wenn man so zählt, hat ein 3950X wahrscheinlich auch über 100MB SRAM - irgendwo verteilt über hunderte Buffer in den einzelne IF-Hops.
eswegen: Wenn AMD etwas als 128MB Infinity Cache bewirbt, dann erwarte ich auch etwas, das sich in irgendeiner Weise wie ein großer Cache verhält. Meinetwegen können die jedem Shader Array 16MB L1$ geben und dann sagen, die acht L1-Caches unterstützen Sharing und können im best case 128MB vorhalten, auch wenn man in der Praxis aus Effizienzgründen eher dupliziert, um die Wege kurz zu halten. Das kann man gerne als Infinity Cache bezeichnen.
dargo
2020-10-22, 13:16:53
Mythos;12469229']Mist, Dural hatte recht. Nur dass Big Navi die RTX3070 um 30% schlägt, hat er halt verschwiegen. :(
owned ;D
Complicated
2020-10-22, 13:18:57
Nein. Die 45MB SRAM, die V10 angeblich haben soll, sind nur zu einem winzigen Teil Caches, wie ich oben bereits ausgrechnet habe. Die Zahl wirkt eher so, als ob man jedes Flip-Flop auf dem Chip gezählt hat und dann gesagt hat, die ergeben zusammen 45MB. Register sind im eigentlichen Sinne auch kein Cache, sondern direkt adressierbarer Speicher. Wenn man so zählt, hat ein 3950X wahrscheinlich auch über 100MB SRAM - irgendwo verteilt über hunderte Buffer in den einzelne IF-Hops. Du mißverstehst mich. Das Video zeigt das Prinzip wie AMD das mit dem L1-Cache macht und nicht bezogen auf die von dir gezählten 45MB SRAM. Die L2-Abfragen aus L1-Misses werden um um 80%. Das ergibt sich doch direkt aus dem Video.
Cyberfries
2020-10-22, 13:29:14
Wenn AMD etwas als 128MB Infinity Cache bewirbt
Schon richtig, aber:
- Es ist nicht gesichert, dass überhaupt Infinity Cache beworben wird
- Muss etwas namens Infinity Cache nicht Speicher sein, kann auch Verfahren oder Technologie sein
- selbst wenn beides zutrifft ist nicht sicher, dass AMD mit 128mb wirbt.
Wir wissen eigentlich nur, dass Redgamingtech diesen Namen und diese Zahl genannt hat
und dass einige Wochen später dieser Name geschützt wurde.
Der_Korken
2020-10-22, 13:30:14
Du mißverstehst mich. Das Video zeigt das Prinzip wie AMD das mit dem L1-Cache macht und nicht bezogen auf die von dir gezählten 45MB SRAM. Die L2-Abfragen aus L1-Misses werden um um 80%. Das ergibt sich doch direkt aus dem Video.
Wir reden aneinander vorbei. Ich bezog mich auf den Post von Cyberfries:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12469019#post12469019
Er sagte, dass die 128MB eventuell nicht daraus resultieren, dass AMD einen großen Cache drangebaut hat, sondern aus der Gesamtheit vieler kleiner Caches. Und dass 128MB gar nicht so viel sein könnten, wenn V10 schon auf 45MB SRAM kommt. Prinzipiell kann er Recht haben, dass der "Infinity Cache" ein verteilter Cache ist, aber die 45MB ergeben in dem Zusammenhang für mich keinen Sinn, weil hier unmöglich echte Cache gezählt wurden. Ergo glaube ich nicht, dass man diese 128MB in einen 370mm²-Chip reinbekommt, sondern dass dafür ordentlich Fläche aufgewendet werden muss.
Das Video von dir, das ich hier vor ein paar Wochen schon mal kommentiert habe, hat damit erstmal nichts zu tun, außer dass es prinzipiell möglich ist gleichartige und räumlich beeinanderliegende Caches zusammenzuschließen (das schließe ich auch explizit nicht aus, das AMD sowas irgendwo macht). Die Betonung liegt auf "gleichartige", d.h. du kannst nicht einfach jedes Flip-Flop auf dem Chip zusammenkratzen und sagen, das ist jetzt alles ein großer Cache.
Edit: @Cyberfries: Ja das stimmt. Ich hatte dieses Gerücht nur nochmal aufgegriffen, weil ich in meiner Rekapitulation das nicht geklärte Bandbreiten-Problem erwähnt habe. Und bevor Complicated wieder mit seinem Video dazwischengrätscht: Nein, ich bin immer noch der Meinung, dass man dieses Problem nicht mit Cache Sharing lösen kann :D.
Iscaran
2020-10-22, 13:34:08
Daraus erfolgt ein +49% bei der Energieeffizienz RDNA->RDNA2 (Bekannte Kennzahl ;) )
Und hier würde auch ein +22% bei der IPC erfolgen, was bei den Spekulationen ja bisher überhaupt nicht berücksichtigt wurde. Ich spekuliere dieses grundlegende Cache-Redesign ermöglicht die kleineren SIs und überwindet Skalierungsprobleme bei mehr CUs.
Ja das deckt sich auch mit dem was ich vor einigen Seiten mal schrieb, daß der Infinity Cache sich eher auf eine erneute Umorganisation und Anpassung der Arbeitshierarchien auf CU-Ebene bezieht. Denn die von AMD veröffentlichten Research paper sind irgendwie alle auf dem Gebiet "Bandwidth Efficiency" unterwegs (links zu den Arbeiten gab ich vor ein paar Seiten schon hier).
Irgendwie scheint mir das auch plausibel zu sein dass man damit zumindest auch partiell das "Scaling"-Problem (zu mehr CUs) etwas umgangen hat.
Das kam mir wieder in den Sinn als ich diese Benchmarks von Coealacanth gesehen hatte zum scaling verhalten von Polaris von 2 bis zu 16 CUs: https://www.coelacanth-dream.com/posts/2020/08/06/polaris11-cu-scaling-test/
Möchte vielleicht jemand mit einer 5700XT und entsprechenden Kenntnissen versuchen das mal mit so einer Karte nachzustellen ? Die einzelnen CUs sind wohl abschaltbar per Treiber-Edit seit neuestem (liest sich zumindest so bei Coelacanth). Ist aber vielleicht auch nur der Linux Treiber der das kann.
Mich würde interessieren ob die 5700 XT auch bis 40CU noch perfekt skaliert - oder ob man da schon vorher Effekte findet.
Wenn N2x ein TBDR ist, dann braucht das Ganze doch einen Tile-Cache oder? Das könnte man doch schlicht Infinity Cache nennen...
Adam D.
2020-10-22, 14:23:49
https://twitter.com/patrickschur_/status/1319221360867086336?s=21
Kann mir mal einer erklären, warum Patrick den Vergleich 3070-N21XT zieht? Um exakt das Gerücht zu kontern, Big Navi kann es nur mit der 3070 aufnehmen? Inzwischen war doch recht absehbar, dass AMD mehr zu bieten hat.
Iscaran
2020-10-22, 14:26:52
"Breakthrough Gaming Architecture"
"For PC and consoles"
https://twitter.com/i/status/1303726639013036033
Das klingt für mich nicht danach, das man hier die zweite Reihe anvisiert hat.
Complicated
2020-10-22, 14:27:03
Ergo glaube ich nicht, dass man diese 128MB in einen 370mm²-Chip reinbekommt, sondern dass dafür ordentlich Fläche aufgewendet werden muss..Dem habe ich zugestimmt und darüber hinausführend das Video verlinkt, wie das AMD meiner Meinung nach zum Teil umgesetzt hat. Die aufzuwendende Fläche laut Video ist 0,09 mm²/CU für dieses Feature. Sehe als weiterführenden Gedanken.
Hier auch nochmal das zugehörige Paper:
https://adwaitjog.github.io/docs/pdf/sharedl1-pact20.pdf
mironicus
2020-10-22, 14:29:55
Die 3070 ist wohl der auserkorene Gegner für N21XT seitens AMD und wird preislich auf dem Niveau liegen aber dafür halt schneller und mehr Speicher bieten.
Und gegen die 3080 hat AMD dann noch den größten Navi.
Iscaran
2020-10-22, 14:30:24
Wieviel KB an Cache bekäme man denn in 0.09 mm2 ?
Bzw. *80 = 7.2 mm2
WedgeAntilles
2020-10-22, 14:30:47
Ist der Konkurrent der 3070 nicht auch eher die XL?
Wenn die XT im Bereich 600 Euro aufschlägt (Mittelwert von
http://www.3dcenter.org/news/ein-erster-grober-ueberblick-zum-radeon-rx-6000-grafikkarten-portfolio)
ist sie ja auch teurer als die 500 Euro oder 3070.
Interessanter wäre da der Leistungsvergleich der XL die ja bei ca. 450 Euro erwartet wird. (wieder Mittelwert von obigem Link)
Sorry, aber so ist es einfach nur ein ziemlich lächerlicher Vergleich mit dem einzigen Ziel Nvidia eins reinzuwürgen.
nvidia bietet ja genug Angriffsfläche, da braucht man nicht künstlich mit falschen Vergleichskarten versuchen Nvidia schlecht dastehen zu lassen.
Das wirkt einfach billig und unseriös.
[MK2]Mythos
2020-10-22, 14:31:01
Die 3070 ist wohl der auserkorene Gegner für N21XT seitens AMD und wird preislich auf dem Niveau liegen aber dafür halt schneller und mehr Speicher bieten.
Und gegen die 3080 hat AMD dann noch den größten Navi.
Ziemlich unwahrscheinlich.
Linmoum
2020-10-22, 14:31:25
Kann mir mal einer erklären, warum Patrick den Vergleich 3070-N21XT zieht? Um exakt das Gerücht zu kontern, Big Navi kann es nur mit der 3070 aufnehmen? Inzwischen war doch recht absehbar, dass AMD mehr zu bieten hat.Frag ihn doch selber hier, er wird dir bestimmt antworten. ;)
basix
2020-10-22, 14:36:35
Wenn ich die momentane Lage beurteilen würde:
N21 XL <3080; >3070
N22 N21 XT ~3080
N21 XTX ~3090
AMD also Head to Head mit GA102. Das Zünglein an der Waage wird RT sowie DLSS-mässiges Upsampling sein. Speicher bietet AMD sowieso in sinnvolleren Mengen.
Dural
2020-10-22, 14:39:21
3070 vs XT :rolleyes:
basix
2020-10-22, 14:39:47
3070 vs XT :rolleyes:
Die Wette gilt! :D
Aber ja, habe mich verschrieben. N22 XT(X) gegen 3070 ;)
Dural
2020-10-22, 14:42:47
OK, reiner Spiele Durchschnitt am besten CB.
dargo
2020-10-22, 14:42:47
3070 vs XT :rolleyes:
Wie kann man sich nur so blamieren? :facepalm:
Der_Korken
2020-10-22, 14:43:46
Dem habe ich zugestimmt und darüber hinausführend das Video verlinkt wie das AMD meiner Meinung nach zum Teil umgesetzt hat. Die aufzuwendende Fläche laut Video ist 0,09 mm²/CU für dieses Feature. Sehe als weiterführenden Gedanken.
Der Flächenbedarf für das Feature ist tatsächlich vernachlässigbar. Ich frage mich nur, auf welcher Ebene AMD das Feature implementieren würde, denn im Video gibt es nur lokale L1-Caches in den CUs und einen shared L2-Cache, den man aus Energiegründen möglichst selten ansteuern möchte.
RDNA1 hat aber bereits eine Zwischenstufe zwischen dem LLC und den CUs. Würde man die CUs in einem SA sharen lassen, wäre der L1$ irgendwie überflüssig, weil die 10CUs darunter bereits in Summe 160kB haben. Würde man auf SA-Ebene Sharing betreiben, ist das energetisch entweder unsinnig (die L1-Slices sind bei N10 teilweise bereits so weit auseinander wie sie vom L2 entfernt sind) oder man müsste sich auf 2 oder 4 Slices beschränken, was den Gewinn des Features wieder schmälert. Am ehesten könnte man den L1 von RDNA1 durch das Feature ersetzen, aber warum hätte AMD diesen Zwischencache einführen und als neues Feature bewerben sollen, wenn er in der nächsten Gen direkt wieder verschwindet? Ich kann mir da aktuell keinen Reim drauf machen.
Wieviel KB an Cache bekäme man denn in 0.09 mm2 ?
Bzw. *80 = 7.2 mm2
Ausgehend von Matisse braucht man ca. 1mm² pro 1MB Cache. Kleinere Caches mit geringeren Latenzen oder mehr Bandbreite brauchen tendenziell mehr (zumindest sieht es für mich auf den Die-Shots so als würde der 512kB L2 im Verhältnis mehr Platz brauchen als der L3). Somit reichen 7,2mm² bestenfalls, um den L2 von 8 auf 16MB zu verdoppeln.
Dural
2020-10-22, 14:48:49
Noch ein Nachtrag: in 4K
Wer steigt mit ein? :tongue:
Complicated
2020-10-22, 14:51:20
Wieviel KB an Cache bekäme man denn in 0.09 mm2 ?
Bzw. *80 = 7.2 mm2
Ich denke es wurde nicht mehr Cache verbaut, sondern eine "Controll Fabric (IF?)" um die Snoops zu machen. Zusätzliche Datenkanäle für die Eliminierung der doppelte L1-Einträge. Also keine Kohärenz, sondern Platz schaffen mit Referenzierung auf schon vorhandene Einträge. Eine Art Deduplizierung, die in einem Register gespeichert wird und den L1 der CU verfügbar macht für neue Daten, solange diese nicht schon im L1 durch eine andere (Dual)-CU bereitgestellt wird. Dadurch wird die Menge der unterschiedlichen Daten im L1 erhöht und es gibt 80% weniger L1-Miss Rate. Die Wirkung ist die selbe als wäre mehr Cache verbaut, kostet auf dem Die aber lediglich die zusätzliche L1-Control-Logik. Es wird im Paper als Shared L1++ bezeichnet.
Am ehesten könnte man den L1 von RDNA1 durch das Feature ersetzen, aber warum hätte AMD diesen Zwischencache einführen und als neues Feature bewerben sollen, wenn er in der nächsten Gen direkt wieder verschwindet? Ich kann mir da aktuell keinen Reim drauf machen.
Es ist nur die logische Weiterentwicklung des L1-Shared Cache den RDNA hat.
Das steht doch Wort für Wort mit Vergleich zu dem RDNA-Shared L1 Cache in dem Paper und ist genau so in dem Video erklärt. Die Weiterentwicklung ist mit den "++" bezeichnet.
Der jetzige Shared-L1-Cache hat jeweils die Daten der einzelnen CUs für alle verfügbar. Nun ist es bei GPUs jedoch häufig der Fall, dass die CUs an identischen Daten arbeiten, dafür sind sie ja in der Breite angelegt worden. Dadurch finden sich an vielen Stellen der einzelnen L1-die selben Daten. Fügt man wie beschrieben eine Kontrollogik hinzu, die das managed und sozusagen doppelte Daten nicht zuläßt, enthält der L1 mehr unterschiedliche Daten die nutzbar werden ohne L2-Zugriff.
Dural
2020-10-22, 14:59:26
Mach definitiv mehr Sinn als der grosse Cache quatsch.
Piefkee
2020-10-22, 15:04:37
3070 vs XT :rolleyes:
3070 8749 Pkt. FSU
Navi21 XT >10000 Pkt FSU
Das sind fast 30% unterschied
6900xt über 3080
6800xt = 3080
6800 über 3070
6700 unter 3070 über 3060ti
Iscaran
2020-10-22, 15:11:25
Ich denke es wurde nicht mehr Cache verbaut, sondern eine "Controll Fabric (IF?)" um die Snoops zu machen.
...*schnipp* um weniger zitieren zu müssen*
Das könnte den ultra geringen Flächenbedarf gut erklären.
Oh Mann - selten war ich so gespannt auf eine Releasetermin wie diesmal :-).
Zur Einordnung ich gebe mal Prognosen ab in Form von 3d-Center Index-punkten:
Navi21@80CU @2.4GHz Game Clock = 160%
Navi21@72CU @2.3GHz Game Clock = 140%
Navi21@64CU @2.15GHz Game Clock = 115%
Zum Vergleich die Indexwerte
RTX 3090 - 158% (gemessen)@350W
RTX 3080 - 138% (gemessen)@320W
RTX 3070 - 100% (spekuliert)@?W = 2080 Ti
Navi21@72CU@2.577 GHz Game Clock wären meiner Abschätzung nach ca 155%.
Damit dürften dann aber auch diese TBPs fällig sein:
N21@80CU@2.4GHz = 350W
N21@72CU@2.3GHz = 320W
N21@64CU@2.15GHz = 250W
Complicated
2020-10-22, 15:12:40
Ab Minute 4:24 ist das Schritt für Schritt beschrieben:
https://youtu.be/CGIhOnt7F6s?t=264
Findet eine CU (Request) im gemeinsamen L1-Cache einer anderen CU (Home), die Daten die Sie braucht, wird dies in Ihrem eigenen L1-Cache abgelegt und ist damit dann doppelt vorhanden (RDNA1). Die neue Technik (RDNA2) scheint also lediglich die Information zu benötigen, dass dies im L1 (Home) schon vorhanden war (Hit) um zu verhindern, dass diese Daten den L1 der CU (Request) ebenfalls belegt. Erfolgt ein Zugriff auf den L2 (da Shared L1-Miss) so werden diese Daten im L1 der CU(Request) abgelegt und stehen jetzt weiter zur Verfügung - Sie werden auch erst wieder gelöscht wenn die CU andere Daten aus L2 benötigt.
Cyberfries
2020-10-22, 15:36:14
Ist schon wieder Spekulatius-Zeit? Ich will auch:
|RTX 3090|6900 XT|RTX 3080|6800 XT|Ga104-150|6800|RTX 3070|6700 XT|RTX 2080 S
3dc-Index|364%|~340%|325%|~300%|~290%|~270%|~250%|~210%|205%
Vergleich|-|-7%|-5%|-8%|-3%|-7%|-7%|-19%|-2%
Das sind fast 30% unterschied
10000 / 8749 = 1,14 -> 14%
Wieviel KB an Cache bekäme man denn in 0.09 mm2 ?
Bzw. *80 = 7.2 mm2
2,5mb L2$ laut der Flächenberechnung von 0x22h
Linmoum
2020-10-22, 15:43:52
Er sagte über 10000. Wenn ihr anhand dessen schon spekulieren wollt, dann fragt ihn doch nach dem genauen Score. ;)
Complicated
2020-10-22, 15:44:40
Und ich glaube der Clou an der ganzen Sache wird, sein, dass dieses Cache-Reorganisierung mit AMDs Hybrid-Raytracing sehr gut korreliert. Schaut man sich die dort beschriebene Schematik der TXT/RT-Einheiten an:
https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2019/07/2-1-880x507.jpg
Denniss
2020-10-22, 15:50:57
Bitte tut mir einen Gefallen und packt Dural auf eure Ignoreliste dann muß ich seinen geistigen Durchfall nicht immer in Zitaten lesen.
Dural
2020-10-22, 15:51:49
Das sagen nur die, die nicht fähig sind % zu rechnen, sieht man gerade im Navi Thread komischerweise immer wieder... (wie so wohl)
Er sagte über 10000. Wenn ihr anhand dessen schon spekulieren wollt, dann fragt ihn doch nach dem genauen Score. ;)
Es gibt noch keine Performence Treiber... Einzig brauchbare Leaks kommen eh nur aus China.
dargo
2020-10-22, 15:55:24
3070 8749 Pkt. FSU
Navi21 XT >10000 Pkt FSU
Das sind fast 30% unterschied
Ähm... what? :D
Also bei mir sind es mindestens +14,3% da wir nur wissen >10.000 Punkte. ;)
Brillus
2020-10-22, 16:02:43
Das sagen nur die, die nicht fähig sind % zu rechnen, sieht man gerade im Navi Thread komischerweise immer wieder... (wie so wohl)
Es gibt noch keine Performence Treiber... Einzig brauchbare Leaks kommen eh nur aus China.
Was soll der Horn-Treiber nun bei NV sein?
Dural
2020-10-22, 16:08:27
Ehm was?
Gestern wurde noch mal bestätigt das es keinen Performence Treiber aktuell für Navi2 gibt.
Aus China kommen die brauchbaren Leaks weil dort die Karten Hergestellt werden, sprich Hardware zuerst da ist, sobald der Treiber von AMD in Umlauf gebracht wird, wird es auch Leaks geben.
Nazar
2020-10-22, 16:12:32
Kann mir mal einer erklären, warum Patrick den Vergleich 3070-N21XT zieht? Um exakt das Gerücht zu kontern, Big Navi kann es nur mit der 3070 aufnehmen? Inzwischen war doch recht absehbar, dass AMD mehr zu bieten hat.
Die Ergebnisse der 3070 sind, verglichen mit meiner 2080ti, sehr inkonsistent.
Meine 2080Ti GPU Punkte versus der 3070
FSU = 8637 / 8749
FSE = 17406 / 17115
TS = 15636 / 13945
TSE = 7366 / 6907
Damit wäre die 3070 ungefähr bei einer leicht OC 2080ti, wenn es um alte Anforderungen geht (FireStrike). Bei moderneren Spielen fällt sie aber zurück (Time Spy), zwischen 10% und 6% langsamer.
Eine 3080 soll derzeit bei ungefähr 10500 GPU Punkten beim TSE liegen, wenn Patrickschur nun sagt, die XT liege bei über 10.000 Punkten, liegt die XT in der Nähe der 3080, eventuell sogar gleich auf.
Damit ist doch fast alles so wie bisher spekuliert wurde. :wink:
Linmoum
2020-10-22, 16:13:51
Gestern wurde noch mal bestätigt das es keinen Performence Treiber aktuell für Navi2 gibt.Nein. Laut @patrickschur gibt's den "unlocked" für die AiB schon seit September.
dargo
2020-10-22, 16:14:26
Eine 3080 soll derzeit bei ungefähr 10500 GPU Punkten beim TSE liegen, wenn Patrickschnur nun sagt, die XT liege bei über 10.000 Punkten, liegt die XT in der Nähe der 3080, eventuell sogar gleich auf.
Damit ist doch fast alles so wie bisher spekuliert wurde. :wink:
11.000 und 12.000 Punkte sind auch >10.000 Punkte. ;)
Dural
2020-10-22, 16:15:08
Ingor hat gestern im Video ganz klar gesagt das es noch keinen Treiber gibt.
Linmoum
2020-10-22, 16:18:09
Igor hat das vBIOS überhaupt erst von Schur bekommen, was er dann da gezeigt hat. Insofern weiß ich, wer da glaubwürdiger ist.
Redneck
2020-10-22, 16:19:37
Wenn ich die momentane Lage beurteilen würde:
N21 XL <3080; >3070
N22 N21 XT ~3080
N21 XTX ~3090
AMD also Head to Head mit GA102. Das Zünglein an der Waage wird RT sowie DLSS-mässiges Upsampling sein. Speicher bietet AMD sowieso in sinnvolleren Mengen.
Wenn Du die Wahl hast entweder DLLS+8/10GB oder 16GB ohne DLSS, was würdest Du wählen ?
Nazar
2020-10-22, 16:20:16
11.000 und 12.000 Punkte sind auch >10.000 Punkte. ;)
Ja, aber würde man dann nicht damit "angeben" und sagen über 12.000 Punkte, also immer den möglichst höchsten Wert nehmen?
Es kann aber durchaus so sein, dass die XT das schafft, doch das glaube ich nicht. ;)
E:Wenn Du die Wahl hast entweder DLLS+8/10GB oder 16GB ohne DLSS, was würdest Du wählen ?
Meine Antwort wäre:
"Da DLSS nur in speziellen Spielen und dann auch nicht immer optimal nutzbar ist, immer die 16GB. Die sind auch nutzbar, wenn DLSS noch optimiert werden muss oder gar nicht für ein Spiel vorgesehen ist."
Screemer
2020-10-22, 16:20:20
wenn das eine frage in die runde war. hier meine antwort: letzteres
Complicated
2020-10-22, 16:21:08
Nein. Laut @patrickschur gibt's den "unlocked" für die AiB schon seit September.Das widerspricht sich ja nicht. Der Lock war für die möglichen Taktfrequenzen. "Performance-Treiber" werden die Optimierungen auf die einzelnen Spiele sein, die ja oftmals kurze Zeit später erfolgen.
[MK2]Mythos
2020-10-22, 16:22:39
Bitte tut mir einen Gefallen und packt Dural auf eure Ignoreliste dann muß ich seinen geistigen Durchfall nicht immer in Zitaten lesen.
Normalerweise wäre ich bei so einer Bitte komplett bei dir. Aber im Gegensatz zu den anderen Trollen im 3DC, ist Dural doch wirklich ein unterhaltsamer Dude mit hohem Comedyfaktor. Wenn man aufhört, sich über den Quatsch zu ärgern und anfängt, darüber zu lachen, ist es viel erträglicher, glaub mir! :)
dargo
2020-10-22, 16:22:45
Ja, aber würde man dann nicht damit "angeben" und sagen über 12.000 Punkte, also immer den möglichst höchsten Wert nehmen?
Es kann aber durchaus so sein, dass die XT das schafft, doch das glaube ich nicht. ;)
Muss Patrick mit irgendwas angeben? Also wenn ich den genauen Score kennen würde und das grüne Lager trollen wöllte hätte ich auch >10.000 Punkte geschrieben. :tongue:
Linmoum
2020-10-22, 16:23:56
Wenn Du die Wahl hast entweder DLLS+8/10GB oder 16GB ohne DLSS, was würdest Du wählen ?Natürlich letzteres. Das eine ist spieleabhängig und kommt gefühlt bei 1,5% aller Spiele bisher zum Einsatz. Mehr Speicher hilft immer, gerade in hohen Auflösungen oder wenn man z.B. gerne modded.
Leonidas
2020-10-22, 16:26:55
Die 3070 ist wohl der auserkorene Gegner für N21XT seitens AMD und wird preislich auf dem Niveau liegen aber dafür halt schneller und mehr Speicher bieten.
Sowas würde ich auf keinen Fall versprechen. Da kann man nur enttäuscht werden.
Preislich wird sich AMD so legen, dass es ähnlich wie NV ist. Weil einen Preiskrieg will keiner und angesichts knapper Wafer lohnt das sowieso nicht.
patrickschur
2020-10-22, 16:39:11
Es gibt noch keine Performence Treiber... Einzig brauchbare Leaks kommen eh nur aus China.
Dazu fällt mir echt nichts mehr ein... Wo sind denn dann die ganzen China Leaks? Die Performance Treiber gibt es übrigens auch schon. Da hört mir aber anscheinend jemand nicht zu.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.