PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

basix
2020-09-17, 22:15:49
Ich habe es vor ein paar Tagen ja auch gesagt :D

Aber wenn man beide PHYs drauf hätte, wird man auch beide gleichzeitig nutzen wollen. Alles andere wäre Verschwendung.

why_me
2020-09-17, 22:16:26
Wie einfach keiner Infos hat, und die Infos, die bekannt sind 256 bit + cache, Engineering board, etc. will keiner glauben :biggrin:;D:crazy:

Badesalz
2020-09-17, 22:19:33
Das bleibt aber lahm. Was man als Speku nehmen könnte wäre, wenn es dirtekt unter der GPU liegt und die Bahnen max. 10mm bis zu GPU haben. Und man deswegen die Speicherzellen jenseits HBM2E Specs fahren kann. "Custom HBM" :freak:

Die Idee gefällt mir ja schon länger :wink: auch wenn mir klar ist wie problematisch das alles wäre :frown:

basix
2020-09-17, 22:21:21
Hat schon einer ein Bildchen gemalt :D
https://twitter.com/yasunya6/status/1306682248154898432

tEd
2020-09-17, 22:45:33
HBM2 L3
GDDR6 L4
RAM L5
SDD L6
;D;D;D;D;D;D;D;D;D

w0mbat
2020-09-17, 22:50:07
VelociRaptor 15k RPM Raid0 L7

BiZiNiZz
2020-09-17, 22:54:25
Mir fehlt als Feature immer noch der Kühlschrank, keine Lust immer zum Kühlschrank zu rennen :freak:

basix
2020-09-17, 23:04:25
Mir fehlt als Feature immer noch der Kühlschrank, keine Lust immer zum Kühlschrank zu rennen :freak:

Dein PC wird zum Kühlschrank. Wegen dem RDNA2 Feature "negative Verlustleistung", ca. -500W, hast du insgesamt bestimmt 200-300W Kühlleistung im PC ;D

Piefkee
2020-09-17, 23:05:19
Hat schon einer ein Bildchen gemalt :D
https://twitter.com/yasunya6/status/1306682248154898432

Tweet gelöscht...

[MK2]Mythos
2020-09-17, 23:12:50
Tweet gelöscht...
Leaks werden halt rigoros verfolgt und eliminiert.

Piefkee
2020-09-17, 23:14:44
Mythos;12430038']Leaks werden halt rigoros verfolgt und eliminiert.

Hm
Naja irgendwas wird AMD mit dem memory System gemacht haben.
An einen 256bit GDDR6 glaube ich nicht...

tEd
2020-09-17, 23:16:41
Es war kein leak. Er hat es als reine Spekulation seinerseits angegeben.

Brillus
2020-09-17, 23:18:34
Um was anderes geht es mir auch nicht.
Ich zweifel ja gar nicht an das diese Werte auch erreicht werden. Natürlich werden solche Werte so gewählt das Sie das Optimum zeigen. Das macht NV ja auch nicht anders.

Nur kann man aus den 50% bei RDNA2 auch nicht wirklich was schließen. Außer das Sie in einem Fall wohl eintreten. Mehr aber auch nicht.
Gerade nicht mit solchen Aussagen hat AMD in der letzten Zeit nicht das optimale Ergebniss gezeigt sondern eher immer tief gestapelt.

Der_Korken
2020-09-18, 00:19:06
Habe aber auch keine Ahnung, wie das funktionieren soll und hätte auf HBM2e gehofft.... Auf der anderen Seite hat eine 5700 xt nur 16 MB L1+L2, 128 sind 8x davon, also eine größe die wir so als Cache noch nie gesehen haben (eventuell kann man hier noch die Iris Pro zählen).
Selbst Nvidias A100 hat "nur" 40 MB L2 Cache...

Die 5700XT hat nur 4,5MB L1+L2 (4x128kB+4MB). Wenn N21 doppelt so viel hätte (8x128kB+8MB), würde ein zusätzlicher 128MB großer L3 den Gesamtcache ver-fünfzehn-fachen. Das ist schon eine Menge Holz, wobei wohl keiner so genau weiß, wie sich das auswirken würde. Ich zweifle immer noch an, dass das mit SRAM profitabel ist. 64MB hätte ich vielleicht noch geglaubt.

Was die HBM2+GDDR6-Idee angeht: Das grundsätzliche Problem bei zwei Speicherpools ist, dass diese entweder nicht uniform sind oder nicht parallel arbeiten können. Ein Stack mit 3,2Gbps und 256bit GDDR6 ergäben einen 8GB großen HBM-Pool mit 400GB/s und 8GB großen GDDR-Pool mit 512GB/s. Wenn man den einfach als einen VRAM zusammenflanscht, hat man ungleichmäßige Speicherlatenzen und generell einfach eine schiefe Konstruktion. Wenn man den HBM-Stack als Cache nutzen will, dann hat man einen Cache, der weniger Bandbreite hat als der eigentliche Hauptspeicher. Also auch eine Fail-Konstruktion. Der Stack müsste schon 1TB/s schaffen und darf im Gegenzug auch klein sein (z.B. 128MB). Die Cache-Tags dafür könnte man auf der GPU unterbringen, sodass man lokal cache misses erkennt und den Cache gar nicht erst fragt. Wobei ... wenn man vorher schon weiß, dass der Cache max. 50% hit rate hat, reichen vielleicht auch 400GB/s dafür ;)

SKYNET
2020-09-18, 00:25:28
macht doch screenshots wenn ihr sone tweets findet... meine güte...

ianm
2020-09-18, 00:37:47
macht doch screenshots wenn ihr sone tweets findet... meine güte...
Ich hab den Tweet mal originalgetreu aus dem Gedächtnis rekonstruiert:

https://abload.de/img/unbenannt2s4kzm.png

w0mbat
2020-09-18, 00:46:09
Ich kann bestätigen, sah so aus :D

stinki
2020-09-18, 00:55:49
Dieses wilde Stochern im Nebel gefällt mir :biggrin: ... aber wenigstens verlieren wir unseren Humor nicht :wink:

Rampage 2
2020-09-18, 01:11:42
Teuer... und frisst viel Strom.

Gab es außerdem schon ewig nicht mehr. R9 390 ?


Siehe Nvidia's GA102 mit GDDR6X - nachträglich betrachtet, wäre es wohl für Nvidia besser gewesen, ein 512 Bit SI mit viel langsamer taktenden Speicher (GDDR6 14-16 Gbps) zu nehmen. Insbesondere vom Stromverbrauch her, aber auch von den Kosten her - superhoch taktender, proprietärer GDDR6X kann ja wohl nicht wirklich billiger sein als ein 512 Bit-Interface mit normalem GDDR6...

Gegen 512 bit sprechen die schrauben zwischen den RAM Chips, da ist einfach kein Platz. Dazu dass Engineering Board, das die Schrauben an der gleichen Stelle hat...


Langlay schrieb zwar früher, dass es (derzeit) nicht möglich sei, aber angesichts der RTX 3090 mit ihrer beidseitigen Bestückung (1GB-Speicherbausteine jeweils 12 vorne und hinten auf dem PCB, um auf ihre 24GB VRAM zu kommen) frage ich nochmal: 8 Speicherbausteine a 32 Bit vorne und nochmal 8 hinten am PCB = 16x 32 Bit = 512 Bit. Immer noch nicht realisierbar?


Es passt aktuell leider zu viel zusammen, so dass die 256 bit + Cache wohl stimmen müssten.


Es bleiben wirklich nur noch 3 Möglichkeiten übrig:

1.) 2 HBM2e-Stacks @ 3.2 Gbps = 819.2 GB/sek. BB @ 16GB VRAM
2.) 512 Bit GDDR6 @ 14 Gbps = 896 GB/sek. BB @ 16 GB VRAM
3.) 256 Bit GDDR6 @ 16 Gbps + 128MB "Infinity Cache" = 512 GB/sek. BB @ 16GB VRAM

Bei Ersterem habe ich aber Zweifel, ob die 820GB/sek. ausreichen, die 80 CUs @ 2.2< GHz zu füttern - außer natürlich, AMD hat die BB-Kompression um 20% verbessert.

R2

[MK2]Mythos
2020-09-18, 01:19:12
Dieses wilde Stochern im Nebel gefällt mir :biggrin: ... aber wenigstens verlieren wir unseren Humor nicht :wink:
Dafür aber den Ironiedetektor, wenn ich mir die Antworten auf mein Posting ansehe.

Screemer
2020-09-18, 01:19:17
Habt ihr das mlid Video gesehen? Wenn das stimmt was er sagt, dann hat AMD den heiligen Gral der memory-Effizienz gefunden. :eek:

[MK2]Mythos
2020-09-18, 01:23:30
Habt ihr das mlid Video gesehen? Wenn das stimmt was er sagt, dann hat AMD den heiligen Gral der memory-Effizienz gefunden. :eek:
Dieses 2 Stunden Video?

4fQjjRButGo

Kannst du es mal zusammenfassen, oder den Zeitstempel nennen?

Daredevil
2020-09-18, 01:29:16
Ich denke er meint das
https://youtu.be/EvU_thLGEoM?t=673

Screemer
2020-09-18, 01:29:21
Nein. Folgendes. Hab Mal den Zeitstempel raus geaucht: https://youtu.be/SxtfNcm45xk?t=528

Das im vorpost verlinkte vid geht dann mehr auf das "wie" ein.

Wer sich für die mogliche Preisentwicklung von Ampere interessiert, kann auch Mal die ersten 8 Minuten ansehen. Sehr interessanter Ansatz und wenn er stimmt denn :eek:

mczak
2020-09-18, 01:41:51
Derartig grosse SRAM-Mengen lohnen sich bei GPUs einfach nicht. Für die für 128MB benötigten ~120mm^2 Fläche baut man lieber gleich zusätzliche Speichercontroller ein.
Besser wäre natürlich edram, das braucht deutlich weniger Fläche. Geht aber wohl sehr schlecht in einem normalen Bulk-Logik-Prozess. So zum Vergleich, IBM macht das bei Z14/Z15, die CPUs haben 128MB respektive 256MB L3 als edram, und die Chips werden sogar bei GloFo gefertigt - in einem custom 14nm FinFet SOI Prozess. Der System Controller übrigens (im selben Prozess gefertigt) hat sogar 672MB (z14) bzw. 960MB (z15) L4 edram... Ein solches edram bit ist da kleiner als ein sram bit beim brandneuen tsmc 5nm Prozess, obwohl es ja bloss ein 14nm Prozess ist (jedenfalls beim z15 - die bits sind da deutlich kleiner geworden als beim z14 obwohl es derselbe Prozess ist).
Nur eben, würde tsmc edram anbieten bei 7nm wüsste nicht bloss AMD davon :biggrin:. Und der Sinn eines separaten Dies für Cache erschliesst sich mir nicht - da kann man ja gleich zu hbm greifen.

[MK2]Mythos
2020-09-18, 01:47:20
Aber dass das gezeigte ES Big Navi war, scheint ja mittlerweile "festzustehen", 256 Bit SI mit 16GB Ram ebenfalls. Irgendeinen Wunder muss ja passiert sein, wenn die Karte sich mit der 3080 anlegen kann.

Linmoum
2020-09-18, 01:47:45
Ohne zu wissen, wie sich ein solcher Cache auf die Performance auswirkt bzw. fehlende Bandbreite kompensiert, ist es relativ mühselig, großartig über Sinn und Unsinn zu diskutieren. Wir haben schlicht keine großartigen Anhaltspunkte dafür.

Ich gehe davon aus, dass wenn die höhere Bandbreite durch ein 384bit SI gegenüber einem solchen Cache Vorteile bringt, dass AMD dann auch ein solches statt massig Cache verbaut. Sowas simuliert man schon früh und nicht erst ein paar Monate vor Verkaufsstart. Wenn AMD tatsächlich auf 256bit + riesigen Cache statt 384bit (bzw. 512bit/HBM) setzt, dann wird das Gründe haben. Denn auch Cache gibt es nicht for free.

Platos
2020-09-18, 01:54:36
Ich denke eher, AMD, wie auch jedes andere Unternehmen, verbaut das, was billiger ist. Das kann auch gleichzeitig besser sein. Es kann aber auch irgend eine Art Kompensation sein.

Screemer
2020-09-18, 01:55:48
Das passt aber halt nicht zur spekulierten die-size. Der Chip soll winzig sein für das was er leistet. Soviele Fragezeichen gab's meiner Erinnerung nach noch nie so kurz vor der Vorstellung.

Daredevil
2020-09-18, 01:57:52
Er kann ja auch winzig sein, wenn es halt eine Karte sein soll, die zwischen 3070-3080 rum lungert.
4K auf AMDs Seite ist gänzlich unbespielt, das wäre ein großer Fortschritt für Team Red.

Ne 3070 ist ja auch "nur" bei 392mm² bei 17,400m Transistoren
Ne 5700xt hat 251 mm² bei 10,300m Transistoren
Ne VII ist bei 331 mm² und 13,230m Transistoren

Wenn 7nm+++ guti ist, dann knallste vielleicht 50% Transistoren rein ( = 376mm² ) und sparst dir durch die Fertigung Fläche, sagen wir mal 20% ( =313mm² )
Deutlich kleiner als ein 3070, mittig zwischen Navi10 und VegaII und fertig ist der Lack für 500 Geld. :C

Der DIE muss aber eigentlich schon ein wenig größer werden, weil winzige Chips und ne hohe Verlustleistung, da sehen wir bei Zen2, was damit dann los ist.
300w+ will man auf der Fläche einer Navi10 nicht abführen.

Screemer
2020-09-18, 01:59:55
Winzig auch verglichen mit der die-size von a102 bei ähnlichem Verbrauch und Leistungen. Wunderdinge? Langsam muss beim hypetrain Mal auf die Bremse treten.

Tobalt
2020-09-18, 06:28:21
Macht es bri GPUs Sinn ein IO Die zu nutzen? Das kann ja eDRAM enthalten

user77
2020-09-18, 06:54:03
Ich denke BigNavi wird im 3070er Bereich liegen, evtl. knapp darunter für 500€, dafür mit 16gb RAM. Kann mir nicht vorstellen, dass die 2x 5700xt Leistung raus hauen.

EDIT: Okay vergesst es, Denkfehler, ich dachte 5700xt hat 64CUs

genervt
2020-09-18, 07:20:29
Ich kann mir nicht vorstellen, dass sie weniger als 2x 5700XT raushauen für deren Top Dog. Dass man 3080 Konkurrenz macht halte ich für gesetzt. Die Frage ist nur, ob man was drauflegt ode nur nah dran ist.
Eigentlich wird der Kampf darunter richtig interessant. Halte es für wahrscheinlich, dass AMD diesmal auch den Bereich 200-300€ vernünftig wird bedienen können. 4 Navi2X Chips sind im Gespräch. Das sollte zu Diversifikation dicke reichen.

ianm
2020-09-18, 07:22:34
Was soll denn sonst bei 80 CU, mehr IPC und mehr Perf/W raus kommen? 3080er Bereich +-10% mit 16 GB RAM und <300W Verbrauch.

HOT
2020-09-18, 07:23:30
Man verbaut so einen Cache nicht um Speicherbandbreite zu sparen, das ist nur der Nebeneffekt.

gedi
2020-09-18, 07:53:25
Was ist allerdings, wenn auf dem Testboard nur ein N23 verbaut war?
Demnach N21 entweder HBM oder 512-Bit
N22 wohl 384-Bit

Man stellt also N21 gegen ne 3090
N22 gegen ne 3080
N23 gegen ne 3070

Berniyh
2020-09-18, 07:59:00
Was ist allerdings, wenn auf dem Testboard nur ein N23 verbaut war?
Ist im Rahmen des Möglichen, aber es wäre sehr seltsam von AMD eine Grafikkarte (in Fortnite) zu teasern, welche erst nächstes Jahr released wird und noch dazu nicht im High-End Segment angesiedelt ist.

mironicus
2020-09-18, 07:59:29
Wenn es einen großen Cache gibt, dann wird AMD es wohl "Game-Cache" nennen. :)

basix
2020-09-18, 08:02:54
Ist im Rahmen des Möglichen, aber es wäre sehr seltsam von AMD eine Grafikkarte (in Fortnite) zu teasern, welche erst nächstes Jahr released wird und noch dazu nicht im High-End Segment angesiedelt ist.

Die geteaserte Karte ist sicher der Top Dog. Aber ich wäre eher unsicher bei der Frage, ob das geleakte PCB N21 ist ;) Klar, das haben gewisse Leaker behauptet. Aber offiziell ist da gar nichts, die stochern anscheinend selbst im dunkeln (siehe _rogame mit HBM+GDDR6 Ausflug gestern Abend).

Nazar
2020-09-18, 08:05:01
Die SI Diskussion ergäbe für mich nur bei den Konsolen einen Sinn, doch genau dort hat die neue XboX-X 320 bit SI für 52 CUs und die PS5 eine 256 bit SI für 36 CUs.
Zumindest dort würde es wirklich Sinn machen mit einem "Infinity Cache" zu arbeiten (wenn er denn wirklich so arbeitet wie vermutet) aber genau dort scheinen die CUs die Bandbreite und damit den SI offensichtlich vorzugeben.
Mir entzieht sich vollkommen, weshalb dann gerade bei den Desktop GPUs dieser Zusammenhang nicht mehr vorhanden sein soll.
Also noch mehr CUs die im Normalfall ein 320 bit SI überfordern. :confused:
Ich kann mich ja irren aber solch gezeigten Ing-Boards werden doch auch genutzt, um Konsolen Features zu testen? Könnte das gezeigte Board nicht eher ein Testsample für die PS5 gewesen sein?
Die Verschraubungen auf der Rückseite der gezeigten RADEON lassen nicht zwingend auf das SI schließen. Eine GPU lässt sich auch um 90° drehen und auf den Boards der 30X0 Serie ist auch gut zu sehen, dass Speicherchips nicht immer mittig sitzen müssen. Eventuell ist für die Kompensation der dann dadurch etwas verlängerten Signalwege der "Infinity Cache" gekommen?

HOT
2020-09-18, 08:08:17
Die Konsolenchips sind erheblich älter als die RDNA2-GPUs. Da kann schon einiges an neuer Technologie mit eingeflossen sein. Wenn man so einen Cache verbaut, dass aus Performancegründen. Ein Cache, der 20% mehr Perf und noch mehr Perf/W bringt ist gut investiert, auch wenn er Platz frisst. Die Bandbreite ist da nur Nebeneffekt. Darüber muss ja der gesamte Verkehr der 8 Shadercluster erfolgen. Ähnlich wie ein CCX bei Zen3.

basix
2020-09-18, 08:14:31
Wenn HBM (+GDDR) = Zu teuer für Konsolen.
Grössere Chipfläche bei SRAM = Zu teuer für Konsolen.

Der Cache könnte ein Mittel sein, um maximale Energieeffizienz zu erreichen. Das wird aber etwas kosten ($$ oder Chipfläche). Maximale Energieeffizienz benötigen Konsolen nicht zwingend.

Cyberfries
2020-09-18, 08:24:43
Wer hat eigentlich mit diesem "Top Dog" angefangen? So eine dämliche Bezeichnung.

Bei HBM-N21 ergibt 192bit-N22 keinen Sinn. 384bit auch nicht wirklich, da hätte ich eher 256bit erwartet.
Seitenweise spekulieren über den Speicher, wenn das in dem Stil bis Ende Oktober weitergeht, geh ich am Stock.

People are just confused and try to figure out the obvious.
Hmm. Keine WGPs, N21 @40CUs? GDDR7 @24Gbps? Oder war das alles eine Lüge und N2x existiert gar nicht?

Da erzählt AMD uns jahrelang, das Speicherbandbreite viel wichtiger sei als Speichermenge (Fiji *hust*)
und dann sowas...

Berniyh
2020-09-18, 08:27:58
Die geteaserte Karte ist sicher der Top Dog. Aber ich wäre eher unsicher bei der Frage, ob das geleakte PCB N21 ist ;) Klar, das haben gewisse Leaker behauptet. Aber offiziell ist da gar nichts, die stochern anscheinend selbst im dunkeln (siehe _rogame mit HBM+GDDR6 Ausflug gestern Abend).
Zumindest haben beide Karten diese seltsamen Bohrungen. Das wird schon als (weitgehend) Bestätigung gesehen, dass es sich um die gleiche Karte handelt.
Aber klar, es besteht schon eine Chance, dass es nicht die gleiche Karte ist.

Nach dem Teaser ist aber mindestens ein 512 Bit GDDR6 Speicherinterface ausgeschlossen.
Die Konsolenchips sind erheblich älter als die RDNA2-GPUs. Da kann schon einiges an neuer Technologie mit eingeflossen sein.
Wohl kaum. Die wurden ziemlich sicher weitgehend parallel entwickelt, entsprechend dürfte das Featureset sehr ähnlich sein.

Ausschlaggebend dürfte in dem Fall viel eher die von basix angesprochene Chipfläche sein.
Bei den Konsolen will man die so klein wie möglich halten.
Dazu kommt, dass AMD nicht ganz so sehr auf guten Yield angewiesen ist, da man vieles wahrscheinlich noch als Salvage verkaufen kann und zudem die Stückzahlen bei Big Navi eh nicht sonderlich hoch sein werden.
Bei den Konsolen aber müsste man defekte Chips wohl größtenteils aussortieren und braucht noch dazu sehr große Stückzahlen.

Daher ist es schon denkbar, dass man bei den Konsolen bewusst einen anderen Weg wählt, da die Anforderungen einfach etwas anders sind.

HOT
2020-09-18, 08:28:36
Man wird der großen 8x5 doppel-CUs und den kleineren 4x5 doppel-CUs aufgebaut haben. Das wären also auch 8 Shadercluster beim Großen mit 128MB Cache, der dort in der Mitte liegt und beim Kleinen dann 64MB für 4.

Und nein BS, die Konsolen SoCs sind sicher seit Anfang des Jahres final. Die sind wesentlich älter als die GPUs, weil die bestimmt doppelt so lange in Entwicklung sind. Sie basieren ja auch auf Zen2. Da hängt ja erheblich mehr dran als nur der Chip. Ich denke, dass der "Infinity Cache" bei Zen3 Einzug gehalten hat und für das Konzept RDNA2-Projekt adaptiert wurde, wenn es denn stimmt. Ob man das beswusst gemacht hat oder nicht (ich denke eher oder nicht), ist aber auch egal. Es ist jedenfalls erheblich anders als die Lösung bei den Konsolen. Die Befehlssätze mögen ähnlich sein, die Chips sind sich wenig ähnlich mMn. Das wird man auch an den Packdichten sehen mMn, wenn die Chips erscheinen.

user77
2020-09-18, 08:34:05
Was soll denn sonst bei 80 CU, mehr IPC und mehr Perf/W raus kommen? 3080er Bereich +-10% mit 16 GB RAM und <300W Verbrauch.

Stimmt hast recht, Denkfehler meinerseits, ich dachte 5700xt hat 64CUs.
Dann hoffen wir mal AMD bring die Rohleistung auf die Strasse

Zergra
2020-09-18, 08:45:01
Also 80CUs dazu 256Bit und 16GB Speicher ? Ggf nimmt man da 16GB/s ?. Hat dann also mehr Speicherbandbreite als die 3070. Mehr Speicher als die aktuelle 3080 und in der Leistung dann etwas unter der 3080 oder gleich auf. (ggf. eher drunter wegen der Bandbreite) .

Das ganze dann für 650€, finde ich relativ realistisch. AMD spart durch das Speicherinterface Geld bei der Fertigung und der Chip wird kleiner. 384bit hätten 12 oder 24 GB. Beides nicht ganz optimal um die 3080 anzugreifen.

Die Karte dürfte Bandbreitenlimitiert sein, aber dafür eben günstiger.
AMD will eben auch Geld verdienen.

HOT
2020-09-18, 08:46:31
Das wäre ziemlich dämlich den Chip damit auszubremsen und weniger dafür kassieren zu können... so ein Speicherinterface und etwas mehr Speicher wäre dann aber die erheblich billigere Lösung. Wenn man das so macht, macht man das mit Absicht so und hat keine Bendenken in der Performance, sonst hätte das Teil definitiv ein 384Bit-Interface, allein schon für die Option.

Zergra
2020-09-18, 08:48:36
Die Frage ist halt wie stark man den Chip dadurch ausbremst und wie viel Geld man dadurch einspart.

gedi
2020-09-18, 08:51:45
Sorry, aber 256-Bit für den Großen sind doch Mumpitz

Cyberfries
2020-09-18, 08:57:10
Streng genommen ist auch 16Gbit 16Gbps Speicher noch nicht verfügbar.
Also 256bit-N21 an 448GB/s? Dann doch lieber weiter wild spekulieren:
64bit-GDDR6-Module? Bei dem Eng.Board 8x64bit = 512bit und bei N22 dann 384bit?

HOT
2020-09-18, 09:01:25
Klar bekommt man die, wenn man die haben will. Die 8Gbit-Variante wird seit Sommer 19 verbaut. Samsung will ja sogar 18GT verfügbar haben, aber man hat die sicher nicht in der Produktion.

Cyberfries
2020-09-18, 09:18:47
16Gbit 16GT GDDR6 ist nur als Sampling vermerkt, 18GT überhaupt nicht gelistet, vlt gestrichen?

Ich lehne mich jetzt einfach mal aus dem Fenster und behaupte, dass nVidia nicht auf GDDR6X setzen würde,
wenn 18GT einfach umsetzbar wäre. Für 6% mehr Bandbreite lohnt der Aufwand der da betrieben wird nicht.
Quadros kommen auch mit normalem GDDR6.

robbitop
2020-09-18, 09:27:31
Auf öffentlich zugängliche Informationen beim Speicher würde ich mich nicht verlassen. G6X hat auch keiner kommen sehen.

RitterRost
2020-09-18, 09:51:20
Auf öffentlich zugängliche Informationen beim Speicher würde ich mich nicht verlassen. G6X hat auch keiner kommen sehen.

Außer Igor.
Und, der wurde dafür mit Kot beworfen.

BoMbY
2020-09-18, 10:08:24
Tja, ist halt doof wenn man selber nach dem Prinzip arbeitet möglichst viel Kot an die Wand zu werfen in der Hoffnung dass irgendwas davon hängen bleibt, so wie es der Märchenonkel Igor scheinbar gerne macht.

w0mbat
2020-09-18, 10:20:05
So ein Schmarrn, Igor lag bis jetzt mit seinen Infos immer richtig.

basix
2020-09-18, 10:21:07
Dann soll Igor endlich was zu BigNavi bringen :D

[MK2]Mythos
2020-09-18, 10:24:13
Tja, ist halt doof wenn man selber nach dem Prinzip arbeitet möglichst viel Kot an die Wand zu werfen in der Hoffnung dass irgendwas davon hängen bleibt, so wie es der Märchenonkel Igor scheinbar gerne macht.
Das stimmt einfach nicht, alles was er als insider Info "verkauft" hat, hat auch gestimmt. Persönliche Spekulationen kennzeichnet er immer entsprechend. Ich finde sein "Geschwafel" manchmal auch ein bisschen zu viel, aber sein know how und seine Quellen kann man ihm wohl kaum absprechen.

Complicated
2020-09-18, 10:27:59
So ein Schmarrn, Igor lag bis jetzt mit seinen Infos immer richtig.
Wohl kaum :freak:

Elite_Warrior
2020-09-18, 10:28:52
Naja, ich erinnere euch mal an den ominösen Co-Prozessor den er bei Ampere vermutet hat. War letztlich ein Spannungsregulator...

kabe
2020-09-18, 10:30:42
Dann soll Igor endlich was zu BigNavi bringen :D

Ich glaube, Igor bezieht seine Infos vornehmlich von bestimmten Custom-Herstellern. AMDs exklusivster Premiumhersteller dürfte Sapphire sein. Die wissen bestimmt schon mehr, aber Igor hat hier eben keine Kontakte. :biggrin:

Adam D.
2020-09-18, 10:35:16
Naja, ich erinnere euch mal an den ominösen Co-Prozessor den er bei Ampere vermutet hat. War letztlich ein Spannungsregulator...
Das stimmt einfach nicht, immer dieser BS. Als das Gerücht aufkam, hat er es sofort fundiert in Frage gestellt.

https://www.igorslab.de/nvidia-ampere-neue-geruechte-zu-rtx-titan-rtx-3090-und-rtx-3080-analysiert-und-warum-vieles-dagegen-spricht/

Diese Gehate nervt dermaßen, weil man eine der wenigen verlässlichen deutschsprachigen Quellen hier so lange auf den Sack gegangen ist, bis er das Weite gesucht hat. Und die Qualität der Beiträge hier ist dadurch ganz bestimmt nicht gestiegen.

Neurosphere
2020-09-18, 10:37:28
Ich glaube, Igor bezieht seine Infos vornehmlich von bestimmten Custom-Herstellern. AMDs exklusivster Premiumhersteller dürfte Sapphire sein. Die wissen bestimmt schon mehr, aber Igor hat hier eben keine Kontakte. :biggrin:

Sowas vermute ich auch.

Die meisten Leaker die bisher zu Ampere was raushauen konnten werden bei den AIBs gesessen haben die für / nur für NV fertigen.

Hübie
2020-09-18, 10:43:57
Ich weiß dass er mit Sicherheit sehr guten Kontakt zu Gigabyte hat. Aber auch bei solchen Herstellern wie PC-Partner & Co hat er Kontakte.

Berniyh
2020-09-18, 10:49:19
So ein Schmarrn, Igor lag bis jetzt mit seinen Infos immer richtig.
:freak:
Du meinst so wie mit dem Unsinn, den er zu den Zen 2 XT Modellen erzählt hat?

w0mbat
2020-09-18, 11:06:09
Man muss halt wissen um was es geht. Igor hat sehr gute Kontakte zu diversen GPU AIBs, und da vornehmlich Nvidia fokusiert.

Bei den Dingen wo er spekuliert, holt er immer seine Spekulatius raus, je mehr Speku, desto mehr Kekse. Schau dir doch mal seine Videos an, anstatt hier Blödsinn zu schreiben.

Seine Infos zu Ampere waren von Anfang an 100% korrekt. Auch seine Infos, dass es einen Matisse refresh gibt, aber eben nicht die Details (da waren aber auch viele Kekse dabei).

Wenn du nicht in der Lage bist ein Video anzuschauen und Infos von Spekulationen zu unterscheiden (und das sagt er ja auch immer total offen), dann ist das nicht mein Problem.

Gipsel
2020-09-18, 11:10:25
Seine Spekus sind ab und zu schon mal daneben (wie die angebliche separate Powerdomain nur für die Tensorcores, was von Anfang an wenig Sinn machte [und seine Erklärung noch weniger]), das kann man schon zugeben. Aber das ist hier auch eher OT.

Elite_Warrior
2020-09-18, 11:11:01
Das stimmt einfach nicht, immer dieser BS. Als das Gerücht aufkam, hat er es sofort fundiert in Frage gestellt.

https://www.igorslab.de/nvidia-ampere-neue-geruechte-zu-rtx-titan-rtx-3090-und-rtx-3080-analysiert-und-warum-vieles-dagegen-spricht/

Diese Gehate nervt dermaßen, weil man eine der wenigen verlässlichen deutschsprachigen Quellen hier so lange auf den Sack gegangen ist, bis er das Weite gesucht hat. Und die Qualität der Beiträge hier ist dadurch ganz bestimmt nicht gestiegen.

Habe mal etwas nachrecherchiert. Tatsächlich ist mir da etwas entgangen. Für falsche Unterstellungen entschuldige ich mich dann auch:wink:

Bin auch kein Hater, sein content ist den 90% anderen 'Techtubern' überlegen. Das er das etwas 'clickbaitiger' regelt liegt in der Natur der Sache namens Youtube.

Berniyh
2020-09-18, 11:17:50
Man muss halt wissen um was es geht. Igor hat sehr gute Kontakte zu diversen GPU AIBs, und da vornehmlich Nvidia fokusiert.
Das mag sein, aber dann soll er sich halt darauf beschränken / fokussieren.
Bei den Dingen wo er spekuliert, holt er immer seine Spekulatius raus, je mehr Speku, desto mehr Kekse. Schau dir doch mal seine Videos an, anstatt hier Blödsinn zu schreiben.
Ich hab mir schon genug Videos von ihm angesehen um zu wissen um was es geht.
Auf mehr hab ich ehrlich gesagt keinen Bock, denn dadurch befeuert man ja nur den Irrsinn der da mit der Zeit entstanden ist.
Mir schon klar, dass ihr ihn mögt, aber ich sehe nicht ein, dass ich ihn unterstützen soll.

Ist doch das Gleiche wie mit adoredtv und Moore's law is dead. Die leben davon, dass sich Leute ihre Videos anschauen.
Ob das Gesagte darin dann korrekt ist oder nicht (egal ob nun mit Spekulations-Tag versehen oder nicht) ist für die am Ende nicht relevant, so lange man hin und wieder mal einen Treffer landet.

Complicated
2020-09-18, 11:18:28
Das hat doch nichts mit haten zu tun wenn man einwendet dass jemand nicht Jesus ist und eben auch nachweislich nicht IMMER recht hatte. Immer diese Glofizierung ...

Dino-Fossil
2020-09-18, 11:19:58
Ich glaube, Igor bezieht seine Infos vornehmlich von bestimmten Custom-Herstellern. AMDs exklusivster Premiumhersteller dürfte Sapphire sein. Die wissen bestimmt schon mehr, aber Igor hat hier eben keine Kontakte. :biggrin:

+1

Bei nVidia-Produkten scheint er aktuell gut informierte Quellen zu haben, bei AMD spekuliert er mehr, bzw. greift andere Spekulationen auf. Dann eben mit Weihnachtsgebäck.
In seiner gewohnten Art klingt das halt dann manchmal etwas zu überzeugt.

Aber man sollte trotzdem nicht vergessen, dass er allgemein sehr gut weiß, was er macht.

unl34shed
2020-09-18, 11:30:41
Mal ne blöde Frage, aber sollten die 256 Bit nicht schon allein dadurch raus sein, dass in Zukunft die VRAM Auslastung durch die Konsolen und das ganze streaming eher steigen wird. Und sich im VRAM dann auch mehr sinnvolle Daten befinden werden?

Dadurch wird die Bandbreite ja eher noch mehr zum Problem, oder? Bei entsprechenden Assetgrößen ist man doch viel zu schnell durch die Bandbreite limitiert und da kann dann auch kein übermäßig großer Cache helfen. Oder übersehe ich da was?

basix
2020-09-18, 11:32:10
Mal ne blöde Frage, aber sollten die 256 Bit nicht schon allein dadurch raus sein, dass in Zukunft die VRAM Auslastung durch die Konsolen und das ganze streaming eher steigen wird. Und sich im VRAM dann auch mehr sinnvolle Daten befinden werden?

Dadurch wird die Bandbreite ja eher noch mehr zum Problem, oder? Bei entsprechenden Assetgrößen ist man doch viel zu schnell durch die Bandbreite limitiert und da kann dann auch kein übermäßig großer Cache helfen. Oder übersehe ich da was?

Die PS5 streamt mit max. 20 GByte/s in den VRAM (bei perfekter Kompression). Das ist verglichen mit den heutigen Bandbreiten bei 256b (>400 GByte/s) nicht sehr viel.

w0mbat
2020-09-18, 11:32:11
Ich sage nur: geheimer Beiguss!

robbitop
2020-09-18, 11:37:02
Tja, ist halt doof wenn man selber nach dem Prinzip arbeitet möglichst viel Kot an die Wand zu werfen in der Hoffnung dass irgendwas davon hängen bleibt, so wie es der Märchenonkel Igor scheinbar gerne macht.
Finde, dass du übertreibst.

Die Infos waren schon sehr sehr spezifisch und richtig. Das kann kein Zufallsprodumt sein.
- G6x
- die 3xx W TGP
- die Kühlung
- das PCB
- diese Teilbohrungen in‘s PCB (kA wie das hieß)

Und es ist wichtig zu differenzieren, was er als insider infos tituliert hat und was als speku. Grundsätzlich sollte man den spekulativen Teil bei allen ignorieren - denn das ist halt fehleranfällig.

unl34shed
2020-09-18, 11:41:26
Die PS5 streamt mit max. 20 GByte/s in den VRAM (bei perfekter Kompression). Das ist verglichen mit den heutigen Bandbreiten bei 256b (>400 GByte/s) nicht sehr viel.

Das meine ich nicht, sondern dass im VRAM deutlich mehr sinnvolle Daten liegen werden. Bei 512 GB/s wären bei 8GB Nutzdaten zB. nur 64 FPS drin.

basix
2020-09-18, 11:57:27
Ach so. Das ist ein Argument, da hast du recht. Obwohl ich nicht glaube, dass man in jedem Frame alle im VRAM liegenden Daten abfragen muss. Es wird ja trotzdem noch gestreamt (z.B. ich brauche die Daten erst in 100ms, also verstreichen schonmal 6 Frames).

Dein Punkt wird sicher zutreffen, aber 8 GByte/Frame sind vermutlich zu hoch angesetzt oder in etwa das maximal sinnvolle bei 512 GByte/s. Bandbreite geht ausserdem auch noch für andere Dinge drauf als nur Content vom VRAM lesen.

Complicated
2020-09-18, 12:09:19
Und es ist wichtig zu differenzieren, was er als insider infos tituliert hat und was als speku. Grundsätzlich sollte man den spekulativen Teil bei allen ignorieren - denn das ist halt fehleranfällig.
So ist es. Nur fällt die Unterscheidung bei Igor IMHO zunehmend schwerer, durch seine Formatwahl.

w0mbat
2020-09-18, 12:13:48
Ne, Igor ist da immer total transparent, er zeigt es ja sogar visuell an (mit den Keksen).

Platos
2020-09-18, 12:22:19
Also Igors Videos tue ich mir nicht an. Mit seiner "Goldkette" und sonstigem Schnickschnak :D

Das Setting passt so gar nicht auf seine Person.

r3ptil3
2020-09-18, 12:24:33
Also Igors Videos tue ich mir nicht an. Mit seiner "Goldkette" und sonstigem Schnickschnak :D

Das Setting passt so gar nicht auf seine Person.

Was für eine oberflächliche Meinung :freak:

Also ernsthaft, der einzige deutschsprachige Kanal mit wirklich guten Leaks, Infos und Hintergrundwissen.

Hübie
2020-09-18, 12:29:25
Ich denke nicht, dass wir HBM2 sehen werden...

https://abload.de/img/eidsceox0aa6lvr6gk97.png (https://abload.de/image.php?img=eidsceox0aa6lvr6gk97.png)

"Quelle": https://twitter.com/JudgeIrenicus/status/1306275280932212736

Platos
2020-09-18, 12:32:11
Was für eine oberflächliche Meinung :freak:

Also ernsthaft, der einzige deutschsprachige Kanal mit wirklich guten Leaks, Infos und Hintergrundwissen.

Was soll daran Oberflächlich sein, wenn ich sage, dass das Setting nicht zu ihm passt mit der Goldkette und "Youtuber-Schnickschnack"?

Und deswegen lese ich lieber seine Artikel.

Aber wie hoch ist eig. Igor's "Trefferquote"?

Naja, auf jeden Fall tue ich mir von eig. gar keinem minutenlange Videos an für ein paar Infos, die man in 3-4 Sätzen hätte rausbringen können.

Ist ja keine Beleidigung. Ich sag nur, wie es ist. Das Setting passt nicht zu ihm. Es kommt mir halt einfach extrem gespielt/erzwungen vor. Wie ein "Opi", der "cool/in" sein will. Nichts für Ungut, das ist nicht beleidigend gemeint. Ist einfach die Art, wie er für mich in den Videos rüber kommt. Ich meine das nicht abwertend. Ich sag ja, es passt nicht zu ihm. seine Artikel gefallen mir besser.

RLZ
2020-09-18, 12:40:40
Bandbreite geht ausserdem auch noch für andere Dinge drauf als nur Content vom VRAM lesen.
Das ist eh ein super wichtiger Punkt und einer der Gründe, warum ich noch nicht ganz an die 128MB Cache glauben kann. Solange man nicht mal einen durchschnittlichen gBuffer für 4K in den Cache bekommt, bezweifele ich, dass der wirklich soviel Bandbreite sparen kann.

nairune
2020-09-18, 12:40:45
Das ewige Geschwafel und die (mMn) unlustigen Ausschweifungen hat man leider auch in seinen Artikeln.
Trotzdem bin ich sehr dankbar, dass er z.B. das MorePowerTool "vertreibt" und Communityarbeit macht.
Die echten Leaks sind normalerweise immer noch knappe Text oder Bildfetzen, insofern spare ich mir aus den Fingern gesogene Artikel und Videos generell.

Iscaran
2020-09-18, 12:49:12
384bit hätten 12 oder 24 GB. Beides nicht ganz optimal um die 3080 anzugreifen.

Die Karte dürfte Bandbreitenlimitiert sein, aber dafür eben günstiger.
AMD will eben auch Geld verdienen.

Häh ? Die 3080 hat doch auch nur 10 GB und obs 20 GB Modelle geben wird ist noch nicht 100% klar...

Wenn AMD also 12 GB @384 Bit hätte wäre das nicht nur möglicherweise sogar billiger als 16 GB@256 Bit sondern auch auf jeden Fall Bandbreitentechnisch besser um eben eine 3080 anzugreifen.

Die EINZIGE Erklärung die mir einfällt warum das SI wirklich nur 256 bit sein könnte ist, wenn AMD tatsächlich keinen 80 CU chip bringt.

Für einen neuaufgelegten 5700 XT size Chip mit 40 + X CU könnten hoch taktenden 256 bit (+cache) vielleicht reichen.

Damit schlägt man die 3070 und kann preislich aber vielleicht 100€ oder mehr drunter gehen...

aber WARUM sollte AMD nicht einen Chip mit 2x 5700 XT ("Big" Navi) rausbringen....alle Indizien sprechen doch dafür, daß so ein Chip nicht mal unvernünftig wäre und eigentlich gut performen müsste.

Man wäre mit sowas in der Liga einer 3080 +-.
ABER dazu passt so ganz und gar nicht ein mageres SI von 256 bit auch wenn man damit üppige 16GB anbinden kann.

Irgendwas stimmt hier ganz und gar nicht und IMHO verdichten sich die Hinweise daß AMD hier wirklich was revolutionäres gelungen ist.

1.) Preis Gap zwischen RTX 3080 und 3090 von fast 1k€ ?!?
2.) Warum zwingt nVidia die RTX 3080 auf >>320 W wegen 5% performance (siehe CB-Test ?)
=> Man will hier mit der Brechstange irgendwas erreichen...
3.) schon die Konsolen haben für weniger CUs mehr SI und Bandbreite...warum sollte also ausgerechnet der Desktop/Flagschiff Chip hier beschnitten sein ?!?

=> Gesamt-Fazit: nVidia setzt schon jetzt "Kampfpreise" an und pusht ihre neuen Chips ans Limit weil Sie entweder mehr Wissen und daher gezwungen sind oder weil Sie bammel haben und deswegen so agieren (letzteres ergibt aber imho keinen Sinn).

Nochmal meine Frage von weiter oben...KÖNNTE AMD nicht einfach ein kleine SSD direkt auf die GPU-Boards bauen...als Cache ?
https://de.wikipedia.org/wiki/Solid-State-Drive

Eine 32 GB RAM-Disk hat auch schon ca 50 GB/s = 400 Gb/s Speed...

Sunrise
2020-09-18, 12:51:13
3070 16GB vs. N22 12GB
3080 20GB vs. N21 16GB

Da scheint sich NV ja ziemlich sicher zu sein. Wenn jetzt auch noch die Leistung entsprechend passt, hat AMD da wohl wenige Trümpfe in der Hand.

Also dann so?

N21 +-3080 Perf, max. 300W TDP
N22 +-3070 Perf, max. 200W TDP

Bei den AIB Customs wirds dann spannend...

Vielleicht sollte sich AMD zukünftig überlegen, zu früh solch detailierte Angaben über eine Arch (+50% Perf/W) zu machen, denn anhand deren Daten kann man wirklich gut abschätzen. Vor allem ausgehend von N10/5700XT. Da hat NV dieses Mal trotz Samsung wirklich ordentlich Hirnschmalz reingesteckt.

robbitop
2020-09-18, 12:55:52
Das ist eh ein super wichtiger Punkt und einer der Gründe, warum ich noch nicht ganz an die 128MB Cache glauben kann. Solange man nicht mal einen durchschnittlichen gBuffer für 4K in den Cache bekommt, bezweifele ich, dass der wirklich soviel Bandbreite sparen kann.

Ich denke für kompromisslos vollständigen Framebuffer, Z Buffer und G Buffer sind 128 MiB zu wenig. Insbesondere wenn besonders große Auflösung gewünscht ist.

Die Frage ist, ob man es nicht aber für eine Art Makro Tiles nutzen kann. Also für relativ große Tiles aus den entsprechenden Buffers.

Intels Crystallwell zeigt eindeutig, dass es funktioniert. Ich weiß aber leider auch nicht, wie Intel was genau implementiert hat. Aber es läuft transparent zur Anwendung.

Neurosphere
2020-09-18, 13:29:58
Bislang gibt es nur vier mögliche Gründe für 256 Bit:

1. AMD begrenzt die Speicheranbindung ziemlich stark, was nicht zu einem 80CU Chip passt
2. AMD setzt doch auf HBM und das Bild zeigt irgendwas anderes bzw man setzt es anders um als gedacht
3. AMD hat 256 Bit + HokusPokus damit die Bandbreite auch für einen dicken Chip reicht
4. AMD startet nicht mit Big Navi sondern mit den kleineren Chips, BN kommt dann erst im nächsten Jahr. Was man auf den Bildern sieht ist eine 6700 oder ähnlich.

why_me
2020-09-18, 13:31:16
Die Wichtige Frage ist doch, wie ist der Speicher bei GPUs belegt und wofür geht denn die viele Bandbreite bei heutigen GPUs drauf?

Eins vor weg, ich hab davon keine Ahnung, aber meine Einschätzung wäre:
viel Texturen, weniger hundert MB Geometry und weniger hundert MB frame Buffer.
Texturen sollten sich mMn. gezielt auslesen lassen, wie ein Array und auch nicht viel der Bandbreite benötigen, sie sind einfach nur groß.
Das würde für mich bedeuten (falls die Annahme oben stimmt), dass häufig der selbe "kleine" Bereich des VRAM gelesen wird und da könnte ein 128MB Cache eventuell schon etwas bringen.

Wie gesagt, ist nur meine Einschätzung. Möglich ja, aber ich will nicht wirklich daran glauben....
Vielleicht könnte sich da mal jemand mit mehr Einblick zum VRAM/Bandbreiten Verbrauch zu Wort melden.

Cyberfries
2020-09-18, 13:43:35
Ich denke nicht, dass wir HBM2 sehen werden...
Aufgrund eines Bildes von einem Testsample das wir nicht sicher zuordnen können?
Viele der sichtbaren Schrauben sind nicht an der gleichen Position, für eine sichere Zuordnung reichen zwei Richtige nicht.

Wie gesagt: Sieht aus wie N10 um 90° gedreht. Es kann ein 5700-Prototyp sein, ein 6700-Prototyp, etwas ganz anderes.
Natürlich auch eine 6900, aber wozu direkt darauf versteifen?
Ich hab mal n Vergleichsbild zur 5700xt erstellt.

HOT
2020-09-18, 13:48:17
Hat da nicht jemand geschrieben, dass das Layout das Samsungs Referenzlayout wäre für 256Bit 16GT GDDR6? AMD wird das einfach übernommen haben, damit die Kartenhersteller das möglichst billig produzieren können.

w0mbat
2020-09-18, 13:48:24
Ich finds geil, wie wir weniger wissen als noch vor ein paar Monaten. Wird echt super spannend, was AMD am 28.10. vorstellt.

Adam D.
2020-09-18, 13:52:19
3070 16GB vs. N22 12GB
3080 20GB vs. N21 16GB

Da scheint sich NV ja ziemlich sicher zu sein. Wenn jetzt auch noch die Leistung entsprechend passt, hat AMD da wohl wenige Trümpfe in der Hand.

Also dann so?

N21 +-3080 Perf, max. 300W TDP
N22 +-3070 Perf, max. 200W TDP

Bei den AIB Customs wirds dann spannend...

Vielleicht sollte sich AMD zukünftig überlegen, zu früh solch detailierte Angaben über eine Arch (+50% Perf/W) zu machen, denn anhand deren Daten kann man wirklich gut abschätzen. Vor allem ausgehend von N10/5700XT. Da hat NV dieses Mal trotz Samsung wirklich ordentlich Hirnschmalz reingesteckt.
Das ist aber eine sehr merkwürdige Sicht der Dinge. Was du als "wenige Trümpfe" erachtest, sehe ich als die erste realistische Aussicht auf Konkurrenz im GPU-Markt im +500€-Bereich seit Ewigkeiten. Es sagt doch so ziemlich alles über die für den Kunden erfreuliche Entwicklung, dass NV tatsächlich mal reagieren muss, wenn auch nur minimal.

HOT
2020-09-18, 13:58:46
Ich finds geil, wie wir weniger wissen als noch vor ein paar Monaten. Wird echt super spannend, was AMD am 28.10. vorstellt.

Na ja, so ganz ist das ja nicht richtig :D. Wie wissen ja nur nicht, was im Detail passiert, ansonsten kann man das Produkt schon ganz gut eingrenzen. Ist halt wie die 8nm bei Ampere, die sich als wahr herausgestellt haben. Es gab zwar auch Fehlinfo zwischendurch, aber das ist eben so.

Die wohl derzeit wahrscheinlichste Variante mMn:

Details N21:

- 80 CUs in 8 Pipelines mit 2,2GHz Takt = 22,5 FP32 TFLOPs
- 275W TDP
- 256Bit 16GB 16GT/s in 8 16Gb GDDR6 Chips
- 128MB Infinity-Cache bei 8 Pipelines (16 MB L3$ pro Frontend)
(- evtl. zusätzliche KI-Einheit)
(- ~ 430mm² bei ca. 60mio/mm² in N7e meine Schätzung)
- salvage 64CUs und (48 CUs mit nur 12GB), geht ja nur nur eine Doppel-CU pro Pipe, also in 16er-Schritten


N22:

(- 40 CUs in 4 Pipelines mit 2,2GHz Takt = 11,2 FP32 TFLOPs)
(- 175W TDP)
- 192Bit 12GB 14GT/s in 6 16Gb GDDR6 Chips
(- 64MB Infinity-Cache bei 4 Pipelines)
(- evtl. zusätzliche KI-Einheit)
(- ~280mm²)
(- salvage 32CUs und evtl. (24 CUs mit nur 8GB))

Achill
2020-09-18, 13:58:51
Aufgrund eines Bildes von einem Testsample das wir nicht sicher zuordnen können?
Viele der sichtbaren Schrauben sind nicht an der gleichen Position, für eine sichere Zuordnung reichen zwei Richtige nicht.

Wie gesagt: Sieht aus wie N10 um 90° gedreht. Es kann ein 5700-Prototyp sein, ein 6700-Prototyp, etwas ganz anderes.
Natürlich auch eine 6900, aber wozu direkt darauf versteifen?
Ich hab mal n Vergleichsbild zur 5700xt erstellt.

Schöner vergleich! Bzgl. 'versteifen' ... wenn man nach den Bild des ES bei Google sucht, dann findet man bei den älteren Posts oft nur die Frage "RADEON 6000 zu sehen?" .. erst in den neuen Posts geht es dann auf einmal mit BigNavi los. Ähnlich auch hier im Forum, wo man dann schon weiß, dass dies BN sein wird und wie die Karte bzgl. Ampere einzuordnen ist.

Gipsel
2020-09-18, 14:06:45
Die wohl derzeit wahrscheinlichste Variante mMn:

Details N21:

- 80 CUs in 8 Pipelines mit 2,2GHz Takt = 22,5 FP32 TFLOPs
- 256Bit 16GB 16GT/s in 8 16Gb GDDR6 Chips
- 128MB Infinity-Cache bei 8 Pipelines
- zusätzliche KI-Einheit
(- ~ 430mm² bei ca. 55-60mio/mm² meine Schätzung)
- salvage 72CUs und (60 CUs mit nur 12GB)Wo hast Du das denn eigentlich mit der KI-Einheit her? Sieht doch eher so aus, als wenn AMD bei RDNA1/2 nur auf 4bit-Operationen in den normalen ALUs setzt, um mehr TOPS ohne viel Siliziumaufwand rauszuquetschen (für Inference wohl oft gut genug). CDNA könnte dann eventuell AMDs Äquivalent zu den Tensorcores spendiert bekommen.

HOT
2020-09-18, 14:23:19
Wo hast Du das denn eigentlich mit der KI-Einheit her? Sieht doch eher so aus, als wenn AMD bei RDNA1/2 nur auf 4bit-Operationen in den normalen ALUs setzt, um mehr TOPS ohne viel Siliziumaufwand rauszuquetschen (für Inference wohl oft gut genug). CDNA könnte dann eventuell AMDs Äquivalent zu den Tensorcores spendiert bekommen.
Hab ich nur spekuliert, vielleicht gibts das auch nicht. Aber AMD hat die Wichtigkeit von KI immer wieder betont :D.

Nachtrag N23:

(- 20 CUs in 2 Pipelines mit 2,2GHz Takt = 5,2 FP32 TFLOPs)
(- 120W TDP?)
(- 128Bit 8GB 14GT/s in 4 16Gb und/oder 8Gb GDDR6 Chips)
(- 32MB Infinity-Cache bei 2 Pipelines)
(- evtl. zusätzliche KI-Einheit)
(- ~160mm²)
(- salvage 16CUs und evtl. (12 CUs mit nur 6GB))

N24 dann entsprechend 10 CUs

In Klammern meine eigene Speku :D ist doch ne seht schicke Abstufung.

gedi
2020-09-18, 14:41:47
Hab ich nur spekuliert, vielleicht gibts das auch nicht. Aber AMD hat die Wichtigkeit von KI immer wieder betont :D.

Nachtrag N23:

(- 20 CUs in 2 Pipelines mit 2,2GHz Takt = 5,2 FP32 TFLOPs)
(- 120W TDP?)
(- 128Bit 8GB 14GT/s in 4 16Gb GDDR6 Chips)
(- 32MB Infinity-Cache bei 2 Pipelines)
(- evtl. zusätzliche KI-Einheit)
(- ~160mm²)
(- salvage 16CUs und evtl. (12 CUs mit nur 6GB))

N24 dann entsprechend 10 CUs



In Klammern meine eigene Speku :D

Ähm - es soll doch ne 6900, 6800, 6700 und 6600 geben? Auch die Geschichte mit dem Übercache halte ich für übertriebene Theorie. Ich verstehe auch nicht, dass hier viele von einem N21 auf dem Testboard ausgehen. Für mich werkelt dort ein N23 mit 40CUs, oder einem N24 mit weniger CUs. Es ist dort auch kein Noctua zur Kühlung verbaut, sondern ein Kiklala-CPU Kühler.

HOT
2020-09-18, 14:47:45
Ähm - es soll doch ne 6900, 6800, 6700 und 6600 geben? Auch die Geschichte mit dem Übercache halte ich für übertriebene Theorie. Ich verstehe auch nicht, dass hier viele von einem N21 auf dem Testboard ausgehen. Für mich werkelt dort ein N23 mit 40CUs, oder einem N24 mit weniger CUs. Es ist dort auch kein Noctua zur Kühlung verbaut, sondern ein Kiklala-CPU Kühler.
Na dann lass den Speicher + Cache halt weg und denk dir was eigenes dahin. Kannst ja für die 80CU-Variante 24GB 384Bit dazudenken. Aber einen 64CU-Chip kann es eigentlich nicht geben, weil man bei einem Salvage des 80CU-Chips ja schon auf 64CUs käme und nochmaligem Salvage auf 48, sonst wird der Chip ausymetrisch, was ich nicht glaube. Du kannst das Ding nur in 16er-Schritten salvagen, wie es momentan aussieht (8 Pipeline mit je 1 WGP pro Pipeline, was 16CUs entspricht). Wenn man N10 als Referenzgeometrie sieht (5WGP pro Pipeline), geht eigentlich nur diese Kombination auf, also N21 -> 80CUs, N22 -> 40CUs, N23 -> 20 CUs und N24 -> 10CUs. Die XBox hätte 7 WGP pro Pipeline, das geht sicherlich auch noch, das wären 56 CUs, ergibt allerdings keinen Sinn, wenn der es eine 2. Salvage-Stufe für den 80-CU-Chip gibt, die ja angedroht ist, der N22 muss also unter 48CUs liegen. Übrigens wird mehr als 8 WGP pro Pipeline nicht funktionieren mMn. Mehr als 128CUs bekommt man mit RDNA2 sicherlich nicht hin. Das wär auch was für N31 :D.

Cyberfries
2020-09-18, 14:58:32
Du kannst das Ding nur in 16er-Schritten salvagen, wie es momentan aussieht.

Nach der Logik könnte man N10 nur in 8er-Schritten abspecken.
5700: 36 CUs
Ich habe fertig.

edit: Doch noch nicht fertig. Einige Seiten vorher wurde gesagt, dass bei den Salvages auch halbe WGPs gehen.
Und zu den 5WGP-Schritten: Wie kommt dann N14 zustande?

Sunrise
2020-09-18, 14:59:28
Das ist aber eine sehr merkwürdige Sicht der Dinge. Was du als "wenige Trümpfe" erachtest, sehe ich als die erste realistische Aussicht auf Konkurrenz im GPU-Markt im +500€-Bereich seit Ewigkeiten. Es sagt doch so ziemlich alles über die für den Kunden erfreuliche Entwicklung, dass NV tatsächlich mal reagieren muss, wenn auch nur minimal.
Das war ja auch nicht mein Ansatz. Dass Konkurrenz sehr gut ist, ist ja klar. Genau deshalb ja auch diese Planung von NV. Sie können in jedem Segment einen drauf setzen, um vor jeder Navi-SKU zu sein.

Diese krumme Speicherbestückung bei der 3080 mit 10GB wird dann eben zum Trumpf wenn man mit 20GB plötzlich mehr Speicher als Big Navi hat. Ebenso bei der 3070 vs. N22 (16GB vs. 12GB). Das soll nicht heißen, dass 20GB notwendig sind, denn 16GB sind IMHO optimal und 12GB auch OK (immerhin mehr wie eine 2080Ti).

Wenn NV jedoch nur 100-150$ Aufpreis verlangt oder sie sogar damit rechnen, dass Big Navi mit 16GB die 3080 10GB direkt angreift, könnte man theoretisch auch noch aggressiver bepreisen. Ich denke mal das war mit ein Grund, warum man überhaupt Samsung genommen hat.

Das alles ist natürlich nur möglich dank AMD. NV war aber sehr gut darauf vorbereitet dieses Mal.

gedi
2020-09-18, 15:00:09
80, 60, 40, 20

HOT
2020-09-18, 15:04:53
80, 60, 40, 20
Auch mit halben WGP ergbit 60CUs einfach keinen Sinn.

Dann wäre N21
80CUs
72CUs
64CUs, in dem Fall würde ich für die 2. Salvage-Stufe aber eher auf 56CUs tippen

das ist also Quatsch.

Sinnvoll wären für N22 nur 40 oder maximal 48CUs. NV macht das mit dem 104er i.Ü. ja ähnlich. Die 2. Salvagestufe des N21 wird sicherlich die 6800XT sein.

6900 72/80CUs
6800 56/4xCUs
6700 36/32CUs
6600 24/20CUs
6500 16/12CUs

oder so in dem Fall.

Gipsel
2020-09-18, 15:04:56
sonst wird der Chip ausymetrisch, was ich nicht glaube. Du kannst das Ding nur in 16er-Schritten salvagen, wie es momentan aussiehtNV produziert schon länger asymmetrische Salvage-Chips und bei AMD ist das auch möglich. Jüngstes Beispiel ist die XBox Series X. Es sind 28WGPs/56 CUs verbaut (4 Shader Arrays zu je 7 WGPs [also Doppel-CUs]) und aktiv sind 2 Shader Arrays mit 7 WGPs und zwei Shader Arrays mit 6 WGPs. Genau so könnte auch Salvage bei einer RDNA-GPU mit 80CUs (8 Shader Arrays mit je 5WGPs) betrieben werden. Also hypothetisch so:
6900XT, 8 Arrays zu je 5WGPs/10CUS => 80CUs
6900, 4 Arrays mit 5 WGPs/10CUs + 4 Arrays mit 4WGPs/8CUs => 72CUs

Allgemein lohnt es sich aber bei Nutzung von Salvage und Speedbinning (also im PC-Bereich) nicht, Chips zu nahe beieinander zu platzieren. Ein 80CU-Chip und ein 64CU-Chip wird es also nicht geben, da ein hochgetakteter 64CU-Chip locker das (niedriger getaktete) Salvage-Modell des größeren Chips erreichen kann. Traditionell ist der Abstand zwischen den Chips Faktor 2 oder etwas kleiner als Faktor 2. Möglich wären also z.B.:
6900XT 80CU
6900, 72CU, Salvage
6900SE, 64CU, später nachgeschoben um auch noch den letzten Schrott zu verkaufen
6800XT, 48 CU
6800, 40 CU Salvage
6700XT, 24 CU
6700 20 CU, Salvage

Oder so ähnlich. Dies würde grob den traditionellen Abstufungen entsprechen.

HOT
2020-09-18, 15:13:00
NV produziert schon länger asymmetrische Salvage-Chips und bei AMD ist das auch möglich. Jüngstes Beispiel ist die XBox Series X. Es sind 28WGPs/56 CUs verbaut (4 Shader Arrays zu je 7 WGPs [also Doppel-CUs]) und aktiv sind 2 Shader Arrays mit 7 WGPs und zwei Shader Arrays mit 6 WGPs. Genau so könnte auch Salvage bei einer RDNA-GPU mit 80CUs (8 Shader Arrays mit je 5WGPs) betrieben werden. Also hypothetisch so:
6900XT, 8 Arrays zu je 5WGPs/10CUS => 80CUs
6900, 4 Arrays mit 5 WGPs/10CUs + 4 Arrays mit 4WGPs/8CUs => 72CUs
Dank dir :D

RLZ
2020-09-18, 15:29:18
Die Frage ist, ob man es nicht aber für eine Art Makro Tiles nutzen kann. Also für relativ große Tiles aus den entsprechenden Buffers.
Stell ich mir irgendwie schwierig vor. Wenn jetzt Screen Space GI/AO/Reflections wild Strahlen tracen, hat man zwar nur eine lokale Ausbreitung, aber vermutlich passiert das ja gleichzeitig übers den kompletten gBuffer?

Intels Crystallwell zeigt eindeutig, dass es funktioniert. Ich weiß aber leider auch nicht, wie Intel was genau implementiert hat. Aber es läuft transparent zur Anwendung.
Das waren aber auch GPUs für 720p/max 1080p mit 128MB Cache. Die Leistung von den Dingern ist durch den Cache auch nicht unbedingt explodiert.

Akkarin
2020-09-18, 15:32:18
Traditionell ist der Abstand zwischen den Chips Faktor 2 oder etwas kleiner als Faktor 2.

Als Abstand zwischen kleineren Chips mag das Stimmen, aber der Abstand zwischen Gx102 und Gx104 war in letzter Zeit eher so 1.5-1.75. Die 7000er Serie, also das letze Mal als AMD wirklich ein komplettes lineup hatte, waren es 1.6, und Hawaii->Tahiti waren sogar nur 1.375.

N22 mit 56 CUs ist mMn durchaus möglich.

mboeller
2020-09-18, 15:42:55
so mal meine Specus...

128MB Cache... Schmarrn ... das sind 128Mbit ... dann passt es :)

256bit SI ... naja, dass geht nur, wenn AMD so was wie die Dekompressions-Engine von der PS5 mit im BigNavi hat, aber mit ca. 40facher Leistung... also ich glaube nicht dran.

Vor allem, 128MB Cache lohnen sich nicht. Für die Die-Area kannst du auch gleich ein 768bit SI einbauen (mit der SX als Basis braucht ein 512bit SI ca. 90mm² Die-Area). Der Cache wird sich wahrscheinlich noch nicht einmal bzgl. dem Verbrauch lohnen. So viel Unterschied ist zw. 384bit/12GB und 256bit/16GB GDDR6 auch nicht.

w0mbat
2020-09-18, 15:44:11
https://mobile.twitter.com/nerdtechgasm/status/1306917807880200193

Twitter ist schon auf der Spur!

fondness
2020-09-18, 15:44:33
Das ist aber eine sehr merkwürdige Sicht der Dinge. Was du als "wenige Trümpfe" erachtest, sehe ich als die erste realistische Aussicht auf Konkurrenz im GPU-Markt im +500€-Bereich seit Ewigkeiten. Es sagt doch so ziemlich alles über die für den Kunden erfreuliche Entwicklung, dass NV tatsächlich mal reagieren muss, wenn auch nur minimal.

Jap genau so ist es, nur sehe ich keine minimale Reaktion. Die 3090 entspricht defacto der TITAN, maximal Speicher, maximal Leistung (man ist dafür sogar auf 350W gegangen). Das gibts jetzt zum halben Preis. Die 3080 entspricht der 2080 Ti, auch das gibt es jetzt zum halben Preis. Das macht Nvidia sicherlich nicht zum Spaß, das sind klar Reaktionen auf die Konkurrenz. Und profitieren tut davon wie immer der Kunde.

amdfanuwe
2020-09-18, 15:50:20
AMD hat schon mehrfach betont die neuen technologischen Möglichkeiten, X3D, COWOS etc, aggresiv nutzen zu wollen.
Welche Möglichkeiten würden sich denn ergeben, wenn man von einem 12nm I/O Die mit viel eDRAM und stacked, oder wie bei Ryzen 3000 CPUs an der Seite, 1 oder 2 Shader Chiplets ausgehen würde?

Also einfach mal davon ausgehen, das das Bandbreitenproblem zwischen I/O und Shader Chiplets kein Problem ist durch neue Breitbandige Anbindung.

basix
2020-09-18, 16:15:15
https://mobile.twitter.com/nerdtechgasm/status/1306917807880200193

Twitter ist schon auf der Spur!

Und 3DC schon lange ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12429574#post12429574
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12429601#post12429601

Adam D.
2020-09-18, 16:35:35
Jap genau so ist es, nur sehe ich keine minimale Reaktion. Die 3090 entspricht defacto der TITAN, maximal Speicher, maximal Leistung (man ist dafür sogar auf 350W gegangen). Das gibts jetzt zum halben Preis. Die 3080 entspricht der 2080 Ti, auch das gibt es jetzt zum halben Preis. Das macht Nvidia sicherlich nicht zum Spaß, das sind klar Reaktionen auf die Konkurrenz. Und profitieren tut davon wie immer der Kunde.
Ich seh's ein bisschen differenzierter, weil Turing einfach offensichtlich der historische Ausbrecher war (bedingt durch verschiedene Gründe, aber insbesondere durch AMDs Schwäche). Wir kehren quasi noch einer Ausrutscher-Generation zu halbwegs normalen Zuständen zurück. Aber ich geb dir Recht, was die Platzierung von Ampere angeht. Wer für ein paar Prozent Leistung so die Effizienz zerschießt, der spekuliert damit, dass er die paar Prozent braucht.

RLZ
2020-09-18, 17:14:50
Wer für ein paar Prozent Leistung so die Effizienz zerschießt, der spekuliert damit, dass er die paar Prozent braucht.
Andere Möglichkeit wäre, dass man den hohen Verbrauch länger geplant hatte, aber der Sweetspot vom Prozess sich überraschend in der Praxis verschoben hat. Ich bin mir nicht sicher wie kurzfristig man den Verbrauch mal um 20+% anheben kann.

Gipsel
2020-09-18, 17:27:09
Als Abstand zwischen kleineren Chips mag das Stimmen, aber der Abstand zwischen Gx102 und Gx104 war in letzter Zeit eher so 1.5-1.75.1,75 ist bei mir etwas kleiner als 2.
Die 7000er Serie, also das letze Mal als AMD wirklich ein komplettes lineup hatte, waren es 1.632 CUs halbiert sind 16. Etwas größer als das (Faktor etwas kleiner 2) ergibt 20 CUs. Das paßt in meinem Buch immer noch in meine Beschreibung.
Die GCN1-Familie hatte 10 CUs, 20CUs und 32CUs. Und Pitcairn war relativ stark, den trennten in der Spitze nicht mehr viel (bis gar nichts) von den langsamsten Salvages von Tahiti (mit nur 24CUs und niedrigerem Takt wurden die sogar als 7870BE verkauft und nicht als 7900er ;), die Custom-Modelle von Pitcairn [normale 7870] mit 1,1GHz waren praktisch gleich schnell). Das ist also so ziemlich die untere Grenze eines sinnvollen Abstandes. Insofern ist das eine gutes Beispiel zur Verdeutlichung des Ganzen.
und Hawaii->Tahiti waren sogar nur 1.375.Nur war Hawaii (GCN2) der Nachfolger von Tahiti und nicht das größere Modell der gleichen Generation. Es gab halt bei GCN später nicht mehr wirklich komplette Generationen. Und bei Navi haben wir Navi 14 mit physisch 24CUs und dann Navi10 mit 40CUs. Da ist der kleinere Chip also auch minimal größer als die Hälfte (pro Shader Array ist es genau eine Dual-CU mehr [Navi14: 2x6, Navi10: 4x5], eine kleinere Steigerung gegenüber der Halbierung ist also nicht wirklich möglich).

gedi
2020-09-18, 17:30:08
Angenommen es wäre doch ein MCM. Wäre es möglich jedes Modul mit 256-Bit auszustatten um trotzdem im Endeffekt auf 512-Bit zu kommen?

Hakim
2020-09-18, 17:31:11
Glaubt ihr echt das so viele Variationen kommen werden? Letzten Gens waren es doch wesentlich weniger (die Rebrands und Refrehs mal nicht dazu gezählt, da ja auch im deutlichen Zeitlichen Intervall),

genervt
2020-09-18, 17:35:59
Allgemein lohnt es sich aber bei Nutzung von Salvage und Speedbinning (also im PC-Bereich) nicht, Chips zu nahe beieinander zu platzieren. Ein 80CU-Chip und ein 64CU-Chip wird es also nicht geben, da ein hochgetakteter 64CU-Chip locker das (niedriger getaktete) Salvage-Modell des größeren Chips erreichen kann. Traditionell ist der Abstand zwischen den Chips Faktor 2 oder etwas kleiner als Faktor 2. Möglich wären also z.B.:
6900XT 80CU
6900, 72CU, Salvage
6900SE, 64CU, später nachgeschoben um auch noch den letzten Schrott zu verkaufen
6800XT, 48 CU
6800, 40 CU Salvage
6700XT, 24 CU
6700 20 CU, Salvage

Oder so ähnlich. Dies würde grob den traditionellen Abstufungen entsprechen.

6900SE finde ich sexy. Kann man ja auch anders nennen
6900XTX
6900XT
6900 ist dann salvage

why_me
2020-09-18, 17:36:31
Die letzten Gens hat man auf Sparflamme mitgeschleppt und nur da Chips gebracht wo viel Umsatz generiert wird.
Aktuell sitzt das Geld lockerer, durch den Aufwind mit ZEN, Konsolen etc. AMD steht deutlich besser da, als noch vor ein paar Jahren.

gedi
2020-09-18, 17:37:40
Zudem: Was spricht gegen die 56/52cu Variante der Xbox für die 6800er?

Langlay
2020-09-18, 17:39:32
Angenommen es wäre doch ein MCM. Wäre es möglich jedes Modul mit 256-Bit auszustatten um trotzdem im Endeffekt auf 512-Bit zu kommen?

Kommt imo auf die Umsetzung an. Wenn das quasi nur Crossfire ist, dann nicht. Dann haste zwar 2x256 Bit die Daten müssten in beiden Speichern sein. Also du hättest dann weder die doppelte Bandbreite, noch den doppelten Speicher.

Wenn die Verbindung zwischen den beiden GPU Chiplets schneller ist als vom GPU Chiplet zum VRAM (Energieaufwendig) dann wäre allerdings möglich das man die 2 Interfaces quasi als eins benutzt und auch die Daten nicht immer doppelt vorhanden sein müssen. Halte ich aber für eher unwahrscheinlich.

Cyberfries
2020-09-18, 17:40:02
Andere Möglichkeit wäre, dass man den hohen Verbrauch länger geplant hatte, aber der Sweetspot vom Prozess sich überraschend in der Praxis verschoben hat.

Unwahrscheinlich. Dann würde nutze ich das doch ausnutzen und die Karte per Bios anpassen.
295watt klingt wesentlich besser als 320watt und hier wäre der Leistungsunterschied minimal.

1,75 ist bei mir etwas kleiner als 2.

Würdest du das auch bei einer Gehaltsverhandlung sagen?

Nur war Hawaii (GCN2) der Nachfolger von Tahiti und nicht das größere Modell der gleichen Generation.

Tonga?

Ich würde sagen ein Verhältnis von 1,6 ist ein ziemlich gutes Verhältnis.
Bei Polaris viel zu viel (2,3), bei Navi etwas zu viel (1,7), bei Bonaire zu wenig (1,4).

Angenommen es wäre doch ein MCM. Wäre es möglich jedes Modul mit 256-Bit auszustatten um trotzdem im Endeffekt auf 512-Bit zu kommen?

Was bringt das wenn nur acht Speichersteine da sind? DAS ist es was die Leute verwundert.

Langlay
2020-09-18, 17:43:23
Tonga kam deutlich nach Hawaii und war quasi nur ein überholter Tahiti. Hatte ja sogar das 384Bit Speicherinterface.

gedi
2020-09-18, 17:53:11
Unwahrscheinlich. Dann würde nutze ich das doch ausnutzen und die Karte per Bios anpassen.
295watt klingt wesentlich besser als 320watt und hier wäre der Leistungsunterschied minimal.



Würdest du das auch bei einer Gehaltsverhandlung sagen?



Tonga?

Ich würde sagen ein Verhältnis von 1,6 ist ein ziemlich gutes Verhältnis.
Bei Polaris viel zu viel (2,3), bei Navi etwas zu viel (1,7), bei Bonaire zu wenig (1,4).



Was bringt das wenn nur acht Speichersteine da sind? DAS ist es was die Leute verwundert.

Wie gesagt: Wer sagt dass dies N21 ist?

Langlay
2020-09-18, 17:56:36
Wie gesagt: Wer sagt dass dies N21 ist?

Weiss niemand. Aber selbst wenn es Navi21 ist, heisst das ja nicht zwingend, dass das der Maximalausbau beim Speicherinterface ist. Kann ja durchaus auch ein 384Bit Interface sein das teildeaktiviert ist.

gedi
2020-09-18, 18:01:24
Mal ganz optimistisch: N21 kommt mit HBM2 und unter der rechten Klappe sitzen 2-Dimm Slots für HBCC. Ich weiß, klingt arg utopisch

Gipsel
2020-09-18, 18:07:19
Würdest du das auch bei einer Gehaltsverhandlung sagen?Öffentlicher Dienst. Bei mir gibt es keine Gehaltsverhandlungen. :freak:
Tonga?Nochmal andere Generation (GCN3).;)
Ich würde sagen ein Verhältnis von 1,6 ist ein ziemlich gutes Verhältnis. Bei Polaris viel zu viel (2,3), bei Navi etwas zu viel (1,7), bei Bonaire zu wenig (1,4).Navi 1x zeigt das exakt gleiche Verhältnis, wie ich für Navi2x vorgeschlagen habe (1,67). Das paßt normalerweise ziemlich gut, wenn man ein oder zwei Salvage-Modelle im Bereich mit 10-20% weniger CUs und gleichzeitig niedrigerem Takt mit dem Topmodell des kleineren Modells vergleicht. Viel weniger Abstand macht die Differenzierung schwierig (siehe obigem Beispiel von Pitcairn vs. Tahiti [Faktor 1,6], wo die niedrigsten Tahiti-Salvages [25% der Einheiten deaktiviert] als 7870 verkauft wurden, weil eine grob vergleichbare Performance wie bei PitcairnXT rauskam).
Polaris ist gewissermaßen ein Sonderfall, weil die 2 Chips (wie alle GCN-Generationen nach GCN1) im engeren Sinne keine vollständige Serie an Chips einer Generation darstellten. Ist im Prinzip das Gleiche wie bei Bonaire, denn der ist GCN2 und gehört somit eher zu Hawaii (14:44CUs, Faktor 3,14, da fehlt der mittlere Chip ;)) als zu Cape Verde, Pitcairn und Tahiti (GCN1) oder Tonga und Fiji (GCN3, aber da gibt es bekannterweise auch anderweitige Änderungen, daraus eine Generation zu machen ist also auch schwierig).

Und generell ist es Blödsinn, sich an dem "Faktor 2 oder etwas weniger" anhand eines Beispiels aus der Vergangenheit hochzuziehen, wo das mal 1,6 war (und wie dargestellt wohl so ziemlich das praktikable Minimum darstellt, wenn es nicht zu überlappender Performance kommen soll), wenn mein hypothetisches Beispiel für Navi2x als minimalen Faktor selber 1,67 beinhaltet. ;)
Die Motivation für einen etwas größeren Abstand ist, den gleichen Bereich mit einem Chip weniger abdecken zu können (z.B. 3 statt 4), was Kosten spart (für AMD vermutlich noch wichtiger als nV). Überlappende Performance-Bereiche sind sozusagen "Verschnitt", der Geld kostet, aber nicht wirklich was bringt. Eine klarere Differenzierung zwischen den Chips spart Kosten (wenn man mit einem weniger auskommt als die Konkurrenz) und trotzdem kann man mit Salvages praktisch Alles abdecken.

Linmoum
2020-09-18, 18:09:20
rogames N21=16GiB und N22=12GiB bedeutet im Umkehrschluss, dass das Engineering Board nur zu N21 gehören kann. Und HBM damit rausfällt. Andererseits wiederum würde dann bei nur 256bit die Gerüchte zum riesigen Cache mehr Sinn ergeben.

gedi
2020-09-18, 18:13:25
rogames N21=16GiB und N22=12GiB bedeutet im Umkehrschluss, dass das Engineering Board nur zu N21 gehören kann. Und HBM damit rausfällt. Andererseits wiederum würde dann bei nur 256bit die Gerüchte zum riesigen Cache mehr Sinn ergeben.

6900 16GB HBM2
6800 12GB 384-Bit
6700 8/16GB 256-Bit

basix
2020-09-18, 18:23:49
Ich würde sagen ein Verhältnis von 1,6 ist ein ziemlich gutes Verhältnis.
Bei Polaris viel zu viel (2,3), bei Navi etwas zu viel (1,7), bei Bonaire zu wenig (1,4).

Ich würde ja gerne 40, 64 und 96 CUs sehen bei 192, 256 und 384bit SI inkl. 12, 16 und 24 GByte GDDR6 @ 16 Gbit/s bei den grossen zwei Chips und 14 Gbit/s beim kleinen ;)

Brillus
2020-09-18, 18:24:22
rogames N21=16GiB und N22=12GiB bedeutet im Umkehrschluss, dass das Engineering Board nur zu N21 gehören kann. Und HBM damit rausfällt. Andererseits wiederum würde dann bei nur 256bit die Gerüchte zum riesigen Cache mehr Sinn ergeben.

Oder N23.

gedi
2020-09-18, 18:27:32
Oder N23.

Japp

mironicus
2020-09-18, 18:46:44
Wie meint ihr wird die Raytracing-Geschwindigkeit bei Big Navi sein? Angesichts der PS5-Demos die zeigen das man schon mit 36 CU in 4K und 30 FPS und ohne DLSS Raytracing-Effekte laufen lassen kann, rechne ich entsprechend auch mit einer sehr aktiven Nutzung dieses Features.

Bei Turing/Ampere muss man DLSS zuschalten um überhaupt in 4K mit Raytracing spielen zu können. Wenn Big Navi mehr als doppelt so schnell ist wie die PS5, dann rechne ich damit das AMD locker mit Ampere mithalten kann - auch beim Raytracing, und so etwas wie DLSS braucht AMD erst gar nicht.

HarryHirsch
2020-09-18, 18:55:20
denkt ihr der top dog benötigt wie die rtx 3080 auch ein netzteil mit mehr als 750 watt und 63a single rail?

aufkrawall
2020-09-18, 18:56:53
Würde sehr davon abraten, RDNA2 im Vorfeld wundersame RT-Fähigkeiten anzudichten. Für die ganzen DXR-Implementierungen war bisher Nvidia maßgeblich involviert, und die wollen gerne ihre fetten GPUs verkaufen.
Eine positive Überraschung wär doch auch viel schöner...

basix
2020-09-18, 18:59:45
Eine grosse Rolle bei RT scheint ja DXR 1.1 zu spielen. Das beherrschen die Konsolen wohl (bei MS klar, bei Sony ander API aber selbe HW). Turing als auch Ampere bekommen hier noch einen guten Boost.

gedi
2020-09-18, 18:59:54
Würde sehr davon abraten, RDNA2 im Vorfeld wundersame RT-Fähigkeiten anzudichten. Für die ganzen DXR-Implementierungen war bisher Nvidia maßgeblich involviert, und die wollen gerne ihre fetten GPUs verkaufen.
Eine positive Überraschung wär doch auch viel schöner...

Gehe ich auch nicht davon aus. 2080Ti-Performance wäre diesbezüglich schon genial.

Odal
2020-09-18, 19:07:35
https://mobile.twitter.com/nerdtechgasm/status/1306917807880200193

Twitter ist schon auf der Spur!


https://pbs.twimg.com/media/EiHXdQmWkAAGuea?format=jpg&name=900x900

410Watt das glauben die doch selbst nicht ;D und das bei nichtmal 17xx Mhz :rolleyes:

Glaubt ihr echt das so viele Variationen kommen werden? Letzten Gens waren es doch wesentlich weniger (die Rebrands und Refrehs mal nicht dazu gezählt, da ja auch im deutlichen Zeitlichen Intervall),


mich würde auch mal interessieren wie wahrscheinlich es ist das Navi1 nochmal als 6700 oder sowas verwurstet wird? Das will doch dann eigentlich keiner mehr.

mironicus
2020-09-18, 19:12:07
Na ja, anzunehmen wäre eigentlich das eine mögliche PC-Version von Devil May Cry 5 Special, die auf der PS5 mit Raytracing in 4K30 läuft, dann auf Big Navi mit über 60 FPS laufen sollte.

Das ursprüngliche Spiel ohne RT läuft auf einer RTX 2080 Ti mit 94,4 FPS in 4K.
https://www.techpowerup.com/review/devil-may-cry-5-benchmark-performance-test/4.html

Und hier nehme ich an, daß besagte RTX 2080 Ti in 4K mit RT und ohne DLSS keine 60 FPS erreichen wird, mit DLSS sicherlich schon.

mboeller
2020-09-18, 19:23:22
Wie meint ihr wird die Raytracing-Geschwindigkeit bei Big Navi sein? Angesichts der PS5-Demos die zeigen das man schon mit 36 CU in 4K und 30 FPS und ohne DLSS Raytracing-Effekte laufen lassen kann, rechne ich entsprechend auch mit einer sehr aktiven Nutzung dieses Features.

Bei Turing/Ampere muss man DLSS zuschalten um überhaupt in 4K mit Raytracing spielen zu können. Wenn Big Navi mehr als doppelt so schnell ist wie die PS5, dann rechne ich damit das AMD locker mit Ampere mithalten kann - auch beim Raytracing, und so etwas wie DLSS braucht AMD erst gar nicht.

Woher weißt du, dass die PS5 kein "DLSS" benutzt, bzw. was ähnliches?

gedi
2020-09-18, 19:37:53
Woher weißt du, dass die PS5 kein "DLSS" benutzt, bzw. was ähnliches?

Ohne Tensor-Cores - geht nicht, frag Jensen!

Cyberfries
2020-09-18, 19:57:04
Wie gesagt: Wer sagt dass dies N21 ist?

War nicht Thema. Du hast nach 2x256bit-MCM gefragt. MCM kommt nicht, wurde x-mal gesagt.
Auch die Frage nach einem aufgeteilten Interface wurde jetzt schon mehrfach beantwortet.

unter der rechten Klappe sitzen 2-Dimm Slots für HBCC.

Da gibts keine Klappen.

Nochmal andere Generation (GCN3).;)
Navi 1x zeigt das exakt gleiche Verhältnis, wie ich für Navi2x vorgeschlagen habe (1,67). ....wo die niedrigsten Tahiti-Salvages [25% der Einheiten deaktiviert] als 7870 verkauft wurden....Blödsinn, sich an dem "Faktor 2 oder etwas weniger" anhand eines Beispiels aus der Vergangenheit hochzuziehen.....

Die wilden GCN1,2,3-Jahre mal außen vor (Eine Karte die schneller als die 7950 ist, als 7870 zu verkaufen....),
sobald es zwei Abspeckungen braucht würde ich die Lücke als zu groß ansehen.
Die 5500xt ist da einfach zu langsam, mit +15% hätte es keine 5600 gebraucht, aber so war die Lücke einfach zu groß.

An deinem Portfolio habe ich mich nicht gestört, die 80 & 48 habe ich auch mal so vorgeschlagen,
wobei mir 80, 52 und 32 - obwohl nicht möglich - am ehesten behagt hätte.

dass das Engineering Board nur zu N21 gehören kann.

*Wenn die Zuordnung der verschiedenen Gerüchte stimmt und das Eng.Board wirklich N2x ist.

Ohne Tensor-Cores - geht nicht

DLSS geht nicht, aber eine Technik mit einem ähnlichen Einsatzzweck würde ich nicht pauschal ausschließen.

gedi
2020-09-18, 20:02:39
War nicht Thema. Du hast nach 2x256bit-MCM gefragt. MCM kommt nicht, wurde x-mal gesagt.
Auch die Frage nach einem aufgeteilten Interface wurde jetzt schon mehrfach beantwortet.



Da gibts keine Klappen.



Die wilden GCN1,2,3-Jahre mal außen vor (Eine Karte die schneller als die 7950 ist, als 7870 zu verkaufen....),
sobald es zwei Abspeckungen braucht würde ich die Lücke als zu groß ansehen.
Die 5500xt ist da einfach zu langsam, mit +15% hätte es keine 5600 gebraucht, aber so war die Lücke einfach zu groß.

An deinem Portfolio habe ich mich nicht gestört, die 80 & 48 habe ich auch mal so vorgeschlagen,
wobei mir 80, 52 und 32 - obwohl nicht möglich - am ehesten behagt hätte.



*Wenn die Zuordnung der verschiedenen Gerüchte stimmt und das Eng.Board wirklich N2x ist.



DLSS geht nicht, aber eine Technik mit einem ähnlichen Einsatzzweck würde ich nicht pauschal ausschließen.

Dann schau nochmals hin! Die rechte Seite ist ne Klappe, welche hinten mit 2 Aussparungen und links mit einer der ominösen Schrauben fixiert werden!

Neurosphere
2020-09-18, 20:15:04
Dann schau nochmals hin! Die rechte Seite ist ne Klappe, welche hinten mit 2 Aussparungen und links mit einer der ominösen Schrauben fixiert werden!

Nee, zoom mal rein, da ist nix.

gedi
2020-09-18, 20:17:44
Ich bin gerade unterwegs, von daher schwierig. Aber: Wenn da nix ist, dann ist HBM für mich confirmed.

Zergra
2020-09-18, 20:20:34
gedi ? Hast du für den 28.10 genug Stoff im Haus ? Das wird echt ein harter Abend wenn Navi mit 80CUs und 256bit erscheint...


Viel spricht eben genau dafür.

[MK2]Mythos
2020-09-18, 20:23:34
gedi ? Hast du für den 28.10 genug Stoff im Haus ? Das wird echt ein harter Abend wenn Navi mit 80CUs und 256bit erscheint...


Viel spricht eben genau dafür.
Ist ja letztendlich auch egal wie AMD es schafft ~ zweifache 5700xt Leistung zu füttern.

gedi
2020-09-18, 20:26:00
gedi ? Hast du für den 28.10 genug Stoff im Haus ? Das wird echt ein harter Abend wenn Navi mit 80CUs und 256bit erscheint...


Viel spricht eben genau dafür.

Ich habe mir schon überlegt wo ich den Haken an der Decke setzen soll. Brauch nur noch nen Seil

80CUs bei 256-Bit? Was ein Blödsinn. Da könnte man voher Tom und Jerry als ernsthaftes Drama abtun

Zergra
2020-09-18, 20:27:37
Mythos;12431227']Ist ja letztendlich auch egal wie AMD es schafft ~ zweifache 5700xt Leistung zu füttern.

Keine Frage, ob man das mit starker Kompression schaffen könnte ?

Ich habe mir schon überlegt wo ich den Haken an der Decke setzen soll. Brauch nur noch nen Seil
Würde ich dir nicht empfehlen....macht es nicht besser.

Linmoum
2020-09-18, 20:28:54
Mythos;12431227']Ist ja letztendlich auch egal wie AMD es schafft ~ zweifache 5700xt Leistung zu füttern.Das rumgeheule und der Kindergarten sind langsam echt ermüdend. Kein Mensch kann wissen, wie eine GPU mit 256bit SI mit potentiellem 128MB Cache in Relation zu einem 384bit SI (oder 512bit/HBM) performen würde, aber es wird geweint, wenn es letzteres nicht wird. Das ist fast schon grotesk.

gedi
2020-09-18, 20:31:14
Das rumgeheule und der Kindergarten sind langsam echt ermüdend. Kein Mensch kann wissen, wie eine GPU mit 256bit SI mit potentiellem 128MB Cache in Relation zu einem 384bit SI (oder 512bit/HBM) performen würde, aber es wird geweint, wenn es letzteres nicht wird. Das ist fast schon grotesk.

Es ist doch nur ein Cache?! Das würde vielleicht bei Pacman was bringen, ansonsten kompletter Humbug

Tobalt
2020-09-18, 20:42:57
"nur" Cache?

wenn beim rendern ein bestimmter Datensatz immerwieder gelesen, gerechnet, weggeschrieben wird für mehrere Stufen des render prozesses, kann der Weg zum vram sehr ermüdend sein. wenn das in einen Cache passt, spart es einiges an Bandbreite.

wobei ich diesen Fall der Rechnung etwas ineffizient finde und es deshalb sein kann, das sowas nicht regelmäßig passiert. da gibt es sicher Leute die das besser einschätzen können

Langlay
2020-09-18, 20:43:39
Das rumgeheule und der Kindergarten sind langsam echt ermüdend. Kein Mensch kann wissen, wie eine GPU mit 256bit SI mit potentiellem 128MB Cache in Relation zu einem 384bit SI (oder 512bit/HBM) performen würde, aber es wird geweint, wenn es letzteres nicht wird. Das ist fast schon grotesk.


Es geht ja nicht nur um die Performance. Es geht ja auch um Preis/Performance. Und dort seh ich nicht wie 256Bit SI + 128MB Cache unterm Strich günstiger wird als 384Bit GDDDR6 oder 2 Stacks HBM2.

Nicht alles was Technisch möglich ist, ist wirtschaftlich Sinnvoll und für mich als Laie klingt das erstmal nicht besonders sinnvoll.

Das Problem von AMD ist zur Zeit das quasi alles was die produzieren auch verkauft wird. Und man wohl gerne mehr Produzieren würde. In so einem Umfeld mach ich doch einen Chip 100mm² grösser nur damit ich bei der Speicheranbindung ein paar mm² einsparen kann. Besonders nicht wenn das Silizium anderweitig für mehr Geld verkaufen könnte.

Linmoum
2020-09-18, 20:47:59
Es geht ja nicht nur um die Performance. Es geht ja auch um Preis/Performance. Und dort seh ich nicht wie 256Bit SI + 128MB Cache unterm Strich günstiger wird als 384Bit GDDDR6 oder 2 Stacks HBM2.

Nicht alles was Technisch möglich ist, ist wirtschaftlich Sinnvoll und für mich als Laie klingt das erstmal nicht besonders sinnvoll.Darf ich fragen, wie du zu dieser Annahme kommst? Ich kann weder Kosten, noch Performance dieser potentiellen Lösung ansatzweise abschätzen.

Langlay
2020-09-18, 20:50:56
Darf ich fragen, wie du zu dieser Annahme kommst? Ich kann weder Kosten, noch Performance dieser potentiellen Lösung ansatzweise abschätzen.


Steht im Edit

Complicated
2020-09-18, 20:54:56
Das ist richtig - ein solcher Cache könnte am ehesten wirtschaftlich sinnvoll sein, wenn er in einer günstigen Fertigung auf einem anderen Chiplet zum Einsatz kommt. Wenn AMD hier die Vorstufe zu MCM im GPU-Segment startet, könnte es hier als 1xGPU-Chiplet+1xIO-Chiplet mit den Erfahrungswerten der CPU-Abteilung einen ersten wichtigen Schritt geben.

256-bit auf dem 7nm GPU-Chiplet anstatt 512 und den Cache in 12nm LPP von GF würde AMDs Entwicklung konsequent fortsetzen. Nur würde hier kein 500mm² Chip so recht dazu passen, ausser hier wurde mit dem SI/IO-Part angefangen, da diese Erfahrungen aus CPUs vorhanden sind. Als nächstes könnten die SFUs vom teuren Die runter und das GPU-Chiplet abspecken in der Größe - > das ganze mit Blick auf 5nm wo dann richtige GPU-Chiplets (zuvor wohl zuerst als CDNA2) raus kommen.

So gedacht wäre es nur die konsequente Fortführung der jahrelangen Entwicklung, um zum richtigen Zeitpunkt möglichst kleine Flächen auf fortgeschrittenen EUV-Nodes zu nutzen.

Edit: Man erinnere sich an die ersten Zen2-Package Bilder:
https://www.pcgameshardware.de/screenshots/original/2019/01/AMD-Zen-2-Ryzen-3000-Package-3--pcgh.png

gedi
2020-09-18, 20:58:54
Sorry, aber alles was hier diskutiert wird erscheint mir absurd. Nächste Woche kommt die 3090 und ich hoffe, dass AMD dann endlich ein wenig die Hosen runterlässt. Das VBios sollte doch relativ schnell gestrickt sein

Langlay
2020-09-18, 21:01:12
Ja, ich hätte auf gehofft, das wir langsam mal was von AMD hören. und nicht noch bis zum 28.10. warten müssen.

Wobei ich davon ausgehe das die 3090 am Ende schon vorne sein wird. Aber ich hoffe das es für AMD gut läuft und man irgendwo zwischen 3080 und 3090 rauskommt. Mit 3080 Performance könnte ich wohl im worst case auch noch leben, wenn der Rest stimmt.

dildo4u
2020-09-18, 21:04:03
Muss das eigentlich wegen der Hardware so lange dauert und könnte es nicht der Treiber sein, ich vermute mal sie wollen sagen das Day One jeder RTX Titel beschleunigt läuft?
Das könnte eine monumentale Aufgabe sein wenn nicht gar unmöglich ohne Gameupdates?

gedi
2020-09-18, 21:44:12
Was würde eigentlich gegen einen Chip sprechen, der HBM2 onboard hat und trotzdem den großen Cache. Ich denke gerade an Crysis Remake. CPU-Limit ahoi. Hier könnte der Cache doch extrem sinnvoll sein.

Ravenhearth
2020-09-18, 22:25:45
Was soll ein GPU-Cache im CPU-Limit bringen?

Zergra
2020-09-18, 22:45:58
Was würde eigentlich gegen einen Chip sprechen, der HBM2 onboard hat und trotzdem den großen Cache. Ich denke gerade an Crysis Remake. CPU-Limit ahoi. Hier könnte der Cache doch extrem sinnvoll sein.

NV investiert Geld in die Entwicklung von einem extra Grafikspeicher, GDDR6X. Der in den Stückzahlen Gewiss wesentlich teurer ist als GDDR6. Dazu das aufwendige PCB und die aufwendige Kühlung.

Der preisliche unterschied zwischen der Fertigung und der Chipentwicklung ( die dürfte wesentlich komplexer sein) zwischen GDDR und HBM muss immer noch immens sein.

Wir werden zu 100% hier kein HBM sehen.

Auch AMD hat mit Zen und RDNA einen anderen Weg beschritten, kleine Chips sorgen eben für eine bessere Marge. Das kann man von Vega nicht gerade behaupten, ein Erfolg war das jedenfalls nicht.

Badesalz
2020-09-19, 08:13:42
Was soll ein GPU-Cache im CPU-Limit bringen?Den gibts bisher nur in 4k, mit einer 3080.
Oder meinst du 3090 mit einem 3600?

Der preisliche unterschied zwischen der Fertigung und der Chipentwicklung ( die dürfte wesentlich komplexer sein) zwischen GDDR und HBM muss immer noch immens sein.Imho ein Bruchteil dessen was nötig ist heile PCBs für GDDR6X zu produzieren + den Speicher selbst.

TwoBeers
2020-09-19, 15:28:33
Mit 3080 Performance könnte ich wohl im worst case auch noch leben, wenn der Rest stimmt.

Geht mir genauso. Habe nur etwas Angst, dass sich Vega wiederholen könnte und die Performance am Ende sogar darunter liegt.:eek:;(

Der Preis der 3080 FE macht ja zumindest den Anschein, dass AMD da auch von der Performance her landen wird.
Oder die BigNavi kostet dann nur 499 und kann dann halt auch weniger. :(

Aber falls es 3080 oder besser wird, ist sie gekauft. :)

AlterSack
2020-09-19, 18:25:33
Der Preis der 3080 FE macht ja zumindest den Anschein, dass AMD da auch von der Performance her landen wird.
Oder die BigNavi kostet dann nur 499 und kann dann halt auch weniger. :(



wie kommst auf den quatsch?

AlterSack
2020-09-19, 18:27:51
NVs 3000er Reihe ist nun echt kein Überflieger. Liegt eher in dem Bereich,
den AMD erwarten musste ...mindestens.
Wenn sie selbst von Halo-Produkt schrieben/redeten, werden sie sicher
nicht zurückhängen (vs. 3080). Wie sie das schaffen wird sich zeigen.

gedi
2020-09-19, 18:36:58
Wenn die Ergebnisse zur 3090 stimmen sollten, dann sollte doch etwas gehen!

Berniyh
2020-09-19, 19:15:45
Der Preis der 3080 FE macht ja zumindest den Anschein, dass AMD da auch von der Performance her landen wird.
Oder die BigNavi kostet dann nur 499 und kann dann halt auch weniger. :(
Sagen wir es mal so:
Nvidia hat dieses mal extra den größten Chip für die 3080 (was ja eher der 2080 Ti entspricht) genommen und verkauft diese GPU dann sogar "nur" für $699.
Und scheinbar doch etwas ungewollt, denn man scheint jetzt einen weiteren Chip einzuplanen um mittelfristig hier die Marge zu verbessern (weil der größte Chip halt einfach zu groß dafür ist).

Wenn AMD "nur" auf 3070 Performance oder leicht drüber kommen würde (was deine 499€ andeuten würden, da die 3070 in dem Preissegment ist), dann hätte Nvidia auch einen etwas gepushten GA104 für die 3080 nehmen können.

Die doch recht große preisliche Lücke zwischen der 3080 und der 3090 spricht schon dafür, dass sich Big Navi irgendwo im Bereich der 3080 ansiedeln wird, zumindest was das preisliche betrifft (+/- $100 je nach Performance relativ zur 3080).
Zumindest Nvidia geht wohl davon aus, dass die 3090 für Big Navi außer Reichweite ist.
(Oder aber die Marge ist so grottig, dass man nur eine Handvoll Chips hat die man verkaufen kann. Das ist natürlich auch möglich.)

gedi
2020-09-19, 19:48:52
Sagen wir es mal so:
Nvidia hat dieses mal extra den größten Chip für die 3080 (was ja eher der 2080 Ti entspricht) genommen und verkauft diese GPU dann sogar "nur" für $699.
Und scheinbar doch etwas ungewollt, denn man scheint jetzt einen weiteren Chip einzuplanen um mittelfristig hier die Marge zu verbessern (weil der größte Chip halt einfach zu groß dafür ist).

Wenn AMD "nur" auf 3070 Performance oder leicht drüber kommen würde (was deine 499€ andeuten würden, da die 3070 in dem Preissegment ist), dann hätte Nvidia auch einen etwas gepushten GA104 für die 3080 nehmen können.

Die doch recht große preisliche Lücke zwischen der 3080 und der 3090 spricht schon dafür, dass sich Big Navi irgendwo im Bereich der 3080 ansiedeln wird, zumindest was das preisliche betrifft (+/- $100 je nach Performance relativ zur 3080).
Zumindest Nvidia geht wohl davon aus, dass die 3090 für Big Navi außer Reichweite ist.
(Oder aber die Marge ist so grottig, dass man nur eine Handvoll Chips hat die man verkaufen kann. Das ist natürlich auch möglich.)

Die 3090 scheint gerade mal 10% über ner 3080 zu liegen, solange der Vram nicht limitiert. Wenn BN die 3080 im Griff haben sollte, dann ist auch die 3090 fällig.

Langlay
2020-09-19, 19:59:54
Die 3090 scheint gerade mal 10% über ner 3080 zu liegen, solange der Vram nicht limitiert. Wenn BN die 3080 im Griff haben sollte, dann ist auch die 3090 fällig.

~15% mehr als die 3080 würde ich von der 3090 erwarten. Ich würde halt vermuten Bignavi kommt irgendwo bei 3080 raus +-10%. Da wäre mit halt +10% lieber als -10%.

gedi
2020-09-19, 20:03:36
Gugsch du https://twitter.com/videocardz/status/1307285088418357248?s=21

nordic_pegasus
2020-09-19, 20:50:50
Sagen wir es mal so:
Nvidia hat dieses mal extra den größten Chip für die 3080 (was ja eher der 2080 Ti entspricht) genommen und verkauft diese GPU dann sogar "nur" für $699.
Und scheinbar doch etwas ungewollt, denn man scheint jetzt einen weiteren Chip einzuplanen um mittelfristig hier die Marge zu verbessern (weil der größte Chip halt einfach zu groß dafür ist).


ist zwar offtopic für diesen Thread... wenn die Gerüchte um den gecancelten GA103 stimmen, dann ist die Wahl eines cut-down GA102 für die RTX 3080 doch nur logisch. GA104 war wohl dieses mal zu schwach für eine 80er Karte. Und wenn dann noch die Yield-Rate bei Samsung viele teil-defekte GA102 auswirft, um so besser für nVidia.

Berniyh
2020-09-19, 20:58:39
Die 3090 scheint gerade mal 10% über ner 3080 zu liegen, solange der Vram nicht limitiert. Wenn BN die 3080 im Griff haben sollte, dann ist auch die 3090 fällig.
Das hab ich auch nicht behauptet, nur dass die 3080 die grobe preisliche Richtung vorgibt in der man Big Navi erwarten kann.
Sonst würde Nvidia die 3080 deutlich teurer verkaufen.

Denniss
2020-09-19, 21:05:29
Wenn Nvidia die 3080 so weit ausfahren muß und oberhalb des Sweetspots betreibt dann schätzen die BN wohl sehr stark ein. Erinnert irgendwie an RX480 und 1060 nur daß es da andersrum war.

Badesalz
2020-09-19, 21:14:31
Hab die These ja grad schon aufgestellt ;) Die große von AMD wurde von Spähern ;) auf die Leistung der 3080 mit ~85% des jetztigen Powerlimits eingeschätzt. Deswegen auch hat NV die 3080
a) überfahren
b) direkt einen Kampfpreis gesetzt

Die 3080er laufen bisher mit -15% PL und dazu auch nur minimalst UV, eigentlich recht schön. Durften das aber ab Werk eben nicht, wegen späteren RDNA2 Balkenbenchesflut und das war Moppedjacke dann zu knapp.

These, wie gesagt =)

gedi
2020-09-19, 21:23:31
Erinnert mich eher an NV30! Irgendwas hat AMD im Köcher, wo leider die User noch nix davon wissen. Vielleicht ist es wirklich ein Kompressionsverfahren or what ever. Ich meine N10x2 + ein wenig ist nicht schwer für ne 80CU BN und das reicht für RTX3xxx! Vielleicht handhabt es AMD diesmal anders: Ich gebe dem Ding die kolportierten 275W (oder vielleicht weniger) und man liegt + gleichauf mit ner 3090. Sprich Heavy OC ist mit dem Ding vielleicht auch noch drin. Ich weiß, alles spekulativ, aber abwarten

Badesalz
2020-09-19, 21:33:51
DAS wird es mit Sicherheit nicht geben ;) Es ist sowieso besser, wenn man sich erstmal auf "vielleicht endlich konkurrenzfähig" einstellt und nicht auf irgendwelche Siege mit dazugehörenden Blumentöpfe die KEINEN außer den paar TopendNerds interessieren.

gedi
2020-09-19, 21:41:25
DAS wird es mit Sicherheit nicht ;) Es ist sowieso besser, wenn man sich erstmal auf "vielleicht endlich konkurrenzfähig" einstellt und nicht auf irgendwelche Siege mit dazugehörenden Blumentöpfe die KEINEN außer den paar TopendNerds interessieren.

War vielleicht übertrieben, allerdings sollte es auch damals ein übertriebenes Kühlerdesign richten. Und wenn NV der Kühler der 3090 wirklich 155€ kosten sollte, dann ist diesmal nicht der Lärm, sondern der Preis heiß.

HOT
2020-09-19, 22:31:27
Badesalz
Hat er ja nicht getan und ich stimme ihm voll zu. Doppelt Navi+X reicht ganz sicher für 3080 und das wird auch genau so kommen. Ob mit den 275W sieht man dann, mit nur 256Bit RAM aber durchaus im Bereich des Möglichen.
Aber ich gehe sogar noch weiter. Ich halte die RT-Leistung für die 2. Iteration für unterirdisch bei der 3xxx-Serie, vor allem bei Spieleimplementationen. Raycasting bei Minecraft usw. kann sie ja einigermaßen gut (aber nicht toll). Ich könnte mir gut vorstellen, dass AMD das einfach besser gelöst hat, zumal die neueren RT-Implementationen (inclusive der von Crysis Remaster) von der XBox abstammen werden.

Die 3070, 3080 waren mMn pure Verarscheangebote bei der geringen Speichermenge - und es ist pure Gier, es wäre so einfach gewesen, die Dinger direkt mit 20 bzw. 16GB zu releasen. Die 3090 ist beim Preis verarsche, denn sie ist 100% überflüssig bei 10% mehr Leistung und angesichts der 3080 20GB-Option und dann auch noch satt gelogen bei der Präsentation, ich hoffe, dass das diesmal nicht folgenlos bleibt.

Badesalz
2020-09-19, 22:34:22
Kann man machen. Man kann es aber auch mit realistischen Pragmatismus betrachten ;)

edit:
Wenn sie doch mal Roh ins Hintertreffen geraten, werden sie das mit DLSS lösen ;)

HOT
2020-09-19, 22:45:37
Nur dass es ja nicht bei DLSS bleiben wird. Oder glaubst du ernsthaft, dass Microsoft und Sony nicht sowieso ähnliche Lösungen in Petto haben? Die machen seit letzter Iteration Checkboard-Rendering, da ist eine DLSS-ähnliche Implementation nichts weiter als die nächste Evolutionsstufe. Die Spiele laufen doch nicht wirklich in 4k. Das "nativ 4k" auf den Konsolen kann eigentlich nur sowas ähnliches sein, auch wenn die Konsolen FBs das auf keinen Fall hören wollen. Das wird eh seinen Weg auf den PC finden und dann war es das für DLSS. Ist dir nicht aufgefallen, dass NV das Thema DLSS bei der Präsentation gemieden hat wie der Teufel das Weihwasser? Es wurde erwähnt, dass das nun VR-fähig ist, das wars. Ansonsten wurde es nur benutzt um die 3k-Serie im bestmöglichen Licht darstehen zu lassen. Aber ich denke, die wissen genau, dass DLSS als Technik zwar den Weg geebnet hat auf dem PC, aber dass das wieder mal an seinem eigenen Erfolg vergehen wird, weil das einfach alle bekommen werden über Windows.

Realistischer Pragmatismus wäre Navi 10 x2 als worst-case-Option. Rechne.

gedi
2020-09-19, 22:46:31
Juhu, ich kauf mir dann nen Monitor der 900p kann und alles gut. Warum habe ich mir so nen scheiß 65 Zöller gekauft, um die nächsten NV-Generationen abwarten zu müssen, welche 4K ohne Upscaling hinbekommen

Fragman
2020-09-19, 23:40:18
Realistischer Pragmatismus wäre Navi 10 x2 als worst-case-Option. Rechne.

Realistisch gerechnet, ohne das man in den nächsten Hypetrain stolpert, wäre darunter anzusetzen, nach all den Jahren. Die bringen 16GB und werden sicher nicht kurz vor oder auf oder über der 3080 landen. Sonst gäbe es die 3080 in dieser Ausführung und zu diesem Preis nicht.

Die Masse an Spieler braucht auch nichts anderes. Preislich wäre das für alle sowieso besser als eine weitere Gamingkarte, die an den 1000 Euro kratzt oder weit drüber liegt. Wo sowas hin führt sehen wir an der 3090.

Linmoum
2020-09-19, 23:49:58
Dass AMD nicht nur die Masse an Spielern oder generell irgendein Mainstream interessiert, sieht man an Zen und all seinen Produkten. Dasselbe wird auch mit GPUs passieren.

Viele werden sich hier in den kommenden Wochen noch umgucken, wenn sich das Bild langsam verfestigt. Wer glaubt, dass Nvidia just for the lolz >=50W für 4-5% Performance opfert und sich derart die Effizienz zerstört, der wird noch zu sehen bekommen, warum tatsächlich. Dafür braucht es nicht einmal irgendwelche Hype-Vorstellungen mit 3090-Performance bei 270W.

HOT
2020-09-20, 00:23:17
Realistisch gerechnet, ohne das man in den nächsten Hypetrain stolpert, wäre darunter anzusetzen, nach all den Jahren. Die bringen 16GB und werden sicher nicht kurz vor oder auf oder über der 3080 landen. Sonst gäbe es die 3080 in dieser Ausführung und zu diesem Preis nicht.

Die Masse an Spieler braucht auch nichts anderes. Preislich wäre das für alle sowieso besser als eine weitere Gamingkarte, die an den 1000 Euro kratzt oder weit drüber liegt. Wo sowas hin führt sehen wir an der 3090.

Wir kriegen 80 CUs, da ist das Minimum bei 2x Navi10. Das ist aber schon unwahrscheinlich, es wird auch ein Technisches Plus bringen. Preisgestaltung ergibt sich nach Leistung, wie immer, da kann man nichts ableiten. AMD vor Jahren ist was völlig anderes als AMD von heute.

crux2005
2020-09-20, 04:58:31
AMD vor Jahren ist was völlig anderes als AMD von heute.

AMD. Nur die Grafik Division eben nicht.

Birdman
2020-09-20, 05:14:30
Wir kriegen 80 CUs.
tun wir das?
Sind 80 CUs nicht das maximum den Chips?
Weil Nv gibt uns ja selbst bei der 3090 nicht dem vollausbau, weil einfach die Fertigung dies nicht hergibt.
Wenn daher 80 CU's den kompletten Vollausbau des BigNavi Chips darstellen, dann glaube ich nicht dass wir das als kaufbares Produkt sehen werden.

reaperrr
2020-09-20, 07:06:02
Weil Nv gibt uns ja selbst bei der 3090 nicht dem vollausbau, weil einfach die Fertigung dies nicht hergibt.
Das bezweifle ich ehrlich gesagt.

Nvidia macht es halt nur nicht, weil die Auswirkungen auf die Performance angesichts des PT absolut vernachlässigbar wären.
Das kommende Quadro-Top-Modell soll aber den Vollausbau haben, also ganz so schlecht dürfte die Fertigung nicht sein.

Was N21 angeht: Natürlich ist es nicht ausgeschlossen, dass wir auch beim Top-Modell nur 78 aktivierte CUs bzw. 39 WGPs bekommen, aber weniger würde mich wundern. Laut Gerüchteküche soll es aber ein Modell mit 80 und zwei mit 72 CUs geben.

Übrigens:

256-bit
128 ROP
WTF
https://twitter.com/KittyYYuko/status/1304252347871367171

Badesalz
2020-09-20, 07:13:58
Ist dir nicht aufgefallen, dass NV das Thema DLSS bei der Präsentation gemieden hat wie der Teufel das Weihwasser?Was mir eher meist auffällt, was NV auf diese Art meidet, ist die Angabe bei den DLSS-Balken, auf welcher Stufe DLSS lief. Nicht immer, aber irgendwie oft...

gedi
2020-09-20, 08:19:42
Nicht erschrecken:

https://twitter.com/poisonarp/status/1307439407725772803?s=21

Zergra
2020-09-20, 08:28:11
Das sieht doch schon auf den ersten Blick handgemacht aus.

Badesalz
2020-09-20, 08:39:19
Steht doch dabei
"This table is just so bad it just shouldnt exist"

gedi
2020-09-20, 08:42:20
Zumal bei der 6700(xt) ebenfalls 96 Rops stehen müssten.

Fake

HOT
2020-09-20, 08:45:35
AMD. Nur die Grafik Division eben nicht.
Ja, ganz bestimmt...

Birdman
Maximal wird 8 WGPs pro Pipeline gehen, also 128CUs. Das wäre ein heißer Tipp für N31 ;).

Cyberfries
2020-09-20, 08:55:20
Nicht erschrecken:

Respekt. Eine Fälschung derart unglaubwürdig zu machen ist eine echte Leistung.
Drei Chips in 60% voneinander? Alle mit 256bit? 96Streamprocessor je CU? Eine drittels-WGP beim Mittleren? 144mb Game-Cache?
Wow

Ich gebe dem Ding die kolportierten 275W (oder vielleicht weniger) und man liegt + gleichauf mit ner 3090.
Doppelt Navi+X reicht ganz sicher für 3080 und das wird auch genau so kommen.....
RT-Leistung .... unterirdisch bei der 3xxx-Serie..... Ich könnte mir gut vorstellen, dass AMD das einfach besser gelöst hat

Tschu-Tschuuu


edit an unterhalb:
bei Ampere .... stört die Bauchlandung aber niemanden. Immer diese Doppelmoral...

Das ist aber eine sehr selektive Wahrnehmung.
Ich verstehe auch nicht weshalb jetzt Ampere und Doppelmoral Thema ist?
Ihr habt es mal wieder innerhalb von zwei Wochen von:
- "hinter der 3070"
über
- "knapp hinter der 3080"
und
- "schlägt die 3080 klar"
hin zu
- "3090 sieht kein Land"
geschafft. Während es keinerlei Informationen gab die diese Ansicht unterstützen.
Großes Kino.

HOT
2020-09-20, 09:06:15
Also das ist mal weit weg von jedem Hype-Train... :freak:

Leute, bei Ampere, das war ein Hype-Train, da stört die Bauchlandung aber niemanden. Immer diese Doppelmoral... Hype-Trains gibts immer nur bei den Roten.

Zergra
2020-09-20, 09:17:41
Züge sind ja auch meist Rot :)

Bei Ampere hat NV am Ende eher überrascht. Alleine durch den Preis und die Leistung. Wenn man die 3080 erreicht sollte man zufrieden sein.

HOT
2020-09-20, 09:19:43
Unsinn, Ampere ist quasi kein Fortschritt in Perf/W. Da gibts kaum anderen Fortschritte, die Killerfeatures fehlen ebenfalls. Es gibt nur viel mehr Rechenleistung, die kaum auf die Strasse gebraucht werden kann. Das wird völlig unproblemantisch für AMD. Die haben sicher mit mindestens 30% mehr Perf/W für diese Generation ggü. Turing gerechnet, entsprechend werden die Produkte aussehen.

Das ist ähnlich wie bei Zen2. Der sollte auch gegen einen 8C Ice Lake antreten.

Wenn man 80CUs hat und entsprechende Leistung erwartet ist das alles, aber kein Hype-Train.

Berniyh
2020-09-20, 10:08:28
Züge sind ja auch meist Rot :)
Also die DB streicht ihre Züge ja neuerdings auch in grün. Besser werden sie dadurch aber nicht. :P

Zur Performance will ich mich ehrlich gesagt nicht wirklich äußern, nur eine Feststellung:
Wenn man einen doppelten Navi 10 baut (also 80 CU), 50% mehr Effizienz verspricht und dann nicht doppelte Navi 10 Leistung schafft, dann ist das ein ziemlicher Fail.

Das wird aber auch mein einziger Kommentar zur mutmaßlichen Big Navi Performance bleiben, denn der Rest ist nicht mal Kaffeesatzleserei.

unl34shed
2020-09-20, 10:25:48
Das ist aber eine sehr selektive Wahrnehmung.
Ich verstehe auch nicht weshalb jetzt Ampere und Doppelmoral Thema ist?
Ihr habt es mal wieder innerhalb von zwei Wochen von:
- "hinter der 3070"
über
- "knapp hinter der 3080"
und
- "schlägt die 3080 klar"
hin zu
- "3090 sieht kein Land"
geschafft. Während es keinerlei Informationen gab die diese Ansicht unterstützen.
Großes Kino.

Unter 3070 kam doch nur von ein paar Grünen. Aktuell ist man bei Turing CU zu SM relativ vergleichbar. Bei den erwarteten 80CUs wäre es erschreckend nicht mal die 3070(?) bzw. 2080Ti (68SMs) zu schlagen.

Im Bereich der 3080 hat man eigentlich schon länger erwartet, also irgendwo bei 2080Ti +30%. Es gab kurz mal ein Aufschrecken, wegen den doppelten FP, aber die bleiben ja irgendwo auf der Straße liegen, der erwartete Überperformer ist Ampere ja nicht gerade.

Bei Nvidia sieht eine AMD Karte kein Land mehr, wenn da einstellige Prozent zwischen liegen, also warum nicht? Aktuell scheint die ja auch "nur" 10% drauf zu legen :rolleyes:

Bzgl. Doppelmoral, neben dem Verbrauch, der jetzt egal ist. Was wurde an die RT-Performance für Erwartungen gesteckt, min. 2x bis 4x gegenüber Turing, sonst wäre es ein Fail! Davon hört man bei den 1.3x-1.5x auch nichts mehr.

Brillus
2020-09-20, 11:00:08
Respekt. Eine Fälschung derart unglaubwürdig zu machen ist eine echte Leistung.
Drei Chips in 60% voneinander? Alle mit 256bit? 96Streamprocessor je CU? Eine drittels-WGP beim Mittleren? 144mb Game-Cache?
Wow




Tschu-Tschuuu


edit an unterhalb:


Das ist aber eine sehr selektive Wahrnehmung.
Ich verstehe auch nicht weshalb jetzt Ampere und Doppelmoral Thema ist?
Ihr habt es mal wieder innerhalb von zwei Wochen von:
- "hinter der 3070"
über
- "knapp hinter der 3080"
und
- "schlägt die 3080 klar"
hin zu
- "3090 sieht kein Land"
geschafft. Während es keinerlei Informationen gab die diese Ansicht unterstützen.
Großes Kino.

Ich und die meisten anderen erwarteten schon vor einen galven Jahr Performance im Bereich von 3080.

Brillus
2020-09-20, 11:01:02
Züge sind ja auch meist Rot :)

Bei Ampere hat NV am Ende eher überrascht. Alleine durch den Preis und die Leistung. Wenn man die 3080 erreicht sollte man zufrieden sein.

Ja Preis positiv und Performance negativ da war sie am untern Rand der Erwartung.

fondness
2020-09-20, 11:13:44
Ich finde ja das Portfolio von Nvidia extrem spannend. Man bekommt eine 3080 um $699 und zahlt für eine 10% schnellere 3090 $1499. Auch eine 3080 20Gb soll noch kommen. NV erwartet AMD also wohl knapp unter 3080 Speed und will dafür sorgen, den profitablen Teil des Marktes weiter exklusiv für sich zu bekommen. Dafür ist man auch bereit den BigChip extrem billig in den Markt zu drücken und für 4-5% mehr Performance die Effizienz zu opfern. Bleibt die Frage ob NV Recht behält mir ihrer Einschätzung, ich denke aber, dass die schon relativ gut Bescheid wissen.

Fragman
2020-09-20, 11:18:51
Dass AMD nicht nur die Masse an Spielern oder generell irgendein Mainstream interessiert, sieht man an Zen und all seinen Produkten. Dasselbe wird auch mit GPUs passieren.



Ampere ist quasi kein Fortschritt in Perf/W. Da gibts kaum anderen Fortschritte

Nv operiert seit 4 Jahren am oberen Ende des technisch und wirtschaftlich machbaren. AMD hat es etwas "einfacher" weil sie dort noch nicht angekommen sind und deren Priorität auf CPU's in den letzten Jahren lag (Release von Produkten). Die 4K Euro Zen CPU zählt nicht wirklich, da das Chipletdesign viel einfacher und kleiner ist als eine monolithische GPU.
Wenn die aktuellen Gerüchte stimmen, die Leistung unter der 3080 mit 16GB RAM und günstiger, sehe ich da keine Probleme. Im Gegenteil, sollte AMD liefern können und noch ausreichenden Gewinn machen, dürfte das denen mehr helfen als irgendwelche Prestigeprodukte.

kabe
2020-09-20, 11:23:02
Sollte die 3090 wirklich nur 10-15% auf eine 3080 draufpacken, würde ich die Wahrscheinlichkeit für die Performencekrone von BigNavi zumindest von Träumerei auf theoretisch möglich hochstufen. :D

fondness
2020-09-20, 11:26:19
Nv operiert seit 4 Jahren am oberen Ende des technisch und wirtschaftlich machbaren.

Technisch ok, wirtschaftlich aber sicher nicht. Kaum jemand hat eine so hohe Rendite wie NV.

WedgeAntilles
2020-09-20, 11:26:41
Leute, bei Ampere, das war ein Hype-Train, da stört die Bauchlandung aber niemanden. Immer diese Doppelmoral... Hype-Trains gibts immer nur bei den Roten.

Mh, also hier im Forum wurde der erwartete Performance+ von Nvidia ja immer geringer.
Da las man ja vor ein paar Wochen immer mehr, dass die Performance vielleicht +30% sein wird - UND der Stromverbrauch +30% sein soll.
Also quasi 0% Performanceplus.

Und das natürlich zum Preis von 1000 Euro aufwärts für die 3080.

Ja, doch, Ampere ist mit seinen jetzt bekannten Spezifikationen wirklich eine totale Enttäusch und Bauchlandung. :rolleyes:

Aber klar, jetzt hat natürlich JEDER ne 3080 für 700-800 Euro erwartet, die ca. 70% mehr Perfromance wie die 2080 hat.

Und da wundert ihr euch, dass man euch nicht ernst nimmt?

Muss man Ampere für eine WunderGraKa halten? Nein, natürlich nicht. Gibt genug, was man an Ampere kritisieren kann.
Aber wer nicht merkt, dass Ampere klar über den Erwartungen (die halt auch lächerlich waren, nach dem Motto: Nvidia hat alles verlernt, der SamsungProzess ist so mies, dass Ampere tendenziell kaum besser als Turing wird) gelegen hat die vor allem hier im Forum herrschten - mehr Leistung zu einem weit günstigeren Preis als prognostiziert - der lügt schlicht und ergreifend.

Interessant auch die Begründungen für den Erfolg von BigNavi:
Ampere ist so mies, BigNavi wird Ampere schlagen.
Jetzt heißt es:
Ampere ist ziemlich stark, das ist der Beweis, dass BigNavi so super ist und Ampere schlagen wird.

Wir werden sehen, was BigNavi bringt - es gibt sicherlich einige Gründe da sehr optimistisch zu sein. Und einige Gründe pesimistisch zu sein.
Fakt ist, mein weiß schlicht noch nichts.

Und allmählich sollte AMD da vielleicht mal etwas dran ändern, denn im Laufe der nächsten Wochen wird die Verfügbarkeit von Ampere besser werden.
Und theoretisch sollte AMD ein Interesse daran haben, dass die Kunden nicht gleich Ampere kaufen. Jeder der jetzt Ampere kauft ist für AMD als Kunde verloren.
Was erwartet AMD denn?
Wenn nicht mal AMD dem Käufer Gründe nennen möchte warum er auf BigNavi warten soll - wieso sollte der Käufer es dann tun?
Nvidia ist der Marktführer, mit riesigem Abstand.
Wenn von AMD 0 Infos kommen werden viele Käufer ohne Bedenken gleich zu Nvidia greifen.
Wenn von AMD handfeste Infos kommen warten vielleicht doch einige mit dem Kauf.

Falls AMD schon handfeste Infos zu BigNavi hat gibt es KEINEN Grund, die nicht zu nennen und so zu versuchen Käufer zum Warten zu bringen.
Ok, vielleicht gibt es schlicht und ergreifend noch keine relevanten Infos die AMd liefern kann. Kann das sein, 2 Monate vor dem angeblichen Launch?
Keine Ahnung.

Je länger von AMD nix kommt desto größer IMO die Wahrscheinlichkeit, dass der Launch später als November wird und/oder, dass AMD Probleme mit BigNavi hat und BigNavi doch nicht so super wird.
Dann kann AMD nämlich keine Infos geben, denn entweder müssten sie die Infos die sie herausbringen fälschen oder sie würden Infos rauslassen, nach denen Ampere schlicht besser ist.
Das wäre dann eine plausible Erklärung für das Schweigen von AMD.

Stand heute ist das Schweigen von AMD noch nicht problematisch - es gibt ja Ampere noch quasi nicht zu kaufen.

Aber je länger von AMD nichts kommt desto klarer muss man sich fragen: Warum sagt AMD nix?

Die nächsten 4 Wochen werden denke ich ein ziemlich guter Hinweis wie stark BigNavi wird.
Kommt von AMD nix? Oh je, mieses Zeichen.
Oder erfahren wir ein paar starke Werte von BigNavi?
Es wird spannend.

why_me
2020-09-20, 11:28:47
Sollte die 3090 wirklich nur 10-15% auf eine 3080 draufpacken, würde ich die Wahrscheinlichkeit für die Performencekrone von BigNavi zumindest von Träumerei auf theoretisch möglich hochstufen. :D

Woher sollte nennenswert mehr kommen? +20% Shader, 10% TDP (wovon der Speicher das meiste auffressen solle)...
Sofern der 3080 nicht der Speicher ausgeht, was leider passieren kann, wird sich die 3090 nicht weit absetzen können.

basix
2020-09-20, 11:36:57
Technisch ok, wirtschaftlich aber sicher nicht. Kaum jemand hat eine so hohe Rendite wie NV.

Du hast das mit dem wirtschaftlich verkehrt herum verstanden ;) Oberes Ende = viel besser geht es nicht

unl34shed
2020-09-20, 11:39:26
Aber wer nicht merkt, dass Ampere klar über den Erwartungen (die halt auch lächerlich waren, nach dem Motto: Nvidia hat alles verlernt, der SamsungProzess ist so mies, dass Ampere tendenziell kaum besser als Turing wird) gelegen hat die vor allem hier im Forum herrschten - mehr Leistung zu einem weit günstigeren Preis als prognostiziert - der lügt schlicht und ergreifend.

Sorry für OffTopic. :eek: Was? Lies dir noch mal den Ampere Thread durch, vor ein paar Monaten... :confused:

zum Rest: :facepalm::facepalm::facepalm:

pixeljetstream
2020-09-20, 11:45:27
WedgeAntilles man merkt halt deutlich wie wenig die Erwartungen mit der realen Entwicklung zu tun haben. Es ist Schade dass zum Beispiel ein 2x skalierender navi10 für sagen wir unter 300 Watt im gleichen prozess ein Jahr später, als einfach zu realisieren gesetzt wird (genau wie die 4x raytracing Erwartungen bei Ampere). Weil es in keiner Relation zu dem bisher geleisteten, oder dem noch zu leistenden steht um da hinzukommen.

Ich wiederhole mich oft, aber die Tatsache dass es nur zwei-drei Firmen gibt die da bisher hohes Niveau zeigen in dem Sektor sollte eigentlich zeigen wie schwer es ist.

basix
2020-09-20, 11:48:02
Ampere kam bei Perf und Perf/Watt definitiv unter den allgemeinen Erwartungen raus. +50% Perf oder gar etwas mehr war der allgemeine Tenor (wird von der 3080 nur bei hohem RT Anteil erreicht). Einzig der relativ humane Preispunkt lässt jetzt die Leute durchdrehen.

Ob die Ampere Produktpolitik mit AMD zu tun hat? Gut möglich. Nvidia ist nicht blöd und bereitet sich prophylaktisch auf ein starkes AMD vor. Ist RDNA2 stark, bringen sie 16/20 GByte Versionen mit moderat höheren Preisen. Wenn RDNA2 nicht stark ist, machen sie das selbe mit erhöhten Preisen.

WedgeAntilles
2020-09-20, 11:48:18
Sorry für OffTopic. :eek: Was? Lies dir noch mal den Ampere Thread durch, vor ein paar Monaten... :confused:

zum Rest: :facepalm::facepalm::facepalm:

Unglaublich bereichender und gehaltvoller Beitrag, danke dafür :)

w0mbat
2020-09-20, 11:49:35
Ampere war der krasseste hype train seit langem, hat nicht geliefert, aber den Grünen ist es egal, sie kaufen trotzdem. Deshalb geht es Nvidia so gut, die Leute kaufen einfach, egal was.

dildo4u
2020-09-20, 11:52:59
Ist Preis/Leistung nicht besser als Navi zur Zeit?Ich würde das nicht nur auf Fanboys zurück führen.

https://i.ibb.co/kDWgKgN/Cost-4K.png (https://ibb.co/HPkD7D5)

https://www.techspot.com/review/2099-geforce-rtx-3080/

why_me
2020-09-20, 11:59:43
Es ist Schade dass zum Beispiel ein 2x skalierender navi10 für sagen wir unter 300 Watt im gleichen prozess, als einfach zu realisieren gesetzt wird (genau wie die 4x raytracing bei Ampere). Weil es in keiner Relation zu dem bisher geleisteten, oder dem noch zu leistenden steht um da hinzukommen.

Nur ist Navi10 eine Mittelklasse Karte und kein Highend, 2x ist also nicht so unmöglich. AMD hat 50% Perf/W angekündigt und Navi10 mal 2 ergibt damit eben 300W. Wie hier schon oft geschrieben, haben sie auf mit Zen und RDNA1 geliefert.
Keiner sagt, dass es einfach ist, dafür hat hier denke ich keiner den tiefen Einblick in die Entwicklung, aber es stehen nun mal Aussagen im Raum und daran wird man sich messen müssen.
Und ich denke auch nicht, dass AMD es hier nötig hat, die Perf/W mit Vsync zu erzielen , wie Nvidia :P

w0mbat
2020-09-20, 11:59:55
Ne, weil die Preise (in Euro) anders sind, die RX 5700 ist günstiger und die 3080 nicht verfügbar, bzw. teurer. Aber darum geht es nicht.

Wenn AMD gesagt hätte BigNavi = 2x Navi10 und es wären nur 70% mehr gewesen, die ganzen grünen Fanbois (und sind wir realistisch, das sind 90%) hätten nur Spott und Hähme gehabt.

Bei Nvidia ist das aber egal, da war es zwar gelogen (bzw. "jeder" wusste, dass Minecraft RT gemeint war) aber auch egal.

WedgeAntilles
2020-09-20, 12:00:45
Ampere kam bei Perf und Perf/Watt definitiv unter den allgemeinen Erwartungen raus. Einzig der relativ humane Preispunkt lässt jetzt die Leute durchdrehen.

Ob das mit AMD zu tun hat? Gut möglich. Nvidia ist nicht blöd und bereitet sich profilaktisch auf ein starkes AMD vor. Ist RDNA2 stark, bringen sie 16/20 GByte Verdionen mit moderat höheren Preisen. Wenn RDNA2 nicht stark ist, machen sie das selbe mit deutlich gestiegenen Preisen.

Naja, "einzig der relativ humane Preispunkt" ist jetzt etwas falsch ausgedrückt IMO.
Wenn 100 Leistung erwarte zu einem Preis von 100 und nachher nur 90 Leistung bekomme ist das enttäuschend. Falls der Preis bei 100 bleibt.
Falls aber der Preis bei 80 ist, ist das neue Paket für viele sogar attraktiver.

Mir persönlich ist es lieber Ampere hat 15% weniger Leistung als vor einem Jahr erwartet (schau mal die Erwartungen die manche im Juli/August hatten - da ging man ja von vielleicht +30% aus. Teils sogar von +30% bei erhöhtem Stromverbrauch) und dafür 20% günstiger.

Klar, kommt drauf an von wo man kommt - falls man ne 2xxx Generation hat und upgraden will, ist mehr Power wichtiger, als ein günstigerer Preis.
Falls man aber von einer älteren Generation kommt hat man vielleicht lieber etwas weniger Power (der Zugewinn ist ja sowieso schon enorm) und dafür einen günstigeren Preis.

Der Preis ist also ein ganz enorm entscheidendes Kriterium, wie gut oder schlecht ein Produkt ist.


Beim Aufpreis der doppelten Ram-Produkte bin ich völlig bei dir - je besser BigNavi ist, desto geringer wird der Aufpreis sein.
Nvidia ist mit seiner Ampere-Preispolitik IMO gut abgesichert.

Ist BigNavi stark hat Nvidia günstige und konkurrenzfähige Preise.
Ist BigNavi schwächer verliert Nvidia trotzdem nicht - die größeren Speicherpakete können sie sich dann dick bezahlen lassen.
Und gleichzeitig schafft Nvidia es vermutlich, dass viele Käufer zur 3080 für 700 Euro statt zur 3070 für 500 Euro greifen.
Der relativ niedrige Preis für die 3080 sorgt dafür, dass ein Teil der Käufer in dieses Regal greift.
Und das bringt zusätzliche Marge + Gewinn.
Wodurch man die "Verluste" die man hat, dass man die 3080 nicht nen hunderter teurer verkauft (zumindest teilweise) ausgleicht.

Die Gewinnmargen bei den einzelnen Karten würden mich wirklich interessieren.

Der_Korken
2020-09-20, 12:01:18
WedgeAntilles man merkt halt deutlich wie wenig die Erwartungen mit der realen Entwicklung zu tun haben. Es ist Schade dass zum Beispiel ein 2x skalierender navi10 für sagen wir unter 300 Watt im gleichen prozess, als einfach zu realisieren gesetzt wird (genau wie die 4x raytracing bei Ampere). Weil es in keiner Relation zu dem bisher geleisteten, oder dem noch zu leistenden steht um da hinzukommen. Ich wiederhole mich oft, aber die Tatsache dass es nur zwei-drei Firmen gibt die da bisher hohes Niveau zeigen in dem Sektor sollte eigentlich zeigen wie schwer es ist.

Das größte Problem ist, dass viele Leute noch nach dem Schema denken, dass ein neuer Fertigungsprozess schon mal Faktor 1,7-2,0 Perf/W for free gibt und am besten noch irgendwelche Optimierungen oben drauf kommen (gab welche die enttäuscht waren, dass AMD keine 3-4x Packdichte mit 7nm erreicht hat, weil das doch zwei Fullnodes gegenüber 14nm sind. Und dass Nvidia das natürlich locker schaffen wird). Oder dass man einfach alte Chips ausmisst, guckt wie groß irgendwelche CUs/SMs sind und dann hochrechnet wie viele davon man unterbekommt, wenn man sie auf xx mm² bis unters Dach stapelt. Und dass das natürlich 1:1 skaliert. Mindestens. Dabei sieht man z.B. an der R7, dass ein reiner Shrink am Ende mit Müh und Not 30% bringt, wenn man ihn nur in mehr Takt reinbuttert. Und dass eine clevere Architektur mehr Wert ist als protzige Zahlen (R7 vs 5700XT, die erstere immer mehr auf die Pelle rückt).

Es gibt übrigens einen verwaisten "Hardware-Prognose-Thread", der komischerweise im Offtopic-Bereich gelandet ist: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=601446

Da kann ja jeder nochmal seine Wette abgeben ;D

Tobalt
2020-09-20, 12:02:36
Habe im Spekuthread von Ampere nicht gelesen. Stand jetzt ist Ampere aber ein gutes Produkt. Top Performance, top Perf/W, top Perf/€. Top features.

ABER, die Entscheidung des Betriebspunktes mit ü 300 W erzeugt einen faden Beigeschmack.

Deshalb vermute ich auch, dass Navi bei ca 3080 rauskommt

Szudri
2020-09-20, 12:03:12
Falls AMD schon handfeste Infos zu BigNavi hat gibt es KEINEN Grund, die nicht zu nennen und so zu versuchen Käufer zum Warten zu bringen.
Ok, vielleicht gibt es schlicht und ergreifend noch keine relevanten Infos die AMd liefern kann. Kann das sein, 2 Monate vor dem angeblichen Launch?
Keine Ahnung.

Je länger von AMD nix kommt desto größer IMO die Wahrscheinlichkeit, dass der Launch später als November wird und/oder, dass AMD Probleme mit BigNavi hat und BigNavi doch nicht so super wird.
Dann kann AMD nämlich keine Infos geben, denn entweder müssten sie die Infos die sie herausbringen fälschen oder sie würden Infos rauslassen, nach denen Ampere schlicht besser ist.
Das wäre dann eine plausible Erklärung für das Schweigen von AMD.

Stand heute ist das Schweigen von AMD noch nicht problematisch - es gibt ja Ampere noch quasi nicht zu kaufen.

Aber je länger von AMD nichts kommt desto klarer muss man sich fragen: Warum sagt AMD nix?

Die nächsten 4 Wochen werden denke ich ein ziemlich guter Hinweis wie stark BigNavi wird.
Kommt von AMD nix? Oh je, mieses Zeichen.
Oder erfahren wir ein paar starke Werte von BigNavi?
Es wird spannend.

Für ein paar evtl. Wechselwillige soll AMD also alles raus hauen um nVidia Reaktionszeit zu geben? Ernsthaft? nVidia wird so ziemlich alles nicht wirklich übel genommen. 970 Speicher debakel? Als Dank wird die 980 gekauft.

Letztlich läuft es wie folgt hinaus:

Wenn nVidia die schnellste Karte hat, aber Perf/Watt schlechter als AMD da steht, gewinnt nVidia. Denn in diesem Fall zählt nur Max. Performance. Ist nVidia Perf/Watt Sieger und AMD Performance Sieger, zählt nur Perf/Watt.

Wenn der Käufer nicht fähig ist jetzt zu warten, hofft er nur darauf dass durch BN nochmal was für sich bei nVidia raus springt (Preisnachlass, Goodies, etc.). Denn warten muss er so oder so. Die Karten gibt es ja erst später.

basix
2020-09-20, 12:03:58
Nun, die 3090 wird wohl nahe auf das erwartete +Perf kommen. Die vergisst man aktuell etwas. Halt mit +30% Verbrauch. Letzteres würde in Gerüchten zwar oft erzählt, aber nur wenige haben effektiv an so etwas wie 350W geglaubt.

WedgeAntilles
2020-09-20, 12:04:49
Es gibt übrigens einen verwaisten "Hardware-Prognose-Thread", der komischerweise im Offtopic-Bereich gelandet ist: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=601446

Da kann ja jeder nochmal seine Wette abgeben ;D

Ja, aber da muss man sich dann ja mal festlegen - und kann dann relativ einfach in nem Jahr überprüft werden.
Wenn man 50 Postings in einem 600 Seiten-Thread hat ist das quasi nicht mehr möglich. ;)

Zergra
2020-09-20, 12:06:11
Nur ist Navi10 eine Mittelklasse Karte und kein Highend, 2x ist also nicht so unmöglich. AMD hat 50% Perf/W angekündigt und Navi10 mal 2 ergibt damit eben 300W. Wie hier schon oft geschrieben, haben sie auf mit Zen und RDNA1 geliefert.

Nirgends steht das AMD die 50% auf den Vollausbau erreicht. Das ist deine Annahme. Am Ende kann man durchaus darauf verzichten um der 3080 näher zu kommen und den Takt weiter zu erhöhen.

Dann nimmt man eben eine andere Karte bei der man die 50% erreicht.
Meist waren die Salvage Chips bei AMD effizienter. (Vega 56 z.B)

basix
2020-09-20, 12:11:42
Naja, "einzig der relativ humane Preispunkt" ist jetzt etwas falsch ausgedrückt IMO.
Wenn 100 Leistung erwarte zu einem Preis von 100 und nachher nur 90 Leistung bekomme ist das enttäuschend. Falls der Preis bei 100 bleibt.
Falls aber der Preis bei 80 ist, ist das neue Paket für viele sogar attraktiver.

Mir persönlich ist es lieber Ampere hat 15% weniger Leistung als vor einem Jahr erwartet (schau mal die Erwartungen die manche im Juli/August hatten - da ging man ja von vielleicht +30% aus. Teils sogar von +30% bei erhöhtem Stromverbrauch) und dafür 20% günstiger.

Klar, kommt drauf an von wo man kommt - falls man ne 2xxx Generation hat und upgraden will, ist mehr Power wichtiger, als ein günstigerer Preis.
Falls man aber von einer älteren Generation kommt hat man vielleicht lieber etwas weniger Power (der Zugewinn ist ja sowieso schon enorm) und dafür einen günstigeren Preis.

Der Preis ist also ein ganz enorm entscheidendes Kriterium, wie gut oder schlecht ein Produkt ist.


Da gebe ich dir absolut recht. Niedrigere Preise = für mehr Leute erwschwinglich. Perf/$ ist bei der 3080 top, da habe ich nie was anderes behauptet.



Beim Aufpreis der doppelten Ram-Produkte bin ich völlig bei dir - je besser BigNavi ist, desto geringer wird der Aufpreis sein.
Nvidia ist mit seiner Ampere-Preispolitik IMO gut abgesichert.

Ist BigNavi stark hat Nvidia günstige und konkurrenzfähige Preise.
Ist BigNavi schwächer verliert Nvidia trotzdem nicht - die größeren Speicherpakete können sie sich dann dick bezahlen lassen.
Und gleichzeitig schafft Nvidia es vermutlich, dass viele Käufer zur 3080 für 700 Euro statt zur 3070 für 500 Euro greifen.
Der relativ niedrige Preis für die 3080 sorgt dafür, dass ein Teil der Käufer in dieses Regal greift.
Und das bringt zusätzliche Marge + Gewinn.
Wodurch man die "Verluste" die man hat, dass man die 3080 nicht nen hunderter teurer verkauft (zumindest teilweise) ausgleicht..

Ja so in etwas stelle ich mir Nvidias Taktik vor (ich als Laien-Wirtschaftler :D)

Nirgends steht das AMD die 50% auf den Vollausbau erreicht. Das ist deine Annahme. Am Ende kann man durchaus darauf verzichten um der 3080 näher zu kommen und den Takt weiter zu erhöhen.

Richtig. Aber auf einen solchen 2x Navi bei 300W hoffen kann man trotzdem. Einfach weil es die einzige Annahme ist, welche man einigermassen begründen kann (AMDs +50% Perf/W claim). Und mit Zen und Navi hat sich AMD bei vielen einen Vertrauensvorschuss verdient.

AMDs +50% Perf/W sind mal ein "internal estimate". Kann so kommen, muss aber nicht. Zumindest ist es wohl AMDs interne Zielvorgabe.

Dann nimmt man eben eine andere Karte bei der man die 50% erreicht.
Meist waren die Salvage Chips bei AMD effizienter. (Vega 56 z.B)

Wenn AMD das macht, sind sie sehr dumm. Damit würden sie Öl in ein Feuer giessen, welches momentan bei AMD noch nichtmal existiert (bei Nvidia aber schon mit dem 1.9x claim).

Edit:
AMD hat bei ihren Effizienzvergleichen oft in ihrer Fussnote "similar configuration" erwähnt. Bei Navi 10 wären das also 40 CU und selber Takt. Also wäre das 5700 XT Leistung bei 150W. Sich von hier aus eine 300W Karte mit 80 CU vorzustellen, welche annähernd an 2x 5700 XT kommt ist nicht sehr schwer.

Der_Korken
2020-09-20, 12:15:39
Ja, aber da muss man sich dann ja mal festlegen - und kann dann relativ einfach in nem Jahr überprüft werden.
Wenn man 50 Postings in einem 600 Seiten-Thread hat ist das quasi nicht mehr möglich. ;)

Das ist doch der Reiz des ganzen :D

Meine Prognose mit 72CUs und 6SAs ist eh schon ziemlich tot, genau wie die 384bit SI mit 12GB. Aber gut, dass war Stand Juli, da gab es viele (angebliche) Leaks noch nicht. Heute würde ich natürlich anders spekulieren. Den Infinity Cache, so er denn tatsächlich kommt, hätte keiner vorhersagen können, weil er ein komplett neuer Ansatz ist. Und dabei sind solche Änderungen die eigentlichen Game Changer, nicht die nackten Zahlen allein (auch wenn die natürlich auch steigen).

WedgeAntilles
2020-09-20, 12:18:57
Für ein paar evtl. Wechselwillige soll AMD also alles raus hauen um nVidia Reaktionszeit zu geben?


Gegenfrage: Glaubst du, dass AMD seine 20% Marktanteil als in Stein gemeißelt ansieht und keinerlei Chance hat den zu steigern?

Glaube ich selber nicht.
Ich denke AMD hat sehr gute Chancen den Marktanteil zu steigern.

Und für was genau soll Nvidia "Reaktionszeit" nutzen?
Um einen neuen Chip zu entwickeln? Ne, Ampere ist fertig.
Und der Nachfolger wird garantiert 0,0 beeinflusst, wie BigNavi in 2 Monaten genau aussieht.
Preisgestaltung? Nö, natürlich nicht, die Preisgestaltung ist für Ampere festgelegt - und wird höchstens angepasst wenn BigNavi auf dem Markt käuflich erwerbbar ist. Nicht vorher.
Neue Modelle mit mehr Ram? Die wird es doch sowieso geben.
Ist zwar von Nvidia noch nicht offiziell bestätigt, aber glaubt ernsthaft jemand, dass es KEINE 3080 mit 20GB geben wird?
Und auch hier: Die Preisgesaltung dafür wird natürlich abhängig von BigNavi sein - aber bis dahin wird man die Preise von BigNavi ja sowieso kennen.
Da die 3080 mit 20GB noch nicht in 4 Wochen im Laden stehen wird.

Was genau sollte Nvidia also mit der "Reaktionszeit" machen?
Mal kurz in 4 Wochen Ampere umbauen?


AMD hat einen schweren Stand - das ist keine Frage.
Nvidia ist seit jahrzehnten der klare Marktführer und natürlich kaufen die meisten Leute wieder Nvidia. Wenn man 5 mal ne Nvidia Karte hatte, ist die Chance, dass die 6. Karte wieder eine von Nvidia wird sehr groß.
Und warum auch nicht - wenn ich zig mal mit einem Anbieter zufrieden war, warum soll ich da wechseln? Gibt ja eigentlich keinen Grund, oder?
Nur halt wenn der andere anbieter ein deutlich attraktiveres Gesamtpaket schnürt.

Aber gerade da AMD einen schweren Stand hat sollte IMO AMD frühzeitig anfangen, den potentiellen Käufern BigNavi zumindest als Alternative zu präsentieren.

Klar, wenn AMD wie du sagt: Die Leute kaufen eh Nvidia - dann brauchen sie das nicht machen.

Aber wenn AMD selber für sich Chancen sieht den Marktanteil zu vergrößern sollten sie anfangen für BigNavi zu werben, bevor sich die Käufer auf Nvidia festlegen.

Das gilt natürlich nur, falls AMD zum jetztigen Zeitpunkt das seriös machen kann.
Kennt AMD 2 Monate vor dem Start schon Zahlen mit denen sie werben kann?
Oder gibt es die vielleicht halt noch nicht?

why_me
2020-09-20, 12:20:29
Nirgends steht das AMD die 50% auf den Vollausbau erreicht. Das ist deine Annahme. Am Ende kann man durchaus darauf verzichten um der 3080 näher zu kommen und den Takt weiter zu erhöhen.

Dann nimmt man eben eine andere Karte bei der man die 50% erreicht.
Meist waren die Salvage Chips bei AMD effizienter. (Vega 56 z.B)

Alles das was Basix schrieb, er war nur schneller.
Und auch die Konsolen deuten aktuell darauf hin, das man dieses Ziel erreichen konnte.

52CUs, 1,8GHz bei ca. 180W für GPU + MEM

basix
2020-09-20, 12:22:45
Was genau sollte Nvidia also mit der "Reaktionszeit" machen?

In diesem Sinne sind das die neuen Konsolen und das Weihnachtsgeschäft insgesamt. Mit entsprechendem Produktstack kann man darauf reagieren. Aber Nvidia wird sich hier nicht erwischen lassen, das zu glauben wäre naiv. Nicht umsonst gibt es bereits Partner, welche 20GByte Versionen in ihren Produktnummern auftauchen haben.

AMD wird mit Zen 3, RDNA2 und den Konsolen den ganzen Oktober und November für sich haben.

Zergra
2020-09-20, 12:24:59
Wenn AMD das macht, sind sie sehr dumm. Damit würden sie Öl in ein Feuer giessen, welches momentan bei AMD noch nichtmal existiert (bei Nvidia aber schon mit dem 1.9x claim).

Edit:
AMD hat bei ihren Effizienzvergleichen oft in ihrer Fussnote "similar configuration" erwähnt. Bei Navi 10 wären das also 40 CU und selber Takt. Also wäre das 5700 XT Leistung bei 150W. Sich von hier aus eine 300W Karte mit 80 CU vorzustellen, welche annähernd an 2x 5700 XT kommt ist nicht sehr schwer.

Du sagst "similar", bei GCN vs Navi war es aber eben Vega64 vs 5700XT. Diese haben natürlich ganz unterschiedliche Konfigurationen.


Ob man bei den 50% bei TopDog landet ist natürlich was anderes. Sieht an doch auch bei Ampere ganz gut, weil NV eben für die letzten 4-5% 50Watt mehr auf die GPU legt.

Sowas kann bei AMD auch schnell passieren, weil man das Produkt dadurch eben mit einer anderen Karte vergleichen kann.


Es können halt auch 1.9x Navi10 bei 300Watt sein, oder eben 2x bei 330Watt.

unl34shed
2020-09-20, 12:26:44
Du sagst "similar", bei GCN vs Navi war es aber eben Vega64 vs 5700XT. Diese haben natürlich ganz unterschiedliche Konfigurationen.

Es war eine Vega64, die auf 40CUs beschnitten wurde, siehe Footnote. Also Vorteil für V10 durch HBM und Salvage :rolleyes:

basix
2020-09-20, 12:27:07
del

Ravenhearth
2020-09-20, 12:31:29
Übrigens:

https://twitter.com/KittyYYuko/status/1304252347871367171
Also ein in jeder Hinsicht verdoppelter Navi10, nur das Interface bleibt gleich? Die 128MB Cache werden immer wahrscheinlicher ;D

pixeljetstream
2020-09-20, 12:32:45
Keiner sagt, dass es einfach ist, dafür hat hier denke ich keiner den tiefen Einblick in die Entwicklung, aber es stehen nun mal Aussagen im Raum und daran wird man sich messen müssen.

Meine Aussage ist dass der Hype dafür sorgt dass diese Errungenschaft eben schon als einfach wahrgenommen wird. Hier schreibt jemand sogar vom worst-case, obwohl es schon sehr gut ist das hinzubekommen. Ich habe das am Rande bei Maxwell ja mitbekommen. Das hat nichts mit Zweifel zu tun dass es nicht machbar ist, aber dass es für sich schon viel ist. Es geht eben gerade nicht darum zu sagen Hersteller x kann y nicht. Sondern y ist schon ordentlich Arbeit, vielleicht das nicht abtun und darüber hinaus immer mehr Erwartungen schüren, egal für welchen Hersteller.

Tarkin
2020-09-20, 13:17:51
Ist Preis/Leistung nicht besser als Navi zur Zeit?Ich würde das nicht nur auf Fanboys zurück führen.

https://i.ibb.co/kDWgKgN/Cost-4K.png (https://ibb.co/HPkD7D5)

https://www.techspot.com/review/2099-geforce-rtx-3080/

Tolle Phantasie-Grafik

Günstigste 5700 kostet 320,- (verfügbar) = 6,66 Euro pro Frame
Günstigste 3080 kostet 780,- (nicht verfügbar) = 7,22 Euro pro Frame (theoretisch)

Hakim
2020-09-20, 13:44:11
Da alle 3080 nicht verfügbar sind kannst du auch die nicht verfügbare für 699€ nehmen

Platos
2020-09-20, 13:51:25
Jetzt geht hier das Fanboy-Gelaber wieder los :D

basix
2020-09-20, 13:52:18
Tolle Phantasie-Grafik

Günstigste 5700 kostet 320,- (verfügbar) = 6,66 Euro pro Frame
Günstigste 3080 kostet 780,- (nicht verfügbar) = 7,22 Euro pro Frame (theoretisch)

Da die 3080 die aktuell schnellste Grafikkarte ist, ist eine sehr gute Perf/$ doch etwas anderes als bei Turing ;)

Sunrise
2020-09-20, 14:04:13
AMD muss mit BigNavi ja irgendwie überraschen, wenn jetzt plötzlich auch von den Leakern ein 256bit SI genannt wird...

Ampere hat mich sowohl preislich extrem positiv, als auch negativ beim genutzten Samsung-Prozess überrascht. Beides hängt ja irgendwie zusammen und ist eine direkte Reaktion, weil man wusste, dass man eine 3080 nicht für deutlich mehr als $699 bzw. EUR verkaufen kann, wenn AMD und die Konsolen immer stärker werden.

Dass man Ampere (3080) so hochprügelt, dass selbst einer 3090 die Luft oben ausgeht, zeigt ja, dass man den Effizienzgedanken der letzten Generationen über Bord werfen musste. Denn das war lange Zeit NVs Trumpf. Man wollte aber preislich aggressiver auftreten.

Wäre Ampere (3080) mit TSMC bei max. 280W gekommen, wäre das der Hammer gewesen. NV wusste jedoch, dass die Produkte dennoch gekauft werden, wenn sie etwas mehr verbrauchen.

Genau das ist jetzt die Möglichkeit für AMD, hier aufzuholen. Hätten beide TSMC genutzt hätte AMD wohl wieder keine Chance gehabt.

Für den Endkunden natürlich genial, wenn man bald sogar 3080-Leistung mit 16GB RAM bekommt, denn dann wird NV wiederum mit 20GB nachziehen.

Die 3090 ist IMHO dennoch ein geniales Produkt mit sehr langer Lebzeit, abseits des Verbrauchs und des Preises kam bei mir direkt ein “Muss ich haben”-Gefühl hoch. BigNavi wird leider auch daran gemessen werden, AMD wollte ja ein Halo-Produkt vorstellen.

Complicated
2020-09-20, 14:20:54
Genau das ist jetzt die Möglichkeit für AMD, hier aufzuholen. Hätten beide TSMC genutzt hätte AMD wohl wieder keine Chance gehabt.

Das ist eine gewagte These - bisher ist AMD hier bei 4 Jahren Vorsprung (an Erfahrung), da sie 2016 entschieden haben 10nm konsequent zu überspringen und direkt auf 7nm zu gehen. Ich denke Nvidia muss hier ebenso aufholen bei der Fertigung wie das Intel machen muss wegen Ihrem Zwischenschritt bei 10nm (8nm).

Der Schritt EUV-Layer einzubinden kann erst erfolgen wenn 7nm/5nm steht für die größte Anzahl an Layern. Es hat einen Grund warum Nvidia nicht in der Lage ist ein TSMC-7nm DUV Produkt anzubieten und womöglich diesen Zwischenschritt auch noch machen muss um EUV nutzen zu können, ohne zu großes Risiko beim Node-Sprung.

Es ist traditionell so, dass Nvidia bei der Architektur stärker ist, jedoch ist AMD bei der Fertigung voraus. Am Ende muss das Design auf der Fertigung umsetzbar sein und es entscheidet die Kombination über das Endprodukt.

fondness
2020-09-20, 14:32:12
Die 3090 ist IMHO dennoch ein geniales Produkt mit sehr langer Lebzeit, abseits des Verbrauchs und des Preises kam bei mir direkt ein “Muss ich haben”-Gefühl hoch. BigNavi wird leider auch daran gemessen werden, AMD wollte ja ein Halo-Produkt vorstellen.

Kann ich nicht nachzuvollziehen. 10% mehr Leistung wie eine 3080 bei mehr als den doppelten Preis ist vieles aber sicher nicht genial. Wenn dann ist die 3080 genial, speziell mit 20Gb wäre die 3090 eigentlich obsolet. Also wenn AMD die 3080 erreicht braucht man die 3090 sicher nicht scheuen, denn 10% merkt an Wahrheit niemand und einen derartigen Aufpreis für mehr Speicher zu bezahlen ist eigentlich absurd.

Cyberfries
2020-09-20, 15:28:42
Übrigens:
https://twitter.com/KittyYYuko/status/1304252347871367171
wenn jetzt plötzlich auch von den Leakern ein 256bit SI genannt wird...

Schaut von euch niemand aufs Datum? Es gibt einen Grund warum das nicht weiter rumgezeigt wird.
Das ist kein Leak sondern eine Reaktion auf kopite7kimi's: "Thats Navi21" Äußerung zum Eng.Board und das darauf folgende:
"@0x22h said XSX has 8RBEs and 64ROPs. And we already know that NAVI21 has 16RBEs. What will happen? I don't know yet."

Von den halbwegs verlässlichen "Leakern" hat sich wohlweislich keiner groß dazu geäußert.
Nur die "Youtuber" sind sehr schnell auf RGTs Cache-Behauptung aufgesprungen, in der üblichen Manier.
Da kommen dann solche Behauptungen wie Moores Law is Dead der sich ungefähr so windet:
"384bit habe ich richtig geleakt, wurde aber gestrichen aber alles was ich sonst gesagt habe stimmt immer noch"

JVC
2020-09-20, 15:40:15
Ich werde mich wohl zwischen der 3080 20Gb
Oder nem großen Navi mit min 16Gb entscheiden.

Wobei ich denke, das es eine AMD karte geben wird die sehr nahe an die 3080 heran kommt.
Fast 3080 Leistung mit min 16Gb für ~699.- mit Maximal 275Watt wären super ;)
(die kann ich dann noch immer auf die 3080 340Watt anheben...)

GDDR6X will ich irgendwie gar nicht ... extremer Verbrauch, spezielles teures PCB, über 100°c schon von haus aus...
Naja, von den 256Bit für BN halte ich eigentlich auch nix... mal schauen was da wirklich kommt.

Nur für 512Bit zahle ich über ~850 ^^
Und für 16+Gb HBM2e ... "habenmussbambam" :freak:

M.f.G. JVC

Sunrise
2020-09-20, 16:26:40
Das ist eine gewagte These - bisher ist AMD hier bei 4 Jahren Vorsprung (an Erfahrung), da sie 2016 entschieden haben 10nm konsequent zu überspringen und direkt auf 7nm zu gehen. Ich denke Nvidia muss hier ebenso aufholen bei der Fertigung wie das Intel machen muss wegen Ihrem Zwischenschritt bei 10nm (8nm).

Der Schritt EUV-Layer einzubinden kann erst erfolgen wenn 7nm/5nm steht für die größte Anzahl an Layern. Es hat einen Grund warum Nvidia nicht in der Lage ist ein TSMC-7nm DUV Produkt anzubieten und womöglich diesen Zwischenschritt auch noch machen muss um EUV nutzen zu können, ohne zu großes Risiko beim Node-Sprung.

Es ist traditionell so, dass Nvidia bei der Architektur stärker ist, jedoch ist AMD bei der Fertigung voraus. Am Ende muss das Design auf der Fertigung umsetzbar sein und es entscheidet die Kombination über das Endprodukt.
NV nutzt ganz bewusst bestimmt Prozesse, mehr oder weniger beeinflusst eben durch Verfügbarkeit und Preis. Die Eigenschaften sind natürlich auch relevant, aber da sie mit den Foundrys zusammenarbeiten und sowieso eine eigene Anpassung machen, hat ihnen bei ihrer Effizienz auch ein zweitklassiger Prozess gereicht. Nebenbei ist NV bereits auf 7nm DUV bei TSMC mit GA100 (A100), insofern wüsste ich nicht, wieso NV nicht in der Lage sein soll. Es ging ihnen hier schlicht um das Preispremium, und der geringen Verfügbarkeit, das sichert keine Marktanteile, sondern bringt sie in Gefahr.

Tarkin
2020-09-20, 16:33:15
Da die 3080 die aktuell schnellste Grafikkarte ist, ist eine sehr gute Perf/$ doch etwas anderes als bei Turing ;)

Prinzipiell weiß ich nicht, was Diskussionen über 3080 überhaupt in einem Navi-Thread zu suchen haben :rolleyes:

basix
2020-09-20, 16:37:00
Prinzipiell weiß ich nicht, was Diskussionen über 3080 überhaupt in einem Navi-Thread zu suchen haben :rolleyes:

Gradmesser für BN vielleicht? :rolleyes:

Zergra
2020-09-20, 16:51:48
Gradmesser für BN vielleicht? :rolleyes:

Dafür muss man doch in den Navi 3X Thread.


Musste sein 😀 😉