Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Könnte man der Erprobung eines großen Caches als Vorbereitung auf irgendwann zukünftige mögliche GPU Chiplets sehen? Frage als reiner Laie.
fondness
2020-09-15, 21:07:29
Es gibt ja schon zwei rdna2 Designs, wo man die eckdaten kennt, nämlich ps5 bzw xbox onex. Dort hat man bereits 256 bit bzw 320 bit si. Big Navi hat laut Treiber bestätigt 80 cus, man wird also mit Sicherheit auch die Bandbreite entsprechend mitskalieren. Deshalb machen für mich eigentlich nur 512 bit si Sinn. Hätte amd irgendeinen Wunder Cache wo man so viel Bandbreite sparen könnte, würde man den auch bei den Konsolen verbauen. Sorry für die Form, ich schreibe am Smartphone.
BlacKi
2020-09-15, 21:12:04
Ne übertaktete 3080 bietet bei 375W gnadenlose 3% mehr an Performance
das ist falsch, just saying
robbitop
2020-09-15, 21:14:18
@kabe
Das eine hat mit dem anderen wenig zu tun. Die primäre Herausforderung hat weniger mit externer Bandbreite zum VRAM zu tun sondern mit der bandbreitenintensiven Kommunikation innerhalb der GPU selbst (die ja dann auseiandergezogen wird).
Dazu kommt, dass Datenübertrag heutzutage einen großen Amtwil des Energiebudgets einer GPU ausmacht. Je weiter die Signale müssen (insbesondere off chip), desto mehr Energie kostet die Übertragung jedes bits.
Damit sich das einigermaßen im Zaum hält sollte das gestackt werden. Dazu kommt, dass das Interface auf jedem Chiplet vorgehalten werden muss. Also mehr Siliziumfläche in Summe.
Ein reines I/O Chiplet wäre aber schon denkbar. Der Bandbreitenbedarf ist viel geringer. Und so könnte der kaum shrinkende Analogteil rausfliegen. Ggf auch der Teil für Decoding/Encoding für Video.
Unicous
2020-09-15, 21:19:32
@Linmoum
Alles andere wäre auch enttäuschend.
Man kann nur hoffen, dass Cezanne auch ein VCN-Update dahingehend erhält.
AV1 hat Potential, die Hardwarehersteller müssen da also hinterher sein um den Codec flächendeckend zu etablieren.
Piefkee
2020-09-15, 21:19:51
Es gibt ja schon zwei rdna2 Designs, wo man die eckdaten kennt, nämlich ps5 bzw xbox onex. Dort hat man bereits 256 bit bzw 320 bit si. Big Navi hat laut Treiber bestätigt 80 cus, man wird also mit Sicherheit auch die Bandbreite entsprechend mitskalieren. Deshalb machen für mich eigentlich nur 512 bit si Sinn. Hätte amd irgendeinen Wunder Cache wo man so viel Bandbreite sparen könnte, würde man den auch bei den Konsolen verbauen. Sorry für die Form, ich schreibe am Smartphone.
Genauso ist es...
robbitop
2020-09-15, 21:23:40
Es gibt ja schon zwei rdna2 Designs, wo man die eckdaten kennt, nämlich ps5 bzw xbox onex. Dort hat man bereits 256 bit bzw 320 bit si. Big Navi hat laut Treiber bestätigt 80 cus, man wird also mit Sicherheit auch die Bandbreite entsprechend mitskalieren. Deshalb machen für mich eigentlich nur 512 bit si Sinn. Hätte amd irgendeinen Wunder Cache wo man so viel Bandbreite sparen könnte, würde man den auch bei den Konsolen verbauen. Sorry für die Form, ich schreibe am Smartphone.
Wie gesagt: ein last level Cache (oder aber auch ein scratchpad) ist nicht zwangsweise mit einer uArch verbändelt. Und es ist kein Wundercache. Das wurde schon mehrfach in unterschiedlichen Formen gemacht.
C1 in der X360, Durango in der X1, Crystalwell, Graphis Synthesizer in der PS2, ArtX Flipper im Gamecube (iirc auch hollywood in der wii), 2x unveröffentlichte Generationen von GPUs der bitboys...
Das waren auch eigentlich keine Caches sondern allesamt große scratchpads für den framebuffer. Und das bringt halt eine Menge.
Ich will nicht sagen, dass es wahrscheinlich ist. Aber es ist eine Option. Und dabei eine die nichtmal neu ist.
Randbedingungen sind bei einer Konsole andere als bei einer High End GPU - ein Beispiel was mir direkt einfällt:
Konsolen sind Massenprodukte - 7nm Kapazität ist knapp - davon werden zweistellige millionen Units verkauft. Der Einfluss ist also groß.
Ganz anders ist es bei einer top dog gpu.
Und es gibt sicher noch viele andere Randbedingen, die anders sind.
Ihr könnt mich ja prügeln, aber imo kommen min. 16GB@512-Bit 80CUs bei 350W mit 3090-Performance für 999$. Wahrscheinlich sind es derer eher 32 GB! Customs stellen Heavy OC mit 3x8Pin zur Verfügung und vielleicht ne LCE auch.
Ach nicht so pessimistisch. Das werden mindestens 64GB!
In den 70mm² Differenz bekommt man fast ein CPU-Chiplet unter, welches (abzüglich der Kosten für den IO-Die und das Package) im Schnitt mindestens 200$ abwirft (als R5 3600/4600 sicherlich weniger, bei allem darüber aber entsprechend mehr).
Die Argumentation hab ich irgendwie schon öfters gehört, würde aber nur Sinn machen, wenn es für AMD einen Mangel an Chiplets gibt. Wenn sie eh schon genug herstellen, bringt jedes weitere genau 0 Cent.
Linmoum
2020-09-15, 21:34:05
Und es gibt sicher noch viele amdere Ramdbedingen, die anders sind.Pun intended? :D
robbitop
2020-09-15, 21:38:06
Pun intended? :D
:D
Das iPhone mit seiner Mickeymaus Tastatur baut in Verbindung mit meinen großen Daumen gern mal Tippfehler in Posts ein.
Cyberfries
2020-09-15, 21:56:07
Dass es Lieferschwierigkeiten für Renoir gibts ist nun wirklich kein Geheimnis.
Mit dem Marktstart für Zen 3 in Kürze wird es sicher nicht besser.
....ps5 bzw xbox onex. Dort hat man bereits 256 bit bzw 320 bit si. ....Deshalb machen für mich eigentlich nur 512 bit si Sinn.
Die Konsolen sind insofern ein schlechter Gradmesser, als dass dort einerseits auch CPUs mitversorgt werden müssen,
als auch dass dort langsamerer Speicher (14 Gbps) als möglich verbaut ist.
Der Vergleich mit nVidias 3080 (760GB/s) zeigt, dass 512bit nicht nötig sein sollte. (16Gbps an 384bit = 768GB/s)
Badesalz
2020-09-15, 22:06:27
(Blödsinn wegen der Folie)
Die Y ist Perf/W :redface: Sorry. Dafür müsste man ja die TDPs von RDNA2 haben.
Der_Korken
2020-09-15, 22:34:12
Die Anzahl der großen Top Dog dice sind sowieso relativ gering im Vergleich zu midrange GPUs, APUs und CPUs. Die Dinger bringt man primär, weil es Einfluss auf den gesamten Produktstack hat. Der Gesamteinfluss auf die Waferkapazität ist also gering.
[...]
Wenn man Opportunität mal ausklammert, sind die 120 mm2 sicherlich nicht mehr eindeutig teurer.
Bei meiner Rechnung muss man natürlich beachten, dass man die 8GB VRAM nur deswegen "einspart", weil 12 und 24GB so ungünstige Größen für die GPU-Leistung sind und man eigentlich gerne 16GB hätte.
Ansonsten hast du natürlich Recht, dass die Gaming-GPUs nicht die große Masse an Chips bildet und man sicherlich auch aus Prestige-Gründen nicht einfach das GPU-Lineup abschießt.
Die Argumentation hab ich irgendwie schon öfters gehört, würde aber nur Sinn machen, wenn es für AMD einen Mangel an Chiplets gibt. Wenn sie eh schon genug herstellen, bringt jedes weitere genau 0 Cent.
Das stimmt, aber im Moment sieht es eher so aus, als wenn AMD eher Engpässe bei der Produktion statt bei der Nachfrage hat. Man könnte jetzt natürlich mutmaßen, dass die sich mit Zen 3 und RDNA2 absichtlich etwas Zeit lassen, weil sie wissen, dass erst ab Oktober genug Wafer bekommen, um überhaupt genug Chips zu liefern. :D
nordic_pegasus
2020-09-15, 22:34:44
https://abload.de/thumb/zwischenablage01rkj6p.jpg (https://abload.de/image.php?img=zwischenablage01rkj6p.jpg)
https://abload.de/thumb/zwischenablage02apjg8.jpg (https://abload.de/image.php?img=zwischenablage02apjg8.jpg)
https://abload.de/thumb/zwischenablage04gzjv8.jpg (https://abload.de/image.php?img=zwischenablage04gzjv8.jpg)
Screenshots von hier:
MLXXVpaWkz4
ein echtes Foto der 6900XT, ein anderes Renderbilder der 6900XT und eine kleinere Karte (6700XT)?
crux2005
2020-09-15, 22:38:42
https://abload.de/img/zwischenablage02apjg8.jpg
Das Design wirkt billig (hauptsächlich die grauen Teile zwischen den Lüftern und der rote Streifen). Die Radeon VII sah deutlich hochwertiger aus. Aber ist auch egal. AiBs werden ihre eigenen Design haben.
Könnte auch die kleinere Variante von N21 sein, die es ja auch geben sollte.
nordic_pegasus
2020-09-15, 22:42:09
das dicke "R" auf der kleinen Karte sieht aus wie die Team Rocket Edition aus Pokemon... hoffentlich sagen wir am 28.10. nicht "das war mal wieder ein Schuss in den Ofen" ;-)
Akkarin
2020-09-15, 23:19:56
GloFo hatte doch mal DRAM in ihren Logikprozessen eingebaut. Wäre das theoretisch interessant ? Damit müsste man ja auch ordentlich Fläche sparen können (vs. SRAM).
crux2005
2020-09-15, 23:27:14
das dicke "R" auf der kleinen Karte sieht aus wie die Team Rocket Edition aus Pokemon... hoffentlich sagen wir am 28.10. nicht "das war mal wieder ein Schuss in den Ofen" ;-)
Ahahahah. Jetzt sehe ich es auch. ;D
Edit: Habe das Video von Jay geschaut. Der hat auch kurz ein Team Rocket Bild eingeblendet.
Edit 2: Jay zeigt die 2-Fan Karte. "I expect this to be some kind of integration with Roblox". ;D
xY7zzKTslFA
Das Ding sähe wirklich gut aus, wenn der rote Streifen auf der Seite und die grossen Rs weggelassen würden.
Die Rs müssen pink sein. 111!!! :D
basix
2020-09-15, 23:27:29
Das Design wirkt billig (hauptsächlich die grauen Teile zwischen den Lüftern und der rote Streifen). Die Radeon VII sah deutlich hochwertiger aus. Aber ist auch egal. AiBs werden ihre eigenen Design haben.
Das Ding sähe wirklich gut aus, wenn der rote Streifen auf der Seite und die grossen Rs weggelassen würden.
Linmoum
2020-09-15, 23:37:26
[/URL]https://abload.de/thumb/zwischenablage01rkj6p.jpg (https://abload.de/image.php?img=zwischenablage01rkj6p.jpg)
https://abload.de/thumb/zwischenablage02apjg8.jpg (https://abload.de/image.php?img=zwischenablage02apjg8.jpg)
https://abload.de/thumb/zwischenablage04gzjv8.jpg (https://abload.de/image.php?img=zwischenablage04gzjv8.jpg)
Screenshots von hier:
[URL]https://youtu.be/MLXXVpaWkz4
ein echtes Foto der 6900XT, ein anderes Renderbilder der 6900XT und eine kleinere Karte (6700XT)?"Hey, ich bin doof und kapiere nicht, warum Unternehmen mit Fortnite Marketing machen. Weil ich das aber kacke finde und damit ihr das nicht spielen müsst um mehr zu sehen, zeig ich euch diese Bilder".
Was ein Vogel.
Unicous
2020-09-15, 23:46:38
https://i.redd.it/8e1fyti7sdn51.png
Was ist das denn für ein Verbrechen.:facepalm:
Ist zwar anscheinend nur ein Render, aber wer designed denn sowas. :rolleyes:
Der_Korken
2020-09-15, 23:47:10
GloFo hatte doch mal DRAM in ihren Logikprozessen eingebaut. Wäre das theoretisch interessant ? Damit müsste man ja auch ordentlich Fläche sparen können (vs. SRAM).
In diesem Fall müsste TSMC den DRAM in die GPU integrieren, da wir ziemlich sicher kein MCM mit Navi 2X sehen werden. Und dann muss der DRAM immer noch in etwa die Bandbreite liefern, die man gerne für den VRAM (ohne Cache) hätte. Sonst wäre der Cache ja zu langsam, um fehlende Speicherbandbreite zu kompensieren.
Edit:
https://i.redd.it/8e1fyti7sdn51.png
Ist zwar anscheinend nur ein Render, aber wer designed denn sowas. :rolleyes:
Stimmt, bei Dual-Fan hätte man die Lamellen auch längs auslegen können, damit wenigstens die Hälfte der Luft aus der Slotblende geht.
Hakim
2020-09-15, 23:50:03
ja sehr stark von NVs 2000er FE reihe kopiert, wobei die es beim Dual Lüfter Version echt verkackt haben. Die 3 Lüfter Version finde ich aber ok, selbst mit der Roten Linie
[MK2]Mythos
2020-09-15, 23:52:08
Geilen sich hier denn so viele an der Optik des Grafikkartenkühlers auf? Ich bin ein bisschen verwundert ob des durchschnittlichen Alters im 3DCF.
Mal davon abgesehen, dass solche Boliden eh mit Wasser gekühlt gehören, muss ein Küher gut kühlen. Also zumindest meiner Auffassung nach. :freak:
nordic_pegasus
2020-09-15, 23:58:16
Mythos;12426835']Geilen sich hier denn so viele an der Optik des Grafikkartenkühlers auf? Ich bin ein bisschen verwundert ob des durchschnittlichen Alters im 3DCF.
Mal davon abgesehen, dass solche Boliden eh mit Wasser gekühlt gehören, muss ein Küher gut kühlen. Also zumindest meiner Auffassung nach. :freak:
sicherlich ist ein Kühler ein funktionaler Gegenstand. Dennoch ist ein optisches Plagiat des Turing FE Kühlers schon ein wenig armselig für AMD.
Genauso finde ich es merkwürdig, dass Nvidia den USB-C Anschluss wieder weglässt und AMD jetzt einen bringt (ist auf dem Fortnite Bilder bestätigt). Mir kommt es immer mehr so vor, als ob AMD seinen Turing Konter 2 Jahre zu spät launcht.
BlacKi
2020-09-16, 00:09:59
Mythos;12426835']Mal davon abgesehen, dass solche Boliden eh mit Wasser gekühlt gehören,
du meinst also auch das der kühler auf den schrott gehört?^^
Mythos;12426835']
muss ein Küher gut kühlen. Also zumindest meiner Auffassung nach. :freak:
deshalb meckern die leute doch. siehst du diesen frame um die 2x 8 pin? :frown:
die farbgebung ist auch nicht toll, komplett schwarz mit deaktivierbaren roten leds würden dem kühler besser stehen.just imho.
aber eigentlich gibts schlimmeres.
Dural
2020-09-16, 00:12:14
AMD kopiert schon seit jahren alles möglich, ist jetzt definitiv nichts neues.
[MK2]Mythos
2020-09-16, 00:14:40
du meinst also auch das der kühler auf den schrott gehört?^^
deshalb meckern die leute doch. siehst du diesen frame um die 2x 8 pin? :frown:
die farbgebung ist auch nicht toll, komplett schwarz mit deaktivierbaren roten leds würden dem kühler besser stehen.just imho.
Ja, allerdings sind für mich alle Luftkühler auf Grafikkarten mit mehr als 100 Watt Verbrauch zu laut. Deswegen ja auch WaKü. Ich bin da aber sicherlich kein Maßstab.
Die Ähnlichkeit zum RTX2080 Kühler lässt sich ja nicht abstreiten, insofern wäre das doch verhältnismäßig hochwertig. Ob er auch was taugt, werden eh erst Tests zeigen.
Sunrise
2020-09-16, 00:18:33
Mythos;12426835']Mal davon abgesehen, dass solche Boliden eh mit Wasser gekühlt gehören, muss ein Küher gut kühlen. Also zumindest meiner Auffassung nach. :freak:
Das ist es ja, der/die Kühler der AMD-Referenz sehen im Vergleich zu den neuen 3080/3090-FE Kühlern einfach nicht ansatzweise so potent aus. NV hat sich bewusst (aufgrund der relativ hohen TDP) sehr viele Gedanken gemacht und hat mit ordentlich Material rangeklotzt und einem guten Kühlkonzept.
Klar wird fast jeder Enthusiast da wohl Wasser draufschnallen, aber der erste Eindruck ist halt leider pro-NV im Moment.
AMDs Kühler sehen leider sehr stark nach viel Plastik aus, da habe ich mehr erwartet. Eventuell ein Tribut an den Preis, den man fahren möchte. Mehr werden dann die Tests zeigen.
Linmoum
2020-09-16, 00:31:08
Der Kühlervergleich mit Ampere hinkt aber gewaltig, weil NV durch die extrem heiß werdenden GDDR6X-Module dazu gezwungen ist, eine solch teure Kühlkonstruktion zu fahren. Das hätten sie mit "Standard-Dual-Slot" in der Form schlicht nicht in den Griff bekommen.
Da AMD augenscheinlich keinen GDDR6X nutzen wird, braucht es auch keine aufwendige (und vor allem noch extrem teure) Kühlkonstruktion.
[MK2]Mythos
2020-09-16, 00:31:15
Die NV Kühler der RTX30xx Generation sind so, weil die Karten entsprechend aufwändig gekühlt werden müssen. Insbesondere die Bauteile um die GPU herum, wenn man aktuellen Leaks Glauben schenkt, morgen wissen wir mehr.
Wenn AMDs Karten diese hohe Kühlleistung nicht benötigen, sehe ich nicht, wieso man ebenfalls solche Monsterkühler konstruieren sollte und dann reichen doch vielleicht Kühldesigns, die stark den 250Watt NV Kühlern ähneln.
Wie geschrieben, das werden uns erst die Tests zeigen.
Dural
2020-09-16, 00:34:39
Glaubst du ernsthaft das die grosse karte keine 300watt + zieht?
Linmoum
2020-09-16, 00:36:59
Glaubst du ernsthaft das die grosse karte keine 300watt + zieht?Ja.
Dural
2020-09-16, 00:38:40
Wollen wir wetten?
unl34shed
2020-09-16, 00:39:57
AMDs Kühler sehen leider sehr stark nach viel Plastik aus, da habe ich mehr erwartet. Eventuell ein Tribut an den Preis, den man fahren möchte. Mehr werden dann die Tests zeigen.
Nvidia's FE ist auch viel Plastik und nun?
Sunrise
2020-09-16, 00:43:10
Nvidia's FE ist auch viel Plastik und nun?
Vom reinen Gewicht des Kühlblocks im Vergleich ausgehend sicher nicht, denn solche Kühler gab es bisher allenfalls bei teureren AIB-Designs.
Ich wäre ja super erfreut, wenn AMD uns stark überrascht, und da noch ordentlich Luft bei der TDP nach oben ist.
[MK2]Mythos
2020-09-16, 00:43:52
Wollen wir wetten?
Mensch Dural, reg dich doch mal ab. Was ist im übrigen aus deinen vollmundigen immer wieder wiederholten Vorhersagen geworden, dass NV bei der Performance/Watt wieder deutlich zulegt und AMD "vernichtet" weil NV ja jetzt auch den Full Node Sprung hinter sich hat? War mal wieder heiße Luft (im wahrsten Sinne...)
Meinste nicht, dass du erstmal ungefähr 10 Gänge zurück schalten solltest bei deinen Prophezeiungen?
Screemer
2020-09-16, 00:47:09
Das super Kühler Design bei nv wo gut 20% der Lamellen gar keinen Luftzug abbekommen? Sprechen wir von dieser Designentscheidung?
Geht wieder in den ampere-thread spielen.
Linmoum
2020-09-16, 01:04:07
AMD kopiert schon seit jahren alles möglich, ist jetzt definitiv nichts neues.Hmm, woran erinnert mich dieser Kühler hier nur? Gab's da bei einer (noch) aktuellen GPU-Gen etwa eine Kopie? :cool:
https://pcper.com/wp-content/uploads/2012/01/d974-01-0.jpg
https://pcper.com/2012/01/xfx-radeon-hd-7970-3gb-black-edition-and-crossfire-results/
Vom reinen Gewicht des Kühlblocks im Vergleich ausgehend sicher nicht, denn solche Kühler gab es bisher allenfalls bei teureren AIB-Designs.
Ich wäre ja super erfreut, wenn AMD uns stark überrascht, und da noch ordentlich Luft bei der TDP nach oben ist.
Ich gehe davon aus, dass das Flaggschiff irgendwo bei +-280W rauskommen wird. Irgendeine Anniversary Edition oder dergleichen darf natürlich nicht fehlen, die bekommt dann wieder freie Bahn. ;)
Leonidas
2020-09-16, 06:28:44
Rogame bestätigt, das "Sienna Cichlid" = "Navi 21" ist:
https://twitter.com/_rogame/status/1305953539865423880
Daneben:
https://pbs.twimg.com/media/Eh-aOP-WoAEp_3y?format=jpg
rentex
2020-09-16, 07:18:59
https://www.google.de/amp/s/www.tweaktown.com/news/74978/geforce-rtx-30-doesnt-include-usb-port-because-virtuallink-is-dead/amp.html
https://www.google.de/amp/s/www.roadtovr.com/virtuallink-connection-standard-abandoned/amp/
Und nun?
https://www.google.de/amp/s/www.tweaktown.com/news/74978/geforce-rtx-30-doesnt-include-usb-port-because-virtuallink-is-dead/amp.html
https://www.google.de/amp/s/www.roadtovr.com/virtuallink-connection-standard-abandoned/amp/
Und nun?
Der Typ C kann doch normal für Displayport und Hdmi genutzt werden. Mit Virtual Link dürfte das wenig zu tun haben.
Complicated
2020-09-16, 07:42:07
Vielmehr damit, dass immer mehr Monitore UCB-C als Input haben, um eine Dockingstation zu ersetzen. DP-Daisychain ist ebenso damit umsetzbar. Und eine SSD möglicherweise ebenso direkt anschließbar (für Videobearbeitung) - ähnlich wie die Pro SSG.
Tobalt
2020-09-16, 07:52:07
Ich halte USBC ja für eine gute Entwicklung. Der Umschwung auf USB Stecker für Display Protokolle kann ja hoffentlich dazu führen dass neue Standards in Zukunft schneller umgesetzt werden.
Für mich klingt es so als ob einige das doof fänden ?!
mboeller
2020-09-16, 07:53:30
GloFo hatte doch mal DRAM in ihren Logikprozessen eingebaut. Wäre das theoretisch interessant ? Damit müsste man ja auch ordentlich Fläche sparen können (vs. SRAM).
geht nicht mehr. Die neuen Prozesse können kein eDRAM mehr, nur noch SRAM.
Korvaun
2020-09-16, 08:00:24
Bäh, die Ref-Designs sind potthässlich. Typische China-"PlasteBomber". Aber AMD Ref-Grakas waren schon immer hässlich, ich glaub die haben da keine Industriedesigner, das macht der Azubi nach Feierabend zuhause mit nem 3D Proggi. Da ist nV doch ne ganz andere Hausnummer. Seit RTX2000 sind das echt schöne Teile. Die neue RTX3k Serie sieht super edel aus (und hat noch dazu eine komplett neue Kühl-Konstruktion). Andererseits isses mir persönlich egal, wenn die Karte im Rechner ist sehe ich das Ding eh nicht ;)
basix
2020-09-16, 08:01:47
Also ich fand die 5700 XT Anniversary Edition ganz schick ;)
dildo4u
2020-09-16, 08:15:57
Mythos;12426855']Die NV Kühler der RTX30xx Generation sind so, weil die Karten entsprechend aufwändig gekühlt werden müssen. Insbesondere die Bauteile um die GPU herum, wenn man aktuellen Leaks Glauben schenkt, morgen wissen wir mehr.
Wenn AMDs Karten diese hohe Kühlleistung nicht benötigen, sehe ich nicht, wieso man ebenfalls solche Monsterkühler konstruieren sollte und dann reichen doch vielleicht Kühldesigns, die stark den 250Watt NV Kühlern ähneln.
Wie geschrieben, das werden uns erst die Tests zeigen.
Das ergibt kein Sinn Turing FE hatte kein 3 Lüfter Design sie säuft also vermutlich mehr als die 2080 Ti.
BoMbY
2020-09-16, 08:25:17
Ja, ich würde sagen das bestätigt die Befürchtung dass der Kühler nicht viel besser als der von der Radeon VII sein wird:
https://i.imgur.com/WsD9NJX.jpg
Gut, immerhin wird etwas weniger vom Luftstrom blockiert, aber ohne Heatpipes wird das nichts.
Cyberfries
2020-09-16, 08:28:21
Ich würde mal sagen, das Video war besseres Marketing für AMD, als alles was das eigene Marketing bisher auf die Beine gestellt hat.
Das Referenzdesign ist eher so mittel, ja.
Die meisten fanden die Delle der 5700XT hässlich, hat mich nicht gestört.
Für mich die schönste Karte ist und bleibt aber die Vega Frontier Edition in blau.
Das ergibt kein Sinn Turing FE hatte kein 3 Lüfter Design sie säuft also vermutlich mehr als die 2080 Ti.
Seit wann kann man von der Lüfteranzahl auf den Stromverbrauch schließen?
Ja, ich würde sagen das bestätigt die Befürchtung dass der Kühler nicht viel besser als der von der Radeon VII sein wird:
https://i.imgur.com/WsD9NJX.jpg
Gut, immerhin wird etwas weniger vom Luftstrom blockiert, aber ohne Heatpipes wird das nichts.
Buildzoid hat sich das Teil auch engesehen und gibt exakt in dem Punkt Entwarnung. Man muss sich das Teil von der Seite aus ansehen um zu sehen, dass da nix blockiert wird.
dildo4u
2020-09-16, 08:39:19
Ebend es ist ein besser designter Vega 7 Kühler und der war für 300 Watt freigegeben, warum sollte man sich auch einschränken was verbrauch angeht wenn sie nicht wissen wie Hoch sie drehen Takt drehen müssen um konkurrenzfähig zu sein.
Daredevil
2020-09-16, 08:39:42
Wenn da keine Heatpipes sind, wird da wohl ne VC sein.
Badesalz
2020-09-16, 08:40:57
Mythos;12426844']Ja, allerdings sind für mich alle Luftkühler auf Grafikkarten mit mehr als 100 Watt Verbrauch zu laut.Ich fand die GamingX Kühler auf den Polaris z.B. sind nach nur kleinen Änderungen am Lüfterprofil und einem Tausch der WLP, auch mit 170W eher stressfrei. Imho jedenfalls.
Ich hab das zwar nie jemanden empfohlen bzw. wegen dem Kühler rumgelallt, aber ich hab 3 Stück auf die Art aufgearbeitet und das ist 3x ziemlich gut geworden.
Sonst hab ich aber eh generell NULL Bock auf Grakas mit >250W :rolleyes:
Nazar
2020-09-16, 08:45:37
Für mich sieh die Karte wie ein Fake aus.
Die Verarbeitung ist viel zu schlecht. Die Buchstaben nicht genau gesetzt, scheinen sogar aufgemalt zu sein und das Inlay mit dem RADEON Schriftzug schaut auf einer Seite raus. Die Kühlrippen sind verborgen, alles ist schief und krumm.
Ich glaube auch, dass AMD nV foppen will.
Badesalz
2020-09-16, 08:48:51
Ich glaube auch, dass AMD nV foppen will.Was sollte das noch bewirken? =) NV ist erstmal fertig.
Grendizer
2020-09-16, 08:55:12
Für mich sieh die Karte wie ein Fake aus.
Die Verarbeitung ist viel zu schlecht. Die Buchstaben nicht genau gesetzt, scheinen sogar aufgemalt zu sein und das Inlay mit dem RADEON Schriftzug schaut auf einer Seite raus. Die Kühlrippen sind verborgen, alles ist schief und krumm.
Ich glaube auch, dass AMD nV foppen will.
Naja ... oder es ist auch nur ein (Holz)Klotz ohne Funktion, damit man so tun kann, als ob es schon was gibt.:biggrin:
basix
2020-09-16, 09:09:24
Für mich sieh die Karte wie ein Fake aus.
Die Verarbeitung ist viel zu schlecht. Die Buchstaben nicht genau gesetzt, scheinen sogar aufgemalt zu sein und das Inlay mit dem RADEON Schriftzug schaut auf einer Seite raus. Die Kühlrippen sind verborgen, alles ist schief und krumm.
Ich glaube auch, dass AMD nV foppen will.
Prototyp und so hast du auch schon mal gehört?
Berniyh
2020-09-16, 09:21:51
Navi2x/VCN3.0 mit AV1-Support.
https://lists.freedesktop.org/archives/amd-gfx/2020-September/053779.html
PCI-IDs für Sienna Cichlid:
https://lists.freedesktop.org/archives/amd-gfx/2020-September/053781.html
Nice!
Zwar – wie bei Nvidia – nur für den Decoder, aber das ist auch erst mal der wichtigere Part. :)
Berniyh
2020-09-16, 09:32:05
Rogame bestätigt, das "Sienna Cichlid" = "Navi 21" ist:
https://twitter.com/_rogame/status/1305953539865423880
Daneben:
https://pbs.twimg.com/media/Eh-aOP-WoAEp_3y?format=jpg
Korrekterweise muss es heißen: AMD bestätigt das, da der Patch ja von AMD kommt. ;)
Allerdings wussten wir das auch schon länger, da ja die GFX IDs zu Navi 21 und zu Sienna Cichlid bekannt waren. Insofern nix wirklich neues, außer dass wir jetzt die offizielle Bestätigung zu den PCI IDs haben.
(Die sich übrigens von denen die Rogame früher proglamiert hat, unterscheiden und die aber wiederum zu denen von Komachi passen. Evtl. sollte man sich das mal merken, wenn Rogame wieder mit irgendwelchen IDs ankommt …)
Dural
2020-09-16, 10:59:48
Ist eine Mischung von HBM und GDDR6 nicht auch möglich?
Ich stelle mir 2x4GB HBM (2048Bit) + 8GB (oder 16GB) 256Bit GDDR6 vor.
Man könnte so die Chip kosten gegenüber 4096Bit / 16GB HBM senken, und es wären 16GB oder sogar 24GB pro GPU möglich.
Müsste Technisch doch kein Problem sein, die Frage ist nur ob sich das finanziell lohnt.
Edit:
Würde sich wohl nicht lohnen.
Langlay
2020-09-16, 11:09:27
Ist eine Mischung von HBM und GDDR6 nicht auch möglich?
Ich stelle mir 2x4GB HBM (2048Bit) + 8GB (oder 16GB) 256Bit GDDR6 vor.
Man könnte so die Chip kosten gegenüber 4096Bit / 16GB HBM senken, und es wären 16GB oder sogar 24GB pro GPU möglich.
Müsste Technisch doch kein Problem sein, die Frage ist nur ob sich das finanziell lohnt.
Edit:
Würde sich wohl nicht lohnen.
Lohnt sich nicht. Mit 2 Stacks kann man wenn man will bereits 32GB und 810GB/s erreichen, wenn man mehr braucht, macht man halt 3+ Stacks.
https://news.samsung.com/global/samsung-to-advance-high-performance-computing-systems-with-launch-of-industrys-first-3rd-generation-16gb-hbm2e
robbitop
2020-09-16, 11:12:53
Wie oft wird die Frage nach der Kombination von HBM und GDDR hier noch gestellt?
Badesalz
2020-09-16, 11:19:57
Bis AMD das fertigstellt :up:
Cyberfries
2020-09-16, 11:33:04
Ebend es ist ein besser designter Vega 7 Kühler
HBM2 confirmed?
Mit 2 Stacks kann man wenn man will bereits 32GB und 810GB/s erreichen
819,2GB/s bei Samsung und 921,6GB/s bei SK Hynix.
Mit einem großen Fragezeichen hinter der Verfügbarkeit von HBM mit mehr als 2,5 GT/s (640GB/s).
----
Die Schrauben auf der Rückseite sind nicht nur irritierend weil sie GDDR6 im Weg stehen,
sondern auch weil sie sichtbar sind. Bisher ging bei sämtlichen Karten die Backplate über diese Schrauben.
Eine absichtlich gelegte falsche Fährte?
Complicated
2020-09-16, 12:15:35
Wie oft wird die Frage nach der Kombination von HBM und GDDR hier noch gestellt?
Könnte diese Infinity Cache für diese Verwirrung sorgen? Möglicherweise ist das gar kein klassische GPU-SI, sondern eben eine Weiterentwicklung des HBCC (Der HBM nutzte auf den GPUs) und nun durch einen kleineren Speicherchip ersetzt wurde. Die Ansprachen aber "HBM-gleich" statt findet?
Dann wäre es ein Cache für die SSD zum nachladen von lokalem Storage und nicht für die GPU.
Also wenn man mal das HBCC-Schaubild als Ausgangsbasis nimmt:
https://www.heise.de/select/ct/2017/2/1483969285619195/contentimages/GPU_mtk_SO.jpg
Dies funktioniert ja nur mit HBM - Vielleicht hat AMD das nun separat als "Infinity Cache" auf die GPU gepackt und kann GDDR6 nutzen.
Badesalz
2020-09-16, 12:22:31
@Complicated
Das Bild gefällt mir mal richtig. Das weiß robbitop aber eh ;)
robbitop
2020-09-16, 12:40:42
Ich denke wie gesagt eher an ein scratchpad für entsprechende Buffer. Kann da natürlich auch falsch liegen. HBCC war doch eher für Content (Meshes, Texturen etc). Der Schwerpunkt war dort doch eher effizientere VRAM Mengennutzung. Bitte korrigieren, wenn ich den Gedankengang nicht richtig nachvollzogen haben sollte.
Denniss
2020-09-16, 12:46:35
könnte das nicht einfach ein hochtrabender Name für sowas wie einen L3-Cache sein ?
Oder mal wieder L1+L2+L3 zusammengezählt wie der "Game Cache" bei Ryzen
basix
2020-09-16, 12:51:02
Infinity Cache hört sich mehr wie extern erweiterbarer Speicher, ergo SSD an (wegen dem "infinity"). Vielleicht packen sie ja eine 64 GByte SSD auf die Radeon :D
Infinity Cache hört sich mehr wie extern erweiterbarer Speicher, ergo SSD an (wegen dem "infinity"). V
Wild spekuliert: Es ist ihre Implementierung von Direct Storage
why_me
2020-09-16, 12:55:28
Aber dazu passen dann die 128 MB nicht, die zu infinity cache genannt wurden...
basix
2020-09-16, 12:56:35
Wild spekuliert: Es ist ihre Implementierung von Direct Storage
Japp, ist auch mein Gedanke. Wenn jemand aber keine SSD im PC hat, könnte man mit einer "Radeon SSG" entgegen wirken. Ach wäre das doch herrlich: Ein m.2 Slot auf der Grafikkarte :D
Aber dazu passen dann die 128 MB nicht, die zu infinity cache genannt wurden...
Vielleicht waren GByte gemeint? ;)
Ne, Spass beiseite. Wir können wohl lange darüber diskutieren und werden trotzdem nicht schlauer.
BlacKi
2020-09-16, 12:57:48
Wild spekuliert: Es ist ihre Implementierung von Direct Storage
das löst wieder mal nur die speichermenge, löst nicht das bandbreitenproblem.
why_me
2020-09-16, 13:08:39
Vielleicht waren GByte gemeint? ;)
Klar auch eine Möglichkeit, aber eher unwahrscheinlich....
Ich hatte auch schon die Idee, dass die Chips auf dem angeblichen N21 Engineering Board Flash sein könnte, aber die NAND chips haben ein anderes Pinout...
Mich stören einfach die Schrauben zwischen den RAM Chips und ich verstehe auch nicht den Vorteil/Sinn, den RAM am PCIe Slot anzubringen und die PCIe und den Platz in Richtung Slot blende mit der Schraube zu verbauen.
Ravenhearth
2020-09-16, 13:23:57
Ja, ich würde sagen das bestätigt die Befürchtung dass der Kühler nicht viel besser als der von der Radeon VII sein wird:
Gut, immerhin wird etwas weniger vom Luftstrom blockiert, aber ohne Heatpipes wird das nichts.
Die Radeon VII hatte auch Probleme mit ungleichmäßigem Anpressdruck und hatte deswegen ein Graphit-Pad. Wenn sie das in den Griff kriegen und dünnere Paste nutzen, könnte das schon gut was ausmachen.
basix
2020-09-16, 13:52:42
das löst wieder mal nur die speichermenge, löst nicht das bandbreitenproblem.
Ich habe gerade versucht rauszufinden, was beim Rendering wie viel Bandbreite benötigt und wie gross die entsprechenden Datensätze dazu wären. Ist gar nicht so einfach. Und viele Caches bei GPUs sind gar nicht auf Re-Use aus (nicht wie bei den CPUs, dafür sind die GPU-Caches oftmals relativ klein), sondern dämpfen ungünstige Zugriffspattern auf den Speicher.
Zergra
2020-09-16, 13:55:13
Bis AMD das fertigstellt :up:
Ne... Selbst danach geht es weiter, weil AMD ja was neues bringt. Genau wie diese elendige Chiplet Diskussion
davidzo
2020-09-16, 13:59:38
Mich stören einfach die Schrauben zwischen den RAM Chips und ich verstehe auch nicht den Vorteil/Sinn, den RAM am PCIe Slot anzubringen und die PCIe und den Platz in Richtung Slot blende mit der Schraube zu verbauen.
Der PCIe Anschluss hat vergleichsweise wenig Traces und sehr viel Abstand unter denen weil die PCIe Kontaktpads vergleichsweise riesig sind zur Tracebreite. Bei einem 8 Layer board ist das nichtmal 10% der Fläche die das PCIe Routing da unten braucht. Dadurch ist dieser Platz quasi frei, insofern kann man sich schon entscheinden für eine kürzere Stromversorgung mehr Stromführende traces horizontal zu platzieren und dafür die Ram chips mehr oben und unten der GPU zu platzieren.
Berniyh
2020-09-16, 14:20:29
Die Schrauben auf der Rückseite sind nicht nur irritierend weil sie GDDR6 im Weg stehen,
sondern auch weil sie sichtbar sind. Bisher ging bei sämtlichen Karten die Backplate über diese Schrauben.
Eine absichtlich gelegte falsche Fährte?
Wäre möglich. Ist schon komische, dass man gerade das zeigt. Sonst sind ja nicht so wahnsinnig viele Details erkennbar.
Es halt extrem auffällig, dass gerade diese Schrauben auch auf dem Dev Board zu finden sind.
das löst wieder mal nur die speichermenge, löst nicht das bandbreitenproblem.
Macht ja nichts. AMD wird es schon gelöst haben.
Kein Direct Storage Support wäre super enttäuschend für den Aufbau der Hardwarebasis. Daher erwarte ich da schon einen fancy Marketingnamen dafür.
why_me
2020-09-16, 14:24:59
@davidzo: Für die kürzere Stromversorgung müsste der RAM aber in Richtung Slotblende verbaut sein, ist er aber nicht (auf dem Engineering Board).
Habe eine schönes Bild auf Computerbase gefunden, das Fortnite mit Engineering Karte vergleicht (Quelle (https://www.computerbase.de/forum/threads/teaser-amd-zeigt-die-radeon-rx-6000-mit-rdna-2.1969132/page-31#post-24618149)):
https://www.computerbase.de/forum/attachments/navi-jpg.966935/
basix
2020-09-16, 14:51:09
Kein Direct Storage Support wäre super enttäuschend für den Aufbau der Hardwarebasis. Daher erwarte ich da schon einen fancy Marketingnamen dafür.
Das ist mMn zu 100% dabei. Immerhin hat AMD beide NextGen Konsolen mitentwickelt ;)
mksn7
2020-09-16, 14:52:44
Ich habe gerade versucht rauszufinden, was beim Rendering wie viel Bandbreite benötigt und wie gross die entsprechenden Datensätze dazu wären. Ist gar nicht so einfach. Und viele Caches bei GPUs sind gar nicht auf Re-Use aus (nicht wie bei den CPUs, dafür sind die GPU-Caches oftmals relativ klein), sondern dämpfen ungünstige Zugriffspattern auf den Speicher.
Das ist auch meine Erfahrung, allerdings eher mit compute. Es gibt fast nie temporal reuse durch den gleichen thread, eher in die Richtung "der thread nebendran braucht das auch", aber davon fängt schon viel der L1 ab. Der L2 ist gut für strided oder misaligned access patterns und für write combining von partial stores. Deswegen hat der L2 auch keine soviel größere Bandbreite als der RAM (Faktor 2-3) und ist auch nicht sehr groß (~ 40B pro thread im L2 bei V100), und auch nicht viel schneller (etwa halbe Latenz im Vergleich zum DRAM)
Bei 3D fallen mir eigentlich fast nur frame buffer ein, die mehrfach gelesen und geschrieben werden, und die dann gerade wieder hineinpassen würden. Für post processing vielleicht auch nicht schlecht, da könnte der gleiche frame buffer in mehreren passes gelesen und geschrieben werden.
Shadow Maps? Erzeugen, in den cache schreiben, dann das richtige Bild mit shadow maps im cache rendern und die shadow maps wegschmeißen...
Geometrie wird üblicherweise nur einmal gelesen, transformiert und dann gleich gerastert? Bei tesselation oder geometry shader könnten da vielleicht Daten zwischengespeichert werden, aber der Trend bei modernen game engines scheint zu sein übermäßge Benutzung zu vermeiden die das benötigen würde.
Wenn eine Textur im Bild x-fach wiederverwendet würde, wär das sichtbar im Bild, und das säh nicht gut aus...
Von einem Bild aufs nächste werden vermutlich fast die gleichen Texturdaten nochmal gebraucht. Aber da ist die Frage wie groß diese Menge an zugegriffenen Daten ist.
why_me
2020-09-16, 14:55:25
Es gibt noch hoffnung auf mehr Bandbreite, die Bohrlöcher der Radeon Fury waren auch nicht in einer Linie.
https://images.anandtech.com/doci/9421/PCB2.jpg
Daredevil
2020-09-16, 15:17:45
Haha :D Das Spiel geht weiter.
[MK2]Mythos
2020-09-16, 15:21:07
Das kann ja nur bedeuten, dass es bei Big Navi 4 Stacks HBM sind! :freak:
Gipsel
2020-09-16, 15:25:12
Man rotiere das Navi10 Package um 90° auf dem PCB und erhält ...
why_me
2020-09-16, 15:26:00
Da passen dann auch wieder die angeblichen "fake" Big Navi Leaks von SK Hynix von anfang des Jahres.... langsam schließt sich der Kreis ;D
https://www.tomshardware.com/news/amd-big-navi-gpus-are-fake-sk-hynik-refutes-2tbps-hbm2e-claims
BoMbY
2020-09-16, 15:50:59
Also laut Computerbase ist das Preis-/Leistungsverhältnis der 3080 praktisch gleich zur RX 5700 XT, und außerdem läuft sie mit der TDP nah an der Kotzgrenze (+50W für 4% Mehrleistung).
Das würde mich stark vermuten lassen NVidia geht wegen Big Navi ordentliche die Muffe.
Edit: Steht auch so in deren Fazit (https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_fazit):
Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.
w0mbat
2020-09-16, 15:53:40
Naja, der render ist schon sehr wahrscheinlich die ES Karte, und diese hat eindeutig GDDR6 Chips verbaut. HBM halte ich nach dieser Faktenlage für sehr unwahrscheinlich.
Die Frage ist jetzt nur, ist das "Big Navi"? Und wenn ja, wieso nur 256-bit? Und wenn nein, welche Karte ist es dann?
Complicated
2020-09-16, 16:24:00
Ich denke wie gesagt eher an ein scratchpad für entsprechende Buffer. Kann da natürlich auch falsch liegen. HBCC war doch eher für Content (Meshes, Texturen etc). Der Schwerpunkt war dort doch eher effizientere VRAM Mengennutzung. Bitte korrigieren, wenn ich den Gedankengang nicht richtig nachvollzogen haben sollte.
Tatsächlich hat HBCC ja in bestimmten Szenarien 14% Performance gebracht:
https://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/HBCC-Gaming-Benchmark-1236099/
Da eben das VRAM-Limit nicht so schnell erreicht wurde. Möglicherweise konnten hier Verbesserungen erzielt werden, die auch die Bandbreite zum VRAM schonen durch effizientere Nutzung der Datenlokalität.
Noch kurz zur Theorie: Vega 10 ist erstmals in der Lage, nur die tatsächlich benötigen Daten aus dem Hauptspeicher zu ziehen, sofern sie nicht im HBM vorliegen. Diese Segmente nennen sich Pages (Seiten) und sind wesentlich kleiner als die üblichen Speicherbereiche (Allokation). Damit das funktioniert, reserviert der Grafiktreiber einen Teil des Hauptspeichers als sogenanntes "HBCC Memory Segment", kurz HMS. Dessen Größe lässt sich relativ frei wählen - bei den PCGH vorliegenden Vega-Karten und unseren mit 32 GiByte RAM ausgestatteten Testsystemen bis zu 24 GiByte. Praktisch ist, dass das HMS als einheitlicher Pool erscheint (unified memory), Applikationen sehen folglich nicht 8 + X GiByte, sondern beispielsweise volle 32 GiByte. GPU und Treiber kümmern sich um die intelligente Verwaltung der Speicherressourcen, beispielsweise darum, dass häufig benötigte Daten im HBM verweilen und häufig verwendete Pakete aus dem RAM gezogen und danach lokal vorgehalten werden. Hierbei besteht die Möglichkeit, die Daten für den Zugriff besser anzuordnen als es durch die Allokation seitens der Spiele über die 3D-Schnittstelle möglich ist.
Cyberfries
2020-09-16, 16:28:27
Da passen dann auch wieder die angeblichen "fake" Big Navi Leaks von SK Hynix von anfang des Jahres
Da sind immer noch zuviele Ungereimtheiten.
5950 XT? 96 ROPs? 4 Stapel? 2048GB/s?
Naja, der render ist schon sehr wahrscheinlich die ES Karte
Und wenn nein, welche Karte ist es dann?
Wir haben auch noch ein Bild einer kleineren Karte mit nur zwei Lüftern und ebenfalls 2x8pin:
Man rotiere das Navi10 Package um 90° auf dem PCB und erhält ...
Grundsätzlich erinnert das Eng.Board an N10 um 90° gedreht.
Ich erinnere auch nochmal an den Aufkleber mit dem unleserlichen Wort.
Für mich stand da "Secure", für Gedi "96Core", für Kabe "86Core". Können wir alles ausschließen, ergibt keinen Sinn.
Eine weitere Option ist aber: "56Core"
Eine 56CU-Karte mit 256bit GDDR6? Ich weiß, ich hab das zunächst deutlich abgelehnt.
Aber die Möglichkeit gewinnt mehr und mehr an Charme.
Der_Korken
2020-09-16, 16:35:06
Edit: Steht auch so in deren Fazit (https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_fazit):
Daran musste ich auch denken. Die 699$ für die 3080 waren unerwartet human, wenn man das mit der 1080 und 2080 zum Launch vergleicht. Und das obwohl die 3080 diesmal auf dem 102er Die basiert statt auf dem 104er. Jetzt sieht man außerdem noch, dass die 320W nicht wirklich nötig sind für die GPU, aber trotzdem angelegt werden, um noch die letzten 4% Leistung rauszuholen. Das deutet imho schon darauf hin, dass wir einen ordentlichen 3080-Konkurrenten von AMD erwarten können. Nvidia wird besser bescheid wissen als wir.
Ravenhearth
2020-09-16, 16:39:51
Die 3080 ist in 4K überall ziemlich genau bei 2x der 5700 XT. Das sollte schaffbar sein. :)
Das ist auch meine Erfahrung, allerdings eher mit compute. Es gibt fast nie temporal reuse durch den gleichen thread, eher in die Richtung "der thread nebendran braucht das auch", aber davon fängt schon viel der L1 ab.Entsprechend sind manche "caches" auch garnicht zum klassischen cachen designt, sondern arbeiten wie streaming Puffer in einem DSP. Nach der kurzen Aufgabe werden sie geflusht, manchmal gibt es mehrere Kopien, wobei in manche daten transferiert werden, während in aus anderen gelesen wird. Das ist teilweise unglaublich ausgeklügelt um QOS zu leisten und gleichzeitig keinen Transistor zu verschwenden.
Der L2 ist gut für strided oder misaligned access patterns und für write combining von partial stores. Deswegen hat der L2 auch keine soviel größere Bandbreite als der RAM (Faktor 2-3) und ist auch nicht sehr groß (~ 40B pro thread im L2 bei V100), und auch nicht viel schneller (etwa halbe Latenz im Vergleich zum DRAM) bei compute für alles wichtig was zwischen den CUs ausgetauscht wird, z.B. bei atomics. Es kommt drauf an was du genau implementierst. Bei sowas wie Minern wird schon sehr auf den cache optimiert.
Bei 3D fallen mir eigentlich fast nur frame buffer ein, die mehrfach gelesen und geschrieben werden, und die dann gerade wieder hineinpassen würden. Für post processing vielleicht auch nicht schlecht, da könnte der gleiche frame buffer in mehreren passes gelesen und geschrieben werden.bei 3d sind es Meshes, wo vertices eventuel mehrfach (von verschiedenen CUs) gelesen werden, oder auch ganze Meshes beim Instancing.
RT wird von viel Cache sicher auch profitieren.
Shadow Maps? Erzeugen, in den cache schreiben, dann das richtige Bild mit shadow maps im cache rendern und die shadow maps wegschmeißen...[/cache]meistens muss der Cache in den du gerendert hast geflusht werden bevor du die Shadowmap benutzen kannst. Das passiert implizit im Treiber wenn du die Textur bindest, explizit per extension oder über barriers/transistions. Sonst wäre das tatsächlich nett.
[Quote]
Wenn eine Textur im Bild x-fach wiederverwendet würde, wär das sichtbar im Bild, und das säh nicht gut aus...das wird tatsächlich viel gemacht, aber durch geschicktes Kombinieren fällt es nicht gleich auf. Bei Terrain z.B. ist das schon fast ein Muss, weil du kaum die Texturmenge für das Maximale Detail einzigartig überall auf der Map abspeichern könntest.
Von einem Bild aufs nächste werden vermutlich fast die gleichen Texturdaten nochmal gebraucht. Aber da ist die Frage wie groß diese Menge an zugegriffenen Daten ist.
THEOREITSCH ist die Textur-Datenmenge die gleiche wie die Menge der Pixel. Durch Verschnitt, Tiling und Verzerrung werden es mehr. Wenn du das ganz ganz hypothetisch berechnen willst, dann
Width × height × texture layer count × bpp × Verschnitt
Width = 3840
Height = 2160
Tlc = 3 bis 5
Bpp = 1 (typisch für NC Kompression)
V = 2 (grob, wird nicht 10x aber auch nicht 1.1 sein)
Bedenke, diese Texturen sind nur ein kleiner Teil der Bandbreite, Die GPU schreibt mehr als sie bei 3D konsumiert.
why_me
2020-09-16, 16:42:16
Ich erinnere auch nochmal an den Aufkleber mit dem unleserlichen Wort.
Für mich stand da "Secure", für Gedi "96Core", für Kabe "86Core". Können wir alles ausschließen, ergibt keinen Sinn.
Eine weitere Option ist aber: "56Core"
Eine 56CU-Karte mit 256bit GDDR6? Ich weiß, ich hab das zunächst deutlich abgelehnt.
Aber die Möglichkeit gewinnt mehr und mehr an Charme.
Hat hier keiner die Software von CSI? Oder kann mal mit Photoshop rum spielen?
Ich wäre für "Test Sample Typical XT A0 ASIC", wobei ich mir bei "Test" nicht sicher bin, vielleicht auch irgend eine Zahl, das Bild ist halt wirklich schlecht und die LEDs daneben machen es nicht besser...
Complicated
2020-09-16, 16:50:06
Interessant ist der im Test von CB gezeigte Unterschied der Effizienz:
Mit 270 Watt arbeitet die GeForce RTX 3080 konsequenterweise noch deutlich effizienter als mit den normalen 320 Watt. Die Grafikkarte liefert 14 Prozent mehr Performance pro Watt, sodass der Effizienzvorsprung gegenüber der GeForce RTX 2080 Ti von 10 Prozent auf 25 Prozent anwächst. Also würde AMD im Sweetspot deutlich aufholen wenn die +50% Effizienz für RDNA2 eintreffen. Die Frage ist halt wie nahe der Sweetspot Performancemäßig an der RX 3080 liegen kann und wie viel AMD da noch über den Sweetspot hoch takten kann/darf/muss bis zu einem ähnlichen Powerbudget. Es bleibt spannend.
Dampf
2020-09-16, 17:04:29
Performance pro Watt scheint kein großer Sprung zu sein.
RDNA2 könnte hier aber massiv nachbessern, da sie auf TSMC setzen. Da bin ich mal gespannt
Ravenhearth
2020-09-16, 17:07:14
Also falls die +50% Perf/W in der Praxis zutreffen, wäre AMD effizienter :freak:
BlacKi
2020-09-16, 17:31:43
Daran musste ich auch denken. Die 699$ für die 3080 waren unerwartet human, wenn man das mit der 1080 und 2080 zum Launch vergleicht. Und das obwohl die 3080 diesmal auf dem 102er Die basiert statt auf dem 104er. Jetzt sieht man außerdem noch, dass die 320W nicht wirklich nötig sind für die GPU, aber trotzdem angelegt werden, um noch die letzten 4% Leistung rauszuholen. Das deutet imho schon darauf hin, dass wir einen ordentlichen 3080-Konkurrenten von AMD erwarten können. Nvidia wird besser bescheid wissen als wir.
ich glaub das liegt am speicherausbau von amd das der preis so niedrig ist bei der 3080. wenn eine 500-700€ karte von amd mit 16gb kommt, kann man keine 900€ karte mit 10gb bringen. 12gb gehen ja nicht, weil dann der abstand zur 3090 kaum vorhanden wäre.
ich sag, es ist der speicherausbau der 3080 für den geringen preis.
ich glaub das liegt am speicherausbau von amd das der preis so niedrig ist bei der 3080. wenn eine 500-700€ karte von amd mit 16gb kommt, kann man keine 900€ karte mit 10gb bringen. 12gb gehen ja nicht, weil dann der abstand zur 3090 kaum vorhanden wäre.
ich sag, es ist der speicherausbau der 3080 für den geringen preis.
Ich behaupte mal frech, dass BN unter 4K 10% über ner 3080 liegt, zudem hat man min. 16GB, entweder angebunden an einem 512-Bit SI, oder halt gleich HBM2. Die fetten Radeons konnten doch ohne Bandbreite noch nie etwas besonderes schnell beschleunigen. Und ich denke, der Dicke wird relativ teuer. Und vielleicht hat die XTX ja ne fest verlötete 64GB SSD als Infinity Cache
basix
2020-09-16, 17:54:36
Eine weitere Option ist aber: "56Core"
Eine 56CU-Karte mit 256bit GDDR6? Ich weiß, ich hab das zunächst deutlich abgelehnt.
Aber die Möglichkeit gewinnt mehr und mehr an Charme.
+1
Bandbreite wäre aber dennoch ein Thema
Cyberfries
2020-09-16, 18:04:31
Eine absichtlich gelegte falsche Fährte?
Nein, die Schrauben gehen wohl tatsächlich durch die Backplate.
http://www.redgamingtech.com/radeon-rx-6900xt-photos-exclusive/
12gb gehen ja nicht, weil dann der abstand zur 3090 kaum vorhanden wäre.
Das wäre doch gerade mal 50% von der 3090.
2080 hatte 8GB und 2080Ti 11GB, da war der Abstand viel kleiner.
BoMbY
2020-09-16, 18:07:34
Hmm, ja:
https://i.imgur.com/tTDewmo.jpg
Das sieht ziemlich nach Vega-Anordnung aus.
Nein, die Schrauben gehen wohl tatsächlich durch die Backplate.
http://www.redgamingtech.com/radeon-rx-6900xt-photos-exclusive/
Okay, dann handelt es sich um HBM! Ein Gewinde ins PCB zu schneiden wäre wohl ziemlich dämlich
why_me
2020-09-16, 18:14:27
Ist das rechte eine Klappe? M2 SSD?
w0mbat
2020-09-16, 18:15:31
Wir haben das Bild einer nackten Karte mit den gleichen Löchern und GDDR6. Blacki hat das sehr gut gezeigt. Ich denke nicht, dass wir HBM sehen werden.
BoMbY
2020-09-16, 18:17:09
Ist das rechte eine Klappe? M2 SSD?
Stimmt. Interessanter Hinweis. Könnte sein, ja. Würde auch schon Sinn machen, zumindest als Option. Bandbreite hat man ja genug mit PCIe 4.0 um das auch als normales Laufwerk anzusprechen. Aber vermutlich würde das wirklich nur was bringen bei Spielen die darauf optimiert sind.
Okay, ich nehm’s zurück. Da sind 2 Klappen, welche mit den Schrauben fixiert werden. Wäre interessant, was sich drunter verbirgt. Unter der Rechten könnten links neben dem R 2 SSDs Platz finden, aber links?
Wäre aber eine coole idee die ssd gleich auf die GraKa zu stecken.
BoMbY
2020-09-16, 18:21:28
Ein SO-DIMM Slot für Tier 2 Memory, und die M2 ist dann Tier 3 ... ;D
BlacKi
2020-09-16, 18:26:01
Ist das rechte eine Klappe? M2 SSD?
schaut doch mal durch das guckloch, da ist unter der klappe gerade mal so platz für ein 2mm dickes WLP. niemals für einen m.2 sockel:rolleyes: ich hoffe mal das ihr das nicht ernst meint:redface:
BoMbY
2020-09-16, 18:29:01
Im Zweifel bleibt dann halt die Klappe weg. Aber irgendeinen Sinn wird es da auf jeden Fall geben.
schaut doch mal durch das guckloch, da ist unter der klappe gerade mal so platz für ein 2mm dickes WLP. niemals für einen m.2 sockel:rolleyes: ich hoffe mal das ihr das nicht ernst meint:redface:
Kann sein, 2 Dimms passen aber drunter, zumal die nicht mit ner Schraube fixiert werden müssen.
Wie dick ist eigentlich so ein 8-Layer PCB?
why_me
2020-09-16, 18:39:56
schaut doch mal durch das guckloch, da ist unter der klappe gerade mal so platz für ein 2mm dickes WLP. niemals für einen m.2 sockel:rolleyes: ich hoffe mal das ihr das nicht ernst meint:redface:
Nicht wirklich 100% ernst gemeint, aber da sind Kanten auf dem Backplane, die sehr verdächtig aussehen.
Und so ein Sockel könnte doch passen, unter deinem 2mm WLP ist ja auch idR ein IC.
https://cdn-reichelt.de/bilder/web/xxl_ws/E910/DELOCK_89518_01.png
https://c1.iggcdn.com/indiegogo-media-prod-cld/image/upload/c_limit,w_695/v1580325658/nog15efzzhmkrdu3vopk.png
Dimms wären trotzdem die bessere Variante, da deutlich schneller und als flüchtigem Cache viel besser geeignet. Zudem sind da hinten keine Aussparungen für irgendwelche Schrauben.
Berniyh
2020-09-16, 19:56:16
Es gibt noch hoffnung auf mehr Bandbreite, die Bohrlöcher der Radeon Fury waren auch nicht in einer Linie.
Ja, aber jede HBM Karte bislang hatte eben die oberen und unteren Bohrungen auch und die fehlen bei der Navi Karte offensichtlich.
Linmoum
2020-09-16, 20:05:13
Nein, die Schrauben gehen wohl tatsächlich durch die Backplate.
http://www.redgamingtech.com/radeon-rx-6900xt-photos-exclusive/Wenn er die Fotos von derselben Quelle hat, die auch von dem riesigen Cache spricht... Irgendwie wird das immer interessanter und gar nicht mehr so abwegig, wenn man sich da jetzt auch noch die Rückseite mit den Schrauben und das Engineering Board anguckt.
Her mit den Leaks. Da wird was großes (höhö) auf uns zukommen.
Wenn er die Fotos von derselben Quelle hat, die auch von dem riesigen Cache spricht... Irgendwie wird das immer interessanter und gar nicht mehr so abwegig, wenn man sich da jetzt auch noch die Rückseite mit den Schrauben und das Engineering Board anguckt.
Her mit den Leaks. Da wird was großes (höhö) auf uns zukommen.
Was bitte sollen 128MB-Cache bei ner GPU bringen? Macht für mich keinen Sinn.
horn 12
2020-09-16, 20:13:43
RayTracing und für 4K wohl von großem Nutzen!
Aber doch bitte nicht in diesem Context. Die Instruction-Files brauchen relativ wenig an Cache, komplette Texturen umso mehr. Von daher finde ich die Idee mit ner voll angebundenen SSD/Dimm echt sexy
robbitop
2020-09-16, 20:29:17
Zusätzlich SSD als HBCC Cache bringt so gut wie nichts in Punkto Bandbreite. Das spart eher VRAM Menge.
Was 128 MB SRAM für eine GPU bringen kann, habe ich hier mehrfach ausgeführt.
BlacKi
2020-09-16, 20:36:52
Kann sein, 2 Dimms passen aber drunter, zumal die nicht mit ner Schraube fixiert werden müssen.
blödsinn, du hast noch anderen kram auf dem pcb der hochsteht und ein dimmsslot ist auch größer als 2mm. selbst die ram riegel sinnd größer als 2mm.
Was bitte sollen 128MB-Cache bei ner GPU bringen? Macht für mich keinen Sinn.
kurz gesagt, man braucht optimiert den bedarf an bandwith die in direkter verbindung stehen mit der möglichen leistung des chips. wenn 128mb die effizienz die ein chip brauch um nicht stark zu limitieren um 100% steigert, dann brauchst du nur noch ein 256bit bus statt einem 512bit bus bräuchtest (die 100% sind nur irgendeine erfundene zahl).
AlterSack
2020-09-16, 20:43:21
Ist das rechte eine Klappe? M2 SSD?
Zumindest das Linke schaut nach einer Sicke aus (ins Blech gepresst
um selbiges zu versteifen). Rechts evtl., wegen dieser art Nase.
Letzten Endes seh ich auch da nur eine Sicke. Den Spalt einer Klapppe
erkenn ich in der Sicke nicht. Auf dem geleakten Foto mit der nackschen
Platinenrückseite ...seht ihr das aufgestecktenSpeicher?
why_me
2020-09-16, 20:48:25
Ja, aber jede HBM Karte bislang hatte eben die oberen und unteren Bohrungen auch und die fehlen bei der Navi Karte offensichtlich.
Bei der Radeon VII sieht man aber keine der Schrauben durch die Backplane, würde das also nicht zu hoch bewerten.
crux2005
2020-09-16, 20:50:00
Ist das rechte eine Klappe? M2 SSD?
Rechts unter der Klappe hat AMD ein unterzeichnetes Bild von Lisa Su versteckt. Würde sicher vielen gefallen. :)
btw: Jetzt schon CES2021 Talk angekündigt. https://www.computerbase.de/2020-09/amd-lisa-su-amd-ces-2021/ Ist es nicht ein wenig zu früh?
BoMbY
2020-09-16, 20:58:15
Zusätzlich SSD als HBCC Cache bringt so gut wie nichts in Punkto Bandbreite. Das spart eher VRAM Menge.
Was 128 MB SRAM für eine GPU bringen kann, habe ich hier mehrfach ausgeführt.
DirectStorage (https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/)
Im besten Fall können dann Texturen direkt durch die GPU von der integrierten SSD gelesen und entpackt werden, ohne jegliche Umwege. Das funktioniert natürlich nur wenn die Daten in einem Format vorliegen welches die GPU entpacken kann. Damit könnte Texturstreaming um einen ordentlichen Faktor beschleunigt werden.
blödsinn, du hast noch anderen kram auf dem pcb der hochsteht und ein dimmsslot ist auch größer als 2mm. selbst die ram riegel sinnd größer als 2mm.
kurz gesagt, man braucht optimiert den bedarf an bandwith die in direkter verbindung stehen mit der möglichen leistung des chips. wenn 128mb die effizienz die ein chip brauch um nicht stark zu limitieren um 100% steigert, dann brauchst du nur noch ein 256bit bus statt einem 512bit bus bräuchtest (die 100% sind nur irgendeine erfundene zahl).
Der Schraubenkopf steht trotzdem über!
Zu 2: Es wurde ja u.a auch hier vermutet, dass der riesige Cache nicht direkt auf dem DIE sitzt. Kompletter Blödsinn imo, ebenso der riesige Cache. Wenn du 1MB an Instructions voll bekommst ...
Imo baue ich ne normale performante GPU und lagere komplette Texturen aus. Die Frametimes sollten himmlisch sein
Badesalz
2020-09-16, 21:42:39
@davidzo
Was für... Traces? Bist du Ho-Hä Gonzales? Das kommt von Paul Eisler. Das war ein Wiener :mad:
@BoMbY
Bin bei dir. Gefällt mir.
Ne... Selbst danach geht es weiter, weil AMD ja was neues bringt. Genau wie diese elendige Chiplet Diskussion:biggrin: :up:
w0mbat
2020-09-16, 22:05:52
256-bit mit großem cache scheint am wahrscheinlichsten. Bin echt gespannt, was AMD zaubert :)
davidzo
2020-09-16, 22:38:01
Die 3080 ist in 4K überall ziemlich genau bei 2x der 5700 XT. Das sollte schaffbar sein. :)
Das trügt vielleicht ein bisschen. Im Schnitt sind es zwar fast 2x. Das schließt aber auch spiele die schlecht mit der gpu-leistung skalieren. Die müsste man eigentlich heraus rechnen, denn die werden auch bei big navi wohl kaum besser skalieren. Ebensoviele Spiele liefern über 2x der leistung der 5700xt (control, doom eternal, gears, ghost recon, re3, the division 2, trackmania, wolcen). Biszu 2,63x
- eine doppelte 5700xt wird in vielen spielen auch nicht auf 200% skalieren, 260% ist aber wohl zu viel verlangt.
Okay, dann handelt es sich um HBM! Ein Gewinde ins PCB zu schneiden wäre wohl ziemlich dämlich
Ist gar nicht so dumm, es gibt gewindeeinötbuchsen, ebenso wie Einpressbuchsen die in Vias gepresst werden. Ich frage mich wieso die Hersteller das so selten verwenden, vllt. wegen den Kosten? Bei notebooks ist das gang und gebe, allerdings eher kleinere gewinde, M2 und co. Bei M2 SSDs haben sich einlötteile gewissermaßen durchgesetzt.
Zumindest das Linke schaut nach einer Sicke aus (ins Blech gepresst
um selbiges zu versteifen). Rechts evtl., wegen dieser art Nase.
Letzten Endes seh ich auch da nur eine Sicke. Den Spalt einer Klapppe
erkenn ich in der Sicke nicht. Auf dem geleakten Foto mit der nackschen
Platinenrückseite ...seht ihr das aufgestecktenSpeicher?
Ich glaube das ist kein Blech. Das sieht mir eher nach Druckguss aus, z.T. mit nachträglicher cnc Bearbeitung (die glänzende Kante). Für eine gewalzte Sicke ist es zu scharfkantig.
Aber du hast recht, eine Klappe ist da nicht, sonst müsste es bei der sandgestrahlten Oberfläche einen eindeutig sichtbaren Spalt geben.
why_me
2020-09-16, 23:08:36
2,63x habe ich bis jetzt nur bei CB in Trackmania gesehen, der Rest ist deutlich humaner bei 200 +-20%
Iscaran
2020-09-16, 23:09:41
Nachdenkfrage:
Warum seit langer Zeit bringt nVidia eine GPU die brutal auf Performance geprügelt ist...
+50 W = +20% Verbrauch für nur 4% (Mehr-)Performance ?
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/
Wie auch immer RDNA 2, BigNavi aussehen wird, scheinbar hat hier jemand deutlich Angst daß eine 3080 nicht mehr schneller ist als die Konkurrenz...oder gar die 3090 nicht mal mehr genügt fürs "Ti".
Der Ansatz von complicated mal ein bisschen kreativ denkt, also daß man hier HBCC in verbesserter Form wiederbelebt könnte tatsächlich richtig viel Performance bringen. Wenn man das noch kombiniert mit DirectStorage könnte das vielleicht eine Erklärung für viel Performance bei gleichzeitig sehr schmalem SI sein.
HBCC in Version 1 brachte bereits z.T. ca 10-15% Performance, was ist wenn diese neue Art von "Mega-Cache" mit direktem SSD Zugriff sowas wie +50% bringt oder so ?
So oder so...nVidia hat wohl eher ein letzter Sekunde die TDP angepasst um noch ein paar %-Punkte rauszuholen, in der Hoffnung doch noch vor BigN zu bleiben.
Anders kann ich mir die Resultate von CB kaum erklären und den eher überraschenden Gang zu >300W bei der zweitschnellsten Karte. Bei einer 3090 kann ich das noch irgendwie einsehen...
Ich glaube das wird noch sehr spannend im Oktober.
Badesalz
2020-09-16, 23:12:50
So oder so...nVidia hat wohl eher ein letzter Sekunde die TDP angepasst um noch ein paar %-Punkte rauszuholen, in der Hoffnung doch noch vor BigN zu bleiben.Nein nein nein. Das liegt an den 8nm von Samsung... :rolleyes:
Nightspider
2020-09-17, 02:45:21
Wie steht eigentlich die Chance das Cyberpunk2077 Raytracing auch mit Big Navi unterstützen wird?
Und die älteren RT Games wie Metro, Control und BFV?
horn 12
2020-09-17, 03:20:46
Somit kommt BigNavi spätestenss am 08-ten November als "Hardlaunch" raus,
da PS5 und XBox am 12.ten und 10.ten November Ihr Tribut feiern!
https://www.chiphell.com/thread-2260388-1-1.html
AV-1 Codec für Navi
另外,目前基本确认Big Navi系列包含Navi 21 (Sienna Cichlid)、
Navi 22 (Navy Flounder)两个版本,
其中Navi 21的设备ID刚刚第一次加入Linux内核。
Hakim
2020-09-17, 03:26:12
Wie steht eigentlich die Chance das Cyberpunk2077 Raytracing auch mit Big Navi unterstützen wird?
Und die älteren RT Games wie Metro, Control und BFV?
Es spricht nichts dagegen, es ist in DirectX 12 integriert, da ist es egal ob NV oder AMD GPU. Voraussetzung ist hardwarebeschleunigtes RT und min Win 10 1809 Update
mboeller
2020-09-17, 07:16:27
Das trügt vielleicht ein bisschen. Im Schnitt sind es zwar fast 2x.
Bei Igor sind es deutlich weniger als 2x, eher 1,7fach, selbst in 4K:
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/16/
robbitop
2020-09-17, 08:16:05
DirectStorage (https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/)
Im besten Fall können dann Texturen direkt durch die GPU von der integrierten SSD gelesen und entpackt werden, ohne jegliche Umwege. Das funktioniert natürlich nur wenn die Daten in einem Format vorliegen welches die GPU entpacken kann. Damit könnte Texturstreaming um einen ordentlichen Faktor beschleunigt werden.
Da bin ich skeptisch, ob das mit so wenig Bandbreite zur ssd auch vram Bandbreite im signifikanten Ausmaß sparen wird. Speichermenge aber auf jeden Fall.
Dennoch grundsätzlich ein hervorragender Weg. Würde aber bei einer neuen GPU nicht hier und jetzt in allen Spielen bei der vram Bandbreite helfen.
Was ggf. benötigt wird ist etwas was transparent zur Anwendung immer hilft. (Sofern ein 256 bit si zutreffen würde).
Hübie
2020-09-17, 08:58:41
Wie steht eigentlich die Chance das Cyberpunk2077 Raytracing auch mit Big Navi unterstützen wird?
Und die älteren RT Games wie Metro, Control und BFV?
Wenn es über DXR läuft müsste da schon absichtlich manipuliert werden um nicht zu laufen... :freak:
Edit: Bei Computerbase liegt die 3080 FE bei ziemlich exakt doppelter Geschwindigkeit zur 5700 XT. Geht man davon aus, dass BN 2*RDNA1 ist und eine nicht lineare Skalierung vorliegt kommen wir taktnormiert auf ~3080 Niveau (allerdings würde sich der Verbrauch beinahe verdoppeln). Da BN voraussichtlich im gleichen Prozess gefertigt wird müsste die meiste Steigerung der Effizienz über die µArch kommen. Der Sprung von Polaris auf RDNA war ~35-40% und von Vega auf RDNA ~25-30%. Ich gehe davon aus, dass der Sprung von RDNA1 -> 2 geringer ausfallen wird (sagen wir 15% bei konstanter TDP / gleichem Takt). Da käme ich ebenfalls nicht auf 3080+ Niveau sondern bestenfalls on par. Gerne lasse ich mich vom Gegenteil überzeugen.
Ich persönlich warte auf BN und schaue ob die über Preis und Speicher konkurrieren können...
Wie steht eigentlich die Chance das Cyberpunk2077 Raytracing auch mit Big Navi unterstützen wird?
Und die älteren RT Games wie Metro, Control und BFV?
Bezüglich Battlefield V zitiere ich mich ausnahmsweise mal schamlos selbst:
Zu der Frage hatten sich doch die Entwickler von DICE schon geäußert:
https://www.tomshardware.com/news/battlefield-v-ray-tracing,37732.html
GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.
Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”
Ist kein vendor lock-in im eigentlichen Sinne, aber Abhängigkeiten kriechen "von ganz allein" in den Code.
https://www.dsogaming.com/news/battlefield-5-real-time-ray-tracing-effects-exclusive-to-nvidia-devs-will-have-to-add-support-for-amds-new-gpus/
So let’s assume that AMD is late to the party and releases a GPU that is capable of real-time ray tracing via DXR in 2020. If DICE is busy with its next Battlefield game, those AMD owners will not be able to enjoy these ray tracing effects from the get-go. Holmquist made it crystal clear that DICE will have to add support for them. And since DICE is a big company, that may happen but what about other smaller teams like those behind Enlisted, Assetto Corsa Competizione and Atomic Heart? Are they also using ray tracing effects in such a way that they depend on NVIDIA’s hardware?
Damit werden AMD-Benutzer also voraussichtlich leben müssen, aber erstens war Ihnen ja RT nicht so wichtig (ist ja meistens bei AMD-Käufern wirklich so) und zweitens gibt es ja auch wieder neue Spiele.
mironicus
2020-09-17, 10:53:04
Vielleicht sollten wir lieber die Frage stellen: Werden die Publisher spezielle Anpassungen machen damit zukünftige RDNA2-optimierte Konsolentitel auch vernünftig auf NVidia-Hardware läuft? :)
Wer sich nicht an Standards hält, der wird nicht unterstützt. :D
Über die paar Titel aus der Vergangenheit würde ich mir jetzt echt keine Sorgen machen.
Hübie
2020-09-17, 10:57:22
Laut AMD 1.5x Effizienz
Gegenüber was? RDNA1? Wie soll das gehen... :redface:
Screemer
2020-09-17, 10:57:23
Ich denke das nv da keine Probleme haben wird. Der dxr und dx12 intimate Treiber sollten schon einwandfrei laufen. Was anderes ist auf der series x/s auch nicht verfügbar.
BlacKi
2020-09-17, 10:59:22
Bezüglich Battlefield V zitiere ich mich ausnahmsweise mal schamlos selbst:
die infos hier haben noch viel größere tragweite als nur das amd kein RT für bfv erhält. zb. das nv blankes DXR möglicherweise zwar unterstützt aber es scheinbar noch schlechter läuft als RTX on. d.h. wenn amd mit neuen karten kommt und einfach nur blankes DXR unterstützt, ohne optimierungen die performance vermutlich noch schlechter sein wird als bei RTX on, da dort schon optimiert worden ist. dasselbe gilt natürlich für NV DXR support ohne optimierungen.
mironicus
2020-09-17, 11:01:46
Aber für DLSS-Unterstützung muss NVidia auch weiterhin den Geldhahn aufdrehen und die Anzahl der Titel wird stark begrenzt bleiben, die es unterstützen werden. Das gehört ja leider nicht zu DX Ultimate.
Niemand der ernsthaft kompetitiv spielt, hat RTX on bei Battlefield aktiviert.
Zergra
2020-09-17, 11:01:53
Gegenüber was? RDNA1? Wie soll das gehen... :redface:
Naja NV gibt für Ampere auch 1,9 an, die Karte wird dort aber eben nicht betrieben. Dürfte bei AMD ähnlich sein. Wenn von den 50% 5 übrig bleiben...
basix
2020-09-17, 11:07:56
Gegenüber was? RDNA1? Wie soll das gehen... :redface:
Ja, RDNA1. AMD hat es so wie im angehängten Bild am Analysts Day gezeigt. Wie man das erreicht, ist die grosse Frage. AMD gibt zumindest einige Anhaltspunkte. Ähnliches hat Nvidia mit Maxwell und zu Teilen mit Pascal geschafft.
davidzo
2020-09-17, 11:29:10
2,63x habe ich bis jetzt nur bei CB in Trackmania gesehen, der Rest ist deutlich humaner bei 200 +-20%
Es gibt auch 2,44x und 2,36x -
Bei Igor sind es deutlich weniger als 2x, eher 1,7fach, selbst in 4K:
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/16/
Liest du eigentlich mit? Es ging in meinem Post gerade nicht um den Schnitt.
Und außerdem, was zählt denn überhaupt Anderes als 4K in dieser Leistungsklasse? Schon die 2080ti ist eine reine 4K Karte.
Igor schreibt selber dass er die Averages in allem unter 4K für wenig aussagekräftig findet weil die ständig im CPUlimit hängen.
Ich kann die 5700xt und 3080 nur vernünftig vergleichen wenn beide im GPU Limit sind. Alles andere lässt keine Rückschlüsse darauf zu ob 2x so schell wie eine 5700xt reichen würden.
Eine 5700xt mag in 4K noch leicht ins GPU Limit geraten, bei einer 3080 ist das mitunter aber schon schwer. Sinnvolle Anhaltspunkte liefern daher nur die Benchmarks die auch mit einer 3080 nicht CPUlimitiert sind. Und wenn diese nunmal eher eine Tendenz von 2,1-2,4x aufzeigen, dann wird es auch mit einer perfekt skalierenden 2,0fachen Performance der 5700xt knapp.
why_me
2020-09-17, 11:34:23
Es gibt auch 2,44x und 2,36x -
Oh stimmt, in Ghost Recon, da hab ich wohl fälschlicher weise auf die VII geschaut. Warum ist die 5700 so weit abgeschlagen? Geht ihr der VRAM aus?
Die 2,44x sind aber OC in Ghost Recon, die zählen nicht :P
E:
Naja NV gibt für Ampere auch 1,9 an, die Karte wird dort aber eben nicht betrieben. Dürfte bei AMD ähnlich sein. Wenn von den 50% 5 übrig bleiben...
Der Unterschied ist aber, dass die +50% von Vega64 zu 5700 XT auch im Alltag ankommen und man keine konstruierten Situationen braucht, um auf große Zahlen zu kommen ;)
Es ist also erst einmal davon auszugehen, dass AMD das versprochene auch liefert.
Redneck
2020-09-17, 11:36:23
Bei Igor sind es deutlich weniger als 2x, eher 1,7fach, selbst in 4K:
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/16/
die Vergleiche sind doch aber für die Katz, wenn man ständig in ein CPU limit läuft , wie Igor nun bei fast jedem Bench Vergleich gesagt hat.
Wenn dann eine stärkere CPU reinpflanscht wird, wird der Balken auch wahrscheinlich länger ausfallen.
Interessant wird es , wenn Zen 3 rauskommt und neu gebencht wird.
OgrEGT
2020-09-17, 11:47:06
Wenn die Karten im 4k in CPU Limit liegen warum dann nicht noch Downsampling oder höheres AA zuschalten um wieder ins GPU Limit zu kommen?
pixeljetstream
2020-09-17, 11:52:06
die infos hier haben noch viel größere tragweite als nur das amd kein RT für bfv erhält. zb. das nv blankes DXR möglicherweise zwar unterstützt aber es scheinbar noch schlechter läuft als RTX on. d.h. wenn amd mit neuen karten kommt und einfach nur blankes DXR unterstützt, ohne optimierungen die performance vermutlich noch schlechter sein wird als bei RTX on, da dort schon optimiert worden ist. dasselbe gilt natürlich für NV DXR support ohne optimierungen.
Vielleicht sollten wir lieber die Frage stellen: Werden die Publisher spezielle Anpassungen machen damit zukünftige RDNA2-optimierte Konsolentitel auch vernünftig auf NVidia-Hardware läuft? :)
Wer sich nicht an Standards hält, der wird nicht unterstützt. :D
Über die paar Titel aus der Vergangenheit würde ich mir jetzt echt keine Sorgen machen.
zu beiden diesen Aussagen: Die Nutzung des Standards garantiert nicht, dass keine Architektur bevorzugt wird. Zum Beispiel gibt es Instruktionen die bei einer Architektur einfach schneller sind, bei dem anderen ist ein anderes Codepattern besser. Im Idealfall machen die Entwickler codepaths fuer beide Hersteller/wichtige Architekturfamilien. Da wo es nicht zuviel Arbeit für sie ist, und das studio grösser ist passiert das auch. Wenn dies nicht der Fall ist, und etwas besonders negativ auffällt wird der Hersteller dem Entwickler Bescheid geben und wenn dieser nicht handelt, halt versuchen, das ganze im Treiber zu optimieren.
Man kann durch GPU Analyse Tools den gleichen Frame in verschiedenen Chips von den Herstellern Analysieren und wird sehen wo der eine chip gegenueber dem anderen gewinnt oder verliert, das ist nicht immer uniform, sondern halt zum teil sehr speziell, weil ein modernes Spiel aus vielen Jobs besteht, die sehr unterschiedlich die HW belasten.
Da wo Entwickler verschiedene Codepaths nutzen ist es nicht unüblich, dass sie spezielle intrinsics/features nutzen, das passiert in diversen Titeln. Beide Hersteller bieten hier Dinge an die halt nicht im Standard sind. Sehr oft versucht man aber diese in späteren Versionen der API zu standardisieren. Gerade DX11 hat nen haufen feature von den Herstellern bekommen die mit DX12 dann Standard waren.
Konsolenapis sind grundsätzlich nicht das gleiche wie PC apis und per definition proprietaer. Und natürlich werden die Toptitel viel staerker an genau jene Hardware angepasst. AMD proftiert hier sicher ein wenig (wobei ich sagen wuerde heute deutlich weniger als früher (GCN vs Fermi), da AMD/NV sich in vielen Dingen angenähert haben, wavefront greosse, uniforme register...), aber am Ende ist die PC api auch eine andere, der compiler ein anderer (sony hat seinen eigenen) und wenn sie ihre Architektur weiterentwickeln entfernen sie sich auch von dem eingefrorenen Zustand der Konsolen.
Trotz "low-level" VK,DX12, diese APIs sind immer noch eine Abstraktion (also eine Art worst-case Abbilding) fuer alle Hersteller ;) das heisst jeder Treiber muss nachwievor das ignorieren was fuer ihn unwichtig ist, oder intern auf etwas anderes mappen, und jeder Entwickler muss eine Art Meta GPU programmieren die es so von keinem Hersteller gibt.
Zu DXR: der Unterbau von raytracing bei NV (gibt auch die passende DLL) ist immer der gleiche, fuer Vulkan, DXR und optix (ab 7). Alles was mit raytracing direkt zu tun hat passiert da. Wer sich die APIs anguckt wird feststellen dass sie prinzipiell gleich aufgebaut sind (optix hat ein paar features mehr fuer den profi markt). BFV nimmt ein bisschen eine Sonderrolle ein, weil es eben der erste Titel war wo DXR selbst noch in Entwicklung war und die passende Windows Version ja auch erst spaeter kam.
Ravenhearth
2020-09-17, 12:30:13
Gegenüber was? RDNA1? Wie soll das gehen... :redface:
Mit Optimierungen auf Transistorebene. Guck, was mit Vega bei Renoir passiert ist. Maxwells Effizienzsprung beruhte zu einem großen Teil ebenfalls darauf.
Zergra
2020-09-17, 14:44:12
Der Unterschied ist aber, dass die +50% von Vega64 zu 5700 XT auch im Alltag ankommen und man keine konstruierten Situationen braucht, um auf große Zahlen zu kommen ;)
Es ist also erst einmal davon auszugehen, dass AMD das versprochene auch liefert.
Schon ja, war aber auch nach Vega nicht wirklich schwer. Die Karten waren quasi an der Kotz-grenze.
Dürfte dieses mal einfach nicht hinhauen.
Gipsel
2020-09-17, 14:52:08
Schon ja, war aber auch nach Vega nicht wirklich schwer. Die Karten waren quasi an der Kotz-grenze.
Dürfte dieses mal einfach nicht hinhauen.Abwarten!
Daredevil
2020-09-17, 14:56:00
Schon ja, war aber auch nach Vega nicht wirklich schwer. Die Karten waren quasi an der Kotz-grenze.
Dürfte dieses mal einfach nicht hinhauen.
Was meinst du mit Kotzgrenze?
Waren sie an der TDP Kotzgrenze? Auf jeden Fall.
Waren sie an der Takt Kotzgrenze? Nope. ( Siehe VII )
Eine 2.2Ghz Navi2 mag vielleicht nicht an der TDP Kotzgrenze sein ( Konsolen ), aber glaubst du echt, dass wir diese Kiste auf 2.5Ghz+ takten werden?
Wieso sollte gerade AMD so einen riesigen Takt fahren können?
basix
2020-09-17, 15:51:48
Mir wäre es am liebsten, wenn sie 2.5GHz Takt fahren können aber nicht wollen/müssen ;) Da die PS5 bereits 2.2Ghz hoch takten kann, sollten auch die Desktop-Ableger in diese Region vorstossen können. Alles darüber ist Spekulation.
Ich vermute einen vernünftigen Takt bei 2.0-2.1 GHz und darüber wird der Verbrauch stärker anziehen.
Gegenüber was? RDNA1? Wie soll das gehen... :redface:
Ja, gegen RDNA1.
Bei RDNA1 und bei den Zens trafen diese Angaben ziemlich genau, ich vertraue AMD deswegen.
Bin aber auch sehr gespannt wie sie das schaffen.
Was mich wundert ist, dass die xbox sx ja eigentlich RDNA2 hat, aber da sickert nichts vom Effizienzwunder durch.
Zergra
2020-09-17, 16:38:51
Was meinst du mit Kotzgrenze?
Waren sie an der TDP Kotzgrenze? Auf jeden Fall.
Waren sie an der Takt Kotzgrenze? Nope. ( Siehe VII )
Natürlich TDP, die VII hatte ja schon eine wesentlich bessere Effizienz als die V64.
basix
2020-09-17, 16:55:56
Was mich wundert ist, dass die xbox sx ja eigentlich RDNA2 hat, aber da sickert nichts vom Effizienzwunder durch.
Selber Verbrauch wie die XBone ;)
Langlay
2020-09-17, 17:01:48
Was mich wundert ist, dass die xbox sx ja eigentlich RDNA2 hat, aber da sickert nichts vom Effizienzwunder durch.
Die Xbox SX verbraucht wohl soviel wie ne 5700XT allein. Also wo ist da blos der Fortschritt geblieben...
Digidi
2020-09-17, 17:04:01
Die Xbox SX verbraucht wohl soviel wie ne 5700XT allein. Also wo ist da blos der Fortschritt geblieben...
Hust Hust.... CPU Hust Hust... integriert Husttttttttttttttt..............
basix
2020-09-17, 17:08:23
Hust Hust.... CPU Hust Hust... integriert Husttttttttttttttt..............
...und eine SSD, ein optisches Laufwerk, Netzwerk und ein Netzteil mit 90% Wirkungsgrad....
Die Xbox SX verbraucht wohl soviel wie ne 5700XT allein. Also wo ist da blos der Fortschritt geblieben...ich meinte das natürlich Architekturbezogen. Also sowas wie bei Turing wo Float/Int aufgeteilt wird, oder Ampere wo zur klassischen Float/Int Einheit noch eine extra Float Einheit dazu kam.
Langlay
2020-09-17, 17:14:53
ich meinte das natürlich Architekturbezogen. Also sowas wie bei Turing wo Float/Int aufgeteilt wird, oder Ampere wo zur klassischen Float/Int Einheit noch eine extra Float Einheit dazu kam.
Bei Ampere kam keine extra FP32 Einheit dazu. Die INT Einheit kann jetzt auch FP32, allerdings nur endweder oder, nicht beides gleichzeitig.
Bei RDNA2 wissen wir imo noch zuwenig, so ne richtige Architekturvorstellung fehlt auch imo noch.
Hust Hust.... CPU Hust Hust... integriert Husttttttttttttttt..............ich glaube seine Antwort war nur Sarkasmus zu meiner Fragestellung ;)
Digidi
2020-09-17, 17:19:28
Nachdem was man von Nvidia weiß ist bei AMD eine verdopplung der CUs eher unwahrscheinlich weil der Aufbau der CUs ein anerer ist. Bei Turing war ja schon der Pfad in DP32 und INT32 aufgeteilt, so etwas hat AMD nicht.
Aber Effizienz kommt nicht nur von solchen Tricks. Wenn man mal sieht bringen Ampere auch kaum die Exorbitanten Shaderzahlen nichts. Prügelt man eine 2080ti und 3080 an den Anschlag dann ist die 3080 gerade mal 15-20% vorne und das bei 100% mehr Shader.
Bei Amper ist die Effizienz sogar gesunken. Effezienz kann man bei GPUs nur auf 3 Wege erreichen.
1. Besser auslastung der Einheiten durch Logik
2. Verschlankung der Transistorenanzahl für eine bestimmte Logik (weniger Verluste)
3. und auch wenn es komisch klingt. Erweiterung der Transistorenzahl für bestimmte Logik
mczak
2020-09-17, 17:21:00
Was meinst du mit Kotzgrenze?
Waren sie an der TDP Kotzgrenze? Auf jeden Fall.
Waren sie an der Takt Kotzgrenze? Nope. ( Siehe VII )
Die Kotzgrenze orientiert sich nicht direkt an der TDP oder am Takt, sondern ist streng wissenschaftlich definiert als die Grenze wo man für x% Mehrverbrauch bloss noch y% Mehrleistung erhält :biggrin:.
Die Werte für x und y sind allerdings umstritten - ich würde jetzt einmal y = 4 und x = 10 einsetzen :tongue:.
Bei Ampere kam keine extra FP32 Einheit dazu. Die INT Einheit kann jetzt auch FP32, allerdings nur endweder oder, nicht beides gleichzeitig.entweder-oder, das ist die klassische float-int Einheit bis vor Turing, von der ich sprach. Dazu gibt es eine zweite FP32 Einheit, seit Ampere.
Bei RDNA2 wissen wir imo noch zuwenig, so ne richtige Architekturvorstellung fehlt auch imo noch.
Eben deswegen wundert es mich, dass nichts von der SX leakt, nichtmal andeutungen. Bei vielen anderen Dingen bezogen auf die Konsolen gab es Gerüchte.
Complicated
2020-09-17, 17:24:10
Ja das wirkt sehr koordiniert, zu welchem Zeitpunkt welche Information raus geht. Ich denke das gibt noch einen Spannenden Oktober mit Überraschungen.
Langlay
2020-09-17, 17:29:44
entweder-oder, das ist die klassische float-int Einheit bis vor Turing, von der ich sprach. Dazu gibt es eine zweite FP32 Einheit, seit Ampere.
Nein.
https://pics.computerbase.de/9/4/7/2/3/21-1080.26a8fb37.png
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-ampere-technik/
Ein SM von Turing kann also maximal 64 FP32- und 64 INT32-Berechnungen gleichzeitig durchführen. Ein SM von Ampere dagegen entweder 128 FP32- oder 64 FP32- und 64 INT32-Berechnungen – je nachdem, welchen Workload die Anwendung an die Grafikkarte verteilt. Je nach Szenario weist ein Ampere-SM also dieselbe Rechenleistung wie ein Turing-SM auf (wenn FP und INT gleichzeitig berechnet werden), oder die doppelte Rechenleistung (wenn nur FP berechnet wird). Das ist der Grund, warum sich die theoretische FP32-Rechenleistung bei Ampere gegenüber Turing mehr als verdoppelt hat und Nvidia in Bezug auf die Anzahl der FP32-ALUs jetzt von der doppelten Anzahl CUDA-Cores redet.
basix
2020-09-17, 17:30:31
RDNA1 wurde von AMD mit 1.5x so effizient angegeben (Vega 64 vs. 5700 XT, siehe RDNA Whitepaper). Real war es beim Launch eher 1.6x und beim letzten Test von CB mit Ampere war es 1.8x. Das lässt zumindest mich hoffen ;)
Digidi
2020-09-17, 17:30:36
Ich finde es dieses Jahr spannend den die Konzepte triften toal auseinander. Während AMD schon im Frontend die CUs in zwei Bereiche aufteilt, hat Nvidia die Aufteilung in den CUs selbst vorgenommen.
Locuzza hat das mal gut Dargestellt auf Twitter:
https://pbs.twimg.com/media/EhphXhOXgAI5ulu?format=jpg&name=4096x4096
https://pbs.twimg.com/media/Ehphb2LXgAQcIMe?format=jpg&name=4096x4096
Berniyh
2020-09-17, 17:34:51
Die Kotzgrenze orientiert sich nicht direkt an der TDP oder am Takt, sondern ist streng wissenschaftlich definiert als die Grenze wo man für x% Mehrverbrauch bloss noch y% Mehrleistung erhält :biggrin:.
Die Werte für x und y sind allerdings umstritten - ich würde jetzt einmal 4 und 10 einsetzen :tongue:.
Wenn du es schon so definierst, dann nimm lieber gleich den Quotienten x/y.
Es ist dann viel sinnvoller einen Schwellwert für den Quotienten zu definieren.
bzw. wenn man das weiter spinnt (weil das dann ja ein Differenzenquotient ist), differenziere einfach die Kurve Performance/Leistung und definiere da dann den Schwellwert …
Nachdem was man von Nvidia weiß ist bei AMD eine verdopplung der CUs eher unwahrscheinlich weil der Aufbau der CUs ein anerer ist. Bei Turing war ja schon der Pfad in DP32 und INT32 aufgeteilt, so etwas hat AMD nicht. Wir wissen nicht, ob RDNA2 sowas hat. AMD hatte vorher auch keine Wave32.
Ich behaupte jetzt nicht, dass genau das eintreffen muss, aber ich frage mich schon, weshalb von der SX garnichts an Gerüchten kommt. Sollte RDNA2 ganz ohne "high level" Architekturverbesserung auskommen beim +50%? Oder hat die SX davon nichts abbekommen, sondern nur von den Features?
Aber Effizienz kommt nicht nur von solchen Tricks. Wenn man mal sieht bringen Ampere auch kaum die Exorbitanten Shaderzahlen nichts. Prügelt man eine 2080ti und 3080 an den Anschlag dann ist die 3080 gerade mal 15-20% vorne und das bei 100% mehr Shader. da geb ich dir recht, auf dem Papier klingt Ampere weit aus effizienter als in Benchmarks. Was ein wenig seltsam ist, wenn Turing in 7nm gekommen wäre, wäre er Leistung/Watt besser gewesen.... Meinem naiven Gefühl nach.
1. Besser auslastung der Einheiten durch Logik
2. Verschlankung der Transistorenanzahl für eine bestimmte Logik (weniger Verluste)
3. und auch wenn es komisch klingt. Erweiterung der Transistorenzahl für bestimmte Logik
Am Ende ist das 3 mal bessere Auslastung ;)
Einen offiziellen Tweet gab es ja zu den ersten Test der 3080
https://twitter.com/videocardz/status/1306280481835700229?s=21
basix
2020-09-17, 17:36:47
:D
RDNA1 wurde von AMD mit 1.5x so effizient angegeben (Vega 64 vs. 5700 XT, siehe RDNA Whitepaper). Real war es beim Launch eher 1.6x und beim letzten Test von CB mit Ampere war es 1.8x. Das lässt zumindest mich hoffen ;)
Sorry wenn ich mich hier selbst zitiere. Was ich noch dazu sagen wollte: AMD hat diese Effizienzsteigerung mit reduziertem Stromverbrauch erreicht (5700 XT ist nicht +50% schneller als Vega 64). Bei einem 52 CU Ausbau und 320b SI wäre RDNA1 das aber geworden bei in etwa V64 Verbrauch. Die Aussagen sind also etwas realistischer als Nvidias Angabe von 1.9x bei Ampere vs. Turing.
https://pics.computerbase.de/9/4/7/2/3/21-1080.26a8fb37.png
Danke, gut zu sehen! Eine float-int Einheit und noch eine float Einheit.
Digidi
2020-09-17, 17:47:21
@NC wir kennen ja schon einige Änderungen von RDNA2 aus dem Treiber
Das Commant Frontend hat nun 2 GFX PPipes und 2x 4x Compute Pipes das war bei RDNA1 noch anders. Bei AMD versucht man eher über die obere Ebeene zu skalieren. Nvidia skalierte in dieser Generation über die CUs selbst indem man praktisch einer CU eine weitere CU nebendran gestellt hat. Bei AMD wird das schwer den AMD hat ja schon eine DUAL CU
basix
2020-09-17, 17:49:40
Das Commant Frontend hat nun 2 GFX PPipes und 2x 4x Compute Pipes das war bei RDNA1 noch anders. Bei AMD versucht man eher über die obere Ebeene zu skalieren.
Und genau das scheint mir eine Vorbereitung für den zukünftigen Chiplet Ansatz bei RDNA3 zu sein. Macht zumindest aus meiner Sicht Sinn.
Langlay
2020-09-17, 17:50:10
Danke, gut zu sehen! Eine float-int Einheit und noch eine float Einheit.
Das bin oben ist Ampere.
Turing sieht so aus :
https://abload.de/img/sm-architecture-blockj8kz3.jpg
Wie gesagt die Int Einheit kann bei Ampere auch FP32. Allerdings nur endweder Int oder FP32. Bei Turing konnte sie nur Int.
:D
Sorry wenn ich mich hier selbst zitiere. Was ich noch dazu sagen wollte: AMD hat diese Effizienzsteigerung mit reduziertem Stromverbrauch erreicht (5700 XT ist nicht +50% schneller als Vega 64). Bei einem 52 CU Ausbau und 320b SI wäre RDNA1 das aber geworden bei in etwa V64 Verbrauch. Die Aussagen sind also etwas realistischer als Nvidias Angabe von 1.9x bei Ampere vs. Turing.
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/3/#abschnitt_performance_pro_watt
Zergra
2020-09-17, 17:53:02
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/3/#abschnitt_performance_pro_watt
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
@NC wir kennen ja schon einige Änderungen von RDNA2 aus dem Treiber
Das Commant Frontend hat nun 2 GFX PPipes und 2x 4x Compute Pipes das war bei RDNA1 noch anders. Bei AMD versucht man eher über die obere Ebeene zu skalieren. Nvidia skalierte in dieser Generation über die CUs selbst indem man praktisch einer CU eine weitere CU nebendran gestellt hat. Bei AMD wird das schwer den AMD hat ja schon eine DUAL CU
Wäre :sick: wenn mit 2 GFX Frontends 2 Rendertargets gleichzeitig gefüllt werden würden. Ich frage mich aber, ob das, wie async Compute, angepasste Spiele braucht, oder ob AMD irgendwie im Treiber Vorteile daraus ziehen kann.
Wie gesagt die Int Einheit kann bei Ampere auch FP32. Allerdings nur endweder Int oder FP32. Bei Turing konnte sie nur Int.Ja, so lief das vor Turing, eine Einheit die entweder Int oder FP32 macht.
Langlay
2020-09-17, 17:55:05
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
4k ist aber auch der Optimalfall für die VII. in 1440p sind es 25% und in 1080p 30%.
Und der Vergleich von AMD war auf die Vega64 bezogen.
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
Zur V64 sind es aber 80%! Die 7 hatte den gleichen Fertigungsprozess, auch von daher finde ich 20% beachtlich. Damit wollte ich nur aufzeigen, dass AMD keinen Mist versprochen hat
Ja das wirkt sehr koordiniert, zu welchem Zeitpunkt welche Information raus geht. Ich denke das gibt noch einen Spannenden Oktober mit Überraschungen.
Das wäre cool, vielleicht sogar noch rückwirkend auf SX bezogen.
why_me
2020-09-17, 18:02:01
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
Und jetzt?
basix
2020-09-17, 18:11:52
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/3/#abschnitt_performance_pro_watt
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
Ich weiss ehrlich gesagt nicht, was ihr beide damit sagen wollt. Die Effizienz von 5700XT vs. V64 mit 1.8x habe ich bereits selbst erwähnt und was die VII damit zu tun hat erschliesst sich mir nicht. AMD hat RDNA1 immer mit Vega 64 verglichen.
Sieht man doch ganz schön das von der VII zur 5700XT nur 20% sind.
Ich glaube AMD hatte damals die Vega64 als Referenz genommen, weil sie in etwa die gleiche Leistung hatten, wo dann +50% zutraff. Sie hätten natürlich zur VII oder Polaris vergleichen können, dann wäre es kein +50% gewesen.
Bei RDNA2 referenzieren sie aber eindeutig +50% zu RDNA1, da gibt es hoffentlich keine "Tricks".
Und jetzt?
Ich weiss ehrlich gesagt nicht, was ihr beide damit sagen wollt.
Er/Sie sagt, dass AMD nicht zur effizientesten GCN Version verglichen hat, indem AMD den Zwischenschritt zu 7nm bei GCN überging.
Valid Point von ihm/ihr.
basix
2020-09-17, 18:16:53
Spielt das eine Rolle? Solange die Werte im Vergleich passen und sogar übertroffen werden, ist doch alles gut. Zwischen RDNA1 und RDNA2 wird es definitiv nichts anderes geben und wenn die Angabe nun wieder stimmt oder gar übertroffen wird?
Edit:
AMD hat bei jedem Vergleich immer explizit Vega 64 angegeben. Kann man überall nachlesen.
unl34shed
2020-09-17, 18:18:32
Außerdem stand das genau so im Kleingedruckten, wie getestet wurde, etwas was bei Nvidia komplett fehlt...
Gerade auf Beyond3d gefunden:
https://www.freepatentsonline.com/20200293445.pdf
ADAPTIVE CACHE RECONFIGURATION VIA CLUSTERING
Anders formuliert: Angenommen die neue XBX mit ihren 52CUs bei vielleicht 150W und Bandbreitenvorteil liegt vielleicht sehr leicht unter ner 2080Ti. Aber ohne Treiberlast liegt das Ding näher an ner 3080 als mancher denkt.
Spielt das eine Rolle? Solange die Werte im Vergleich passen und sogar übertroffen werden, ist doch alles gut.
Wenn wir Ehrlich sind, spielt das doch schon eine Rolle. Es sind keine +50% Effizienzsteigerung gegen GCN, wenn wir die effizienteste GCN GPU nehmen. Somit passen die Werte nicht pauschal.
Klar, wenn wir eine 50% ineffizientere GCN Inkarnation nehmen, passt es. Aber so kannst du immer punkten.
unl34shed
2020-09-17, 18:26:34
Wenn wir die effizienteste GCN nehmen, wäre das vermutlich Renoir, und jetzt?
Die Aussage von AMD war klar dokumentiert und test konnten es bestätigen.
E: Immerhin hat man nicht mit V-Sync getestet...
Wenn wir die effizienteste GCN nehmen, wäre das vermutlich Renoir, und jetzt?Es ist also egal welche Effizienz eine Architekturirkanation hat beim Vergleich von zweien? Welchen Sinn ausser "Wir finden zwei beliebige GPUs die n % auseiennader liegen bei der Effizienz" hat das? Bzw. wieso nicht die schlechteste GCN GPU gegen die beste RDNA1 GPU dabei testen.
Ich hätte die beste GCN gegen die beste RDNA1 getestet, wenn ich eine Aussage machen wollen würde. Das erwarte ich von jedem Hersteller.
basix
2020-09-17, 18:38:39
Die Aussage von AMD war klar dokumentiert und test konnten es bestätigen.
Genau. Der Rest ist mMn egal.
Gerade auf Beyond3d gefunden:
https://www.freepatentsonline.com/20200293445.pdf
ADAPTIVE CACHE RECONFIGURATION VIA CLUSTERING
Liest sich sehr interessant. Ist vermutlich initial eher für HPC relevant. Anstatt den L1 pro CU zu vergrössern, will man mehrere CUs dynamisch clustern und z.B. via Ring Interconnect verbinden. Damit erhält man eine Art shared L1, welcher dynamisch anpasspar ist, je nach Arbeitslast. CUs mit wenig Arbeitslast / Cache Pressure geben somit L1 an CUs mit mehr Cache Pressure ab. Ziemlich smart.
Bei latenzsensitiven Workloads (HPC?) wie Raytracing könnte das sehr viel bringen und man spart sich dazu noch Chipfläche und allenfalls Stromverbrauch. Die TMUs mit den "Raytracing Cores" hängen bei RDNA direkt am L1. Bei GPUs hat der L2 ziemlich schlechte Latenzen im Bereich 1/2 DRAM (habe ich so im Hinterkopf)
Wenn wir Ehrlich sind, spielt das doch schon eine Rolle. Es sind keine +50% Effizienzsteigerung gegen GCN, wenn wir die effizienteste GCN GPU nehmen. Somit passen die Werte nicht pauschal.
Klar, wenn wir eine 50% ineffizientere GCN Inkarnation nehmen, passt es. Aber so kannst du immer punkten.
Ich bitte dich, 50% waren versprochen, 80% wurden geliefert. Ich selbst stehe mit den erneuten 50% auch auf Kriegsfuß. Aber vielleicht ist N2x doch kein 7nm Prozess mehr, auch wenn es dafür keine Anhaltspunkte gibt. Es gab allerdings eine offizielle Folie, welche RDNA Next für 2020 prognostiziert hat. Vielleicht finde ich das Ding nochmals. Vielleicht ist an dem MCM Krempel doch mehr dran ...
basix
2020-09-17, 18:49:18
Ich bitte dich, 50% waren versprochen, 80% wurden geliefert. Ich selbst stehe mit den erneuten 50% auch auf Kriegsfuß. Aber vielleicht ist N2x doch kein 7nm Prozess mehr, auch wenn es dafür keine Anhaltspunkte gibt. Es gab allerdings eine offizielle Folie, welche RDNA Next für 2020 prognostiziert hat. Vielleicht finde ich das Ding nochmals. Vielleicht ist an dem MCM Krempel doch mehr dran ...
Diese hier? Dort steht 7nm+, was mittlerweile alles zwischen N7P, N7e, N7+ und N6 sein kann ;) https://www.techpowerup.com/247976/amd-navi-gpu-architecture-successor-codenamed-arcturus
An MCM glaube ich bei RDNA2 nicht. Dazu gibt es Null Hinweise. Bei RDNA3 gibt es diese Hinweise aber.
Diese hier? Dort steht 7nm+, was mittlerweile alles zwischen N7P, N7e, N7+ und N6 sein kann ;) https://www.techpowerup.com/247976/amd-navi-gpu-architecture-successor-codenamed-arcturus
An MCM glaube ich bei RDNA2 nicht. Dazu gibt es Null Hinweise. Bei RDNA3 gibt es diese Hinweise aber.
Japp, die war’s. Allerdings wurden da nicht diverse Sachen durchgestrichen ;)
Zergra
2020-09-17, 19:26:09
Ich hätte die beste GCN gegen die beste RDNA1 getestet, wenn ich eine Aussage machen wollen würde. Das erwarte ich von jedem Hersteller.
Passiert leider nicht, das sehe ich halt eben auch bei RDNA2.
Nur weil die Verbesserung in einem Scenario nachstellen kann, heißt es nicht das man das auf das komplette Portfolio beziehen kann.
Berniyh
2020-09-17, 19:31:53
Wenn wir Ehrlich sind, spielt das doch schon eine Rolle. Es sind keine +50% Effizienzsteigerung gegen GCN, wenn wir die effizienteste GCN GPU nehmen. Somit passen die Werte nicht pauschal.
Klar, wenn wir eine 50% ineffizientere GCN Inkarnation nehmen, passt es. Aber so kannst du immer punkten.
Ist schon richtig, aber hier auch nicht entscheidend.
Letztendlich geht es ja gar nicht so sehr um die Aussage, außer, dass sie so – wie von AMD getroffen – richtig ist, nämlich Vega 64 vs. 5700 XT.
Da kann man bemängeln, dass es einen effizientere GCN Version gab (Radeon VII), aber das geht am wesentlichen Punkt vorbei:
AMD hat für RDNA1 vs. RDNA2 50%+ bei der Effizienz versprochen und da kann man diese Unterscheidung schlecht treffen, denn von RDNA1 ist recht klar, dass es sich um N7(P?) Produkte handeln muss.
Ob AMD in dem Fall liefert muss man abwarten, aber zumindest die vorherige Aussage hat sich eben bestätigt.
Und nur darum ging es, die neue Aussage zu bewerten.
nairune
2020-09-17, 19:32:06
Nur weil die Verbesserung in einem Scenario nachstellen kann, heißt es nicht das man das auf das komplette Portfolio beziehen kann.
:facepalm:
Es ist nicht "irgendein" Szenario, sondern genau das eine definierte. Es wurde hier schon 20x erläutert: bei der ersten Folie damals, die die 50% für RDNA1 versprochen hat, stand in den Fußnoten exakt wie gemessen wurde.
Das Versprechen wurde gehalten, daher der Vertrauensvorschuss, dass es wieder gehalten wird.
Zergra
2020-09-17, 19:33:25
:facepalm:
Es ist nicht "irgendein" Szenario, sondern genau das eine definierte. Es wurde hier schon 20x erläutert: bei der ersten Folie damals, die die 50% für RDNA1 versprochen hat, stand in den Fußnoten exakt wie gemessen wurde.
Richtig, aber eben NICHT bei RDNA1 vs RDNA2
unl34shed
2020-09-17, 19:33:57
Warum muss man das schon wieder x fach durchkauen? :facepalm:
Zumal dieses Szenario nicht fair ist! Aber trotzdem, wo hängt denn ne 5700(XT) im Vergleich zu Polaris aka 570/580/590?
Leider heißt es dieses mal nur abwarten. Vielleicht launcht AMD die CPUs aus dem Grund voher, nur in kein Limit rennen zu müssen.
Zergra
2020-09-17, 19:35:17
Warum muss man das schon wieder x fach durchkauen? :facepalm:
Weil sich eben eine ganze Menge Erwartungen auf den 50% stützen...
Linmoum
2020-09-17, 19:37:11
Die Erwartung basiert auf der Angabe in Bezug auf RDNA, wo AMD ebenfalls das geliefert hat, was sie versprochen haben. Nicht mehr und nicht weniger.
nairune
2020-09-17, 19:37:57
Richtig, aber eben NICHT bei RDNA1 vs RDNA2
Das Argument ist, dass man schon damals nicht getrickst hat, daher die Chance/Hoffnung, dass auch dieses Mal der Vergleich realitätsnah ist.
Eine "glaube ich nicht"-Meinung sei jedem gegönnt, aber die Folien geben nur das her. Also lasst es doch ständig irgendwelchen Unsinn daraus abzuleiten.
why_me
2020-09-17, 19:38:28
Richtig, aber eben NICHT bei RDNA1 vs RDNA2
Doch, es steht auch in den Folien, wie man zu der Aussage gekommen ist, dass RDNA1 vs RDNA2 +50% Perf/W sind.
Warte bis zum 28.10, dann wirst du dazu sicherlich mehr sehen und beim Release der Karten wird es eben getestet.
Stand jetzt gibt es Perf/W zu ZEN und RDNA1 und diese stimmen, wie in AMDs Tests angegeben, also sollten wir vorerst die RDNA2 Werte glauben und sie nicht alle paar Seiten in Frage stellen und die selben Sinnlosen Diskussionen führen......
Doch, es steht auch in den Folien, wie man zu der Aussage gekommen ist, dass RDNA1 vs RDNA2 +50% Perf/W sind.
Warte bis zum 28.10, dann wirst du dazu sicherlich mehr sehen und beim Release der Karten wird es eben getestet.
Stand jetzt gibt es Perf/W zu ZEN und RDNA1 und diese stimmen, wie in AMDs Tests angegeben, also sollten wir vorerst die RDNA2 Werte glauben und sie nicht alle paar Seiten in Frage stellen und die selben Sinnlosen Diskussionen führen......
Full ack! BTW. Weiß man eigentlich etwas von dem Release-SOCs seitens PS5 und XBX zwecks dem Fertigungsprozess (gesicherte Angaben)?
basix
2020-09-17, 19:50:29
Richtig, aber eben NICHT bei RDNA1 vs RDNA2
Wie kann man das auch genau spezifizieren, wenn man die Karte oder den Chip evtl. noch gar nicht hat? Auch wenn man den Chip hätte, vielleicht auch daran gedacht, dass AMD nicht zu viele Informationen an die Konkurrenz geben will und deswegen kein konkretes Produkt beschreibt? Deswegen auch das "internal estimation" auf der Folie und meine Anmerkung, dass jeder die Aussage mit einem Grain of Salt nehmen sollte. Zumindest bei RDNA1 und Zen haben die Aussagen gepasst. Deswegen ist momentan eher Usus im Zweifel für den Angeklagten zu sein und dass es bei RDNA2 auch relativ gut passen wird. Zumindest vorerst, bis wir die Messergebnisse bestaunen können ;)
Edit:
Das einzige, was man bemängeln könnte ist, dass die neue RDNA2 +50/+50% Folie auf den ersten Blick pauschal GCN zeigt. Wenn hier jemand an die VII denkt ist das nicht falsch, aber die Fussnote beschreibt dann wiederum den V64 Vergleich.
why_me
2020-09-17, 19:54:53
BTW. Weiß man eigentlich etwas von dem Release-SOCs seitens PS5 und XBX zwecks dem Fertigungsprozess (gesicherte Angaben)?
XBX soll 7nme, was auch immer das am Ende genau ist.
Zergra
2020-09-17, 20:01:16
Edit:
Das einzige, was man bemängeln könnte ist, dass die neue RDNA2 +50/+50% Folie auf den ersten Blick pauschal GCN zeigt. Wenn hier jemand an die VII denkt ist das nicht falsch, aber die Fussnote beschreibt dann wiederum den V64 Vergleich.
Um was anderes geht es mir auch nicht.
Ich zweifel ja gar nicht an das diese Werte auch erreicht werden. Natürlich werden solche Werte so gewählt das Sie das Optimum zeigen. Das macht NV ja auch nicht anders.
Nur kann man aus den 50% bei RDNA2 auch nicht wirklich was schließen. Außer das Sie in einem Fall wohl eintreten. Mehr aber auch nicht.
XBX soll 7nme, was auch immer das am Ende genau ist.
Kann ich mir auch keinen Reim drauf machen. Trotzdem danke für die Antwort:)
Um was anderes geht es mir auch nicht.
Ich zweifel ja gar nicht an das diese Werte auch erreicht werden. Natürlich werden solche Werte so gewählt das Sie das Optimum zeigen. Das macht NV ja auch nicht anders.
Nur kann man aus den 50% bei RDNA2 auch nicht wirklich was schließen. Außer das Sie in einem Fall wohl eintreten. Mehr aber auch nicht.
Plausibilität hat AMD im Gegensatz zu NV bereits bewiesen, bei NV war’s nur peinlich!
[MK2]Mythos
2020-09-17, 20:13:01
Um was anderes geht es mir auch nicht.
Ich zweifel ja gar nicht an das diese Werte auch erreicht werden. Natürlich werden solche Werte so gewählt das Sie das Optimum zeigen. Das macht NV ja auch nicht anders.
Nur kann man aus den 50% bei RDNA2 auch nicht wirklich was schließen. Außer das Sie in einem Fall wohl eintreten. Mehr aber auch nicht.
Was für eine unnötige Diskussion. AMD hat in Aussicht gestellt, dass RDNA2 50% bessere Perf/Watt haben wird im Vergleich zu RDNA1. Daran werden sie gemessen. Von etwas anderem gehen wir also jetzt erstmal nicht aus. NVIDIA hat es mit der Wahrheit mal wieder nicht sehr genau genommen, AMD hat zuletzt immer ihre Versprechen gehalten oder sogar übererfüllt. 50% stehen im Raum, nicht 20, nicht 40, nicht 80, sondern 50.
Für mich klingt hier alles nach ca. 3080 Leistung bei 300Watt.
Ob man noch sowas wie die XT-PE Karte spielt ist sicher noch spannend.
NV wäre sicher auch näher an den Perf/Watt Versprechen geblieben wenn sie die 3080 nicht hätten prügeln müssen um nicht alt auszusehen.
Langlay
2020-09-17, 20:21:29
NV wäre sicher auch näher an den Perf/Watt Versprechen geblieben wenn sie die 3080 nicht hätten prügeln müssen um nicht alt auszusehen.
Das halte ich auch für denkbar, Nvidia hat imo nicht ohne "Not" den GA102 für die 3080 genommen und den auch noch nach AMD Manier hochgeprügelt.
Mit 5-10% weniger Leistung hätten die sich sicherlich genausogut verkauft.
Linmoum
2020-09-17, 20:25:54
I've now got confirmation for both :
> Navi21 16GB VRAM
> Navi22 12GB VRAM
I have no idea if these are full die or cut down SKUs
https://twitter.com/i/web/status/1306655000454725636
256bit/192bit + sexy cache. :D
Daredevil
2020-09-17, 20:32:59
Sexy Cache, der dann wieder so unbekannt ist, das er drölf Jahre braucht, damits gescheit läuft mit Spielen. :(
*Hope for the Best*
Badesalz
2020-09-17, 20:58:50
Und außerdem, was zählt denn überhaupt Anderes als 4K in dieser Leistungsklasse? Schon die 2080ti ist eine reine 4K Karte.
Mit RT-off auf jeden Fall.
@all
Der Kollege hier der auf attraktiv nah mit =<300W getippt hat, könnte einen Treffer gelandet haben... ;) Jetzt hat aber NV einmal auf AMD-Art gekontert, mit refinance Discounterpreisen für die 3080. Das wird auch noch spannend was AMD hier machen kann.
Adam D.
2020-09-17, 21:05:45
https://twitter.com/i/web/status/1306655000454725636
256bit/192bit + sexy cache. :D
Ein Mysterium :ucoffee:
Der_Korken
2020-09-17, 21:18:15
https://twitter.com/i/web/status/1306655000454725636
256bit/192bit + sexy cache. :D
Na gut, wenn der große Chip nur 256bit hat, warum soll der kleinere dann nicht 192bit haben. 256/192*16/14 = 1,52. Würde vom Abstand her passen. Das Mysterium wie AMD damit aber ihre GPUs befeuern will bleibt weiter bestehen :freak:
Birdman
2020-09-17, 21:20:53
https://twitter.com/i/web/status/1306655000454725636256bit/192bit + sexy cache. :D
192bit bei einer HighEnd Karte im Jahre 2020 finde ich schon arg wenig.
Da verblassen ja die Farben der Pixel weil es so lange dauert, die vom Speicher in die GPU zu laden...
Akkarin
2020-09-17, 21:22:29
Wobei _rogame ja auch nicht wirklich ne Ahnung zu haben scheint was fürn Interface die Karten haben ? Das ist eher ein (leicht ironisches) verzweifeln das man nichts genaues weiß.
w0mbat
2020-09-17, 21:24:54
Ist doch einfach, AMD hat ne Hydraulische Presse vor das SI geschaltet, das macht die Daten kleiner und dann passen die alle problemlos durchs 256-bit SI.
Linmoum
2020-09-17, 21:25:24
192bit bei einer HighEnd Karte im Jahre 2020 finde ich schon arg wenig.
Da verblassen ja die Farben der Pixel weil es so lange dauert, die vom Speicher in die GPU zu laden...Ist das mit einem potentiell extra 128MB großen Cache denn so? Ich weiß es nicht, weil ich dazu keine Informationen habe.
Also vorausgesetzt, es sind tatsächlich 256bit beim großen und damit 192bit beim "kleineren" (bzw. zweitgroßen) Chip. Dann ergibt das Gerücht um den extra Cache nämlich immer mehr Sinn.
So ganz kann ich mir nicht vorstellen, dass so ein kleiner Cache die gesamte Bandbreite ersetzen soll. Aber Zahlen dazu haben wohl nur die GPU Hersteller.
Was sprach nochmal gegen 512 Bit Speicherinterface außer "Leaks"?
Zergra
2020-09-17, 21:31:00
Was sprach nochmal gegen 512 Bit Speicherinterface außer "Leaks"?
Teuer... und frisst viel Strom.
Gab es außerdem schon ewig nicht mehr. R9 390 ?
Teuer... und frisst viel Strom.
Klingt wie GDDR6x :)
Gab es außerdem schon ewig nicht mehr. R9 390 ?
Das ist ja weniger ein Argument.
why_me
2020-09-17, 21:40:10
Gegen 512 bit sprechen die schrauben zwischen den RAM Chips, da ist einfach kein Platz. Dazu dass Engineering Board, das die Schrauben an der gleichen Stelle hat....
Es passt aktuell leider zu viel zusammen, so dass die 256 bit + Cache wohl stimmen müssten.
Habe aber auch keine Ahnung, wie das funktionieren soll und hätte auf HBM2e gehofft.... Auf der anderen Seite hat eine 5700 xt nur 16 MB L1+L2, 128 sind 8x davon, also eine größe die wir so als Cache noch nie gesehen haben (eventuell kann man hier noch die Iris Pro zählen).
Selbst Nvidias A100 hat "nur" 40 MB L2 Cache...
basix
2020-09-17, 21:42:42
192bit bei einer HighEnd Karte im Jahre 2020 finde ich schon arg wenig.
Da verblassen ja die Farben der Pixel weil es so lange dauert, die vom Speicher in die GPU zu laden...
Ist doch einfach, AMD hat ne Hydraulische Presse vor das SI geschaltet, das macht die Daten kleiner und dann passen die alle problemlos durchs 256-bit SI.
;D:cop:
Iscaran
2020-09-17, 21:43:25
192 Bit beim kleinen Desktop Chip ? Wenn die XBX schon mit 52 von 56 CUs mit 320 bit operiert ?
Selbst die 256 bit sind hier für einen Desktop-Chip eher mager zu nennen ? Wie waren denn in der Vergangenheit die Konsolen-RAM-Anbindungen, eher > als Desktop oder eher < als Desktop ?
Ich würde eher letztere tippen.
Kann es sein daß AMD hier "irgendwie" eine Art "Dual-Channel Trick" mit dem VRAM macht ?
Sozusagen 8GB via 256 Bit und 8GB via ANDERE 256 bit angebunden ? (und dazwischen vielleicht eben den "Infinity Cahce" der dann beide GPU-Hälften versorgt ?
So oder so, gehen wir von den bislang vermuteten 80 CUs für den großen Navi aus und das mit 2GHz Takt (was die PSx und XBX durchaus nahelegen würden).
Hätte das Ding noch ganz ohne IPC Verbeserungen, ausgehend von 9.37 TFlops der 5700 XT @40CUs und 1.605 GHz Baseclock, also 9.37/1.6/40*80*2=23 TFlops
23 TFlops @256bit das macht doch keinen Sinn. Eine XBX mit nur 52 CUs hat ja schon 12 TFlops und dafür ein 320 Bit Interface.
Die 256 bit KÖNNEN für einen richtigen BigNavi einfach nicht passen. Die können einfach nur zum Performance Chip passen mit z.B. 56 CUs oder sowas.
Vielleicht packt AMD einfach eine SSD AUF die GPU ?! so als Cache...warum nicht ?
basix
2020-09-17, 21:47:06
Es gäbe ja eine Lösung: Einen einzelnen 8GByte HBM2e Stack mit 3.2-3.6Gbit/s mit InFO_MS (https://www.google.com/url?sa=i&url=https%3A%2F%2Ffuse.wikichip.org%2Fnews%2F2567%2Ftsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging%2F2%2F&psig=AOvVaw2z-L12fwTYo6cyf736SgH-&ust=1600458343207000&source=images&cd=vfe&ved=0CAkQjhxqFwoTCJjB_ov68OsCFQAAAAAdAAAAABAD) aufs Substrat packen (kein Interposer nötig!) und den Rest an ein GDDR6 Interface schnallen.
Edit:
Dieser HBM-Stack könnte der sagenumwobene Infinity Cache sein. Wird bei Speicher manchmal nicht die Grösse falsch ausgelesen? Hat HBM nicht 128MB Banks [ 16 Gbit(1x Die) / 16 banks = 1 Gbit = 128 MByte ]?
Linmoum
2020-09-17, 21:47:57
Habe aber auch keine Ahnung, wie das funktionieren soll und hätte auf HBM2e gehofft.... Auf der anderen Seite hat eine 5700 xt nur 16 MB L1+L2, 128 sind 8x davon, also eine größe die wir so als Cache noch nie gesehen haben (eventuell kann man hier noch die Iris Pro zählen).
Selbst Nvidias A100 hat "nur" 40 MB L2 Cache...Wenn ich das richtig verstanden habe, sollen diese 128MB Infinity Cache zusätzlicher Cache sein.
why_me
2020-09-17, 21:52:20
Wenn ich das richtig verstanden habe, sollen diese 128MB Infinity Cache zusätzlicher Cache sein.
Durchaus möglich, wollte mit dem Navi10 vergleich nur den Größenunterschied verdeutlichen.
Es gäbe ja eine Lösung: Einen einzelnen 8GByte HBM2e Stack mit 3.2-3.6Gbit/s ... und den Rest an ein GDDR6 Interface schnallen.
Hatten wir schon einmal durchgekaut, aber warum? Der Aufwand den HBM teil zu verdoppeln wäre eine Kleinigkeit, da kann man dann auch direkt auf GDDR verzichten...
Es ist echt ungewöhnlich, dass man etwas über 1 Monat vor Veröffentlichung noch nichts von AMD kennt.
basix
2020-09-17, 21:55:18
Hatten wir schon einmal durchgekaut, aber warum? Der Aufwand den HBM teil zu verdoppeln wäre eine Kleinigkeit, da kann man dann auch direkt auf GDDR verzichten...
Ich weiss, aber HBM als solches = $$$ verglichen zu stinknormalem GDDR6. Ausserdem war glaube ich noch die Aussage, der Interposer wäre ein Problem bei GDDR6, der würde ja wegfallen. Schlussendlich ein Tradeoff zwischen Kosten, Energieverbrauch und Mobile-Chip Eignung. Zumindest wäre das auch ein Mittel, um die +50% Perf/W zu erhalten ;)
Badesalz
2020-09-17, 21:56:31
192bit bei einer HighEnd Karte im Jahre 2020 finde ich schon arg wenig.Ich denke nicht, daß der RDNA2 Topdog 192bit haben wird. Du etwa? :|
Es gäbe ja eine Lösung: Einen einzelnen 8GByte HBM2e Stack mit 3.2-3.6Gbit/s mit InFO_MS (https://www.google.com/url?sa=i&url=https%3A%2F%2Ffuse.wikichip.org%2Fnews%2F2567%2Ftsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging%2F2%2F&psig=AOvVaw2z-L12fwTYo6cyf736SgH-&ust=1600458343207000&source=images&cd=vfe&ved=0CAkQjhxqFwoTCJjB_ov68OsCFQAAAAAdAAAAABAD) aufs Substrat packen (kein Interposer nötig!) und den Rest an ein GDDR6 Interface schnallen.Hör ja auf. robbitop würde durchdrehen ;)
why_me
2020-09-17, 22:02:44
Ich weiss, aber HBM als solches = $$$ verglichen zu stinknormalem GDDR6. Ausserdem war glaube ich noch die Aussage, der Interposer wäre ein Problem bei GDDR6, der würde ja wegfallen. Schlussendlich ein Tradeoff zwischen Kosten, Energieverbrauch und Mobile-Chip Eignung. Zumindest wäre das auch ein Mittel, um die +50% Perf/W zu erhalten ;)
So teuer scheint HBM2 nicht mehr zu sein 120$/16GB letztes Jahr. GDDR6 kostet nicht viel weniger.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12423595#post12423595
basix
2020-09-17, 22:07:22
Hmm, das wäre wirklich nicht so viel. Ist aber glaube ich HBM2 und nicht HBM2e laut dem Artikel. Das Packaging und der schlechtere Packaging Yield kommt halt noch obendrauf. Keine Ahnung, wie teuer das ist.
Edit:
Was mich bei InFo sehr überrascht hat
ASE and others are developing fan-out packages with HBM. “The electrical performance is better than a 2.5D interposer solution,” said John Hunt, senior director of engineering at ASE. “You have less insertion loss, better impedance control and lower warpage than 2.5D. It’s a lower cost solution with better electrical performance. The difference is that 2.5D can do finer lines and spaces. But we can route the HBM2 dies with our current 2μm line and space.”
Berniyh
2020-09-17, 22:11:58
Hmm, das wäre wirklich nicht so viel. Ist aber glaube ich HBM2 und nicht HBM2e laut dem Artikel. Das Packaging und der schlechtere Packaging Yield kommt halt noch obendrauf. Keine Ahnung, wie teuer das ist.
Edit:
Was mich sehr überrascht hat
Wenn die Alternative 256 Bit ist, dann spielt es auch keine große Rolle ob HBM2 oder HBM2e. :freak:
BoMbY
2020-09-17, 22:13:43
Jetzt ist _rogame auch da wo ich vor ein paar Tagen war. HBM2 + GDDR6 (https://twitter.com/_rogame/status/1306679281636999168). lol.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.