Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
BlacKi
2019-04-27, 19:17:45
ach, auf zen geh ich lieber nicht drauf ein, das wird OT. nur soviel, ich teile da deine meinung nicht.
Screemer
2019-04-27, 19:30:57
ach, auf zen geh ich lieber nicht drauf ein, das wird OT. nur soviel, ich teile da deine meinung nicht.
Da du eh immer und überall seit dem du im 3dc bist anti-ati/amd bist und warst wundert das niemanden.
Menace
2019-04-27, 19:34:58
die karten selbst können effizient sein, man muss sie aber eben dort betreiben. leider betreibt amd seine desktop karten immer an der kotzgrenze, die ausnahmen sind immer nur die verhältnismäßig teuren nano karten.
Deswegen gab es ja auch keine zwei unterschiedlichen Biose und unterschiedliche Anwendungen pro Bios. Ach BlacKi, versuche es doch einmal nicht so offensichtlich. :wink:
Und mein Vega 56 Nano war lange Zeit die günstigste Veg 56 die man bekommen kann. Ok, es gab nur 100 Stück, aber sie war zu diesem Zeitpunkt imho günstiger als andere Vega 56.
BlacKi
2019-04-27, 19:40:03
was ist mit p10/p20/p30? war es nicht offensichtlich worauf ich anspiele?
die vega 56 modelle sind in der tat die ausnahme.
Menace
2019-04-27, 19:51:05
Dann musst Du differenziert formulieren. Sobald man Begriffe wie "immer" schreibt sollte man sich halt sicher sein, sonst ist schon eine Abweichung eine offensichtliche Lüge.
BlacKi
2019-04-27, 19:52:33
danke für den hinweis.
dargo
2019-04-27, 20:09:23
die vega 56 modelle sind in der tat die ausnahme.
Was für Ausnahme? Es gibt V56 Modelle die mit 332W laufen, ganz offiziell. ;)
https://www.computerbase.de/2018-01/powercolor-radeon-rx-vega-56-red-devil-test/3/#abschnitt_leistungsaufnahme
Du drehst dich im Kreis. Einfach nur erschreckend, dass viele immer noch nicht begriffen haben, dass AMD nur eine grobe Vorgabe gibt. Den Rest erledigen die Partner über das Powerlimit. Ist bei Nvidia übrigens auch nicht anders.
danarcho
2019-04-27, 20:12:21
Ist das dein Ernst? Bin ich hier im falschen Film?:confused:
Was denkst du was ich hier verlinkt habe? https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11980675#post11980675
Und jetzt kommst du mir großkotzig mit demselben Link. Le fuck?:freak:
Hawaii hat im Übrigen nur 2 IDs und die trennen sehr klar zwischen den Pro Chips und den Consumer Chips und man kann rein gar nicht unterscheiden, wie der Chip konfiguriert ist oder gar ablesen was für Hardware Bugs angeblich gefixed wurden, keine Ahnung wie du überhaupt darauf kommst.:confused:
huch, nvm :weg:
Hawaii wurde getrennt wegen der unterschiedlichen DP:SP cycles, damit der scheduler das berücksichtigen kann. HW-Bug ist zB das hier bei Tonga vs Fiji/Polaris, die ansonsten gleich sind: https://github.com/llvm-mirror/llvm/blob/master/lib/Target/AMDGPU/AMDGPU.td#L674
Du hast geschrieben
GFX 1000 und 1001 und 1010 sind einfach nur verschiedene Chips.
Und das ist halt einfach falsch. Es können die gleichen Chips, unterschiedlich konfiguriert sein, oder es sind jeweils mehrere Chips, geht auch. Aber vielleicht meintest du nur, dass sich nicht daraus schließen lässt, dass eins neuer/besser/revision wäre.
Unicous
2019-04-27, 20:25:37
Es müssen nicht zwangsläufig eigene Chips sein, das stimmt, gerade bei 1000 und 1001 liegt nahe, dass ähnlich wie bei Vega und Co. durch die Aktivierung von HBCC sich die ID ändert.
1000(/1001) und 1010 sind aber definitiv eigene Chips denn sie werden als Navi Lite und Navi 10 ausgeben. Und ja, ich meinte man kann aus der Nomenklatur so gut wie nichts schließen.:wink:
Das mit den HW-Bugs verstehe ich nicht. Ja die IP ist gleich/ähnlich... aber es sind doch auch verschiedene Chips? Natürlich kann und wird da ein HW-Bug dann beseitigt.
reaperrr meinte 1000 und 1010 wären das gleiche Design, letzterer sei aber eine "Revision". und das ist eben Humbug.
Das bei einem jüngeren Design "bug fixes" einfließen ist logisch, daraus zu schließen, dass das "ältere" Design, was vermutlich völlig andere Performance targets und einen anderen Aufbau hat, das "schlechtere"/verbuggte Design sei, entbehrt jeglicher Grundlage.
danarcho
2019-04-27, 20:46:37
Was an den HW-Bugs verstehst du nicht? Fiji und Polaris und Tonga sind jeweils völlig unterschiedliche Chips, aber das interessiert den Compiler überhaupt nicht. Den interessiert nur, welche ISA das Ding versteht (einschließlich möglicher kaputter Instruktionen). Wenn jetzt bei Tonga eine Instruktion kaputt ist, wird das dem Compiler durch eine andere Version klargemacht. Du kannst zB in Mesa einfach deinen Polaris-Chip auf gfx802 stellen, und es wird einwandfrei funktionieren (hat dann nur einen unnötigen Workaround).
BlacKi
2019-04-27, 20:47:26
Was für Ausnahme? Es gibt V56 Modelle die mit 332W laufen, ganz offiziell. ;)
https://www.computerbase.de/2018-01/powercolor-radeon-rx-vega-56-red-devil-test/3/#abschnitt_leistungsaufnahme
Du drehst dich im Kreis. Einfach nur erschreckend, dass viele immer noch nicht begriffen haben, dass AMD nur eine grobe Vorgabe gibt. Den Rest erledigen die Partner über das Powerlimit. Ist bei Nvidia übrigens auch nicht anders.
die leute wissen was ich meinte...
Unicous
2019-04-27, 20:56:05
Was an den HW-Bugs verstehst du nicht? Fiji und Polaris und Tonga sind jeweils völlig unterschiedliche Chips, aber das interessiert den Compiler überhaupt nicht. Den interessiert nur, welche ISA das Ding versteht (einschließlich möglicher kaputter Instruktionen). Wenn jetzt bei Tonga eine Instruktion kaputt ist, wird das dem Compiler durch eine andere Version klargemacht. Du kannst zB in Mesa einfach deinen Polaris-Chip auf gfx802 stellen, und es wird einwandfrei funktionieren (hat dann nur einen unnötigen Workaround).
Ich habe das Gefühl, du WILLST mich falsch verstehen. Genau das meinte ich doch. Die Features werden vom jeweiligen Chip bestimmt (und im Microcode/Firmware/BIOS/Treiber festgehalten), nicht von irgendeinem Codenamen.
Mr.Scott
2019-04-27, 23:03:33
Wenn man sich den 3dcenter Perf.index anschaut, lässt das nur einen Schluss zu.
Navi wird Vega 56/64 ablösen und sich im Bereich einer 1080 ansiedeln.
Alles zu einem niedrigeren Preis RX3080/279€-329€ und entsprechend effizienter
150Watt @7nm.
Grendizer
2019-04-28, 08:07:31
Hmmm das angebliche Navi Platinenfoto weckt bei mir keine Hoffnung auf etwas perfomantes unterhalb von 300 Watt.
Genau so seh ich das auch. Es läuft halt wie immer, das ist eben wieder GCN. Wenn man es schafft, die 2080 zu schlagen, dann wird man das tun, selbst wenn das Ding wieder 300W verbläst.
Ich wunder mich nur, dass man kein HBM verwendet. Da haben wohl doch die Kosten gesiegt. Kann natürlich sein, dass man das Design in 6nm weiterverwenden möchte, denn wenn NV mit 6nm um die Ecke kommt, ist das Teil wirklich nur noch midrange.
Ich denk mal das wird wo folgt aussehen:
- 64 und 56 CUs, 210 bzw, 180W ASIC
- NGG
- DXR
- 16GB schneller GDDR6
schlägt 2080, ist also 10-20% schneller als V20 in Spielen aufgrund der besseren Skalierung und vllt. besseren Taktpotenzials.
horn 12
2019-04-28, 09:49:37
Dann wäre man nur gute 10% unter einer RTX 2080TI für vielleicht 399 bis 449 Euro
wohl echt der Hammer wenn es so kommen sollte.
RTX vielleicht gar dabei und man müsste AMD den Goldenen Pokal verleihen :-)
reaperrr
2019-04-28, 09:56:00
Genau so seh ich das auch. Es läuft halt wie immer, das ist eben wieder GCN. Wenn man es schafft, die 2070 zu schlagen, dann wird man das tun, selbst wenn das Ding wieder 300W verbläst.
(...)
Ich denk mal das wird wo folgt aussehen:
- 48 und 40 CUs, 200 bzw. 150W ASIC
- NGG
- DXR
- 8GB schneller GDDR6
schlägt 2070, ist also 10-20% schneller als V10 in Spielen aufgrund der besseren Skalierung und besseren Taktpotenzials.
Fixed that for you :wink:
Ja ganz bestimmt. Damit hätte er ne schlechte Energiebilanz als V10 :freak:. Und die Konsolen haben natürlich mehr CUs als der kommende Grafikchip ;D. Realistisch wäre eine 30-40% bessere Energiebilanz als V10. V20 konnte das nicht halten, ist aber auch grundlegend die gleiche Architektur. Navi wird sicherlich mehr Nutzen aus 7nm ziehen können.
Vielleicht solltet ihr endlich mal klarbekommen, dass Navi auf die 56-64 CUs wirklich optimiert ist und zwar wegen der Konsolen, denn irgendwo müssen die ihre 10+TFLOPs auf dem Sweetspot nämlich herbekommen. Navi 10 ist das PC-"Abfall"produkt davon. Dieser Midrange-Schwachsinn geistert total hartnäckig durchs 3DCenter und ich kann beim besten Willen nicht nachvollziehen woher dieser Unsinn eigentlich kommt.
Der kleinere davon wird sicherlich ~32 CUs bringen, aber der kommt frühstens im Herbst. Der wird sicherlich auch mit 128Bit GDDR6 auskommen. AMD verwendet sicherlich überall 16Gbit-Chips, außer für OEM-Varianten und für evtl noch kleinere Navi-Auskopplungen.
Der_Korken
2019-04-28, 11:31:57
Wie soll der Navi-Chip schneller als eine 2080 werden mit weniger Bandbreite als eine V64? Ich glaube nicht an das Bandbreiteneffizienzwunder. Hätte die Platine 12 Speicherchips, hätte es ein 2080-Konkurrent sein können mit 12GB und 672GB/s. Aber bisher sieht es eher nach einem Midrange-Chip auf Steroiden aus. Vielleicht muss AMD den Verbrauch auch deswegen hochziehen, weil das Teil sonst nicht an die 2070 rankommt.
Fühlt sich komisch an, im AMD-Thread den Pessimisten zu mimen, war sonst eher anders rum ... aber dieses Platinenbild ...
a.) Wer sagt, dass AMD die Bandbreite mit Navi auch besser im Griff hat?
b.) Gibts es GDDR6 bis 18Gbps. Man wird sicherlich 16er verbauen, was geringfügig mehr als V10-Bandbreite ist. Der Salvage käme dann mit 14Gbps aus.
Der_Korken
2019-04-28, 11:45:39
Ich kann mir nicht vorstellen, dass AMD teureren Speicher verbaut als Nvidia. Das letzte Mal war afaik Cayman mit 5500Mhz vs 5000Mhz bei Fermi, danach hatten immer die Nvidia-Pendanten den teureren Speicher (dafür aber oftmals ein schmaleres Interface und weniger VRAM).
Da gibts ja auch weitere Parallelen. Ansonsten wüsste ich einfach keinen Grund der dagegen spricht. NV ist ja jetzt auch schon 3/4 Jahr am Markt mit 14Gbps. Warum sollte nicht heute 16Gbps auf den Markt kommen? Da gibts kein Hindernis.
AMD wird sicherlich den DSBR besser im Griff haben mit Navi, auch das Culling und mehr Geometrieleistung wird man eingebaut haben mit NGG v2. Von daher sehe ich auch keinen Grund, warum man hier nicht ähnliche Effizienzsprünge hinbekommt wie damals Maxwell was Bandbreite angeht. NV kommt ja auch mit 14Gbps aus. Für Konsolen ist Bandbreite ja auch wichtig.
|MatMan|
2019-04-28, 13:48:45
AMD wird sicherlich den DSBR besser im Griff haben mit Navi, auch das Culling und mehr Geometrieleistung wird man eingebaut haben mit NGG v2. Von daher sehe ich auch keinen Grund, warum man hier nicht ähnliche Effizienzsprünge hinbekommt wie damals Maxwell was Bandbreite angeht.
Keinen Grund? Eine etwas komische Formulierung. Nach der Logik hätte es auch bei Vega keinen Grund gegeben, nicht einen Maxwell-Effizienzsprung zu erreichen (Vega hat ja DSBR und NGG an Bord). War aber nicht. Soll heißen: Der ganze Kram ist wahnsinnig komplex. Es gibt sicher eine Vielzahl von Gründen, warum irgendetwas am Ende etwas nicht so läuft wie erhofft, die man aber von außen nicht sieht.
Ich hoffe auch, dass Navi endlich mal ein großer Schritt nach vorn wird! Vor allem aber, dass Perf/€ deutlich besser wird. Leicht schneller als ein nVidia Produkt zu sein, aber in etwa den gleichen Preis aufzurufen wäre für eine neue Generation mit neuer Fertigung einfach mau.
BlacKi
2019-04-28, 13:59:43
Da gibts ja auch weitere Parallelen. Ansonsten wüsste ich einfach keinen Grund der dagegen spricht. NV ist ja jetzt auch schon 3/4 Jahr am Markt mit 14Gbps. Warum sollte nicht heute 16Gbps auf den Markt kommen? Da gibts kein Hindernis.
AMD wird sicherlich den DSBR besser im Griff haben mit Navi, auch das Culling und mehr Geometrieleistung wird man eingebaut haben mit NGG v2. Von daher sehe ich auch keinen Grund, warum man hier nicht ähnliche Effizienzsprünge hinbekommt wie damals Maxwell was Bandbreite angeht. NV kommt ja auch mit 14Gbps aus. Für Konsolen ist Bandbreite ja auch wichtig.
das macht den braten nun auch nicht mehr fett ob 14gbps oder 16... das wäre dann nur weniger von zu wenig. was du da in der summe aufzählst wäre schlicht "das wunder von AMD" und stellen kein zu erwartendes szenario dar.
amdfanuwe
2019-04-28, 14:53:16
Leicht schneller als ein nVidia Produkt zu sein, aber in etwa den gleichen Preis aufzurufen wäre für eine neue Generation mit neuer Fertigung einfach mau.
Ist das denn für eine Logik?
Leicht schneller bei gleichem Preis heißt immer noch: besseres Preis/Leistungs Verhältnis. Wenn die Produktion günstiger ist, beibt halt mehr Gewinn für die Firma.
Da aber AMD darauf aus ist Marktanteile zu gewinnen, könnte ich mir schon vorstellen gute Preise vorstellen.
Schließlich tut es Nvidia mehr weh bei 70% Marktanteil die Preise senken zu müssen als AMD bei 30% Marktanteil an Gewinnen entgeht.
unl34shed
2019-04-28, 15:12:08
Aber es ist doch eine AMD Karte, die muss mindestens Strom Produzieren, dabei deutlich schneller sein als ne Nvidia und am besten bekommt man auch noch Geld von AMD wenn man sie einbaut.
amdfanuwe
2019-04-28, 15:19:08
;D
Daredevil
2019-04-28, 15:24:48
Aber es ist doch eine AMD Karte, die muss mindestens Strom Produzieren, dabei deutlich schneller sein als ne Nvidia und am besten bekommt man auch noch Geld von AMD wenn man sie einbaut.
https://abload.de/img/unbenanntvxjwc.png
https://www.bing.com/th?id=OIP.NfyQDAGyWV5JAdQVoVu8RQHaHu&w=195&h=190&c=7&o=5&pid=1.7
MadPenguin
2019-04-28, 15:27:54
Aber es ist doch eine AMD Karte, die muss mindestens Strom Produzieren, dabei deutlich schneller sein als ne Nvidia und am besten bekommt man auch noch Geld von AMD wenn man sie einbaut.
Haha. Es wurden schon Leute wegen weniger gebannt. Frevel! Du AMD Schurke! :D ich freue mich auf die erste richtige 7nm Karte für uns Mainstreamer...
Brillus
2019-04-28, 15:31:01
Keinen Grund? Eine etwas komische Formulierung. Nach der Logik hätte es auch bei Vega keinen Grund gegeben, nicht einen Maxwell-Effizienzsprung zu erreichen (Vega hat ja DSBR und NGG an Bord). War aber nicht. Soll heißen: Der ganze Kram ist wahnsinnig komplex. Es gibt sicher eine Vielzahl von Gründen, warum irgendetwas am Ende etwas nicht so läuft wie erhofft, die man aber von außen nicht sieht.
Ich hoffe auch, dass Navi endlich mal ein großer Schritt nach vorn wird! Vor allem aber, dass Perf/€ deutlich besser wird. Leicht schneller als ein nVidia Produkt zu sein, aber in etwa den gleichen Preis aufzurufen wäre für eine neue Generation mit neuer Fertigung einfach mau.
Der Preis wird so gesetzt wie es sich verkauft und runter gehen kann man immernoch.
Hakim
2019-04-28, 16:05:47
Aber es ist doch eine AMD Karte, die muss mindestens Strom Produzieren, dabei deutlich schneller sein als ne Nvidia und am besten bekommt man auch noch Geld von AMD wenn man sie einbaut.
Ganz ehrlich wenn die in etwa 2060 Perf/€ hat und dabei nicht mehr schluckt als diese und 8 GB hat, werde ich es mir holen (und bitte keine Aussetzer wie die extrem hohe Strombedarf bei Videos zu Einführung der 480), obwohl ich eher NV zugeneigt bin. Man muss keine Wunder vollbringen. Und die genannten Punkte sollten eigentlich möglich sein, geht man von neuer Architektur und 12nm vs 7nm aus.
|MatMan|
2019-04-28, 16:56:02
Ist das denn für eine Logik?
Leicht schneller bei gleichem Preis heißt immer noch: besseres Preis/Leistungs Verhältnis. Wenn die Produktion günstiger ist, beibt halt mehr Gewinn für die Firma.
Mit 10% besser oder so lockt man halt kaum einen hinterm Ofen vor. Das wäre wie bei NVIDIA mit Turing. Es muss sich mal wieder richtig was bei Perf/€ tun. Ist mir egal ob das AMD oder nVidia macht.
Entweder holt Navi die Leistungskrone oder überzeugt bei Perf/€ - so bekommt man gute Reviews (wenn AMD nicht wieder irgendwas anderes beim Launch vergeigt) und bleibt in den Köpfen der Masse hängen. Ansonsten wäre der Impact eher klein IMO. AMD braucht aber Impact zum Image aufbessern, Marke stärken, Marktanteil ausbauen und letztendlich Geld verdienen!
Edit: 2060 Perf/€ wäre mir persönlich viel zu wenig. Gibt es doch schon und die lumpigen 2GB würden es für mich nicht rausreißen. Es ist immerhin ein Fullnode-Sprung!
amdfanuwe
2019-04-28, 17:41:23
Es ist immerhin ein Fullnode-Sprung!
Der aber nicht billiger ist.
gravitationsfeld
2019-04-28, 18:42:55
Edit: 2060 Perf/€ wäre mir persönlich viel zu wenig. Gibt es doch schon und die lumpigen 2GB würden es für mich nicht rausreißen. Es ist immerhin ein Fullnode-Sprung!
Zwei.
robbitop
2019-04-28, 18:45:16
So ist es.
14/16 nm -> 10 nm -> 7 nm
Halfnodes wären 12 nm und 8 nm.
Gipsel
2019-04-28, 19:01:01
Bezeichnungen sind Schall und Rauch. Nimmt man die Packdichte her, ist es nur eine Fullnode (mit vielleicht einem etwas größeren Schritt), maximal anderthalb Nodes. TSMCs 7nm entsprechen nunmal grob nur intels 10nm.
|MatMan|
2019-04-28, 19:07:14
Der aber nicht billiger ist.
Das ist mir als Kunde doch egal. Ich kaufe das Produkt weniger nach der Technik dahinter, sondern nach den Eigenschaften. Nur weil 7nm oder HBM dran steht, wird ein Produkt nicht automatisch top, siehe Vega VII. AMD muss sich halt überlegen wie sie eine GPU entwickeln, die auch wirtschaftlich für die Masse Sinn ergibt.
Zwei.
Stimmt, hatte ich ganz vergessen weil man kaum Produkte damit sieht (dabei werkelt ein 10nm SOC in meinem Handy). Das macht es ja noch wichtiger, dass Perf/€ mal wieder signifikant steigt.
gravitationsfeld
2019-04-28, 19:28:04
Bezeichnungen sind Schall und Rauch. Nimmt man die Packdichte her, ist es nur eine Fullnode (mit vielleicht einem etwas größeren Schritt), maximal anderthalb Nodes. TSMCs 7nm entsprechen nunmal grob nur intels 10nm.
Das stimmt ueberhaupt nicht. TSMC 10nm war 2x so dicht wie TSMC 14nm. 7nm ist zwar nur 1.6x so dicht wie 10nm, aber das ist weit mehr als eine Node.
w0mbat
2019-04-28, 19:32:05
TSMCs 7nm entsprechen nunmal grob nur intels 10nm.
Intels was?
AffenJack
2019-04-28, 20:10:34
Das stimmt ueberhaupt nicht. TSMC 10nm war 2x so dicht wie TSMC 14nm. 7nm ist zwar nur 1.6x so dicht wie 10nm, aber das ist weit mehr als eine Node.
Das gilt nur für den Mobilenode, der HPC Node ist da weit von weg.
amdfanuwe
2019-04-28, 20:41:36
Das ist mir als Kunde doch egal. Ich kaufe das Produkt weniger nach der Technik dahinter, sondern nach den Eigenschaften.
Dann darfste dich als Kunde aber nicht beschweren wenn es trotz teschnischen Fortschritt kein besseres Preis/Leistungsverhältnis gibt. Dann kauft man das, was angeboten wird.
Leonidas
2019-04-28, 21:25:31
TSMCs 7nm entsprechen nunmal grob nur intels 10nm.
Intels was?
Böse! :up:
PS: 14nm zu 7nm sind faktisch zwei Fullnodes. Die Charakteristik ist nicht perfekt, aber perfekte Fullnodes werden wir sowieso nicht mehr bekommen. Als sich TSMC entschieden hat, die Roadmap zu straffen und wieder aller 2 Jahre einen Fullnode zu bringen, hat man dafür auch die 100%ige Skalierung geopfert.
|MatMan|
2019-04-28, 22:06:58
Dann darfste dich als Kunde aber nicht beschweren wenn es trotz teschnischen Fortschritt kein besseres Preis/Leistungsverhältnis gibt. Dann kauft man das, was angeboten wird.
Nein, dann kaufe ich einfach gar nicht, weil ich gleichwertiges schon habe oder ohne große Nachteile gebraucht billiger bekomme. Natürlich darf ich mich als Kunde darüber beschweren.
Willst du etwa erzählen, dass nVidia's Turing-Weg der richtige ist und AMD das auch so machen sollte? Perf/€ nur minimal verbessern und dafür die Preise an der Leistungsspitze kräftig nach oben ziehen?
IMO müsste AMD idealerweise eine eigene GTX 1070 hinbekommen -> schneller als alles der alten Generation und trotzdem etwas günstiger. Dafür ist die GTX 2080Ti wohl leider etwas zu schnell. Polaris (die 480, denn die 470 kam ja deutlich später) fand ich in Bezug auf Perf/€ auch schon unspannend, weil nicht besser als die GTX 970 oder die 380X.
w0mbat
2019-04-28, 22:53:00
Die Platine spricht eigentlich gegen alles was so bisher spekuliert wurde. 2x8-Pin, 8-Phasen-VRM, etc. spricht eher für viel Verbrauch.
Also passt entwerder die spekulierte Leistung nicht, oder die Angaben stimmen nicht. Speku war ja V56-V64 mit weniger Verbrauch. Wenn jetzt eine 2. V64 mit 300W kommt, und das mit "neuer" Architektur und in 7nm, dann kann es AMD ja gleich sein bleiben.
Das sie die Radeon VII gebracht haben sagt mir auch, dass Navi aktuell noch nicht so schnell sein wird. Wir wissen einfach immer noch gar nichts, das ist der einzige Fakt :D
BlacKi
2019-04-28, 22:55:02
wenn einer der beiden hersteller seine ware günstiger verkaufen kann um damit mehr einnahmen zu generieren oder marktverbreitung zu verbessern, dann wird er auch das tun. wenn beide nicht günstiger gehen, dann ist halt kein spielraum mehr vorhanden. dann bleibt wenigstens der wiederverkaufspreis oben.
AffenJack
2019-04-28, 23:29:10
PS: 14nm zu 7nm sind faktisch zwei Fullnodes. Die Charakteristik ist nicht perfekt, aber perfekte Fullnodes werden wir sowieso nicht mehr bekommen. Als sich TSMC entschieden hat, die Roadmap zu straffen und wieder aller 2 Jahre einen Fullnode zu bringen, hat man dafür auch die 100%ige Skalierung geopfert.
Es ist am Ende eh völlig egal, wie man es benennt. Das wichtigste ist:
In den Performance und Verbrauchscharakteristika ist 7nm vs 16nm ein deutlich kleinerer Sprung, als es 28nm zu 16nm war. Dementsprechend realitische Erwartungshaltung, so ein Sprung wie Polaris -10%.
Die Platine spricht eigentlich gegen alles was so bisher spekuliert wurde. 2x8-Pin, 8-Phasen-VRM, etc. spricht eher für viel Verbrauch.
Ist einfach ganz klar eine Prototypenplatine, egal was der Typ behauptet. Ist doch jedes mal das gleiche, dass es heißt 2x8Pin, Riesenverbrauch etc und sich am Ende herausstellt, dass es ein Devboard war.
da Vinci
2019-04-28, 23:56:11
Ist einfach ganz klar eine Prototypenplatine, egal was der Typ behauptet. Ist doch jedes mal das gleiche, dass es heißt 2x8Pin, Riesenverbrauch etc und sich am Ende herausstellt, dass es ein Devboard war.
Könnte das Teil auch ein Board für ein DevKit der kommenden Konsolen sein?
amdfanuwe
2019-04-29, 02:30:43
Das sie die Radeon VII gebracht haben sagt mir auch, dass Navi aktuell noch nicht so schnell sein wird.
Das sie die Radeon VII gebracht haben sagt mir lediglich, dass sie genügend MI50 übrig hatten und die Möglichkeit sahen mit diesen im Consumerbereich zusätzlich zu verdienen. Ich seh die Radeon VII auch nicht in Konkurrenz zu Navi.
Mit den 16GB und 1/4 DP dürfte sie selbst bei einer schnelleren Navi noch ihre Nische finden.
Wir wissen einfach immer noch gar nichts, das ist der einzige Fakt :D
Bin ich ganz bei dir.
gravitationsfeld
2019-04-29, 03:26:16
Es ist am Ende eh völlig egal, wie man es benennt. Das wichtigste ist:
In den Performance und Verbrauchscharakteristika ist 7nm vs 16nm ein deutlich kleinerer Sprung, als es 28nm zu 16nm war.
Quelle?
AffenJack
2019-04-29, 06:36:50
Quelle?
TSMC, siehe https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm (https://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm)
Es ist laut deren Marketing, wenn man den Sprung selber ausrechnet, da nur jeweils 1 Nodevergleich auf TSMCs webseite steht:
20nm vs 28nm
Perf/Transistor 1,15x
Power reduction/Transistor bei gleichen Takt 33%
16nm vs 20nm
Perf/Transistor 1,5x
Power reduction/Transistor bei gleichen Takt 60%
10nm vs 16nm
Perf/Transistor 1,15x
Power reduction/Transistor bei gleichen Takt 35%
7nm vs 10nm
Perf/Transistor 1,2x
Power reduction/Transistor bei gleichen Takt 40%
Kommuliert:
16nm vs 28nm
Perf/Transistor 1,725x
Power reduction/Transistor bei gleichen Takt 73%
7nm vs 16nm
Perf/Transistor 1,38x
Power reduction/Transistor bei gleichen Takt 61%
10nm ist praktisch das gleiche was 20nm war, während bei 16nm der Sprung deutlich größer ist als bei 7nm. Klar 7nm bringt im Vergleich zu 16nm auch einen Densitysprung, der ist aber alleine schon nötig, damit man sich die Waferkosten in 7nm überhaupt noch leisten kann.
mboeller
2019-04-29, 07:11:23
7nm vs 16nm
Perf/Transistor 1,38x
Power reduction/Transistor bei gleichen Takt 61%
10nm ist praktisch das gleiche was 20nm war, während bei 16nm der Sprung deutlich größer ist als bei 7nm. Klar 7nm bringt im Vergleich zu 16nm auch einen Densitysprung, der ist aber alleine schon nötig, damit man sich die Waferkosten in 7nm überhaupt noch leisten kann.
Hast du dafür den "mobile" Prozess als Basis genommen, oder den HPC-Prozess?
Beim HPC Prozess soll ja die Flächenreduktion nur Faktor 2 sein, beim "mobile-Prozess" aber fast 70% (1.6 x 2 logic density). Davon hängt es wahrscheinlich ab, was günstiger ist. Eine GPU mit weniger Takt, dafür aber mit ca. 50% mehr Ausführungseinheiten sollte im "mobile-Prozess" wohl trotzdem weniger verbrauchen und könnte auch günstiger sein (bei gleicher oder geringerer Die-Area).
EDIT: deshalb kann man sehr wahrscheinlich auch nicht von Vega VII auf Navi schließen, da wir ja nicht wissen mit welchen Libraries Navi designed wurde und gefertigt wird.
basix
2019-04-29, 07:13:06
Ist einfach ganz klar eine Prototypenplatine, egal was der Typ behauptet. Ist doch jedes mal das gleiche, dass es heißt 2x8Pin, Riesenverbrauch etc und sich am Ende herausstellt, dass es ein Devboard war.
Da verrate mir doch bitte mal, wieso das GPU-Package ein gutes Stück grösser zu sein scheint als das von TU104. Dort ist der Chip >500mm2. Das macht keinen Sinn. Würde ich nur das PCB kennen und die Gerüchte zu einem kleinen Navi Chip nicht, würde ich auf einen relativ grossen Chip tippen.
Was es sein könnte: Keine Ahnung.
Zossel
2019-04-29, 07:30:15
Da verrate mir doch bitte mal, wieso das GPU-Package ein gutes Stück grösser zu sein scheint als das von TU104.
Pins brauchen auch Fläche.
gravitationsfeld
2019-04-29, 07:32:42
Power ist viel wichtiger fuer GPUs als Transistor-Perf.
dildo4u
2019-04-29, 08:13:19
Wie soll der Navi-Chip schneller als eine 2080 werden mit weniger Bandbreite als eine V64? Ich glaube nicht an das Bandbreiteneffizienzwunder. Hätte die Platine 12 Speicherchips, hätte es ein 2080-Konkurrent sein können mit 12GB und 672GB/s. Aber bisher sieht es eher nach einem Midrange-Chip auf Steroiden aus. Vielleicht muss AMD den Verbrauch auch deswegen hochziehen, weil das Teil sonst nicht an die 2070 rankommt.
Fühlt sich komisch an, im AMD-Thread den Pessimisten zu mimen, war sonst eher anders rum ... aber dieses Platinenbild ...
Natürlich ist sie nicht auf 2080 Level,das schafft nicht mal die Radeon 7.Die Gerüchte zu Navi waren immer 1080 Performance für ein billigen Preis.
Sie brauchen was im Bereich der 2060/2070 mit einem kleineren Chip als die aktuellen Vegas.DF Spekuliert 48 CU@230mm was winzig wäre gegen eine 2070.(445mm)
https://www.eurogamer.net/articles/digitalfoundry-2019-amd-navi-next-gen-graphics-pcb-leak
Die zwei mal 8 Pin wird man einfach für den 1.8Ghz Boost brauchen,wie bei der Radeon 7 werden die Karten auf ihren Pascal Gegner ausgerichtet geworden sein,die 2070 ist aber ein bissel schneller als GTX 1080.
Und damit muss Navi wie Radeon 7 am absoluten Limit laufen.
robbitop
2019-04-29, 08:13:39
Bezeichnungen sind Schall und Rauch. Nimmt man die Packdichte her, ist es nur eine Fullnode (mit vielleicht einem etwas größeren Schritt), maximal anderthalb Nodes. TSMCs 7nm entsprechen nunmal grob nur intels 10nm.
Rein auf TSMC bezogen sind es zwei full nodes. NV und AMD haben ja nicht bei Intel fertigen lassen sondern bei tsmc, Entsprechend kommt man von tsmcs 14/16nm zu deren 7nm.
Der Versatz zwischen Intel und TSMC kommt historisch vom 16nm Prozess, der ja vereinfacht gesagt ein 20 nm finfet Prozess war. Entsprechend ist 7nm innerhalb tsmc 2x fullnodes.
———-
Bzgl der Per Steigerung von 16 nm. Finfets brachten in der Hinsicht halt enorm viel. Hinzufügen kann man die aber nur 1x. Die haben mit einem Shrink selbst aber nur indirekt zu tun. Insofern ist der Perf Steigerungsvergleich von 28->16nm verglichen mit 16->7nm durch diesen Einfluss eingefärbt.
Gipsel
2019-04-29, 09:25:34
Traditionell werden Nodes über die Transistor-/Zellgröße bzw. die Packdichte definiert. Und da bieten 7nm eben nur einen Fullnodesprung (also 2x, mit ein paar Tricks vielleicht etwas mehr), wenn man bei HP-Libraries bleibt, aber nie und nimmer 4x (2 Full Nodes). Damit zu argumentieren, TSMC hätte die 2x-Skalierung aufgegeben, um alle zwei Jahre eine neue Node zu bringen, bedeutet nichts Anderes, als daß TSMC schlicht keine Full Node Sprünge anbietet und das eher bessere Half Nodes sind (oder 60% Nodes, whatever). ;)
robbitop
2019-04-29, 09:27:41
Dann gibt es aber noch viertel nodes (12nm/8nm/6nm). ;)
Leonidas
2019-04-29, 09:47:03
10nm ist praktisch das gleiche was 20nm war, während bei 16nm der Sprung deutlich größer ist als bei 7nm. Klar 7nm bringt im Vergleich zu 16nm auch einen Densitysprung, der ist aber alleine schon nötig, damit man sich die Waferkosten in 7nm überhaupt noch leisten kann.
Da muß man dem Affenjack Respekt zollen. Alles gut belegt und daher nicht so einfach abweisbar. Es gibt eben mehr Argumente als nur die Density.
Power ist viel wichtiger fuer GPUs als Transistor-Perf.
Das ist nämlich der entscheidende Punkt. Ohne besseres Verhältnis von Watt pro Transistor bewegt sich bei GPUs gar nix.
mironicus
2019-04-29, 11:47:19
Bei den 7 nm-GPUs von AMD habe ich wieder das ungute Gefühl, dass sie die kleinen Chips wieder auf maximale Last prügeln.
Sollte das geleakte PCB-Design tatsächlich für Navi sein, dann wird das kein Polaris-Nachfolger sein, sondern ein Vega-Nachfolger und dann ist die Radeon 7 bereits Geschichte.
Nightspider
2019-04-29, 12:24:24
Wie viele Chips sollen es denn nun werden? Zwei oder nur einer? Gibts da Handfestes?
basix
2019-04-29, 12:32:43
Pins brauchen auch Fläche.
Richtig. Nur wieso braucht ein kleiner AMD Chip mehr Pins als ein grosser Nvidia Chip? Speicherinterface ist identisch, kein NVLink, ein kleiner Chip benötigt weniger Power-Pins usw. Ich würde also weniger Pins erwarten.
Aber ich habe vorhin irgendwo gelesen dass das Polaris 10 Package 40x40mm gross sein soll. Da GDDR6 10 Pins mehr pro Package benötigt als GDDR5 könnte es also auch mit einem kleinen Chip passen.
Wie viele Chips sollen es denn nun werden? Zwei oder nur einer? Gibts da Handfestes?
Wahrscheinlich 3 und nein.
Schnitzl
2019-04-29, 13:28:34
Wahrscheinlich 3 und nein.
das hoffe ich auch.
ein midrange auf Vega-Niveau, ein Highend die Vega gut hinter sich läst und ein kleiner der 570/580 ersetzt.
AMD kanns anders (langsamer) machen, aber dann ists halt scheisse.
alles imho natürlich
amdfanuwe
2019-04-29, 13:36:57
Wahrscheinlich 3 und nein.
Wobei ich annehme, das 2 erst später kommen.
1.Erst mal Abverkauf Polaris für 100 - 200€, später ersetzt durch kleinen Navi.
2.demnächst Navi Mainstream für 200+€ ersetzt Vega
3.Big Navi Anfang 2020.
Nosferatu1
2019-04-29, 13:43:14
Scheisse habe ein Problem welche karte soll ich mir kaufen lohnt es sich auf navi zu warten? mit ner überbrückungs rx570? oder gleich ne vega 64 für 300 ocken, oder gtx 1080 für 340. gerade sehr gute angebote.....weis nicht ob ich warten soll oder nicht. Navi soll ja nur polaris ablösen deswegen bezweifler ich das sie schneller wird wie ne vega 64, aber kann ja lles sein. hmhm
Schnitzl
2019-04-29, 13:46:55
wenn die alten Karten günstiger werden dann sicher nicht ohne Grund ;)
amdfanuwe
2019-04-29, 13:56:53
ne vega 64 für 300 ocken, oder gtx 1080 für 340. gerade sehr gute angebote....
Wo gibt es denn die Preise? Bei Ebay?
Nosferatu1
2019-04-29, 14:14:36
alternate outlet immer wieder mal
amdfanuwe
2019-04-29, 14:15:10
wenn die alten Karten günstiger werden dann sicher nicht ohne Grund ;)
Mit der 1660 und 2060 hat Nvidia den Preispunkt schon etwas runtergesetzt. Da muß AMD halt auch erstmal runtergehen um wenigstens Preis/Leistungsmäßig noch dabei zu sein.
Daher 570 8GB ab 130€
580 < 200€
Vega 56 ab 270€
Mal sehen, ob Navi da noch was aufmischt oder sich Preis/Leistungsmäßig brav einsortiert.
Wobei ich annehme, das 2 erst später kommen.
1.Erst mal Abverkauf Polaris für 100 - 200€, später ersetzt durch kleinen Navi.
2.demnächst Navi Mainstream für 200+€ ersetzt Vega
3.Big Navi Anfang 2020.
Die starten mit dem Großen, wie immer. Der ersetzt V20, was AMD massiv Kosten spart und irgendwo bei 2070/80 zuhause ist. Also erst N10, dann einen potenziellen N11 zu einem unbekannten Zeitpunkt, wahrscheinlich aber eher früher als später, der V10 und P10 ersetzt und zwischen 2060 und 1660 zuhause ist und später im Jahr dann eine kleine Variante für den Mainstreammarkt so <1650. Darunter bleibt man eh bei P11/12. Besseres Powerverhalten als Turing braucht man trotz 7nm sicher nicht erwarten, AMD wird wie immer die Fläche bevorzugen und es ist eben nach wie vor GCN, auch wenn das Featuretechnisch komplett neu aufgestellt wurde.
Der interessanteste Faktor ist aber die Effizienz. Wie konnte AMD das Auslastungsproblem angehen? Welchen Einfluss hatte Sony auf die Entwicklung wirklich und wie siehts mit der Software aus? Wie wirkt sich NGG in klassischen Geometry- und Vertexshader aus und wie bei direkter Programmierung? Das sind alles Fragen, die erst Tests beantworten können. Im schlechtesten Falle ist das halt nur ein billigerer Vega-Ersatz im besten Falle erreicht man die 2080 mit RT.
amdfanuwe
2019-04-29, 14:42:56
alternate outlet immer wieder mal
AH, OK, danke, die hatte ich noch nicht auf dem Schirm. Ich orientiere mich eher bei Geizhals oder MF.
Also, wenn ich jetzt eine Karte benötigte würde ich entweder etwas meinem Geldbeutel entsprechendes kaufen und damit wieder ein paar Jahre zufrieden sein oder wie du vorschlägst eine 570 für ~140€ zur Überbrückung und erst mal abwarten, wie sich das mit Navi im Herbst noch entwickelt.
Navi wird Polaris vom Segment her ablösen, also 200 - 400€ Bereich, aber in der Leistung doch eher auf Vega Niveau liegen.
Bei der 480 damals wollte ich zuerst noch auf Custom warten, hab dann aber glücklicherweise die Reference noch günstig eingekauft.
Kurz darauf gingen die Preise hoch weil Custom Designs teurer waren und die Reference nicht mehr verfügbar war. Dann ging der Mining Boom los und es gab nichts mehr zu vernünftigen Preisen.
amdfanuwe
2019-04-29, 15:05:10
Der ersetzt V20, was AMD massiv Kosten spart und irgendwo bei 2070/80 zuhause ist. Also erst N10, dann einen potenziellen N11 zu einem unbekannten Zeitpunkt, wahrscheinlich aber eher früher als später, der V10 und P10 ersetzt und zwischen 2060 und 1660 zuhause ist und später im Jahr dann eine kleine Variante für den Mainstreammarkt so <1650. Darunter bleibt man eh bei P11/12.
Wieso würde ein ersetzen der V20 Kosten sparen? Wenn die MI50 nicht genügend absatz findet schmeißen sie die Chips weg? Da ist es günstiger die V20 als Sonderlösung mit 16GB und 1/4 DP im Customer Bereich weiterzuführen.
Und N11 soll V10 und P10 ersetzen? Vielleicht P10 als ehemaliger Mainstream Chip mit V10 Leistung. dann kann man das stehen lassen. Dann machen wir aber ein zwischen 2070 und 1660Ti daraus.
'Mainstreammarkt so <1650' Du definierst als Mainstream den Bereich < 150€?
Da hab ich andere Vorstellungen. Die meisten Karten verkaufen sich eher im Bereich 200 - 350€. Das wäre für mich Mainstream.
Zudem tummelt sich in diesem Bereich grad P10. Wäre also der kleine Navi die Ablösung für P10 und nicht N11.
Wieso der bleibt doch auf dem Markt, aber eben nur für Prosumer. Das ist offensichtlich ein Nachfolger für die FE. Das war nicht ganz richtig formuliert, das spart halt massiv Kosten, wenn man einen entsprechenden Absatz hätte :D. Anders herum gesagt, erst mit Navi wird man überhaupt signifikante Mengen neuer GPUs verkaufen. V20 kam wie die FE ausschließlich als Referenzdesign und zielt mit dem Release von Navi10 einfach auf einen anderen Markt ab. Man hat ja die FE auch nicht wieder vom Markt genommen, als die RX kam.
Man spart aber die ganzen HBM-Sachen ein, wenn V20 und V10 vom Consumermarkt fliegen. Und leg das nicht so auf die Goldwaage. P10 und V10 sind halt die Performance bis High-End-Sachen bisher gewesen. die werden eben durch nur einen Chip substituiert, der den kompletten Performancemarkt ersetzen wird, die Einordnung verschiebt sich da doch etwas. Dafür werden sicherlich 32-40 CUs mit ordentlich Takt reichen. Man wird damit nicht V64-Leistung erreichen, das soll der auch gar nicht. Das ist halt nur ne grobe Einordnung.
Man wird TDP und Takt an den NV-GPUs orientieren bei Navi. Man wird versuchen, mit N10 2070-80 abzudecken, mit N11 1660-2060 und mit N12 eben darunter. Interessant sind eben die Speichermengen und ob DXR mit an Bord ist.
Und Mainstream endet mMn bei 150€. Mit Turing kann man da bis 200€ sagen, die Preise sind im Durchschnitt gestiegen. Da wird der mittlere Navi mMn schon über 200€ landen. 450-650€ -> 250-350€ -> 100-150 € für die neuen Chips wird die preisliche Marschroute sein. Darunter bleibt halt Polaris 12 und die ganzen APUs.
amdfanuwe
2019-04-29, 16:00:43
450-650€ -> 250-350€ -> 100-150 €
Da bin ich bei dir. Laufen unsere Gedanken doch in die gleiche Richtung.
Schnitzl
2019-04-29, 16:24:23
Mit der 1660 und 2060 hat Nvidia den Preispunkt schon etwas runtergesetzt. Da muß AMD halt auch erstmal runtergehen um wenigstens Preis/Leistungsmäßig noch dabei zu sein.
Daher 570 8GB ab 130€
580 < 200€
Vega 56 ab 270€
Mal sehen, ob Navi da noch was aufmischt oder sich Preis/Leistungsmäßig brav einsortiert.
ich meinte eher Preissenkungen bevor die Neuen rauskommen bzw. solche Dinge um die Lager zu leeren:
https://www.computerbase.de/2019-04/50-jahre-amd-rx-590-sonderedition-spiele-bundle/
Früher gabs oft die Dual-Chip-Karte kurz bevor was neues rauskam...
Das heisst zwar jetzt nicht dass Navi alles plattmacht aber die Hoffnung stirbt zuletzt ;)
Irgendwie bezweifle ich, dass da noch großartig Lager geleert werden müssen. Polaris wird eh schon verschleudert und mit Vega wird man kaum Lager vollgemacht haben.
Daredevil
2019-04-29, 16:40:51
Die RX590 ist aber halt auch noch kein halbes Jahr alt.
Ich tippe mal, wir sehen zuerst eher ein 2070er Modell in Navi Form.
Radeon 7 > 2080
Radeon 5 ( Navi ) > 2070
Radeon 3 ( RX590 ) > 2060
Alle Modelle zwar ~10% unter der Konkurrenz, dafür aber deutlich günstiger.
Ne RX590 gibts ja auch schon für 200€, die RX570 8GB ist für 130€ ja Konkurrenzlos gut.
Weitere Gerüchte zu Navi10 lite.
Diese bestätigen sich die 56CUs, also real sicher 64 (Konsolen salvagen immer). Hardware RT ist mit an Board und 12,9 TFLOPs ist ne echte Wucht. Ich weiss nicht, wie man die 1,8GHz realisieren will, das Teil muss satt Strom verbrauchen.
http://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/Neuer-angeblicher-Leak-nennt-weitere-Details-zur-Hardware-1280822/
Allerdings muss man sicherlich erwähnen, dass die Konsole sicherlich in 7 EUV oder 7 LPP produziert wird, während Desktop-Navi in 7 DUV vom Stapel läuft.
amdfanuwe
2019-04-29, 17:07:54
Alle Modelle zwar ~10% unter der Konkurrenz, dafür aber deutlich günstiger.
Bei 10% unter der Konkurrenz kannst du auch direkt die nächst kleinere Karte von Nvidia angeben. Die belegen ja alle 10% Leistungsplus mit einer eigenen Karte.
Daredevil
2019-04-29, 17:10:10
Bei 10% unter der Konkurrenz kannst du auch direkt die nächst kleinere Karte von Nvidia angeben. Die belegen ja alle 10% Leistungsplus mit einer eigenen Karte.
Wut?
2060 > 2070 > 2080 > 2080ti sind doch alles um die 20-30%.
RX590 > Vega 56 > Radeon VII machen es doch gleich in etwa.
Edit: Achso meinst du das....... ja, das geht natürlich auch.
Dann muss eine Radeon VII halt soviel kosten wie eine 2070, was sie nun mal nicht tut. Ein 2060 Konkurrent wird halt auch kaum für Polaris Preise rausgehen.
amdfanuwe
2019-04-29, 17:14:53
und 12,9 TFLOPs ist ne echte Wucht.
Entspricht ~Vega64 Leistung. Dazu ein auf 7nm optimiertes Design und kein zusätzlicher HPC Klumpatch, da sollte der Verbrauch schon deutlich unter 200W bleiben.
Ist das zuviel für Konsole? Kenn mich da nicht aus.
amdfanuwe
2019-04-29, 17:32:59
Wut?
2060 > 2070 > 2080 > 2080ti sind doch alles um die 20-30%.
Guck ich hier https://www.computerbase.de/thema/grafikkarte/rangliste/ Performancerating Full HD komm ich auf:
1660 - 1660Ti +14%
1660Ti- 2060 +16%
2060 - 2070 +14%
2070 - 2080 +22%
2080 - 2080Ti +16%
Also 30% seh ich da nirgend.
Radeon590 - V56 +35%
V56 - V64 +12%
V64 - Radeon VII +14%
Zwischen 590 und V56 hat AMD eine große Lücke. Da hat Nvidia mal die 1660 und 1660TI untergebracht.
Daredevil
2019-04-29, 17:51:23
FullHD ist aber auch zum Teil CPU limitiert, das siehst du stark, wenn man die Auflösung aufdreht.
Wo Vega64 und Radeon VII in FullHD noch 14% sind, so sind es in UHD schon 25%.
Das gleiche Spiel kannst du auch mit der 2070/2080/2080ti spielen.
Die 2060 ist allerdings sehr nah an der 2070, das stimmt wohl. Aber 6GB ist da halt der "versteckte" Mangel.
RitterRost
2019-04-29, 17:53:57
Weitere Gerüchte zu Navi10 lite.
Diese bestätigen sich die 56CUs, also real sicher 64 (Konsolen salvagen immer). Hardware RT ist mit an Board und 12,9 TFLOPs ist ne echte Wucht. Ich weiss nicht, wie man die 1,8GHz realisieren will, das Teil muss satt Strom verbrauchen.
http://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/Neuer-angeblicher-Leak-nennt-weitere-Details-zur-Hardware-1280822/
Allerdings muss man sicherlich erwähnen, dass die Konsole sicherlich in 7 EUV oder 7 LPP produziert wird, während Desktop-Navi in 7 DUV vom Stapel läuft.
Was bedeutet das für das Gerücht, dass die neue XBox "wesentlich" leistungsfähiger sein soll? Nvidia Hardware?
Wenn die PS5 schon bei 1,8GHz ist...
Jedenfalls könnten die Dev-Kits diese 2x8Pin Platinen gebraucht haben. In der Endversion dann hoffentlich sparsamer (7nm+ oder 6 oder 5?)
basix
2019-04-29, 18:16:40
Weitere Gerüchte zu Navi10 lite.
Diese bestätigen sich die 56CUs, also real sicher 64 (Konsolen salvagen immer). Hardware RT ist mit an Board und 12,9 TFLOPs ist ne echte Wucht. Ich weiss nicht, wie man die 1,8GHz realisieren will, das Teil muss satt Strom verbrauchen.
Mehr als 100W darf die GPU für sich nicht verbrauchen, wenn man im selben Power Budget bleiben will. Nimmt man noch Speicher, CPU, Spannungswandler, HDD und allenfalls das Netzteil usw. dazu ist man bei PS4 Pro Stromverbrauch (ca. 150W).
Was bedeutet das für das Gerücht, dass die neue XBox "wesentlich" leistungsfähiger sein soll? Nvidia Hardware?
Wenn die PS5 schon bei 1,8GHz ist...
Jedenfalls könnten die Dev-Kits diese 2x8Pin Platinen gebraucht haben. In der Endversion dann hoffentlich sparsamer (7nm+ oder 6 oder 5?)
Kein Navi sondern Arcturus? Oder die Info ist halt einfach eine Ente.
w0mbat
2019-04-29, 18:18:40
Nvidia kann doch gar nichts anbieten.
RitterRost
2019-04-29, 18:29:29
Nvidia kann doch gar nichts anbieten.
Mir würden da
* bessere GPU Performance seit Jahren
* besseres Perf/Watt seit Jahren
einfallen.
Nintendo haben sie auch ne GPU gebaut. Warum nicht Microsoft?
w0mbat
2019-04-29, 18:33:17
Was für ein konsolen SoC soll Nvidia denn herstellen? Mit welcher CPU?
Welche Nvidia-Konsolen-GPU ist schneller und hat einer besser Pef/W?
Daredevil
2019-04-29, 18:37:16
Auch wenn Nvidia wohl weit hergeholt ist.... never say never. :D
Stadia setzt auch nicht auf eine AMD APU, sondern auf Intel+AMD.
Genauso kann Microsoft auch auf Intel+Nvidia setzen. Ist ja jetzt nicht so, als würden Intel+Nvidia das geil finden, dass AMD hier den Markt alleine beherrscht.
Ich würde mal die kühne Behauptung aufstellen, dass Nvidia in 7nm mehr reißen kann, einfach nur wegen den optimaleren Bedingungen als Firma.
w0mbat
2019-04-29, 19:04:37
Ich bin mir sicher, dass Nvidia mehr reißen kann. Nvidia an sich ist ja schon größer als AMD mit CPU+GPU.
dargo
2019-04-29, 19:10:21
Mir würden da
* bessere GPU Performance seit Jahren
* besseres Perf/Watt seit Jahren
einfallen.
PC-Umgebung ungleich Konsolenumgebung.
RitterRost
2019-04-29, 19:23:01
Was für ein konsolen SoC soll Nvidia denn herstellen? Mit welcher CPU?
Welche Nvidia-Konsolen-GPU ist schneller und hat eine bessere Perf/W?
1. Welche AMD-Konsolen-GPU ist schneller und hat eine bessere Perf/W (als die aktuellen AMD Sachen)?
Demzufolge hat ja auch AMD nichts anzubieten ... ?
2. https://www.phoronix.com/scan.php?page=article&item=nvidia-jetson-xavier&num=1
Für ihren "autonomes Fahren" Kram hat Nvidia z.B. nen aktuellen ARM 8-Kerner.
Das verkaufen die bereits - muss also noch nicht das Ende der Fahnenstange sein.
Ob eine Konsole wirklich mehr CPU Leistung braucht, weiß ich nicht. Wenn es um TFLOPs und Grafikleistung geht, will doch wohl niemand anzweifeln, dass Nvidia das liefern kann, oder?
Ich könnte mir vorstellen, dass AMD billiger ist, aber für Nintendo scheint es ja auch mit Nvidia Hardware zu funktionieren.
Um zum Ausgangspunkt zurück zu kommen.
Wie könnte die nächste XBox "signifikant" schneller sein, als die angebliche 1,8GHz Navi + 8Zen2@3,2GHz PS5?
16 Kerne?
2 Navis im Crossfire?
Naja, mal sehen, wann Microsoft anfängt zu leaken :-)
Mir würden da
* bessere GPU Performance seit Jahren
* besseres Perf/Watt seit Jahren
einfallen.
Nintendo haben sie auch ne GPU gebaut. Warum nicht Microsoft?
Peak Performance interessiert aber nicht. Eine Konsole hat niemals die Leistung einer High-End dGPU. Perf/Watt ist im Sweetspot bei passender Software, was bei Konsolen der Fall ist, auch nicht viel besser, wenn ueberhaupt.
Die haben auch nichts fuer Nintendo gebaut, sondern Nintendo hat die Tegras von Nvidia gekauft.
Für ihren "autonomes Fahren" Kram hat Nvidia z.B. nen aktuellen ARM 8-Kerner.
Ja. Und mit LPDDR4 hat das Ding weniger Bandbreite als die PS4. Das ist ein 30 W SoC, das hat mit einer next-gen Konsole halt ueberhaupt gar nichts zu tun, sofern sie nicht nur streamen soll.
Ob eine Konsole wirklich mehr CPU Leistung braucht, weiß ich nicht. Wenn es um TFLOPs und Grafikleistung geht, will doch wohl niemand anzweifeln, dass Nvidia das liefern kann, oder?
Ich könnte mir vorstellen, dass AMD billiger ist, aber für Nintendo scheint es ja auch mit Nvidia Hardware zu funktionieren.
Das sie eine GPU liefern koennten zweifelt auch keiner an. Aber eine GPU alleine bringt fuer eine Konsole halt nichts. Und Nvidia ist viel zu teuer und nicht an semi-custom interessiert. Wenn sie nicht einen harten Strategiewechsel durchfuehren, wovon nichts zu sehen ist, gibt es diese Moeglichkeit schlicht nicht.
Dass die Xbox "wesentlich" schneller sein soll, laesst ueberhaupt keinen Schluss auf Nvidia zu. Die aktuelle Xbox ist in der Theorie auch wesentlich schneller als die PS, interessiert aber keinen. Mit fast 50% auf GPU-Seite entspricht das irgendwie grob dem Verhaeltnis Polaris10/20 zu Vega10, was man nun durchaus als "wesentlich" bezeichnen kann.
basix
2019-04-29, 19:45:54
AMDs GPUs sind ja effizient, wenn man sie denn effizient betreibt. Turing oder Nachfolger kommt sicher nicht, braucht viel zu viel Die-Fläche welcher kein Konsolenhersteller zahlen will und Nvidia ist auch sonst nicht dafür bekannt, niedrige Preise zu verlangen ;)
Und die Konsolenhersteller haben wohl auch gerne die einiges offenere Politik was technische Dokumentation der GPUs anbelangt. Nvidia will am liebsten alles um ihren Treiber als closed Source haben, was weniger gut ist für Konsolen-Treiber / Compiler.
Sag niemals nie, aber es liegt deutlich näher am nie.
Daredevil
2019-04-29, 19:54:24
Wie könnte die nächste XBox "signifikant" schneller sein, als die angebliche 1,8GHz Navi + 8Zen2@3,2GHz PS5?
16 Kerne?
2 Navis im Crossfire?
Dedizierte Raytracing Hardware z.B., ganz egal von wem.
AMD muss Sony und Microsoft ja nicht das gleiche anbieten, die bauen ja nur im Auftrag und AMD liefert. Wenn Hersteller A aber ne ganz andere Secret Sauce haben will als Hersteller B, wird halt was gebastelt.
mr coffee
2019-04-30, 08:43:47
Na evtl. mehr CUs, aber auch schon bessere Kühlung / höherer Takt, schnellerer Speicher bei etwas höherem Verkaufspreis könnten einen guten Unterschied machen.
1. Welche AMD-Konsolen-GPU ist schneller und hat eine bessere Perf/W (als die aktuellen AMD Sachen)?
Demzufolge hat ja auch AMD nichts anzubieten ... ?
2. https://www.phoronix.com/scan.php?page=article&item=nvidia-jetson-xavier&num=1
Für ihren "autonomes Fahren" Kram hat Nvidia z.B. nen aktuellen ARM 8-Kerner.
Das verkaufen die bereits - muss also noch nicht das Ende der Fahnenstange sein.
Ob eine Konsole wirklich mehr CPU Leistung braucht, weiß ich nicht. Wenn es um TFLOPs und Grafikleistung geht, will doch wohl niemand anzweifeln, dass Nvidia das liefern kann, oder?
Ich könnte mir vorstellen, dass AMD billiger ist, aber für Nintendo scheint es ja auch mit Nvidia Hardware zu funktionieren.
Um zum Ausgangspunkt zurück zu kommen.
Wie könnte die nächste XBox "signifikant" schneller sein, als die angebliche 1,8GHz Navi + 8Zen2@3,2GHz PS5?
16 Kerne?
2 Navis im Crossfire?
Naja, mal sehen, wann Microsoft anfängt zu leaken :-)
Kein Navi mehr. Immerhin kam die letzte XBox auch mehr als ein Jahr später als die PS4 Pro. Wenn die erst gegen Ende 2021 kommt, wird man schon auf die neue Architektur und 5 oder 6nm setzen.
I.Ü. hatte Microsoft doch schon bestätigt, dass sie auch bei der nächsten Generation mit AMD arbeiten IIRC.
Boah ihr immer mit euren Performance Index Vergleichen. Da ist doch noch der ganze alte dx11 Rotz drinn, interessiert doch heute keinen mehr, vorallem bei einer neuen GPU Generation.
Schnitzl
2019-04-30, 10:30:14
Irgendwie bezweifle ich, dass da noch großartig Lager geleert werden müssen. Polaris wird eh schon verschleudert und mit Vega wird man kaum Lager vollgemacht haben.
wer weiss?
Oder man will im Gespräch bleiben.
Oder beides?
Was bedeutet das für das Gerücht, dass die neue XBox "wesentlich" leistungsfähiger sein soll? (...)
Nichts?
imho: von der PS5 wurden "Daten" geleakt, MS "musste" antworten so einfach ist das.
Natürlich können Sie nicht sagen "wir sind genauso schnell" ... nein man muss besser sein.
;)
Complicated
2019-04-30, 11:11:18
Auch wenn Nvidia wohl weit hergeholt ist.... never say never. :D
Stadia setzt auch nicht auf eine AMD APU, sondern auf Intel+AMD.
Genauso kann Microsoft auch auf Intel+Nvidia setzen. Ist ja jetzt nicht so, als würden Intel+Nvidia das geil finden, dass AMD hier den Markt alleine beherrscht.
Nvidias Problem bei Sachen wie Stadia ist nicht deren GPU-Leistung.
Unternehmen wie Goolge und MS versuchen sich aus der Intel-Abhängigkeit zu befreien, nicht wegen der CPUs, sondern wegen der Anbindung, den Interconnects. Dort herrscht immer schon die Gefahr eines geschlossenen Ökosystems und dann einer Abhängigkeit. Eine Unternehmensstrategie, welche sowohl Intel als auch Nvidia fahren.
Hier hat Intel Nvidia ganz klar ausgeschlossen (beginnend mit den Chipsatz-Klagen 2009 (https://www.heise.de/newsticker/meldung/Intel-verklagt-Nvidia-wegen-Chipsatz-Lizenzen-198069.html) und dem dann abgeschlossenen Lizenzabkommen bei der Einigung 2011. Grundlage des raus drängen von Nvidia aus dem Chipsatzgeschäft war die PCIe-Anbindung.
Nvidia hat daraufhin NVlink entwickelt, jedoch hat Intel dies nicht übernommen, da Sie Ihr eigenes Ökosystem pushen wollen. So bleiben derzeit für Nvidia nur IBM-CPUs zum schnellen anbinden, um etwas wie Stadia umzusetzen. Doch weder Google noch MS setzen auf IBM.
Die großen wollen bei den Servern Interconnects mit offenen Standards wenn möglich, um bei der Entwicklung selber größeren Einfluss zu haben und weniger Abhängigkeit zu haben. Die Kombination von zwei Herstellern, die sich auf die Fahne geschriebenen haben mit proprietären Ökosystemen ihren Gewinn zu maximieren kann nicht funktionieren, daher sind weder Intel noch Nvidia daran interessiert und das wirkt sich dann auch auf die Kunden aus. Diese bekommen ein offenes Ökosystem mit AMD, dort wo sie es brauchen.
Nightspider
2019-04-30, 11:15:16
Leute es ist total blödsinnig hier über die nächste Xbox und Nvidia als Kandidaten zu diskutieren.
Wenn die nächste Xbox erst ein Jahr nach der PS5 kommt, was durchaus möglich ist, könnte sie in 5nm erscheinen mit EUV und dann könnte die GPU locker 50% größer ausfallen und man könnte 50% mehr Kerne verbauen. Das würde schon locker reichen für ein deutliches Leistungsplus.
Aber das liegt noch viel zu weit in der Zukunft und hier gehts um Navi.
2021 gibts dann vielleicht schon den Nachfolger von Navi und neuere Speicherarten.
Also zurück zum Thema.
Daredevil
2019-04-30, 14:05:17
Moment mal.
Bei der letzten großen Konferenz, wo AMD die VII vorgestellt hat, war doch auch der Xbox Spieleonkel auf der Bühne und beide haben doch ihre zukünftige Zusammenarbeit gefeiert und betont.
DrumDub
2019-04-30, 14:38:58
Moment mal.
Bei der letzten großen Konferenz, wo AMD die VII vorgestellt hat, war doch auch der Xbox Spieleonkel auf der Bühne und beide haben doch ihre zukünftige Zusammenarbeit gefeiert und betont. das schreibt Complicated doch oben. deshalb ist auch nur amd für die konsolen von ms und sony interessant.
Kann ja auch keiner sonst leistungsfähige Prozessoren mit leistungsfähiger Grafik verbinden mit einem eigenen Fabric-Protokoll für gemeinsame Speicheradressierung, (die auch noch die SSD mit einschließt wenn mand as will). AMD hat sich da ne Niesche geschaffen, die die anderen nicht erreichen können. NV hat keine leistungsfähigen Prozessoren, Intel (noch) keine leistungsfähige Grafik und auch Samsung und Qualcomm kommen da einfach nicht mit.
Locuza
2019-04-30, 16:04:29
Laut AMDs Fußnoten schafft Zen bei 3,4 Ghz einen SpecINT2006 Score von 31,5 und Vishera (Piledriver) 20,7 bei ebenfalls 3,4 Ghz.
https://4.bp.blogspot.com/-9PHSRMsLkws/WLcXE4snmdI/AAAAAAAAAeo/k_H5LVlW4hwOc8PF0O_a4mn8zWyyB-ZCwCLcB/s1600/AMD%2BRyzen%2BTech%2BDay%2B-%2BLisa%2BSu%2BKeynote-32%2B%2528IPC%2BCinebench%2529.jpg
Nvidia hat einen Score von 21 bei Carmel mit unbekannter Frequenz angegeben:
https://en.wikichip.org/wiki/nvidia/microarchitectures/carmel
Im Xavier SoC gibt es 8 Stück davon:
https://en.wikichip.org/w/images/thumb/d/da/nvidia_xavier_die_shot_%28annotated%29.png/900px-nvidia_xavier_die_shot_%28annotated%29.png
https://en.wikichip.org/wiki/nvidia/tegra/xavier
Nvidia könnte im Zweifel für eine ARM-Konsole etwas Passendes entwickeln, aber Sony/MS haben schon auf x86-64 und GCN gesetzt und um die Konsolenhersteller davon weg zu bewegen, müsste Nvidias Angebot massiv besser sein.
Daredevil
2019-04-30, 16:20:26
Nvidia muss ja gar nichts besseres anbieten... ich meine... wenn AMD wirklich den "Monopolisten" in der Schiene fährt und mal einem Konsolen Hersteller mit höheren Preisen vor den Karren pissen sollte, wäre der sicherlich nicht unbedingt erfreut deswegen. :D
Ich hoffe, die machen echt gutes Geld mit den Deals.
Die Switch ist zwar nicht unbedingt das beste Beispiel, aber die hat sich ja auch ziemlich gut etabliert, trotz Gammel SoC mit 1Ghz und ARM Base.
Selbst Mortal Kombat kommt ja dafür raus. Früher war man noch erfreut, wenn mal ein Spiel auf die Switch geportet wird, heute haben ich das Gefühl, das sie mit eingeplant wird.
Edit: Aber gut, wir sind ja nicht im Next Gen oder AMD Thread, sondern im Navi Thread. srxsrx
Gipsel
2019-04-30, 16:54:32
Laut AMDs Fußnoten schafft Zen bei 3,4 Ghz einen SpecINT2006 Score von 31,5 und Vishera (Piledriver) 20,7 bei ebenfalls 3,4 Ghz.
https://4.bp.blogspot.com/-9PHSRMsLkws/WLcXE4snmdI/AAAAAAAAAeo/k_H5LVlW4hwOc8PF0O_a4mn8zWyyB-ZCwCLcB/s1600/AMD%2BRyzen%2BTech%2BDay%2B-%2BLisa%2BSu%2BKeynote-32%2B%2528IPC%2BCinebench%2529.jpg
Nvidia hat einen Score von 21 bei Carmel mit unbekannter Frequenz angegeben:
https://en.wikichip.org/wiki/nvidia/microarchitectures/carmel
Im Xavier SoC gibt es 8 Stück davon:
https://en.wikichip.org/w/images/thumb/d/da/nvidia_xavier_die_shot_%28annotated%29.png/900px-nvidia_xavier_die_shot_%28annotated%29.png
https://en.wikichip.org/wiki/nvidia/tegra/xavierÄhm, bei Carmel steht ein SPECint_Rate Score, was die parallele Ausführung von 8 Instanzen (oder gar 16, da die Kerne ja "dual execution" [SMT?] können) des Benchmarks und dann die Summe draus impliziert. Das ist dann kein Singlecore-Score, sollte die Angabe stimmen (was ich aber kaum glauben kann).
Mal zum Vergleich: 16 Zen-Cores bei 2,1GHz (das kleinste System, wofür ich SpecInt_rate2006-Werte gefunden habe) machen ungefähr 700 (43 pro Kern bzw. 21,5 Punkte pro Instanz [da wegen SMT pro Kern natürlich 2 Kopien laufen] bei wie gesagt nur 2,1 GHz). Die 31,5 Punkte für Zen@3,4GHz (Vorserienmodell) sind klar SpecInt (ohne rate), also nur eine einzige Kopie auf einem Kern.
Sprich ein einzelner Zen-Kern wäre dort locker schneller als die 8 Carmel-Kerne zusammen (die erreichen ja angeblich die Geschwindigkeit eines einzelnen Threads auf einem Zen-Kern @2,1GHz :freak:).
Hätte eigentlich gedacht, daß die ARM-Kerne konkurrenzfähiger wären. Also ich würde für die Performanceangaben zu Carmel nicht meine Hand ins Feuer legen. Haben die da eine Null vergessen oder ist die verlinkte rate-Angabe schlicht falsch (bzw. ist nicht rate sondern schlicht Specint_2006)? :rolleyes:
Edit: Habe es mal bei Wikichip geändert. Das kann nicht der Rate-Score sein, zumal z.B. Anandtech (https://www.anandtech.com/show/13584/nvidia-xavier-agx-hands-on-carmel-and-more/3) für Specint_2006 mit einem Selbstkompilat 19,39 bei 2,26GHz gemessen haben.
Laut AMDs Fußnoten schafft Zen bei 3,4 Ghz einen SpecINT2006 Score von 31,5 und Vishera (Piledriver) 20,7 bei ebenfalls 3,4 Ghz.
https://4.bp.blogspot.com/-9PHSRMsLkws/WLcXE4snmdI/AAAAAAAAAeo/k_H5LVlW4hwOc8PF0O_a4mn8zWyyB-ZCwCLcB/s1600/AMD%2BRyzen%2BTech%2BDay%2B-%2BLisa%2BSu%2BKeynote-32%2B%2528IPC%2BCinebench%2529.jpg
Nvidia hat einen Score von 21 bei Carmel mit unbekannter Frequenz angegeben:
https://en.wikichip.org/wiki/nvidia/microarchitectures/carmel
Im Xavier SoC gibt es 8 Stück davon:
https://en.wikichip.org/w/images/thumb/d/da/nvidia_xavier_die_shot_%28annotated%29.png/900px-nvidia_xavier_die_shot_%28annotated%29.png
https://en.wikichip.org/wiki/nvidia/tegra/xavier
Nvidia könnte im Zweifel für eine ARM-Konsole etwas Passendes entwickeln, aber Sony/MS haben schon auf x86-64 und GCN gesetzt und um die Konsolenhersteller davon weg zu bewegen, müsste Nvidias Angebot massiv besser sein.
Wenn die Konsolenhersteller jetzt wirklich auf 8 Zen-Kerne setzen ist der Vergleich mit NVs CPU geradezu lächerlich.
Locuza
2019-04-30, 17:46:49
Ähm, bei Carmel steht ein SPECint_Rate Score, was die parallele Ausführung von 8 Instanzen (oder gar 16, da die Kerne ja "dual execution" [SMT?] können) des Benchmarks und dann die Summe draus impliziert. Das ist dann kein Singlecore-Score, sollte die Angabe stimmen (was ich aber kaum glauben kann).
Mal zum Vergleich: 16 Zen-Cores bei 2,1GHz (das kleinste System, wofür ich SpecInt_rate2006-Werte gefunden habe) machen ungefähr 700 (43 pro Kern bzw. 21,5 Punkte pro Instanz [da wegen SMT pro Kern natürlich 2 Kopien laufen] bei wie gesagt nur 2,1 GHz). Die 31,5 Punkte für Zen@3,4GHz sind klar SpecInt (ohne rate), also nur eine einzige Kopie auf einem Kern.
Sprich ein einzelner Zen-Kern wäre dort locker schneller als die 8 Carmel-Kerne zusammen (die erreichen ja angeblich die Geschwindigkeit eines einzelnen Threads auf einem Zen-Kern @2,1GHz :freak:).
Hätte eigentlich gedacht, daß die ARM-Kerne konkurrenzfähiger wären. Also ich würde für die Performanceangaben zu Carmel nicht meine Hand ins Feuer legen. Haben die da eine Null vergessen oder ist die verlinkte rate-Angabe schlicht falsch (bzw. ist nicht rate sondern schlicht Specint_2006)? :rolleyes:
Das Detail ist mir auch aufgefallen, aber die Zahlen wären ansonsten viel zu gering.
Nvidias Folie spricht von "21 SpecInt2K6 (est.)".
https://images.anandtech.com/doci/13584/1.12_NVIDIA_XavierHotchips2018Final_8144.jpg
Wenn man mit Anandtechs-Testdaten vom Jetson AGX unter SpecInt2006-Speed vergleicht, dann sieht das alles schlüssig aus:
https://www.anandtech.com/show/13584/nvidia-xavier-agx-hands-on-carmel-and-more/4
Im Schnitt:
Single: 23,7
Rate 4C: 87
Rate 8C: 139,6
Mit 2,27 Ghz sollen die Kerne angeblich laufen.
Edit: Schon in der Wiki korrigiert, wie ich sehe. :)
robbitop
2019-04-30, 19:24:07
Anand hatte Xavier doch mal getestet. Carmel kam (außerhalb ein paar Sonderfälle) IIRC mit Ach und Krach auf das Niveau von Cortex A75 in SPEC.
https://www.anandtech.com/show/13584/nvidia-xavier-agx-hands-on-carmel-and-more/3
Apples A11 und A12 wischt mit Carmel den Boden auf. Es wäre anzunehmen, dass A11...12 in etwa auf dem Niveau der aktuellen High End CPUs liegen was SPEC IPC angeht.
Also ist Zen 2 wahrscheinlich die wesentlich bessere Konsolen-CPU.
|MatMan|
2019-04-30, 21:00:49
Also ist Zen 2 wahrscheinlich die wesentlich bessere Konsolen-CPU.
Das steht außer Frage. Die Frage ist IMO ob Carmel gut genug sein könnte? So schnell wie ein Jaguar in den aktuellen Konsolen sollte Carmel sein. Durch die Auslegung auf die ASIL safety features ist das Design sicherlich etwas älter. Ein Weiterentwicklung kann zusammen mit dem 7nm Prozess noch etwas Performance herausholen. Ob es für eine next-gen Konsole reichen würde, könnte nur ein Entwickler beantworten. Ich würde ja schätzen, dass die GPU und die Menge an Arbeitsspeicher mehr Priorität hätten als maximale CPU Leistung.
robbitop
2019-04-30, 21:25:05
Wenn man keinen Fortschritt in den Konsolen haben wollen würde wäre das jedenfalls die richtige Wahl. ;)
Linmoum
2019-05-01, 00:19:30
Laut Su: Launch in Q3, wird unterhalb der Radeon VII angesiedelt sein - allerdings hat sie dahingehend bewusst "from a price point view" betont.
Wortwörtlich:
Navi is a new architecture for us in gaming. It has a lot of new features across the Navi architecture. Things are progressing well, we expect it to launch in the 3rd quarter. From a positioning standpoint I probably won't go through it in great detail right now other than to stay that it is 7nm Navi but it will be positioned below where for example our Radeon VII is positioned today from a price point standpoint. And then in terms of ray tracing again we will talk more about our overall Navi roadmap as we get closer to the launch.
horn 12
2019-05-01, 07:17:58
Quelle bitte, und somit Raytracing aber leicht langsamer als Radeon VII
dildo4u
2019-05-01, 07:57:02
Kommt unten bei Fragen und Antworten.
Hans Mosesmann
Hey thanks. Lisa, regarding Navi, if you comment on it what is the positioning of that particular product relative to the -- your current 7-nanometer GPU? And regarding Navi, can you tell us if it's going to include rate tracing?
A – Lisa Su
Yeah, so, Hans, we are excited about Navi. Navi is a new architecture for us in gaming. It has a lot of new features, across the Navi architecture. Things are progressing well. We expect it to launch in the third quarter.
From a positioning standpoint, I probably won't go through it in great detail right now other than to say that it is 7-nanometer, Navi, but it will be positioned below where, for example, our Radeon VII's is position today from a price point standpoint.
And then, in terms of Ray tracing, again, we will talk more about our overall Navi roadmap as we get closer to the launch.
https://seekingalpha.com/article/4258321-advanced-micro-devices-inc-amd-ceo-lisa-su-q1-2019-results-earnings-call-transcript
Grendizer
2019-05-01, 08:38:00
Wo steht das das sie Raytracing haben wird ? Es wid nur gesagt, das man zum Thema was sagen wird, wenn man näher am Launch ist.
Das kann alles bedeuten ... das man mit Navi nix hat, das man mit einem späteren Navi refresh was hat, oder aber das Navi Raytracing hat.
Sicher ist da gar nichts.
nairune
2019-05-01, 09:59:27
Dass sie günstiger als die 7 werden wird ist nun auch nicht so überraschend.
Bleibt das Versprechen für Q3, immerhin.
Ich denke das AMD "nur" mit softwareseitigem RT kommt.
(wäre mir sowieso lieber ... )
Wird wohl so laufen, wie damals bei "PhysX" ...
m.f.g. JVC
dargo
2019-05-01, 10:57:13
Ich denke das AMD "nur" mit softwareseitigem RT kommt.
Dann hat das aber nichts spezielles mit Navi zu tun.
Mandalore
2019-05-01, 12:32:09
Ich glaube tatsächlich dass Navi eine komplett neue Architektur wird speziell fürs Gaming zugeschnitten (was dann auch mit den Gerüchten rund um Sony und AMD passen würde.) während GCN fürs professionelle Segment weiterentwickelt wird....
basix
2019-05-01, 12:34:01
Ich habe mich noch ein wenig über AMD und Raytracing informiert. Im Prinzip sind sie schon seit sie GCN haben am forschen, wie man das auf einer GPU umsetzt. Und mit ProRender und OpenCL haben sie schon einige starke Standbeine. Ich bekam jedenfalls das Gefühl, dass AMD gar nicht so extrem weit hinter Nvidia liegt. Die einzige Ausnahme ist, dass Nvidia etwas in HW gegossen hat und deren Tools einfach weiter verbreitet sind.
Es gab mal ein Paper, wo man mit einer Hawaii GPU rumgespielt hat und einen Vorschlag gemacht hat wie man die GPU auf Raytracing optimieren könnte. Wenn ich mich recht erinnere, wäre der Flächenzuschlag nur etwa 5% gewesen.
MSABK
2019-05-01, 12:37:31
Ich glaube tatsächlich dass Navi eine komplett neue Architektur wird speziell fürs Gaming zugeschnitten (was dann auch mit den Gerüchten rund um Sony und AMD passen würde.) während GCN fürs professionelle Segment weiterentwickelt wird....
Ich persönlich denke eine neue Architektur ist auch notwendig alleine schon für die Konsolen. Noch mal eine neue Generation an Konsolen die 5 Jahre mit der alten Architektur auskommen müssten wäre glaube ich zu wenig in der Entwicklung.
Dural
2019-05-01, 12:39:59
Was wird so laufen wie bei PhysX??? :rolleyes:
Als PhysX kam gab es im PC Single Core CPUs, eine andere Möglichkeit als Hardware PhysX machte definitiv nicht viel Sinn.
Heute ist PhysX die meist verwende Physik "Engine" halt nur noch über die CPU da die mittlerweile einfach genug Leistung haben.
Bei RT sieht das deutlich anders aus, RT ist so extrem Leistungshungrig das eine Software Lösung einfach keinen Sinn macht, den Software Lösungen ist immer langsamer als eine spezielle Hardware Lösung.
Wer wirklich meint das eine Software Lösung bei RT die Zukunft ist hat definitiv von gar nichts eine Ahnung. Viel mehr werden die GPUs immer wie mehr zu reine RT Beschleuniger.
Windi
2019-05-01, 13:21:14
Ich glaube niemand ist dafür, das RT eine Softwarelösung bleibt.
Es ist aber die Frage, was in Navi kommt.
Wenn AMD wirklich von Nvidia überrascht wurde, dann kann man wahrscheinlich nur einen Schnellschuss abliefern.
Das heißt das man dann Transistoren für ein Feature "verschwenden" würde, bei dem man in Benchmarks jedes mal verliert.
Was hat man davon?
Man macht den normalen Grafikchip langsamer, in dem man die verfügbaren Transistoren für dieses Feature opfert und verliert gleichzeitig in jedem Benchmark, weil die eigene Technologie noch nicht so weit ist.
Da ist es doch sinnvoller, die Einführung der RT-Einheiten etwas zu verschieben.
Mit der Begründung, das man dies erst einführt wenn es sich auch auf Mainstreamkarten lohnt, werden sich wohl die meisten zufrieden geben. Auch wird es dann nicht so viele Benchmarks RT-AMD vs. RT-Nvidia geben.
Eher kümmern sich dann die Tester um die Frage, ob die Leistung der Nvidia Karten überhaupt zum spielen mit Raytracing ausreicht.
Also, entweder hat AMD Raytracing schon lange für Navi eingeplant oder sie lassen es lieber weg.
Ein Schnellschuss würde mehr schaden als nutzen.
w0mbat
2019-05-01, 13:21:18
Ach, PhysX :D
Ich kann mich noch erinner, es gab Zeiten da war sich so mancher hier sicher, dass man in Zukunft neben einer GPU immer noch eine PPU im System haben wird. Also neben der Graka über PCIe mit aktiver Kühlung und so :ugly:
Lehdro
2019-05-01, 16:42:04
Ach, PhysX :D
Ich kann mich noch erinner, es gab Zeiten da war sich so mancher hier sicher, dass man in Zukunft neben einer GPU immer noch eine PPU im System haben wird. Also neben der Graka über PCIe mit aktiver Kühlung und so :ugly:
Ich komme aus einer Zeit da galten dedizierte 3D(!) Karten als der neue heiße Scheiß. Da hatte man Anfangs 2D und 3D seperat.
basix
2019-05-01, 16:57:55
Quelle bitte, und somit Raytracing aber leicht langsamer als Radeon VII
Das hat Lisa nicht gesagt ;) Sie sagte preislich unter der VII. Von Performance steht da gar nichts.
Bezüglich Q3: Kann immer noch der 7.7. sein ;)
dr.denton
2019-05-01, 16:59:32
Ich komme aus einer Zeit da galten dedizierte 3D(!) Karten als der neue heiße Scheiß. Da hatte man Anfangs 2D und 3D seperat.
Ich weiss nicht, wie der Altersschnitt hier ist, bin mir aber ziemlich sicher, dass Voodoos nicht besonders exotisch sind für die meisten - nicht böse gemeint :tongue:
AMDs 3. Quartal beginnt 1.8. Man kann so mit September rechnen würd ich sagen.
Linmoum
2019-05-01, 17:25:33
"AMDs Q3" beginnt genauso im Juli, wie es Standard ist. Wie kommt man bitte auf gegenteiliges?
w0mbat
2019-05-01, 17:44:28
Ne, AMDs 3. Quartal beginnt am 17,5. Dezember :ugly:
BoMbY
2019-05-01, 17:52:07
Interessant:
//===-- GCNRegBankReassign.cpp - Reassign registers after regalloc --------===//
//
// The LLVM Compiler Infrastructure
//
// This file is distributed under the University of Illinois Open Source
// License. See LICENSE.TXT for details.
//
//===----------------------------------------------------------------------===//
//
/// \file
/// \brief Try to reassign registers on GFX10+ to reduce register bank
/// conflicts.
///
/// On GFX10 registers are organized in banks. VGPRs have 4 banks assigned in
/// a round-robin fashion: v0, v4, v8... belong to bank 0. v1, v5, v9... to
/// bank 1, etc. SGPRs have 8 banks and allocated in pairs, so that s0:s1,
/// s16:s17, s32:s33 are at bank 0. s2:s3, s18:s19, s34:s35 are at bank 1 etc.
///
/// The shader can read one dword from each of these banks once per cycle.
/// If an instruction has to read more register operands from the same bank
/// an additional cycle is needed. HW attempts to pre-load registers through
/// input operand gathering, but a stall cycle may occur if that fails. For
/// example V_FMA_F32 V111 = V0 + V4 * V8 will need 3 cycles to read operands,
/// potentially incuring 2 stall cycles.
///
/// The pass tries to reassign registers to reduce bank conflicts.
///
/// In this pass bank numbers 0-3 are VGPR banks and 4-11 are SGPR banks, so
/// that 4 has to be subtracted from an SGPR bank number to get the real value.
/// This also corresponds to bit numbers in bank masks used in the pass.
///
//===----------------------------------------------------------------------===//
https://reviews.llvm.org/D61344
robbitop
2019-05-01, 18:14:28
Ggf. ist das große PCB von dem wir Bilder gesehen haben ja für das Sony Dev Kits mit den netto 56 CUs (und brutto sicher 60...64).
Wer weiß, ggf ist der Navi der zunächst für PC kommt, ein kleinerer Ausbau davon.
mksn7
2019-05-01, 18:22:22
Die Registerfiles sind doch jetzt auch schon banked, oder? So dass genau dieses Szenario mit stall cycles wegen bank conflicts auch schon auftreten kann.
Der Patch klingt jetzt so als ob das erst mit gfx10 so ist, und deswegen jetzt ein pass eingeführt wird der das abmildert.
BoMbY
2019-05-01, 18:59:21
Die Registerfiles sind doch jetzt auch schon banked, oder? So dass genau dieses Szenario mit stall cycles wegen bank conflicts auch schon auftreten kann.
Der Patch klingt jetzt so als ob das erst mit gfx10 so ist, und deswegen jetzt ein pass eingeführt wird der das abmildert.
Ja, Du hast Recht. Im Prinzip müsste der Code auch für alle funktionieren, auch wenn der Text etwas anderes sagt. Anscheinend hat das Neusortieren nur bisher im LLVM gefehlt und die haben das im Rahmen des GFX1010 Projekts umgesetzt.
Nazar
2019-05-01, 19:29:29
Was wird so laufen wie bei PhysX??? :rolleyes:
Als PhysX kam gab es im PC Single Core CPUs, eine andere Möglichkeit als Hardware PhysX machte definitiv nicht viel Sinn.
Heute ist PhysX die meist verwende Physik "Engine" halt nur noch über die CPU da die mittlerweile einfach genug Leistung haben.
Bei RT sieht das deutlich anders aus, RT ist so extrem Leistungshungrig das eine Software Lösung einfach keinen Sinn macht, den Software Lösungen ist immer langsamer als eine spezielle Hardware Lösung.
Wer wirklich meint das eine Software Lösung bei RT die Zukunft ist hat definitiv von gar nichts eine Ahnung. Viel mehr werden die GPUs immer wie mehr zu reine RT Beschleuniger.
Sorry aber das ist eine "Ente" der du da aufsitzt. Da wo es um relevante Physik geht, also eine Physik, die sich direkt auf das Spiel auswirkt (Umgebungsveränderungen) hat PhysX überhaupt keinen Einfluss!
Deshalb ist die Aussage, dass es sich bei mit RTX und PhysX genauso verhalten nicht falsch.
Jedes Mal wenn nVidia einen Alleingang startete, ging es nach hinten los und zwar für alle. nVidia bremste mit PhysX und seiner Marktmacht innovative und spielbeeinflussende Physik aus, auf dem Rücken der Spieler (ATI versus nVidia). nVidia geht es NICHT um die Spieler, es geht ALLEINE um Markmacht.
Wäre es anders, würde nVidia Kooparationen anstoßen.
Davon ab ist RT derzeit so innovativ wie ein Pickel am Arsch, da auch in 10 Jahren keine Hardware so leistungsfähig seien wird, um einen VORTEIL zu generieren.
Dass was RT derzeit zeigt, ist an Unbedeutsamkeit kaum noch zu toppen. Nur durch die negative Manipulation von RZ ist RT überhaupt als "Vorteil" wahrzunehmen (Metro). Bisher haben alle Tests gezeigt, dass RT ebenso "erfolgreich" sein wird wie PhysX. Die Gründe sind für Menschen mit Ahnung offensichtlich und man muss schon extrmer Fanboi sein, um das nicht sehen zu können.
Gipsel
2019-05-01, 21:40:54
Die Registerfiles sind doch jetzt auch schon banked, oder? So dass genau dieses Szenario mit stall cycles wegen bank conflicts auch schon auftreten kann.
Der Patch klingt jetzt so als ob das erst mit gfx10 so ist, und deswegen jetzt ein pass eingeführt wird der das abmildert.
Ja, Du hast Recht. Im Prinzip müsste der Code auch für alle funktionieren, auch wenn der Text etwas anderes sagt. Anscheinend hat das Neusortieren nur bisher im LLVM gefehlt und die haben das im Rahmen des GFX1010 Projekts umgesetzt.
Nein, zumindest bei den früheren GCN-Iterationen können die dort beschriebenen Register-Konflikte meines Wissens nach nicht auftreten. Die maximal 3 Quell-Operanden werden im Zweifelsfall sowieso über 3 Takte verteilt gelesen, die können daher auch von der gleichen Bank kommen (war schon bei VLIW so, die bis zu 12 GPR-Operanden aus 4 Bänken [x,y,z,w] in 3 Takten lasen, den "fehlenden" 4. Takt benötigt man zum Zurückschreiben der Ergebnisse ins Zielregister). Dies wäre also wohl spezifisch für neuere GCN-Versionen. Eventuell hat man die Registerfiles etwas umorganisiert, um Strom zu sparen (Register verbrauchen ganz erheblich).
Edit:
Im Prinzip bieten die GCN-Registerfiles wesentlich mehr Bandbreite (bis zu 4x), als die ALUs nutzen können. Für ALU-Operationen versteckt selbst im Worst Case (alle 3 Quelloperanden und auch der Zieloperand in der gleichen Bank) der Operand Buffer (oben im LLVM-Code implizit für das "input operand gathering" erwähnt) das perfekt durch das Lesen/Schreiben für 4 Lanes* (die ja über ebenfalls 4 Takte auf der gleichen ALU ausgeführt werden!) über 4 Takte (da reichen also eigentlich gar single ported register files). Da muß schon viel zusammenkommen (3 Operanden-Vektor-Ops und zusätzlich noch parallele vMemory- und/oder LDS-Ops auf der gleichen Bank), damit das mal nicht reicht und zu Stalls kommt. Nur mit Vektor-Ops sollte das nicht gehen.
Wenn man dafür also den Compiler anpaßt (und das außerhalb eines größtenteils theoretischen Anwendungsfalls was bringen soll), dann würde ich da tendentiell von einer Änderung ausgehen, die das Problem verschärft (bzw. erst mal schafft). In dem Zusammenhang wäre z.B. eine Halbierung der Bänke oder auch der Ports (1R+1W => 1R/W) im Zusammenspiel mit einem Registerfile-Cache interessant (der kann dann nämlich auch noch ansonsten fehlende Operanden liefern, allerdings nicht garantiert). Da dort allerdings explizit 4 Bänke erwähnt werden, wäre die Alternative eventuell auch 32 ALUs pro SIMD oder sowas. Aber ob man das für Navi erwarten sollte (und nicht erst vielleicht später)? Bleibt der Schritt 1R+1W => 1R/W Port als Wahrscheinlichstes?
*:
Die später eingeführten DPP-Operationen (die Werte von src0 können ohne Penalty vielfältig über die Lanes einer Wavefront geswizzelt werden) zeigen, daß die 4 Lanes einer Wavefront zumindest ab dann keine abgeschlossene Einheit bilden.
gravitationsfeld
2019-05-01, 21:52:08
Korrekt, GCN hat keine bank conflicts in allen Varianten.
unl34shed
2019-05-01, 22:40:00
Nein, zumindest bei den früheren GCN-Iterationen können die dort beschriebenen Register-Konflikte meines Wissens nach nicht auftreten. Die maximal 3 Quell-Operanden werden sowieso über 3 Takte verteilt gelesen, die können daher auch von der gleichen Bank kommen (war schon bei VLIW so, die bis zu 12 GPR-Operanden aus 4 Bänken [x,y,z,w] in 3 Takten lasen, den "fehlenden" 4. Takt benötigt man zum Zurückschreiben der Ergebnisse ins Zielregister). Dies wäre also wohl spezifisch für neuere GCN-Versionen. Eventuell hat man die Registerfiles etwas umorganisiert, um Strom zu sparen (Register verbrauchen ganz erheblich).
Wenn ich das oben richtig deute, kann Navi die Registerbänke parallel lesen, sodass hier, wenn nicht alles aus der selben Bank kommen sollte einige Takte gespart werden können.
y33H@
2019-05-01, 22:50:53
Sorry aber das ist eine "Ente" der du da aufsitzt. Da wo es um relevante Physik geht, also eine Physik, die sich direkt auf das Spiel auswirkt (Umgebungsveränderungen) hat PhysX überhaupt keinen Einfluss!Genau dafür wird CPU-basierte PhysX verwendet, beispielweise in der UE4 ... du meinst vermutlich Effekte via GPU-PhysX.
Gipsel
2019-05-01, 23:32:46
Wenn ich das oben richtig deute, kann Navi die Registerbänke parallel lesen, sodass hier, wenn nicht alles aus der selben Bank kommen sollte einige Takte gespart werden können.Welche Takte willst Du sparen, wenn das über mehrere Takte verteilte Lesen sowieso gepipelined ist (findet während der Ausführung der vorigen Instruktion[en] statt) und das Ganze durch die Ausführung einer 64er Wavefront auf einer physisch 16 Lanes breiten vALU über 4 Takte pro Instruktion im Durchsatz festgelegt ist? Das spart dann weder Latenz noch gewinnt man Durchsatz.
Du kannst normale vALU-Ops auf GCN schmeißen wie Du willst, da gibt es keine Stalls durch Register-Konflikte (bei den DPP-Operationen muß man eventuell unabhängige Instruktionen zwischenschieben, weil das result forwarding mit dem lane swizzle nicht funktioniert [nur für die geswizzelten src0-Werte nicht] und man dort die eigentliche Latenz der Register + Operand Buffer sieht, woraus man ableiten kann, das das Lesen des src0 Registers >4 Takte [und <=8 Takte] vor der eigentlichen Ausführung anfängt; aber das ist kein Register-Bank/Port-Konflikt und der Patch da oben würde dagegen auch nicht im Geringsten helfen).
Complicated
2019-05-01, 23:33:21
Genau dafür wird CPU-basierte PhysX verwendet, beispielweise in der UE4 ... du meinst vermutlich Effekte via GPU-PhysX.Nein er meint PhysX ist eine schlechte Implementierung der Physik-Berechnung aus heutiger Sicht und war schnell obsolet. Jedoch wegen Nvidias Geschäftsmodell wurden Weiterentwicklungen in Engines vernachlässigt von Spielentwicklern. Vernünftige Physik-Berechnung konnte immer schon ohne PhysX besser gemacht werden.
nVidia bremste mit PhysX und seiner Marktmacht innovative und spielbeeinflussende Physik aus, auf dem Rücken der Spieler (ATI versus nVidia). nVidia geht es NICHT um die Spieler, es geht ALLEINE um Markmacht.
Lehdro
2019-05-02, 00:43:04
Ich weiss nicht, wie der Altersschnitt hier ist, bin mir aber ziemlich sicher, dass Voodoos nicht besonders exotisch sind für die meisten - nicht böse gemeint :tongue:
Du hast mich wohl da missverstanden: Damals herrschte dieselbe Meinung: Es gibt schon alles. Schau mal auf was ich damit geantwortet habe. Ich finde die arrogante Art mit der über die Zukunftstechniken und deren mögliche Implementationen (Steckkarten?) im Nachhinein gewitzelt wird lächerlich.
pixeljetstream
2019-05-02, 07:40:25
Löschen off topic
Zossel
2019-05-02, 07:53:22
Du hast mich wohl da missverstanden: Damals herrschte dieselbe Meinung: Es gibt schon alles. Schau mal auf was ich damit geantwortet habe. Ich finde die arrogante Art mit der über die Zukunftstechniken und deren mögliche Implementationen (Steckkarten?) im Nachhinein gewitzelt wird lächerlich.
Was konnte den ein FLOP von PhysX besser als ein FLOP von einer CPU oder GPU?
Grendizer
2019-05-02, 08:14:19
Ich denke das das PhysX Thema hier ein wenig deplaziert wird langsam.
BoMbY
2019-05-02, 10:57:41
Nein, zumindest bei den früheren GCN-Iterationen können die dort beschriebenen Register-Konflikte meines Wissens nach nicht auftreten.
The vector register file associated with each SIMD unit contains 128 KB of storage.ACU with two VALUsand two VRFscontains256 KB of VGPR storage[2].The VRF comprisesmultiple SRAM-basedbanks. Each bank has one read port and one write port, and both a read and a write may occur in the same cycle. In this study, we configure the VRF to havefour banks, with each bank holding128VGPRs of 64 by 32-bit values.
[....]
Reading all operands for an instruction may take multiple cycles due to bank conflicts. Bank conflicts may occur both within(intra-instruction)and between (inter-instruc-tion) instructions
[...]
In both the GCN3 and our simulated architecture, both intra-and inter-instruction bank conflicts may oc-cur.Intra-instruction read conflicts occur when two or more source operands in the same instruction reside in the same physical VGPR bank. Inter-instruction read conflicts occur when multiple instructions have oper-ands residing in the same bank and attempt to read them in the same cycle
https://homes.cs.washington.edu/~wysem/publications/quals-gpgpu-vrf.pdf
Lehdro
2019-05-02, 11:16:28
Was konnte den ein FLOP von PhysX besser als ein FLOP von einer CPU oder GPU?
Zu der Zeit als die PPU rauskam? Nicht ein FLOP von CPU oder GPU sein, Rechenleistung war damals (2005/2006) ein extrem knappes Gut. Das sieht heute, ein Jahrzehnt später, deutlich anders aus. Glaube nicht das GF 7 und X18 so gute GPGPUs abgegeben hätten - sie waren nämlich keine.
Das kann aber echt in einen anderen Thread.
Gipsel
2019-05-02, 15:01:36
[....]
[...]
https://homes.cs.washington.edu/~wysem/publications/quals-gpgpu-vrf.pdfKenne ich das Paper. Die simulieren da eine Architektur, die zwar GCN3-Instruktionen ausführt, aber eben nicht GCN3 ist, die CUs sehen schlicht ziemlich anders aus ;). So besteht eine CU nicht aus 4 vALUs und einer sALU, sondern aus 2 vALUs und 2 sALUs. Dazu hat dann eine vALU 128kB Register (GCN hat bisher 64kB pro vALU) und dazu physisch ganze 64 SIMD-Lanes pro vALU (statt nur 16 Lanes), was dann auch das 1:1 Verhältnis von vALUs/sALUs (statt 4:1 wie bei GCN) bedingt. Daß da die 4 Bänke der vRegFiles (was identische Registerfile-Bandbreite wie bei GCN trotz 4x so vieler vALU-Lanes bedeutet!) dann außer im Bestcase auch für ALU-Operationen nicht mehr ausreichen (wie bei GCN sogar im worst case, wo man theoretisch mit einer einzigen Bank leben könnte [dann bleibt aber keine Reserve für parallele LDS- und Speicher-Ops]), liegt ja auf der Hand. Die reale GCN-Implementation sieht schlicht anders aus und dort im Paper gibt es auch diese Passage:
"However, these structures [reg file cache und operand buffer] are also meant to hide the latency penalty of bank access conflicts. Specifically, the OB acts as a read buffer to opportunistically read operands when banks become available and prevent the insertion of bubbles into the VALU pipeline."
Und der gefettete Teil funktioniert bei der realen GCN-Implementation wie beschrieben sogar im worst case für FMA-Instruktionen mit insgesamt 4 Operanden (3 Quellen und ein Ziel) alle in der gleichen Bank so gut, daß garantiert ist, daß es keine Bubbles wegen solcher Konflikte gibt. Das liegt schlicht daran, daß man nur ein Viertel des arithmetischen-Durchsatzes pro vALU (und dessen Registerfiles) hat, aber identische Bandbreite wie dort. Ob der Chip die 3 Quelloperanden nun in einem einzigen Takt lesen kann (alle in unterschiedlichen Bänken) und dann eben entsprechend mehr Zyklen für LDS- und Speicher-Ops frei bleiben oder über drei Takte verteilt, erzeugt schlicht keine Pipeline-Bubbles, da sowieso nur alle 4 Takte eine neue vALU-Instruktion zum Dispatch kommt. Man hat da also schlicht die Zeit, es wird weder schneller noch langsamer, egal in welchen Bänken das liegt. Bei dem hypothetischen Design des Papers hat man diesen Zeitpuffer nicht, weil die vALU jeden Takt (statt nur jeden vierten) eine neue Instruktion ausführt, man also zwingend jeden Takt einen kompletten Satz von Operanden irgendwo herbekommen muß (und nur 4 Bänke hat, das gibt also oft Konflikte). Das ist also aus der Perspektive schon recht extrem ausgelegt (ohne register file cache wird das deutlich langsamer, weil die nutzbare register file bandbreite limitiert). Wenn aber z.B. im Schnitt 40% der Operanden aus dem RFC kommen (was laut den Simulationen so grob bei 16 Einträgen der Fall ist [wären 4kB RFC für 128kB Register]), dann entschärft sich die Situation schon erheblich und man kann an den Registerfiles sparen (Designaufwand und Strom), ohne daß die Performance gleich baden geht.
Und das ist eben der Sinn eines solchen Design. Man hat da pro ALU nur die Hälfte an Registerspace und ein Viertel der Registerbandbreite (die Hälfte der Bandbreite tut es in einer realen Umsetzung für den Anfang vermutlich auch) und der Rest wird möglichst von einem aufgebohrten operand buffer (der für mehr Instruktionen schon mal die zukünftigen Operanden laden kann) und dem Registerfile cache (der dort die Ergebnisse der letzten paar Instruktionen zwischenspeichert und direkt an den Operand buffer bzw. die vALU geben kann [ist im Prinzip ein aufgebohrtes result forwarding]) aufgefangen. Am Ende sollte das schlicht mehr Energie durch die verringerte Anzahl der Zugriffe auf das Registerfile sparen (ein wenig Fläche hoffentlich auch) als man Performance verliert.
mksn7
2019-05-02, 17:16:02
Das Gleich hat NVIDIA bei Maxwell ja auch schon gemacht. Dass bank conflicts wirklich einen spürbaren Performanceverlust bedeuten passiert ja auch nur in Situation mit sehr hohem Durchsatz, und sowas wie dieser Patch können den Einfluss ein bisschen reduzieren.
Gipsel
2019-05-02, 17:24:11
Das Gleich hat NVIDIA bei Maxwell ja auch schon gemacht. Dass bank conflicts wirklich einen spürbaren Performanceverlust bedeuten passiert ja auch nur in Situation mit sehr hohem Durchsatz, und sowas wie dieser Patch können den Einfluss ein bisschen reduzieren.
Der Punkt ist, daß der LLVM-Patch spezifisch GFX10 erwähnt und bisherige GCN-Iterationen damit eher weniger Probleme haben. Dies könnte (wie bereits gesagt) ein Hinweis auf umorganisierte Registerfiles bei Navi sein.
mczak
2019-05-02, 19:18:02
Der Punkt ist, daß der LLVM-Patch spezifisch GFX10 erwähnt und bisherige GCN-Iterationen damit eher weniger Probleme haben. Dies könnte (wie bereits gesagt) ein Hinweis auf umorganisierte Registerfiles bei Navi sein.
Das wurde ja schon von einigen als ein Hauptproblem der geringeren Energieeffizienz von GCN gegenüber den nvidia chips vermutet (ich meine architekturtechnisch gesehen, abgesehen davon dass AMD die Chips viel stärker über den sweet spot hinaus pusht). Bin gespannt wie sich das am Ende auswirkt (wobei AMD auch punkto Perf/Fläche bisher doch ziemlich Nachteile hat seit maxwell).
hlynska
2019-05-03, 15:43:56
Nvidia scheint aber mächtig Düsengang zu haben. Die schaffen gerade die Non- und A-Chips ab und verkaufen die Chips Ende Mail wohl billiger an die Boardpartner als neue SKU. :D
5wk_0kYDF2g
Leonidas
2019-05-03, 16:12:13
Verschärft!
rentex
2019-05-03, 16:20:02
Die Lederjacke hatte wohl nen Albtraum und bekommt grad Muffensausen oder NAVI wird doch ein schickes Stück Silizium🤔
Dural
2019-05-03, 16:24:24
Habe keinen Ton, aber das neue Revisionen oder Ausführungen kommen ist jetzt nicht so selten!?
Die Chips wurden eh nie selektiert, von mir ausgesehen ist das völliger Blödsinn! Die Qualitäts Medien haben das von NV 1:1 ständig nur weiter verbreitet... :rolleyes:
Da wurde einfach versucht mit Chip A mehr Geld als mit Chip B zu machen, Gewinnmaximierung so einfach ist es.
rentex
2019-05-03, 16:34:12
Was denn sonst!
BlacKi
2019-05-03, 17:01:53
das man die selektierung weglässt, wird wohl an den unterschiedlichen verkaufszahlen liegen. man will schlicht einfach das sortieren einsparen und alle zum selben preis verkaufen. aber es jetzt auf die konkurenz zu schieben halt ich für schwachsinn. die preise sind ja nicht wirklich gesunken durch den wegfall der a chips.
mal ne andere frage. warum wurde eine gtx 1080 zu anfangs für 800€ verkauft und zum schluss für nichtmal 500€ wenn keine marge bei den händlern übrig lässt? hat nv die chip packete anfangs teurer an die hersteller verkauft und später günstiger? so massiv? oder hatten die anfangs nur eine sehr große marge?
Screemer
2019-05-03, 17:15:05
Habe keinen Ton, aber das neue Revisionen oder Ausführungen kommen ist jetzt nicht so selten!?
Die Chips wurden eh nie selektiert, von mir ausgesehen ist das völliger Blödsinn! Die Qualitäts Medien haben das von NV 1:1 ständig nur weiter verbreitet... :rolleyes:
Da wurde einfach versucht mit Chip A mehr Geld als mit Chip B zu machen, Gewinnmaximierung so einfach ist es.
Na dann hast du das wichtigste vom Geschichtenonkel verpasst: es wird biosupdstes geben, die den noch im Umlauf befindlichen non-a und a Chips die die selbe hw-id verpassen. Man wird also in Zukunft biosfiles haben mit denen man auch alte Karten flashen kann und damit endlich höhere powertargets auch für die non-a-modelle zur Verfügung hat. Natürlich auch inkl. höherem potentiellen oc. Durch die Blume bedeutet das, dass NV zugegebenermaßen bisher seine Kunden und Boardpartner einfach über den Tisch gezogen hat und die Boardpartner und Kunden sich diesen rape auch noch gefallen haben lassen :ugly:
Mangel76
2019-05-03, 19:05:57
das man die selektierung weglässt, wird wohl an den unterschiedlichen verkaufszahlen liegen. man will schlicht einfach das sortieren einsparen und alle zum selben preis verkaufen. aber es jetzt auf die konkurenz zu schieben halt ich für schwachsinn. die preise sind ja nicht wirklich gesunken durch den wegfall der a chips.
mal ne andere frage. warum wurde eine gtx 1080 zu anfangs für 800€ verkauft und zum schluss für nichtmal 500€ wenn keine marge bei den händlern übrig lässt? hat nv die chip packete anfangs teurer an die hersteller verkauft und später günstiger? so massiv? oder hatten die anfangs nur eine sehr große marge?
Weil NVIDIA maximale Gewinnerzielung betreibt. Erst kam die 1080 zum Preis von Preis von 800€. Als alle, die soviel Geld ausgeben würden, eine hatten, haben sie die 1080 Ti nachgeschoben. Da haben die Nerds nochmal zugegriffen und viele andere haben die 1080 dann zum geringeren Preis doch noch gekauft. So schöpft man die Zahlungsbereitschaft maximal ab.
Birdman
2019-05-03, 19:05:57
dass NV zugegebenermaßen bisher seine Kunden und Boardpartner einfach über den Tisch gezogen hat
Nein, bedeutet es nicht.
Nebst dem binning (was nVidia technisch sehr wohl drauf hat und es daher auch ohne zusätzlichen Aufwand drauf hat, die Chips in verschiedene Güteklassen aufzuteilen) ist der eigentliche Kernpunkt der non-A Turings ja der, dass diese Bios seitig einfach auf ein tieferes Powerlimit fixiert sind, ganz unabhängig davon wie gut der Chip selber wäre.
Nun wird auch nur genau dieses aufgehoben werden und nichts mehr.
Ob man damit dann die gleichen Taktraten (bei gleichem Verbrauch) wie mit A Chips/Karten erreicht, das wird sich zeigen.
Aber hier stehen dann ja auch noch andere Hindernisse im Weg, wie günstigeres PCB, schwächere Kühllösung und was sonst noch so von der Herstellern bei den Spar-RTX Karten als Massnahme eingesetzt wurde um sie billiger zu kriegen.
Das ist völlig unabhängig von den A oder nicht-A-Chips und wurde vorher schon gemacht. Bessere Chips wurden auch bei Pascal teurer verkauft. Das war nichts weiter als ein OC-Block für die Kartenhersteller. Das wird jetzt aufgehoben, weil Navi wohl doch Angst verbreitet. Jetzt können die Standardkarten eben ein paar MHz mehr rausholen.
crux2005
2019-05-03, 19:57:04
Nvidia scheint aber mächtig Düsengang zu haben. Die schaffen gerade die Non- und A-Chips ab und verkaufen die Chips Ende Mail wohl billiger an die Boardpartner als neue SKU. :D
https://youtu.be/5wk_0kYDF2g
Stumme Videos sind schon was feines. So kann sich jeder was zusammenreimen. :up:
BlacKi
2019-05-03, 20:11:10
Weil NVIDIA maximale Gewinnerzielung betreibt. Erst kam die 1080 zum Preis von Preis von 800€. Als alle, die soviel Geld ausgeben würden, eine hatten, haben sie die 1080 Ti nachgeschoben. Da haben die Nerds nochmal zugegriffen und viele andere haben die 1080 dann zum geringeren Preis doch noch gekauft. So schöpft man die Zahlungsbereitschaft maximal ab.
ist leider nicht die antwort auf meine frage. hatten die hersteller anfangs eine 300€+ marge und die hersteller haben das geld einfach eingesteckt, oder hat nv nach und nach die preise für die chips gesenkt und die marge war für die hersteller von anfang an gering?
Screemer
2019-05-03, 20:13:32
ist der eigentliche Kernpunkt der non-A Turings ja der, dass diese Bios seitig einfach auf ein tieferes Powerlimit fixiert sind, ganz unabhängig davon wie gut der Chip selber wäre.
Nun wird auch nur genau dieses aufgehoben werden und nichts mehr.
Und welchen Sinn hat das außer es den Boardpartner unmöglich zu machen selbst Chips zu selektieren und so evtl. Geld zu sparen und dies auch an ihre Kunden weiter zu geben. Kunden werden noch dazu gegängelt ein teureres Produkt ohne technischen Mehrwert zu kaufen. Das kann ich als Kunde nur feiern. Ach ne ich als shareholder natürlich. Das ändert man jetzt auch noch rückwirkend für die "alten" Chips. Verarschung?
mironicus
2019-05-03, 20:15:02
Ja, wenn AMD den Navi soweit hoch prügeln kann, dass er einer RTX 2080 gefährlich wird und die Karte vielleicht für knapp 500 Euro auf den Markt kommt, dann muss NVidia reagieren.
Grendizer
2019-05-03, 20:23:02
Ja, wenn AMD den Navi soweit hoch prügeln kann, dass er einer RTX 2080 gefährlich wird und die Karte vielleicht für knapp 500 Euro auf den Markt kommt, dann muss NVidia reagieren.
Wen Navi in Q3 (Juli-September) auf den Markt kommt, ist Nvidia GTX auch schon 9-12 Monate am Markt präsent .... wie lange wird es noch dauern, bis dann 7nm Karten kommen ? 6 Monate, 9 Monate ?
Mangel76
2019-05-03, 20:23:51
ist leider nicht die antwort auf meine frage. hatten die hersteller anfangs eine 300€+ marge und die hersteller haben das geld einfach eingesteckt, oder hat nv nach und nach die preise für die chips gesenkt und die marge war für die hersteller von anfang an gering?
Sie haben die 1080 erst teuer an die Partner verkauft und als die 1080 Ti kam, wurde der Preis gesenkt. Die 1080 ist damals quasi eine Ebene tiefer gerutscht. Gegen Ende des Lebenszyklus wird es wohl weitere kleinere Preissenkungen gegeben haben, aber nichts großes. Anscheinend wollte NVIDIA die Chips auf Halde nicht zu günstig angeben und lieber verschrotten, als sich die Turingverkäufe kaputt zu machen. Die jetzigen Sonderpreise sind eher die letzten noch vorhandenen Karten, die die Händler und Hersteller noch im Lager haben.
Gipsel
2019-05-03, 20:26:57
Habe keinen Ton, [..]
Stumme Videos sind schon was feines. So kann sich jeder was zusammenreimen. :up:
Das Video hat natürlich Ton. Wechselt mal den Browser, startet den Rechner neu oder sowas!
aufkrawall
2019-05-03, 20:53:29
Das Video hat natürlich Ton. Wechselt mal den Browser, startet den Rechner neu oder sowas!
Hmmm. :uponder:
https://upload.wikimedia.org/wikipedia/commons/thumb/f/fb/Valsalva_maneuver.jpg/800px-Valsalva_maneuver.jpg
scnr :freak:
crux2005
2019-05-03, 21:03:30
Das Video hat natürlich Ton. Wechselt mal den Browser, startet den Rechner neu oder sowas!
Die Hölle ist zugefroren und mein Sound auch. :biggrin:
Nach neustart habe ich Ton. Lag wohl am legendären Creative Treiber...
BoMbY
2019-05-03, 22:06:56
Geht weiter:
// Pre-GFX10 target did not benefit from loop alignment
if (!ML || DisableLoopAlignment ||
(getSubtarget()->getGeneration() < AMDGPUSubtarget::GFX10) ||
getSubtarget()->hasInstFwdPrefetchBug())
return PrefAlign;
// On GFX10 I$ is 4 x 64 bytes cache lines.
// By default prefetcher keeps one cache line behind and reads two ahead.
// We can modify it with S_INST_PREFETCH for larger loops to have two lines
// behind and one ahead.
// Therefor we can benefit from aligning loop headers if loop fits 192 bytes.
// If loop fits 64 bytes it always spans no more than two cache lines and
// does not need an alignment.
// Else if loop is less or equal 128 bytes we do not need to modify prefetch,
// Else if loop is less or equal 192 bytes we need two lines behind.
https://reviews.llvm.org/D61529
Leonidas
2019-05-04, 07:05:06
Na dann hast du das wichtigste vom Geschichtenonkel verpasst: es wird biosupdstes geben, die den noch im Umlauf befindlichen non-a und a Chips die die selbe hw-id verpassen.
Das wurde nicht gesagt. Es wurde nur gesagt, das bei den Grafikkartenherstellern bereits herumliegende Chips vor Auslieferung noch auf die neue Variante umgeflasht werden. Das ist eine interne Maßnahme zwischen NV und den Grafikkartenherstellern.
Wen Navi in Q3 (Juli-September) auf den Markt kommt, ist Nvidia GTX auch schon 9-12 Monate am Markt präsent .... wie lange wird es noch dauern, bis dann 7nm Karten kommen ? 6 Monate, 9 Monate ?
Wenn NV überhaupt 7nm macht und nicht erst bei 6nm einsteigt.
Screemer
2019-05-04, 10:15:59
Das wurde nicht gesagt. Es wurde nur gesagt, das bei den Grafikkartenherstellern bereits herumliegende Chips vor Auslieferung noch auf die neue Variante umgeflasht werden. Das ist eine interne Maßnahme zwischen NV und den Grafikkartenherstellern.
Igor spricht also doch russisch. was glaubst du was passiert, wenn dieses bios auf die freie wildbahn trifft? igor spricht auch genau das an: https://youtu.be/5wk_0kYDF2g?t=283 bis 6:00.
[...]und es wird höchstwarscheinlich biose geben um diese alten nicht-a-chip-karten ein bisschen aufzuhübschen.
Dino-Fossil
2019-05-04, 12:34:39
Nvidia scheint aber mächtig Düsengang zu haben. Die schaffen gerade die Non- und A-Chips ab und verkaufen die Chips Ende Mail wohl billiger an die Boardpartner als neue SKU. :D
Vor jedem größeren AMD-GPU Release in den letzten Jahren gab es solche Spekulationen, wenn nVidia irgendwas released oder im Preis gesenkt hat.
Wenn man sich anschaut, was dann am Ende herauskam (speziell Marktanteile), hatte nVidia eigentlich nicht wirklich einen Grund dafür.
Von daher behaupte ich mal, es hat mit Navi nichts zu tun...
gbm31
2019-05-04, 13:46:24
Naja, die 1070Ti war sicher eine Präventivmaßnahme gegen die Vega um genau diese Marktanteile zu sichern mit Topplätzen auf Benchmarktlisten, nach denen Otto-Normal-Dummi einkauft.
Ohne die Mining-Blase mit entprechenden Preisen und Verfügbarkeiten wäre dieses Battle sicher interessant geworden...
Dino-Fossil
2019-05-04, 14:13:59
Ach, wenn ich mir Marktanteile und Sachen wie Steam-Survey ansehe, kauft der Otto-Normal-Dummy primär nach dem Namen - und da ist nVidia einfach so viel populärer, dass es keine große Rolle spielt ob mal eine AMD-Karte in einem Segment vor nVidia steht. Die Spitzenplätze hat nVidia dank den Ti(tan) Karten sowieso sicher.
Dural
2019-05-04, 14:40:46
Das Video hat natürlich Ton. Wechselt mal den Browser, startet den Rechner neu oder sowas!
Man könnte ja auch auf die idee kommen das mein pc gerade keine lautsprecher oder kopfhörer hatte...
mksn7
2019-05-04, 16:30:11
Geht weiter:
// Pre-GFX10 target did not benefit from loop alignment
if (!ML || DisableLoopAlignment ||
(getSubtarget()->getGeneration() < AMDGPUSubtarget::GFX10) ||
getSubtarget()->hasInstFwdPrefetchBug())
return PrefAlign;
// On GFX10 I$ is 4 x 64 bytes cache lines.
// By default prefetcher keeps one cache line behind and reads two ahead.
// We can modify it with S_INST_PREFETCH for larger loops to have two lines
// behind and one ahead.
// Therefor we can benefit from aligning loop headers if loop fits 192 bytes.
// If loop fits 64 bytes it always spans no more than two cache lines and
// does not need an alignment.
// Else if loop is less or equal 128 bytes we do not need to modify prefetch,
// Else if loop is less or equal 192 bytes we need two lines behind.
https://reviews.llvm.org/D61529
Cooles Zeug was du da ausgräbst! Einen voregelagerten instruction cache gibt es seit Polaris, oder? Das "hasInstFwdPrefetchBug()" find ich auch witzig...
gravitationsfeld
2019-05-04, 16:57:53
Jeder Chip hat Bugs.
BoMbY
2019-05-04, 17:19:01
Cooles Zeug was du da ausgräbst! Einen voregelagerten instruction cache gibt es seit Polaris, oder? Das "hasInstFwdPrefetchBug()" find ich auch witzig...
Da wurde nur gesagt "improved pre-fetch". Hier handelt es sich scheinbar um eine größere Erweiterung/Verbesserung (jedenfalls sofern der Bug nicht vorhanden ist).
AdoredTv Navi Analysing - part II
https://www.youtube.com/watch?v=Xg-o1wtE-ww
Von euchem lieblings leaker :biggrin:
Es lohnt sich, bis ganz zum Ende zu springen - ausgesprochen negative Stimmung seitens der Quellen. Halte ich gerade deshalb für realistisch.
dr.denton
2019-05-05, 11:58:22
Auf der anderen Seite sagt er auch, dass er einfach jetzt gar nichts mehr glaubt und dass wir das auch nicht tun sollten *tongue*
Aber mir hat das echt ein bisschen den Tag versaut ... noch mal 5 Jahre ohne echte Konkurrenz wird Gaming auf dem PC für mich killen.
Dino-Fossil
2019-05-05, 12:12:11
Naja, hab gerade keine Lust mir ein 35min Video mit Spekulatius anzuschauen, aber vom schnellen Überfliegen des Reddit-Threads ist es wohl eine Menge Doom&Gloom.
Wobei ich mich dann aber wiederum folgendes frage:
AdoredTV besteht immer noch darauf, dass sein ursprünglicher Leak zur CES-Vorstellung von Navi+Zen2 richtig war, die aber nur kurzfristig abgeblasen wurde.
Angeblich, weil die Chips nicht gut genug liefen und ein retape nötig wurde.
Wie realisitisch ist es denn, dass man ein komplettes line-up mit Performance, Preisen & TDP angeblich in der Schublade hat, ohne dass die entsprechenden, funktionierenden Chips vorliegen? Stattdessen stellt man wenige Wochen vorher erst fest, "huch, die Chips liefern ja nicht annähernd die nötige Performance, sind zu heiß und lassen sich nicht takten! Wir müssen das abblasen!"?
Ich weiß nicht so recht...
Mandalore
2019-05-05, 12:14:24
Naja, er meinte auch damals, dass Zen 2 und Navi zur CES releasen - beides falsch (hatte er inklusive allerlei Namen usw.)
Es ist wirklich komisch was Navi angeht, doch sehen wir uns mal alle 3 wichtigen Quellen an
1) Tweaktown (lagen ja sehr oft richtig, z.B. bei Turing auf den Punkt genau)
- Vor nem Jahr hieß es das Gleiche, dass Navi katastrophal sei.
- Vor einem Monat wurde plötzlich gesagt, Navi ist Post-GCN (also
komplett neu) und sei viel besser als Vega
2) WCCFTECH lag schon sehr lange ziemlich richtig was Navi angeht (bis zu 2 Jahre), dass Navi nicht vor Q3 19 erscheinen wird und Navi KEIN GCN ist.
3) ADORED - was für nen Track hat er eigentlich?
Ich glaube die Situation ist exakt die Gleiche wie damals zum G80 vor 13 Jahren, wo es auch ständig hieß von Leakern usw. dass Nvidia weiterhin die Pixel-Pipeline Architektur fortsetzt und dann kam damals bekanntlich der Knall : Unified Shader und eine der besten GPUs ever
Von daher, am besten abwarten, da ich mir nicht vorstellen kann, dass Sony und Microsoft sich sowas in die Konsolen reinstecken um am Ende mit unzähligen Retouren zu rechnen....
reaperrr
2019-05-05, 12:24:38
Naja, hab gerade keine Lust mir ein 35min Video mit Spekulatius anzuschauen, aber vom schnellen Überfliegen des Reddit-Threads ist es wohl eine Menge Doom&Gloom.
Wobei ich mich dann aber wiederum folgendes frage:
AdoredTV besteht immer noch darauf, dass sein ursprünglicher Leak zur CES-Vorstellung von Navi+Zen2 richtig war, die aber nur kurzfristig abgeblasen wurde.
Angeblich, weil die Chips nicht gut genug liefen und ein retape nötig wurde.
Wie realisitisch ist es denn, dass man ein komplettes line-up mit Performance, Preisen & TDP angeblich in der Schublade hat, ohne dass die entsprechenden, funktionierenden Chips vorliegen? Stattdessen stellt man wenige Wochen vorher erst fest, "huch, die Chips liefern ja nicht annähernd die nötige Performance, sind zu heiß und lassen sich nicht takten! Wir müssen das abblasen!"?
Ich weiß nicht so recht...
Mal ganz abgesehen davon, dass a) die Preise selbst für "zu stromhungrig, heiß und laut" bei der kolportierten Performance schlicht zu niedrig angesetzt wären, GDDR6 und 7nm sind immer noch ne Ecke teurer pro GB respektive mm² als ihre Vorgänger.
Und b) so viel höher wie NVs Preise im jeweiligen Perf-Bereich sind, ergibt es auch einfach keinen Sinn, mal eben 100$ an Marge zu verschenken.
Und der geringe Spezifikationsabstand zwischen Navi12 und Navi10 ergibt ebenfalls einfach keinen Sinn. Dass jetzt auch Navi wieder eine Enttäuschung wird kann ja vielleicht stimmen, aber die konkreten Karten-/Chip-Specs wirken ziemlich unschlüssig.
w0mbat
2019-05-05, 12:43:04
3) ADORED - was für nen Track hat er eigentlich?
Bei eigenen "Quellen" lag er bisher immer falsch. Er sagt ja am Ende dass er aktuell nichts mehr glauben kann und mMn schützt er sich damit einfach, weil er bisher immer geraten hat.
Der_Korken
2019-05-05, 12:46:53
Die Verwirrung, dass Navi zum einen katastrophal schlecht wird und andererseits Post-GCN sein soll, lässt sich vielleicht dadurch auflösen, dass der ursprüngliche Navi intern gestrichen wurde (eben weil er zu schlecht war) und der ursprüngliche Nachfolger als Navi veröffentlicht wird. So hätten am Ende irgendwie alle Recht gehabt.
Lehdro
2019-05-05, 12:49:07
Und b) so viel höher wie NVs Preise im jeweiligen Perf-Bereich sind, ergibt es auch einfach keinen Sinn, mal eben 100$ an Marge zu verschenken.
Das habe ich schonmal gehört: Bei Zen1.
Bei eigenen "Quellen" lag er bisher immer falsch.
Echt? Bei den Chiplets von Zen 2 lag er doch richtig?
Navi 12 ist sowieso ein großes Fragenzeichen wenn es doch angeblich auch ein Navi 14 geben soll...
Dino-Fossil
2019-05-05, 13:00:14
Er hatte auch recht mit seiner Einschätzung zur Performance von Vega - allerdings war die als eigene Spekulation deklariert, nichts aus irgendwelchen Quellen, wenn ich mich recht erinnere.
Die Verwirrung, dass Navi zum einen katastrophal schlecht wird und andererseits Post-GCN sein soll, lässt sich vielleicht dadurch auflösen, dass der ursprüngliche Navi intern gestrichen wurde (eben weil er zu schlecht war) und der ursprüngliche Nachfolger als Navi veröffentlicht wird. So hätten am Ende irgendwie alle Recht gehabt.
Oder der ursprüngliche Navi war die Quelle des Mid-Range-only Gerüchtes, noch GCN und wurde dann verworfen, weil man wegen GF's Ausstieg aus 7nm sowieso massiv umbauen musste und die resultierenden Verzögerungen dann Raum ließen für weitere Änderungen. Aber die neue Arch bringt auch nicht, was man sich erhofft hat (bzw. war einfach noch nicht weit genug). Oder...
Schwer zu sagen, aber vielleicht würde es die teils sehr unterschiedlichen Gerüchte in der Tat erklären, wenn sich da größere Änderungen ergeben haben - warum auch immer.
Oder es liegt halt einfach daran, dass so gut wie nichts nach außen dringt und nur alle raten.
Mandalore
2019-05-05, 13:02:34
Die Verwirrung, dass Navi zum einen katastrophal schlecht wird und andererseits Post-GCN sein soll, lässt sich vielleicht dadurch auflösen, dass der ursprüngliche Navi intern gestrichen wurde (eben weil er zu schlecht war) und der ursprüngliche Nachfolger als Navi veröffentlicht wird. So hätten am Ende irgendwie alle Recht gehabt.
Genau dasselbe denke ich auch, würde auch zu den ganzen Patenten, die jetzt doch knapp 5 Jahre alt sind passen bzgl. einer kompletten Abkehr von GCN.
dargo
2019-05-05, 13:03:24
Aber mir hat das echt ein bisschen den Tag versaut ... noch mal 5 Jahre ohne echte Konkurrenz wird Gaming auf dem PC für mich killen.
:confused:
Inwiefern?
Bis RTX 2080 ist AMD absolut konkurrenzfähig (ok... ich gebe zu die Radeon VII sollte mit Custom-Kühlern kommen, die Referenz ist halt suboptimal). Die RTX 2080TI ist eher nebensächlich. Das ist ein Preissegment der früher nur für die Titanen galt, ergo verschwindend gering was die Anzahl der Interessenten angeht. Kein Massenprodukt halt. Im Prinzip hat Nvidia mit der Turing TI nur ein höheres Preissegment eingeführt. Und die eigentliche Titan ist dadurch extrem viel teurer geworden, praktisch ein Aufschlag von +100%. Und wenn man sich neuere Games anschaut sehe ich auch keinen wirklichen Bedarf an wesentlich mehr Leistung. Grafikengines werden immer effizienter, APIs am PC ebenso. Klar... ab und zu wird sicherlich noch irgendeine Bananensoftware released. Der Trend ist allerdings langsam ersichtlich. Das nächste fällige Upgrade sehe ich also erst mit den nächsten Konsolen. Irgendwann 2020/2021. Dann hole ich mir eine Graka die Vega64 Performance *2-2,5 liefert und schon habe ich wieder lange genug Ruhe. Ich sehe das bei weitem nicht so dramatisch wie einige hier.
Lehdro
2019-05-05, 13:13:23
:confused:
Und wenn man sich neuere Games anschaut sehe ich auch keinen wirklichen Bedarf an wesentlich mehr Leistung. Grafikengines werden immer effizienter, APIs am PC ebenso. Klar... ab und zu wird sicherlich noch irgendeine Bananensoftware released. Der Trend ist allerdings langsam ersichtlich.
Das mag deine Sicht sein. Ich hingegen sehe das so: Meine Grafikkarte wird dieses Jahr 3 Jahre alt und es gibt immer noch nichts was ein Upgrade lohnend macht: Weder gibt es minimum x2 Performance noch irgendwelche anderen Features die unbedingt nötig sind (Raytracing aussen vor weil derzeit zu Leistungsarm beschleunigt). Ich hätte gerne mehr Leistung, aber derzeit macht preistechnisch nichts auch nur annähernd Sinn, denn dasselbe für gerade mal +50% Leistung zu bezahlen ist ein schlechter Witz. Aber so etwas passiert wohl wenn man seit 5 Jahren auf 4K schwört - Leistung kann man nie genug haben.
dargo
2019-05-05, 13:16:08
Falschen Monitor gekauft, ganz einfach. Wer 4k Displays kauft muss halt damit rechnen, dass er für hohe fps viel Geld bei der Graka ausgeben wird müssen. Und/oder halt noch länger warten muss, je nachdem was gerade verbaut ist. Die Zyklen werden doch sowieso immer länger. Ist nun wirklich keine Neuigkeit mehr für jemanden der sich seit einigen Jahren mit der ganzen Hardwareentwicklung beschäftigt.
Denniss
2019-05-05, 13:18:12
Kam das mit den Chiplets wirklich von Jim? Mir schwebte da eher Charlie vor.
Linmoum
2019-05-05, 13:30:52
Ja, Charlie hat das definitiv vor ihm gebracht.
Weiß auch nicht, warum man jetzt wieder seitenlang über irgendwelche Ausschweifungen von ihm hier schwadronieren sollte. Spätestens nach seinem CES-Debakel und dieser Fake-Liste hat der Typ sich endgültig disqualifiziert.
Langlay
2019-05-05, 13:38:32
Das mag deine Sicht sein. Ich hingegen sehe das so: Meine Grafikkarte wird dieses Jahr 3 Jahre alt und es gibt immer noch nichts was ein Upgrade lohnend macht: Weder gibt es minimum x2 Performance noch irgendwelche anderen Features die unbedingt nötig sind (Raytracing aussen vor weil derzeit zu Leistungsarm beschleunigt). Ich hätte gerne mehr Leistung, aber derzeit macht preistechnisch nichts auch nur annähernd Sinn, denn dasselbe für gerade mal +50% Leistung zu bezahlen ist ein schlechter Witz. Aber so etwas passiert wohl wenn man seit 5 Jahren auf 4K schwört - Leistung kann man nie genug haben.
So ähnlich gehts mir schon länger. Kurz nach dem Release der Radeon 290(X) ende 2013 hab ich mir damals für 330€ ne Referenz Radeon 290, einen Wasserkühler draufgeschnallt und ab ging die Party. Ende 2015 hab ich mir dann einen 1440p Moni gekauft und naja mit der 290 lief es zwar alles im spielbaren Bereich aber der Wunsch nach Leistung wurde dann doch grösser. Allerdings bis zum Release der Vegas hätte ich mehr Leistung nur dann bekommen wenn ich bereit wäre deutlich mehr auszugeben. Also für doppelt Leistung meiner 2 Jahre alten Karte hätte ich auch mindestens das doppelte bezahlt was die 290 vor 2 Jahren gekostet hätte. Ende August ist meine Vega56 2 Jahre alt und ich bin wieder in der gleichen Situation. Wunsch nach mehr Leistung ist da, gibts aber nur wenn ich bereit bin deutlich tiefer in die Tasche zu greifen.
Skaven
2019-05-05, 14:40:31
Hallo zusammen,
ich bin an Navi interessiert, deswegen lese ich gerade wieder mit. Ich stelle mir das so vor:
Wir haben 2017, und Vega ist lange nicht so gut wie erwartet. Raja Koduri wird suspendiert / geht zu Intel. Da Vega schlechter ist als erwartet, hat man Baustellen. Eigentlich wollte man für Navi eine neue Architektur entwickeln, aber die Vega-Baustellen stören und durch den Weggang von Koduri hat man Zeit verloren.
Globalfoundries schafft die 7nm nicht, aber immerhin hat man die Chance, bei TSMC in 7 nm fertigen zu lassen. Das ist allerdings nicht billlig, und man muss sich zur Fertigung auf einen freien Timeslot einlassen, statt selbst bestimmen zu können.
Der neue Prozess bietet wahrscheinlich keine optimalen Yields. Zudem kann man Nvidia kurzfristig auf keinen Fall einholen. Wenn Nvidia mit 7 nm kommt, liegt man wieder deutlich hinten .. also ein kleines Zeitfenster, um Geld zu verdienen.
AMD muss betriebswirtschaftlich denken. Wichtig ist es, im Rennen zu bleiben und nicht zu viel Geld zu verlieren.
Daher (wenig Zeit, wenig Geld, fixe Termine) behält man die GCN-Arch bei und konzentriert sich auf den Shrink zu 7nm. Nebenbei versucht man, ein, zwei neue Features zusätzlich zu unterstützen und ein, zwei Sachen zu fixen, die vorher nicht funktioniert haben. Man macht genau zwei Chips und möglichst wenig Platinen und lässt eine Stückzahl fertigen, die man auf jeden Fall los wird.
Die Chips müssen klein sein, denn sonst steigen die Chancen für schlechte Yields. Mit kleinen Chips (=wenig Einheiten) und alter Arch kann man die Top-Karten von Nvidia aber nur dann erreichen, wenn man hoch taktet und gut selektiert.
Ich glaube, das erklärt die zwei 8-Pin Anschlüsse auf dem geleakten PCB. Auf den kleineren Varianten wird nur einer der Anschlüsse bestückt. Die ganze Idee ist, Kosten zu sparen und mittelmäßige Technik in aktueller Fertigungstechnik für einen attraktiven Preis anzubieten. AMD kann seine Schulden bedienen, die Angestellten zahlen und weiter entwickeln. Denn mit der nächsten Arch wird alles besser .. ;-)
Kann natürlich kompletter Unsinn sein - aber wie soll AMD mit einem Zehntel F&E-Budget schaffen, was Nvidia schafft?
Skaven
dr.denton
2019-05-05, 14:56:42
@dargo: gutes Argument. Zumal in meinem PC immer noch eine GTX660 steckt und ich fast nur älteren Kram in FHD spiele. :tongue:
Allerdings hatte ich auch mal testweise eine RX580 drin und ganz ehrlich: den Stromverbrauch sehe ich nicht ein - das mag in größeren, besser durchlüfteten Gehäusen angehen, oder auch wenn die Lautstärke egal ist. Bei mir ist mit 120W bei der Grafik Schluss.
Klar, untervolten geht immer, aber ich bin es leid, mit der Hardware herumzuspielen - egal wie leicht es einem AMD mit dem Treiber macht, ich mag einfach keine Überraschungen mehr erleben.
Ich glaube, ich bin damit nicht alleine, wenn ich mir midrange bis mainstream-Leistung wünsche bei real ca. 120W.
Und auch wenn es irrational ist: ein Produkt wie Polaris oder Vega, wo die Leistung mehr als bei NV von jedem spezifischen Spiel abzuhängen scheint, fühlt sich für mich ... unbefriedigend an.
@Skaven: von meiner laienhaften Warte aus gesehen finde ich das eine sehr gute Zusammenfassung ;)
reaperrr
2019-05-05, 15:08:27
Das habe ich schonmal gehört: Bei Zen1.
Du willst nicht ernsthaft eine CPU, die
- in einem zu dem Zeitpunkt bereits extrem ausgereiften und wahrscheinlich vom Wafer-Preis auch nicht mehr so teuren Prozess kam,
- von AMD direkt an die Großhändler verkauft wird und
- wo außer den Chipkosten selbst nur noch etwas für Assembly, Transport, Verpackung und (außer bim Topmodell wohl relativ günstigen) Kühler dazukommt und
- anfangs für bis zu 499$ verkauft wurde (Stichwort Mischkalkulation)
- der Konkurrenz (damals ja noch 7700K) im Vollausbau in Kernzahl um Faktor 2 und MT-Perf um Faktor ~1.5 überlegen war
mit einer GPU vergleichen, die
- in einem noch ziemlich neuen, von Ausbeute und Wafer-Kosten garantiert pro Chip deutlich teureren Prozess produziert wird,
- zu der dann noch Kosten für PCB mit allen Bauteilen und v.a. 8GB GDDR6 und ein fetterer Lüfter kommen
- wo auch die Board-Partner etwas vom Kuchen abhaben wollen
vergleichen, die dann angeblich für 249$ verscherbelt werden soll, obwohl sie so schnell wie die aktuelle 499$-Karte der Konkurrenz ist und in der Produktion auch ähnlich viel kosten wird?
Die Stückkosten für eine Grafikkarte mit 200mm² Chip sind völlig andere als für eine 200mm² CPU, weil da viel weniger dran hängt.
Wenn AMD 2070-Perf zu 2060-Preis bringt, das würde ich noch verstehen, aber 2070-Perf zu RX590-Preis, da lösen sie nur völlig unnötig einen Preiskrieg aus, der ihnen bestenfalls ein paar Prozent mehr Markanteil auf Kosten vieler Prozent Gewinn bringt. Das wäre völliger Irrsinn. Das wäre so, als hätten sie die R7 für 399 statt 699 gebracht und hunderte $ Verlust je Karte in Kauf genommen, bloß um NV ein bisschen zu ärgern. Haben sie nicht gemacht, würde mich arg irritieren, wenn sie bei Navi plötzlich damit anfangen.
Und wie gesagt, es würde auch schlicht und ergreifend keinen Sinn machen.
Unicous
2019-05-05, 15:49:51
Wovon sprichst du bitte?:freak:
7nm ist seit mittlerweile über einem Jahr in Massenfertigung, VegaII wird seit geraumer Zeit gefertigt und wenn Navi launched ist vergleichsweise mehr Zeit vergangen zwischen Launch von Polaris und Zen1.
Zudem vergleichst du gerade GF mit ihrem gelinde ausgedrückt unterdurchschnittlichen track record mit TSMC die im Monat Millionen von Wafer starts (ich glaube es waren vor einiger Zeit mal 2 Mio. pro Monat, natürlich über alle Fabs und Prozesse verteilt, versteht sich) haben während GF sich in den unteren 100K bewegt.
Also bitte erzähl mir mal was in den 9 Monaten die zwischen Polaris und Zen1 lagen so "extrem ausgereift" ist?:uponder:
Und dann korreliere das bitte mit den dann mindestens 15 Monaten für den 7nm Prozess.
Im Übrigen lässt sich eine GPU deutlich besser "salvagen" als eine CPU und wenn man den Behauptungen von Bits and Chips Glauben schenkt, dann sind die angeblichen 70% Yield mehr als ordentlich (auch wenn wir nur von einem Chip reden, der wohl kleiner als 90mm² groß ist) wenn man zudem bedenkt, dass der Marktstart noch ein paar Monate auf sich warten lässt.
edit:
Und zu dem was über Koduri gesagt wird: Er wurde nicht suspendiert, wie kommt man denn auf solch einen Schmarren?:confused:
Er ist zu Intel gegangen weil er bei AMD nicht genug Ressourcen zur Verfügung hatte und ich wette ihm wurde auch der Geldhahn zugedreht, weil man sich auf Zen konzentriert hat. Bei Intel hat er jetzt alle Ressourcen die er sich nur wünschen kann und sicherlich relativ viel Freiraum zu walten und schalten wie er es sich vorstellt.
dargo
2019-05-05, 16:01:09
@dargo: gutes Argument. Zumal in meinem PC immer noch eine GTX660 steckt und ich fast nur älteren Kram in FHD spiele. :tongue:
Allerdings hatte ich auch mal testweise eine RX580 drin und ganz ehrlich: den Stromverbrauch sehe ich nicht ein - das mag in größeren, besser durchlüfteten Gehäusen angehen, oder auch wenn die Lautstärke egal ist. Bei mir ist mit 120W bei der Grafik Schluss.
Klar, untervolten geht immer, aber ich bin es leid, mit der Hardware herumzuspielen - egal wie leicht es einem AMD mit dem Treiber macht, ich mag einfach keine Überraschungen mehr erleben.
Ich glaube, ich bin damit nicht alleine, wenn ich mir midrange bis mainstream-Leistung wünsche bei real ca. 120W.
Ich verstehe dein Problem nicht. Manchmal habe ich das Gefühl man redet sich Probleme ein die gar nicht da sind. Du willst keine Überraschungen? Nichts einfacher als das. Diese RX 590 wird gerade mit 179€ sehr günstig angeboten.
https://geizhals.de/powercolor-radeon-rx-590-red-dragon-axrx-590-8gbd5-dhd-a2006838.html?hloc=at&hloc=de
Rufst den Wattman auf (sofern kein Afterburner installiert) und stellst das Powerlimit nach den eigenen Bedürfnissen ein. Das geht auch bei Polaris afaik bis -50%. Wenn ich mir das hier so anschaue...
https://www.youtube.com/watch?v=5311MAgAHgI
Liegt eine Fatboy bei ca. 170W GPU-Power im Schnitt (nicht mit der gesamten Karte verwechseln). Thoretisch kannst du also bis 85W runter gehen. Das würde dann in etwa 110-115W für die gesamte Karte bedeuten. Problem gelöst. Mit dem Wattman bist du da ziemlich flexibel. Du könntest bsw. auch 150W anpeilen. Über so niedrige Verbräuche da wird auch der Kühler drüber lachen, ergo wird das ganze deutlich leiser. Und mich würde es kein Stück wundern wenn du mit dieser Karte bei 120W eine RX570 erreicht, wenn nicht sogar leicht schlägst. Letztere verbraucht mehr per Default. Natürlich könnte man das ganze noch mit Hilfe von UV optimieren (zb. Leistung einer RX580 unter 150W oder so erreichen), aber auf letzteres hast ja keine Lust. Wenn der IHV keine Green Edition liefert "bastelt" man sich selbst eine. Dafür muss man nur den PT-Slider bedienen können. Und das sollte nunmal wirklich jeder schaffen.
Edit:
Dieses Video solltest du dir mal anschauen, denn es verdeutlicht sehr gut was ich meine.
vbZwOWFliYk
Anhand der Nitro+ sieht man wie sich P30 verhält wenn man die Frequenz nicht nah der der Kotzgrenze betreibt. RX590 @Taktrate der RX480 (1266Mhz) bedeutet Powerlimit auf -25%. Das heißt im Endeffekt dann etwas mehr Leistung als eine RX480. Die Karte wird 16°C kühler als @Default und das Gesamtsystem verbraucht 120W weniger.
Ist jedem gut informierten Foren-Poster klar gewesen, dass AMD sämtliche Ressourcen in Zen steckt, daher bezweifel ich, dass er es nicht wusste. Daher ist der wechsel zu intel definitiv nicht einseitig über die Bühne gelaufen, sondern hat auch andere Gründe.
Das selbe, wenn ich jetzt zu Dacia gehe und dann nach 1-2 Jahren zu Tesla wechsel, weil ich nicht genügend Ressourcen für meine Ideen bekommen habe :P
Koduri hat sich definitiv einige Schnitzer erlaubt. Sein Pech, dass jene Schnitzer in der Öffentlichkeit geschahen und entsprechend schnell breitgetreten wurden.
Skaven
2019-05-05, 16:36:40
edit:
Und zu dem was über Koduri gesagt wird: Er wurde nicht suspendiert, wie kommt man denn auf solch einen Schmarren?:confused:
Er ist zu Intel gegangen weil er bei AMD nicht genug Ressourcen zur Verfügung hatte und ich wette ihm wurde auch der Geldhahn zugedreht, weil man sich auf Zen konzentriert hat.
Bevor er ging, war die Rede davon, das er zurückkommt. Offenbar habe ich aus "Sabbatical" --> "Suspendiert" gemacht, sorry dafür. Aber "Sabbatical" in dieser Meldung (https://pcper.com/2017/09/amd-radeon-technologies-group-raja-koduri-goes-on-sabbatical/) ist auch nicht weit weg von "suspendiert".
Skaven
Grendizer
2019-05-05, 16:41:00
Ist jedem gut informierten Foren-Poster klar gewesen, dass AMD sämtliche Ressourcen in Zen steckt, daher bezweifel ich, dass er es nicht wusste. Daher ist der wechsel zu intel definitiv nicht einseitig über die Bühne gelaufen, sondern hat auch andere Gründe.
Das selbe, wenn ich jetzt zu Dacia gehe und dann nach 1-2 Jahren zu Tesla wechsel, weil ich nicht genügend Ressourcen für meine Ideen bekommen habe :P
Koduri hat sich definitiv einige Schnitzer erlaubt. Sein Pech, dass jene Schnitzer in der Öffentlichkeit geschahen und entsprechend schnell breitgetreten wurden.
Glaubt ihr, das Navi einen funktionierenden Primitive Shader haben wird ?
Lehdro
2019-05-05, 16:57:21
Du willst nicht ernsthaft eine CPU[...]
Du sprachst von 100$ Marge die AMD nicht liegen lassen würde, von einer Preishalbierung solltest du dann in deiner Antwort sicherlich nicht ausgehen. Beachte den gequoteten Kontext.
AMD wird NV nur preislich merkbar (10-20%) unterbieten wollen um Marketshare zu bekommen - mehr nicht. Wenn sie nur eine Preisparität bei identischer Leistung abliefern brauchen sie gar nichts releasen, sowas kauft die Masse nicht, dafür ist die Marke Geforce/NV mittlerweile viel zu stark. AMD muss also entweder beim Preis Zugeständnisse machen oder eine bessere Leistung für denselben Preis abliefern.
Falschen Monitor gekauft, ganz einfach.
Lächerlich. Ich konnte 4k seit über 5 Jahren vernünftig nutzen, was ist daran falsch? Das Problem kommt doch erst jetzt zustande und nicht vor 5 Jahren...
Die Zyklen werden doch sowieso immer länger. Ist nun wirklich keine Neuigkeit mehr für jemanden der sich seit einigen Jahren mit der ganzen Hardwareentwicklung beschäftigt.
Im Schnitt der letzten 10 Jahre hast du alle 2,5-3,5 Jahre die doppelte Leistung mit dem allerersten Topmodell erhalten, Turing fällt da komplett raus weil der Schritt von Pascal recht klein ist, während der Schritt von Kepler/Maxwell auf Pascal gigantisch war (weit mehr als Verdopplung von Kepler ausgehend, auch innerhalb(!) von 3 Jahren). Vielleicht war es zu optimistisch von mir auszugehen das Turing einen ähnlichen Schritt macht wie die üblichen ~3 Jahres-Updates die ich durchziehe.
dargo
2019-05-05, 17:28:48
Lächerlich. Ich konnte 4k seit über 5 Jahren vernünftig nutzen, was ist daran falsch?
Na offenbar nicht. Das was ich bei dir herauslese strebst du nach mehr Performance.
Ex3cut3r
2019-05-05, 17:32:30
2080Ti rein, Max PT einstellen, +150, +1000 für den Speicher und man hat auch in 4K erstmal keine Probleme, bei den neuen 7nm GeForce Karten, die 2080 Ti wieder verkaufen für ungefähr 700€ und gleich in die neue 3080Ti investieren. Was hat die alte 2080Ti dann überhaupt effektiv gekostet? 1200€ (MSI Gaming X) - 700€ (Verkauf) = 500€. ;) ;)
Sonst kann man natürlich typisch deutsch auch weiterhin über die Preise meckern, oder man wird wie oben gesagt kreativ. Oder man kann man es natürlich auch wie Dargo pflegen, immer nur Performance HW kaufen und auf Schnäppchen Jagd gehen, nur wir sind doch alle Nerds, wo bleibt dann der Spaß mit "Performance HW" ? ;D
rentex
2019-05-05, 17:48:10
Jepp, so hab ich es auch gemacht. 1080 Ti für Netto 610€ verkauft und 2080 Ti Gaming X Trio für 1200€ (= 590€) gekauft.
BlacKi
2019-05-05, 18:25:11
wir müssen uns drauf einstellen das die hardware teurer wird, bzw. die performance sprünge geringer ausfallen. da die spiele auf die hardware ausgelegt werden, ist das problem aber halb so schlimm, der wertverfall ist ja auch nicht mehr so stark wie früher.
prinz_valium
2019-05-05, 18:37:22
250€ pro Jahr für ne GPU bezahlen also.
Dafür game ich 4 bis 6 Jahre.
Aber Navi wird es auf jeden Fall nicht.
Mal sehen was Nvidia mit 7/6nm bringt.
Linmoum
2019-05-05, 18:40:57
Aber Navi wird es auf jeden Fall nicht.
Mal sehen was Nvidia mit 7/6nm bringt.
Weißt du denn schon, was AMD mit (Navi) 7nm bringt? :confused:
Lehdro
2019-05-05, 18:42:42
Na offenbar nicht. Das was ich bei dir herauslese strebst du nach mehr Performance.
Ja für die heutige Spielegeneration. Alles bis ~2018 lief ja perfekt. SotTR zb wird schon recht grenzwertig.
Dino-Fossil
2019-05-05, 19:26:06
Weißt du denn schon, was AMD mit (Navi) 7nm bringt? :confused:
Wenn man sowieso nur eine Marke in Betracht zieht, ist es doch egal...
Slipknot79
2019-05-05, 19:45:31
Weiß ned wo das Problem ist, PC ballern ist ein billiges Hobby, ins Kino gehen ist teurer. (€/h)
TheGood
2019-05-05, 19:57:13
Bei eigenen "Quellen" lag er bisher immer falsch. Er sagt ja am Ende dass er aktuell nichts mehr glauben kann und mMn schützt er sich damit einfach, weil er bisher immer geraten hat.
Er kennt jetzt die richtigen Daten und sein Kartenhaus ist halt zusammengefallen...
Es bleibt zur hoffen dass AMD endlich mal wieder was reist im Grakabusiness. Leider gab es in den letzten Jahren, nie den erhofften Befreiungsschlag...
Dino-Fossil
2019-05-05, 21:26:06
Er kennt jetzt die richtigen Daten und sein Kartenhaus ist halt zusammengefallen...
Hm, (Spekulation meinserseits) also etwa so?
Er hat jetzt aus diesmal zuverlässigen erfahren wie Navi wirklich aussieht - nämlich erstmal nicht so toll wie in seinem alten "Leak", evtl. eher wie in den ganz alten Gerüchten - also nur Mid-Range (z.B. etwa auf V10-Niveau oder leicht darunter, halt bei besserer Stromaufnahme und geringerem Preis).
Um sein altes Video da unterzubekommen muss also offenbar bei Navi etwas schief gelaufen sein (d.h. AMD erreicht nicht das "eigentliche" Ziel, das sein angeblich korrekter Leak natürlich als Grundlage hatte).
:ugly:
BlacKi
2019-05-05, 22:59:22
250€ pro Jahr für ne GPU bezahlen also.
Dafür game ich 4 bis 6 Jahre.
Aber Navi wird es auf jeden Fall nicht.
Mal sehen was Nvidia mit 7/6nm bringt.
das geht natürlich auch billiger, aber die genannte ist schon die schnellste gerade so noch bezahlbare.
die 1080ti wird jetzt 2 jahre alt, und hat einen wertverlust von ca 250-300€. das sind dann nur 150€ pro jahr. liegt allerdings am speicher der neuen gen., das die noch so einen wert hat IMO. mit navi 16gb könnte es mit ihr nach unten gehen, egal ob die nun 2060/70/80 performance hat.
Es gab ja zuletzt Quellen die davon sprachen , dass Navi nicht in den MHz-Regionen taktet wie die Radeon VII (knapp 1800 MHz)
Und von 40CU, also 2560 Cores wurde gesprochen
Falls die Effizienz einer Radeon VII leicht überschritten wird, z.B. durch leicht tieferen Takt z.B. 1687 MHz,
dann wäre mit 2560 Cores etwa 8,6 TFlops bei ca. 150 Watt drin
allerdings wäre das dann vermutlich nur ein Konter der GTX 1660 Ti
aber diese Zahlen sind realistisch
im 180 Watt Bereich wären dann bei gleichen 1687 MHz,
3072 Cores mit 10,4 TFlops möglich als Konter der RTX 2060
Ein Konter der GTX 1650 ohne extra Stromstecker mit ca. 1536 Cores dürfte allerdings sehr schwierig werden.
Vermutlich auch unnötig im €/Perf.-Blick
Aber realisierbar ist sicher etwas schnelleres als die aktuelle RX 560 (1024 Core)
Der_Korken
2019-05-06, 08:04:40
Ich fände es komisch, wenn Navi taktmäßig nicht an Vega rankommt. Der Chip wird kleiner und hat kein 1:2-DP-Verhältnis. Zudem klangen die Sachen mit der veränderten Registerorganisation und möglichen Bankkonflikten eher so, als hätte man die CUs entschlackt, statt aufgebläht.
mboeller
2019-05-06, 08:15:08
Es gab ja zuletzt Quellen die davon sprachen , dass Navi nicht in den MHz-Regionen taktet wie die Radeon VII (knapp 1800 MHz)
das würde dann vielleicht (!) dafür sprechen, dass Navi im "mobile" Prozess gefertigt wurde und nicht im HPC Prozess. Vielleicht hat Navi ja überraschend viele CU für die Die-Größe?
Mangel76
2019-05-06, 09:02:14
Könnte es sein, dass Google Stadia mit Navi kommt?
Einerseits soll es in Q3/2019 etwas für Cloud Gaming geben:
https://cdn.wccftech.com/wp-content/uploads/2019/05/AMD-CPU-GPU-Roadmap_Investor-Presentation_6.png
Andererseits könnten die 56CUs mit 10,7TF auf einen Salvage von N10 hindeuten, ähnlich Vega56. Allerdings soll Stadia mit HBM erscheinen, was sich mit den Anzeichen auf GDDR6 bei Navi etwas beißt.
Wie groß wäre der GPU-Bedarf für Stadia? Würde es sich lohnen, ähnlich wie bei PS/XBOX eine Custom-Version zu erstellen? Wäre es möglich, dass auch die CPU ein Custom-Ryzen ist, wobei beide auf den gemeinsamen HBM-Speicherpool zugreifen?
Stadia wird ja keine einheitliche Hardware bleiben.
dildo4u
2019-05-06, 09:14:53
AMD wird Google Ramsch preise geboten haben ich meine man bekommt Vega 56 für 250€ bei Mindfactory.7nm wird 2019 zu teuer sein um solche Crash Preise zu bieten,AMD sollte ja zumindest zwischen 2060 und 2070 liegen.
BoMbY
2019-05-06, 09:21:27
Ein 7nm Die mit 64 CUs wird vermutlich genau so viel kosten wie ein 12nm Die mit 64 CUs, sobald sich die Yields etwas eingependelt haben. Warum? Weil er deutlich kleiner ist.
deekey777
2019-05-06, 09:37:43
AMD wird Google Ramsch preise geboten haben ich meine man bekommt Vega 56 für 250€ bei Mindfactory.7nm wird 2019 zu teuer sein um solche Crash Preise zu bieten,AMD sollte ja zumindest zwischen 2060 und 2070 liegen.
Nein, AMD bezahlt Google, damit sie ihre Hardware verwenden.
Womit man ziemlich gut fährt, siehe Intel.
dildo4u
2019-05-06, 10:33:44
Die Marge ist in Gameing GPUs für den PC ich meine Radeon 7 kostet deutlich mehr als die teuerste Konsole die 2020 kommen wird,daher macht es natürlich Sinn allen "Konsolen" Herstellern die Plattform so günstig wie möglich anzubieten. Stadia ist dort sogar wichtiger als die anderen Konsolen da sie auf Vulkan setzten und keine Proprietäre API wie sie z.b Sony nutzt.
Leonidas
2019-05-06, 11:37:31
Igor spricht also doch russisch. was glaubst du was passiert, wenn dieses bios auf die freie wildbahn trifft? igor spricht auch genau das an: https://youtu.be/5wk_0kYDF2g?t=283 bis 6:00.
Ich gestehe, das Video nicht gesehen zu haben. Ist aber auch nicht so wild, weil dies Spekulation ist, was "nachher" passiert.
amdfanuwe
2019-05-06, 12:24:14
Könnte es sein, dass Google Stadia mit Navi kommt?
Da die Server lokal sind, wird Gaming diese nur teilweise auslasten. Vornehmlich 15:00 - 22:00 Uhr.
Ich denke mal, Google wird die restliche Zeit die Server anderweitig auslasten mit KI und HPC Aufgaben. Eine reine Navi Gaming GPU kann ich mir bei Stadia daher nicht vorstellen.
Mangel76
2019-05-06, 12:38:38
Da die Server lokal sind, wird Gaming diese nur teilweise auslasten. Vornehmlich 15:00 - 22:00 Uhr.
Ich denke mal, Google wird die restliche Zeit die Server anderweitig auslasten mit KI und HPC Aufgaben. Eine reine Navi Gaming GPU kann ich mir bei Stadia daher nicht vorstellen.
Aber was wäre die Alternative? V10 hätte doch keine Feature-Vorteile gegenüber N10, dafür aber wohl einen deutlich höheren Verbrauch. Dann müsste es ja eine abgespeckte V20 sein, die Google entsprechend auch für andere Dinge nutzen könnte. Vorteil wäre natürlich, dass V20 bereits ein HBM-Interface hat. Bei der angegebenen Speicherbandbreite von 484 GB/s passt V20 aber auch nicht.
amdfanuwe
2019-05-06, 13:26:15
V10 hätte doch keine Feature-Vorteile gegenüber N10, dafür aber wohl einen deutlich höheren Verbrauch.
-DP Leistung
-HBCC
-Hardware Virtualisierung
etc.
Sicher, dass N10 das auch mitbringt?
Ich denke eher Google verwendet erstmal die Radeon™ Pro V340:
https://www.amd.com/de/products/professional-graphics/radeon-pro-v340
Hardware Virtualisierung haben alle GCN seit Tonga. Und HBCC bringen alle GCNs ab Vega standardmäßig mit würde ich sagen. Die DP-Leistung wird sicherlich eingeschränkt bei Navi, die üblichen 1:16 würd ich da erwarten.
amdfanuwe
2019-05-06, 14:06:07
Hardware Virtualisierung haben alle GCN seit Tonga. Und HBCC bringen alle GCNs ab Vega standardmäßig mit würde ich sagen.
Das heißt ja nicht, dass Navi als Gaming Design diese Features auch hat.
Vielleicht hat die auch nur ein großer Navi für HPC.
Glaub ich nicht, da HBCC für die Konsolen wichtig sein wird. Ich denke, dass diese Art den Speicher zu nutzen in zweiter oder dritter Implementation zum Standard wird bei AMD-Karten. Es geht ja nicht nur um die hierarchische Komponente.
Und die Virtualisierung ist wie gesagt seit Tonga fester Bestandteil. Da wird nix rausgeschmissen. Man möchte doch auch weiter Radeon Pro-Karten damit basteln.
Hier mal wieder diese Adored-Liste:
https://www.guru3d.com/news-story/rumor-amd-allegdely-to-release-seven-navi-gpus-but-have-efficiency-issues.html
Ich halte das alles für BS, aber wenn es doch stimmen sollte, dann ist N10 so kaputt, dass man dem nur 56CUs zutraut und der in Wirklichkeit aber 64CUs hat. N10 wird sich in der CU-Menge nicht von seinem Refresh (N20) unterscheiden.
Schon das Nummernsystem ist mMn idiotisch.
Das einzige, was mMn stimmen könnte, ist, dass Navi die Takte nicht packt. Dann wäre natürlich ein N10 nicht schneller als V20 und würde unter der 2080 rauskommen mit viel Stromverbrauch. Das ist sicherlich worst-case.
Das wär natürlich insofern weider plausibel, dass man auch hier wieder zu wenig Leute an die konkrete Chipentwicklung gesetzt hat und was ähnliches wie bei Vega passiert.
Mangel76
2019-05-06, 15:05:23
-DP Leistung
-HBCC
-Hardware Virtualisierung
etc.
Sicher, dass N10 das auch mitbringt?
Ich denke eher Google verwendet erstmal die Radeon™ Pro V340:
https://www.amd.com/de/products/professional-graphics/radeon-pro-v340
DP-Leistung hat V10 auch nicht besonders viel, HBCC und HW-Virtualisierung wird Navi auch haben.
Dino-Fossil
2019-05-06, 15:48:40
Hier mal wieder diese Adored-Liste:
https://www.guru3d.com/news-story/rumor-amd-allegdely-to-release-seven-navi-gpus-but-have-efficiency-issues.html
Ich halte das alles für BS, aber wenn es doch stimmen sollte, dann ist N10 so kaputt, dass man dem nur 56CUs zutraut und der in Wirklichkeit aber 64CUs hat. N10 wird sich in der CU-Menge nicht von seinem Refresh (N20) unterscheiden.
Schon das Nummernsystem ist mMn idiotisch.
Das Namensschema ist idiotisch, aber das würde AMD nicht unbedingt abhalten, es zu verwenden (auch wenn ich nicht so recht daran glaube).
Aber 3 Chips, die in der CU-Zahl so seltsam nahe beieinander liegen, wirkt auf mich ebenfalls unglaubwürdig, genauso wie die Preisgestaltung.
Wenn da Wahrheit drinsteckt, dann höchstens versteckt, also dass die Chips oder nur N10 schlechter laufen als gedacht. Alles andere ist zu 99,99% Bullshit.
Unicous
2019-05-06, 16:45:13
Charlie Demerjian auf die Frage ob er Information zu Navi hat.
Not yet, sorry.
https://twitter.com/CDemerjian/status/1125106209705603073
:wink:
Ich schlürfe weiterhin Tee mit einer Prise Salz.:ucoffee:
Zergra
2019-05-06, 21:14:42
Wenn da Wahrheit drinsteckt, dann höchstens versteckt, also dass die Chips oder nur N10 schlechter laufen als gedacht. Alles andere ist zu 99,99% Bullshit.
Naja falls RT Einheiten dazu kommen, wäre das dann nicht ganz abwegig, das es nur 56CUs sind.
robbitop
2019-05-07, 08:21:48
Klingt imo seltsam, dass N10 mit 56 CUs so nah an N20 mit 64 CUs dran sein soll. Dafür lohnt eine separate GPU kaum. IdR sind die Abstände da größer.
OBrian
2019-05-07, 09:49:14
Wenn das der Refresh von N10 ist, also der gleiche Chip mit nur besserer Fertigung (siehe Polaris 10 zu Polaris 20), dann würde sich darüber die Möglichkeit, mehr CUs freizuschalten, und auch die niedrigere TDP erklären.
Das bedeutet ja auch, dass die Chips alle 64 CUs haben und erstmal alle teildeaktiviert auf 56 sind. Was machen dann die Hersteller, wenn sie eigene Designs bringen, gibt es dann nur OC bis der Arzt kommt oder auch selektierte Chips mit mehr freigeschalteten CUs (60 statt 56 wäre ja schon ein Marketing-Pluspunkt)? Und später dann auch offiziell 60 und 64? Langfristig hätte man dann N10 und 20 im Handel, wobei mit der Zeit natürlich in allen die gleichen Chips landen werden, nur eben mit unterschiedlichen Freischaltungsanteilen, ggf. verschwindet die ein oder andere Variante dann aus dem Markt wg. geringer Nachfrage.
Und die Radeon VII wird so erstmal weiter gebaut, als Profi-Chip mit viel Speicher, Speicherbandbreite und hoher DP-Rate, nur im Gamingbereich wird sie abgelöst. Soll ja auch teuer in der Herstellung sein, also ist der Verkauf an Gamer ja eh Mist, wenn man die auch als Profikarte für was Vierstelliges vertickern kann.
amdfanuwe
2019-05-07, 10:16:21
Und die Radeon VII wird so erstmal weiter gebaut, als Profi-Chip mit viel Speicher, Speicherbandbreite und hoher DP-Rate, nur im Gamingbereich wird sie abgelöst. Soll ja auch teuer in der Herstellung sein, also ist der Verkauf an Gamer ja eh Mist, wenn man die auch als Profikarte für was Vierstelliges vertickern kann.
Lassen wir noch ein paar im Gaming Segment für die Semi-Profis.
robbitop
2019-05-07, 10:44:06
Wenn das der Refresh von N10 ist, also der gleiche Chip mit nur besserer Fertigung (siehe Polaris 10 zu Polaris 20), dann würde sich darüber die Möglichkeit, mehr CUs freizuschalten, und auch die niedrigere TDP erklären.
Das bedeutet ja auch, dass die Chips alle 64 CUs haben und erstmal alle teildeaktiviert auf 56 sind. Was machen dann die Hersteller, wenn sie eigene Designs bringen, gibt es dann nur OC bis der Arzt kommt oder auch selektierte Chips mit mehr freigeschalteten CUs (60 statt 56 wäre ja schon ein Marketing-Pluspunkt)? Und später dann auch offiziell 60 und 64? Langfristig hätte man dann N10 und 20 im Handel, wobei mit der Zeit natürlich in allen die gleichen Chips landen werden, nur eben mit unterschiedlichen Freischaltungsanteilen, ggf. verschwindet die ein oder andere Variante dann aus dem Markt wg. geringer Nachfrage.
Und die Radeon VII wird so erstmal weiter gebaut, als Profi-Chip mit viel Speicher, Speicherbandbreite und hoher DP-Rate, nur im Gamingbereich wird sie abgelöst. Soll ja auch teuer in der Herstellung sein, also ist der Verkauf an Gamer ja eh Mist, wenn man die auch als Profikarte für was Vierstelliges vertickern kann.
Aber wenn N20 nur ein Refresh von N10 ist, kann man bei N10 doch gleich auch alle 64 CUs (zumindest in der top dog variante) freischalten.
Klingt bis dato alles irgendwie nicht so toll. Wenn man mit 56 CUs und 1800 MHz nur auf 2070 Niveau kommt, dann hat sich pro Takt an der mArch offenbar nicht all zu viel getan ggü Vega.
Zergra
2019-05-07, 11:22:08
Aber wenn N20 nur ein Refresh von N10 ist, kann man bei N10 doch gleich auch alle 64 CUs (zumindest in der top dog variante) freischalten.
Klingt bis dato alles irgendwie nicht so toll. Wenn man mit 56 CUs und 1800 MHz nur auf 2070 Niveau kommt, dann hat sich pro Takt an der mArch offenbar nicht all zu viel getan ggü Vega.
Naja ist halt die Frage wie groß der Chip wird und wie gut die Fertigung wirklich ist, mit 56CUs würde man die VII auf dem Markt lassen können, eine 64CU würde die Karte obsolet machen.
Leonidas
2019-05-07, 11:41:35
Klingt bis dato alles irgendwie nicht so toll. Wenn man mit 56 CUs und 1800 MHz nur auf 2070 Niveau kommt, dann hat sich pro Takt an der mArch offenbar nicht all zu viel getan ggü Vega.
Stimmt, guter Punkt. Hoffen wir mal, das dies alles nur Nonsens ist ...
Generell: Unter 7nm lohnt es sich nicht, einen 56CU-Chip ohne Profi-Gedöns und einen extra 64CU-Chip mit Profi-Gedöns aufzulegen. Das konnte man bei Vega machen, weil da die Differenz in der Fertigung liegt. Hier aber wird die Differenz maximal zwischen 7FF und 7FF+ sein - zu wenig, um extra einen nahezu gleich großen Chip aufzulegen. Was bedeutet: Entweder man macht das alles in einem Chip - oder Navi 10 ist deutlich kleiner, hat also auch weniger CU.
Dino-Fossil
2019-05-07, 12:20:10
Also meiner Meinung nach sind viele Dinge an diesem Gerücht nicht so recht stimmig, hab ich ja teilweise auch schon mal angemerkt:
Die Chips liegen alle recht nah beieinander - ich würde hier keine drei Chips erwarten, sondern eher 2. Besonders Navi20 ist seltsam - entweder der kommt (viel) später als refresh und Navi10 hat schon 64CUs oder Navi10 ist (nochmals) kleiner, wie Leo anmerkt.
Die angebliche RX3080 und RX3080XT sind doch eigentlich auf der gleichen Performance eingezeichnet - Vega 64 + 10% ist beinahe schon RTX 2070, was fehlt da noch? 5% vielleicht? Dafür lege ich keine extra Karte auf.
RX3070 hätte übrigens bei ca 30% weniger CUs und ca 20% mehr Takt die Performance der Vega 56 - das spräche also doch für eine verbesserte IPC zu Vega. Außerdem ca 1,75x Performance/Watt (ggü. V56@stock).
Dafür hat die RX3060 bei 10% weniger CUs und 10% mehr Takt die Performance der 580 (also etwa gleiche IPC zu Polaris?), aber dafür immerhin gut 2,5x Performance/Watt.
Übrigens wäre mMn schon viel geholfen, wenn die Performance von Navi konsistenter wäre, als die von Vega - auch Vega kann in einigen Titeln sehr gut mit Turing oder Pascal mithalten, in anderen stinkt man dafür ab. Das ist sicherlich viel Software - aber vielleicht wäre es sinnvoll, die Architektur dahingehend zu überarbeiten, dass es leichter wird sie gut auszulasten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.