Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
gravitationsfeld
2018-11-29, 17:05:28
Koennten sie nicht. Das Raytracing ist viel zu sehr mit den Shading-Einheiten verwoben.
SKYNET
2018-11-29, 17:08:48
Koennten sie nicht. Das Raytracing ist viel zu sehr mit den Shading-Einheiten verwoben.
mhhh, und wenn ähnlich wie bei CF/SLI, nur das dann halt die bilder nicht abwechselnd gerechnet werden, sondern direkt übereinander gelegt?
Der_Korken
2018-11-29, 20:11:26
Du kannst nicht einfach irgendwas übereinanderlegen. Die RT-Einheiten brauchen die selben Szene-Informationen wie auch die normalen Shader. Es werden ja nicht Rasterizerbild und ein RT-Bild berechnet und dann zusammengewurschtelt. Vermutlich müssten in dem Extrachip nicht nur die RT-Einheiten sein, sondern auch eine Kopie des gesamten Cache- und Speichersystems. Dazu ein Datenbus mit viel Bandbreite und somit Flächen- und Stromverbrauch. Es wird schon seinen Sinn haben, warum Nvidia das in jeden SM eingebaut hat und nicht außerhalb des normalen GPU-Blocks.
gravitationsfeld
2018-11-29, 22:08:54
mhhh, und wenn ähnlich wie bei CF/SLI, nur das dann halt die bilder nicht abwechselnd gerechnet werden, sondern direkt übereinander gelegt?
So funktioniert Raytracing nicht.
Aber RT funktioniert auch über Vulkan ...
https://devblogs.nvidia.com/vulkan-raytracing/
Würde mich nicht wundern, wenn die kommenden Konsolen RT über Vulkan "können"...
K.A. ob bei Vulkan das ganze dann über die CPU "vorberechnet" wird
und die Graka die Info dann nur "umsetzt" ( fertig berechnet ) ...
( theoretisch würde doch, für jede reflektierende Fläche, 1 berechneter Ray-Strahl ausreichen
damit die Gpu weis, was sie wo und wie "spiegeln/kopieren" muss ?)
Ich bin auf jeden fall darauf gespannt, wie AMD RT umsetzt/löst ;)
m.f.g. JVC
BoMbY
2018-12-03, 13:17:14
Vermutlich wird es das bei AMD in der Generation gar nicht geben. Das wird NVidia gut abgepasst haben, so dass es zu spät für AMD's Design ist. Abgesehen davon lohnt das im Moment ehh nicht, vor allem nicht solange nicht einmal NVidia die Performance halbwegs in den Griff bekommt.
Das wird NVidia gut abgepasst haben, so dass es zu spät für AMD's Design ist.
So wie ich das verstanden habe, benötigt Vulkan keine angepasste Hardware :confused:
Somit würde AMD kein "eigenes Design" brauchen ...
( NV hat nur die Entwickler beruhigt, indem sie RT auch über Vulkan unterstützen )
m.f.g. JVC
w0mbat
2018-12-03, 13:39:08
Wieso "gut abgepasst"? RTX ist ein Klotz am Bein der aktuellen Generation, AMD wird sicher nicht den gleichen Fehler machen.
BoMbY
2018-12-03, 13:39:57
Natürlich könnte man das jederzeit als reine Software/Shader-Implementierung bringen, aber die Performance dürfte entsprechend gering sein, also lohnt es sich nicht.
Navi10 Lite: gfx1000
Navi10: gfx1010
Anscheinend (https://twitter.com/oscarbg81/status/1066659923835215873).
Navi 10 Lite ist auf jeden Fall schon vorher aufgetaucht. Die Frage ist, was ist was?
Navi 10 lite = Navi 12?
DK999
2018-12-03, 14:07:34
Vielleicht ist Navi 12 ja auch das (abgespeckte) Chiplet für die PS5, während Navi 10 Midrange (~1080 - 1080 Ti Performance) und Navi 20 High End ist?
BoMbY
2018-12-03, 14:09:51
Ich glaube eher das Navi10 Lite eine APU-Grafikeinheit sein könnte, und eventuell hat sich da was in dem Zeitplan geändert, so dass vielleicht die APU vor einer dGPU kommt. Ich vermute ja schon länger dass Matisse eine 8c Mono-Die-APU sein wird, das könnte das sein, und das Launch-Fenster wäre Computex.
Edit: Und es gibt keine PS5 Chiplets. Und PS5 ist 2020 oder später. Und die Bezeichnungen für PS-Chips sind andere.
Edit: Eventuell ist Navi10 Lite auch eine 12nm GPU, quasi ein Nachfolger von dem niemals erschienen Vega11, irgendwo in der Größenordnung mit GDDR6 eventuell. Ein Lückenfüller.
Ich hab da ne Theorie: Navi10 ist sicherlich ein Performancechip, der wird sicherlich 64CUs haben. Aber kommen wird der wohl (vorerst) nicht. Ich vermute, dass ein Chip dieser Größe für den Massenmarkt einfach zu ambitioniert war. Also legte man N10 neu auf und bringt das Teil in 7 EUV als N20.
Was mMn jedoch kommt ist ein abgespeckter N10, der eben N12 genannt wurde, der dann nur 40CUs mitbringt und Vega ablösen kann. Unter 200mm² wird sicherlich bei 7nm DUV drin sein und auch noch billiger sein als Vega+HBM.
Für die APU wird es eher einen N14 geben, der auf sämtliches I/O und auch die Zusätze wie Videoprozessor verzichtet und sich auf die reine GPU beschränkt.
Also:
N10 -> gecancelt
N12 -> N10 lite
N14 -> APU (Renoir)
N20 -> N10 in EUV
Danach gibts halt ne neue Architektur und das fängt dann gleich im HighEnd an, gefolgt von Enthusiast.
Complicated
2018-12-03, 15:01:37
Navi 10 lite=Chiplet? ;)
DK999
2018-12-03, 15:15:50
Edit: Und es gibt keine PS5 Chiplets. Und PS5 ist 2020 oder später. Und die Bezeichnungen für PS-Chips sind andere.
Die PS5 soll laut Gerüchten doch Zen 2 Kerne haben und bis jetzt kennen wir die nur als Chiplet + IO. Was würde gegen eine PS5 mit Zen 2 Chiplet + IO Chiplet mit GDDR6 + GPU-Chiplet sprechen?
Dann könnte AMD die "Ausschuss-Zen-Chiplets" für 8 PS5-Kerne nutzen (4 funktionierende Kerne pro Chiplet) und an einen IO-Core flanschen, der auch IO für die Navi-GPU macht.
BoMbY
2018-12-03, 15:21:22
Die PS5-Gerüchte sind alle Bullshit, aber das hat alles nichts mit dem Thread hier zu tun.
Edit: Hier ist der Ort dafür (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=543245).
amdfanuwe
2018-12-03, 15:29:25
Dann könnte AMD die "Ausschuss-Zen-Chiplets" für 8 PS5-Kerne nutzen (4 funktionierende Kerne pro Chiplet) und an einen IO-Core flanschen, der auch IO für die Navi-GPU macht.
Den "Ausschuss" kann AMD bei Threadripper, Server und den evtl. 12 Kern Ryzen 3000 benutzen. Da wird für PS5 kein "Ausschuss" verwendet.
Also nur ein 8 Core Chiplet durchschnittlicher Güte.
Also Semicustom I/O mit GPU + 8 Core Chiplet.
OB HBM oder GDDR6 wird man sehen.
PS5 ist garantiert monolithisch.
amdfanuwe
2018-12-03, 16:31:08
PS5 ist garantiert monolithisch.
Garantiert nicht.
Brillus
2018-12-03, 17:44:16
Garantiert nicht.
Garantiert weiß das keiner von euch.
TGKlaus
2018-12-03, 22:43:39
Für die APU wird es eher einen N14 geben, der auf sämtliches I/O und auch die Zusätze wie Videoprozessor verzichtet und sich auf die reine GPU beschränkt.
Also:
N10 -> gecancelt
N12 -> N10 lite
N14 -> APU (Renoir)
N20 -> N10 in EUV
Den 64CU-Chip zu canceln wäre in meinen Augen eine Katastrophe.
BoMbY
2018-12-04, 01:07:19
Im Moment weiß man überhaupt noch nicht einmal sicher ob es überhaupt noch CUs im klassischen GCN-Sinne gibt.
Adam D.
2018-12-04, 09:12:16
“We believe, we will be very competitive overall and that includes the high-end of the GPU market. Obviously there are new products out there from our competition. We will have our set of new products as well and we will be right there in the mix."
AMD scheint sich gut aufgestellt zu sehen für 2019.
Quelle (https://wccftech.com/amd-pledges-to-take-on-nvidias-high-end-turing-with-7nm-radeon-gpus-in-2019/)
Hm erst sagen sie sie haben nichts für HighEnd und jetzt sagen sie sie haben doch was?
strange...
Scheint sich aber echt rauszuschälen, dass Navi10 wohl doch mehr sein könnte als nur Mainstream.
gbm31
2018-12-04, 12:00:29
High-End ungleich High-End Gamer evtl?
Die Profilösung soll ja 2019 kommen und gut sein.
AffenJack
2018-12-04, 12:30:17
Vergesst nicht, dass es ganz darauf ankommt, wie man High-End definiert. Vega64 wird in der Regel auch als High-End bezeichnet. Ein Vega64 +10-15% wäre durchaus eine High-End Lösung.
Aber das wird dann ebenso auch einen High-End Preis haben, V64 +10-15% mit 16Gb Ram für 499$/€.
dargo
2018-12-04, 12:44:50
Wozu 16GB wenn bis RTX 2080 auch nur 8GB vorhanden sind? Erst recht bei nur +10-15% mehr gegenüber V64 sehe ich keinen Sinn in 16GB Speicher. Außer man möchte nur unnötig den Preis wieder in die Höhe treiben.
BoMbY
2018-12-04, 13:00:44
Hm erst sagen sie sie haben nichts für HighEnd und jetzt sagen sie sie haben doch was?
strange...
Wo haben sie das denn gesagt? Oder waren es vielleicht nur mal wieder schlechte Gerüchte?
AffenJack
2018-12-04, 13:07:54
Wozu 16GB wenn bis RTX 2080 auch nur 8GB vorhanden sind? Erst recht bei nur +10-15% mehr gegenüber V64 sehe ich keinen Sinn in 16GB Speicher. Außer man möchte nur unnötig den Preis wieder in die Höhe treiben.
Guck dir doch an, wieviel Gemecker es wegen den 8 Gb bei der 2080 gibt. Jedes forum ist voll davon. Es interessiert die Leute nicht, ob es was bringt. Alleine vom Marketing sind 16 GB gegen 8 GB ein sehr mächtiges Argument. Davon abgesehen heißt es nicht, dass man nicht eine 8GB Lösung mit anbieten kann oder man belässt es eben beim Salvage mit 8GB. Die Rampreise sollen 2019 auch deutlich nach unten gehen, so dass es deutlich einfacher wird solche Mengen anzubieten.
Käsetoast
2018-12-04, 13:13:42
Die Hersteller sollen einfach 8 GB und mehr anbieten können wenn sie es wollen. Damit wären dann alle glücklich. War früher doch auch möglich wie bei 4870 mit 512 MB und 1 GB Speicher...
dargo
2018-12-04, 14:02:35
@AffenJack
16GB sehe ich bei Navi höchstens als Alleingang einzelner Partner, aber sicherlich nicht als Standard. Sprich... wie damals Tahiti mit 3GB und 6GB. Und dass die Speicherpreise 2019 gravierend fallen glaube ich noch nicht. Da wird viel zu oft falsch prognostiziert. GDDR6 @"günstig" sehe ich erst wenn die Massenfertigung mit den neuen Konsolen losgetreten wird und das Volumen entsprechend stark ansteigt.
BoMbY
2018-12-04, 14:16:07
Vorausgesetzt die neuen Konsolen nutzen überhaupt GDDR6 (in 2020) ... was ebenfalls reine Spekulation ist.
gravitationsfeld
2018-12-04, 16:25:45
2020 ist ebenfalls reine Spekulation.
BoMbY
2018-12-04, 16:26:31
Allerdings basiert auf offiziellen Aussagen, aber das ist immer noch der falsche Thread.
dargo
2018-12-04, 17:51:41
Vorausgesetzt die neuen Konsolen nutzen überhaupt GDDR6 (in 2020) ... was ebenfalls reine Spekulation ist.
Was sollen sie denn sonst nutzen? HBM ist zu teuer, GDDR5 zu langsam und bei GDDR5x sehe ich keine Verwendung für Konsolen. Nutzt irgendwie nur Nvidia. Zudem hätte die XBX schon GDDR5x verwenden können, was sie aber nicht tut.
Das wäre doch sinnvoll !
8GB für die mit niedriger Auflösung, high FPS Zocker ...
16GB für die die auf Eye Candy stehen und denen durch VRR auch noch 40FPS reichen ;)
Warum macht das kein Hersteller mehr ?
Ist ihnen das etwa verboten ?
Wenn AMD die 1080Ti überbieten kann, wechsle ich alleine schon wegen Free-Sync wieder ;)
( aber dann bitte mit 16GB )
m.f.g. JVC
"Hitman 2: Beeindruckende Raytracing-Nachbildung im Techniktest"
http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/
"...interessanterweise kommt bei den feinen Echtzeitspiegelungen nicht etwa Nvidias Hybrid-Raytracing RTX zum Einsatz. IO Interactive hat einen anderen Weg gefunden, die Spiegelungen umzusetzen..."
Fein fein :smile: Es geht auch ohne NV´s Extraeinheiten :wink:
m.f.g. JVC
Der_Korken
2018-12-05, 14:08:08
Wurden die neuesten Spekus von adored schon gepostet? Leo hats in seiner News verlinkt:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-dezember-2018
https://www.planet3dnow.de/cms/42083-amd-ryzen-9-3800x-zen-2-und-amd-radeon-rx-3080-navi-10-zur-ces/
Unabhängig wie sehr die Spekulationen und die überraschend frühe Vorstellung zur CES aus der Luft gegriffen sind: Allein die Idee, dass die nächste Reihe "RX 30x0" heißt, bringt mich gerade zum Schmunzeln, weil AMD genau das schon bei den Mainboard-Chipsätzen mit Intel gemacht hat. Als Ordnungsliebhaber hätte ich natürlich gerne eine RX 600er Reihe als Namen, aber wenns AMD in der aktuellen Situation helfen würde ...
BoMbY
2018-12-05, 14:39:05
Würde mich überraschen wenn auch nur irgendwas davon wahr ist.
Wenn überhaupt gibt es zur CES eine Navi Technology Preview ohne genaue SKUs wie es die bereits zu Pascal (2016) und Vega (2017) gab.
Eine Veröffentlichung der Karten ist alleine deshalb unwahrscheinlich, da es bisher nicht einmal einen Linux-Patch gibt, welche bisher immer Monate im Voraus erfolgt sind.
=Floi=
2018-12-05, 15:13:52
Es geht auch ohne NV´s Extraeinheiten :wink:
geht es nicht!
Die einheiten bringen den speed und ohne wird es bei amd auch nur beiwerk sein, weil es in games nicht voll nutzbar sein wird.
Was glaubst du, inestiert nv so viel da rein, wenn es auch ohne ginge?! :freak:
Dural
2018-12-05, 15:29:20
Wie so antwortest du überhaupt auf den, es hat eh keinen sinn :rolleyes: wie so er in 3-4 threads die gleiche 1,5 monate alte news posten muss, muss man auch nicht verstehen.
RT kann man durchaus mit normaler Hardware laufen lassen, sprich CPU oder sogar GPU. Die Leistung ist einfach viel zu gering, und man hat noch andere Probleme. Auch AMD wird mit RT "Einheiten" kommen müssen, die Frage ist nur wann ;)
hat jetzt aber nichts mit Hitman 2 zu tun... Das ist doch nur ein Versuch seitens AMD RT etwas Wind aus den Segel zu nehmen, dumm ist nur das die eigene Hardware ziemlich schlecht läuft und schon eine 2080 48% schneller als eine Vega 64 ist ;)
1,5 monate alte news
Sry
Tatsächlich fast ein Monat alt :eek:
Für mich war das neu. Hab den Test wohl übersehen.
( zum glück hat ihn Leo nochmal verlinkt in den News )
Bin hald begeistert, weil das Spiel Spiegelungen Spielrelevant umsetzt...
...und schon eine 2080 48% schneller als eine Vega 64 ist ;)
Zum glück hab ich ne 1080Ti, mit der ich auch sehr zufrieden bin ^^
m.f.g. JVC
Dural
2018-12-05, 17:07:53
Und mit Navi 10 wäre auf der Radeon RX 3080 das Leistungsniveau der Radeon RX Vega 64 zuzüglich 15 Prozent bei nur 150 Watt TDP drin – für 250 US-Dollar UVP (vor Steuern).
https://www.computerbase.de/2018-12/ryzen-3000-radeon-rx-3000-geruechte/
Schnitzl
2018-12-05, 17:26:31
holla. Wenn das so kommt machts schon Sinn die Grafikkarten umzubenennen.
Die Frage ist wieviel Wahrheit da drinsteckt. Schön wärs ja wenn wieder was geht bei AMD GPUs.
Der_Korken
2018-12-05, 17:29:03
Vega 64 + 15% in 150W wären wirklich mal eine positive Überraschung, wenn das stimmt. Das wäre ungefähr 2070-Leistung mit 20% weniger Verbrauch. Klar ist das 12nm vs 7nm, aber nach der Präsentation von V20, wo von 25% mehr Takt bei gleichem Verbrauch geredet wurde, habe ich schon schlimmes für Navi befürchtet. Sowas wie ein auf 250W hochgeprügelter 200mm²-Chip, der mit Ach und Krach die 2070 schlägt, also ineffizienter als Turing trotz Fertigungsvorteil. Wobei ... vielleicht sollten wir uns nicht zu früh freuen, denn für die RX480 geisterten damals auch 110W rum. Am Ende waren es aber 165W, weil die 110W nicht den Speicher, die VRMs und das PCB beinhalteten :freak:
Die 250$ sind da fast schon nebensächlich und imho auch viel zu niedrig angesetzt. Im Verhältnis zu den Turing-Preisen könnte AMD für so eine Karte auch 350-400$ verlangen und wäre immer noch günstig.
Mich macht aber etwas stutzig, dass 3060 und 3070 beide auf Navi 12 basieren sollen. Die 3070 liegt beim Speicherausbau, bei Verbrauch, bei der Leistung und beim Preis näher an der 3080 als an der 3070. 3070 als Navi 10 Salvage würde viel mehr Sinn ergeben.
BoMbY
2018-12-05, 17:31:46
Man muss CB immerhin zu gute halten, dass sie kritisch darüber berichten:
Es gibt gute Gründe, den auf den ersten Blick kaum vorstellbaren Gerüchten einen Hauch Wahrheit abzugewinnen. Taktraten, TDP, Preise und Termine bei den CPUs sowie Preise, Termine und die kolportierte Leistung von Navi lassen aktuell allerdings noch erhebliche Zweifel aufkommen. So große Zweifel, dass die Redaktion interne lange diskutiert hat, ob das Thema überhaupt aufgegriffen werden sollte.
Wenn die Leute soweit lesen würden ...
wie ein Forenuser dort schreibt ...
"Der R9 3850X mit 16C/32T und 5,1 GHz Boost für weniger als 500.— Dollar? Das wäre wirklich Wahnsinn. :D"
https://hardforum.com/threads/adoredtv-discusses-the-recent-amd-ryzen-and-radeon-3000-series-leaks.1973015/#post-1043970615
Kyle Bennett von HardOCP meint da.
"There is a whole lot of reality in that video. A lot. There is a little wrong, but not a lot."
Ssssowas von gekauft ^^
Der passende Unterbau wartet schon ;)
m.f.g. JVC
https://www.youtube.com/watch?v=PCdsTBsH-rI
bei 10min ist die CPU Übersicht/Folie zu sehen.
Ein Forum User schrieb:
"ein weiteres indiz das es stimmen könnte, ist das auf reddit der thread bzw. eröffnungspost von AMD mods gelöscht wurde, wo die Folie ersichtlich war..."
dargo
2018-12-05, 17:48:55
Die 150W sind sicherlich nur GPU-Power. Die ganze Karte wird dann irgendwo bei ~200W liegen.
mironicus
2018-12-05, 17:53:52
Ist doch besser in diesem Preisbereich (<300 Euro) etwas neues zu bringen, denn da liegt der Sweet Spot für die meisten Käufer.
Ich würde mir wünschen, AMD könnte so etwas wie bei den Zen 2 - CPUs auch bei den GPUs hinbekommen. Viele kleine Dies die günstig herzustellen sind und dann paralell als eine GPU arbeiten.
Dural
2018-12-05, 17:55:23
Bestimmt :freak:
Hakim
2018-12-05, 17:56:47
Ich würde genau wie bei den CPUs einfach abwarten und sich nicht zu sehr freuen. Am Ende ist es immer besser weniger zu erwarten und positiv überrascht zu werden als zu viel zu erwarten und enttäuscht zu werden.
P.s bei den Namen der Modelle musste ich echt lachen:)
mironicus
2018-12-05, 18:03:11
Die veranschlagte Leistung des Navi wäre doch völlig ausreichend für eine PS5 oder Xbox Two um 4K60-Titel mit mittleren/hohen Details im Vergleich zu PC-Versionen zu realieren.
oldgamer
2018-12-05, 21:05:45
....AMD könnte so etwas wie bei den Zen 2 - CPUs auch bei den GPUs hinbekommen. Viele kleine Dies die günstig herzustellen sind und dann paralell als eine GPU arbeiten.
War doch lange die Rede davon dass Navi in MCM-Bauweise kommen könnte, aber AMD selbst hat doch klar gemacht dass es ein traditioneller Ansatz wird.
Link zum Interview: https://www.pcgamesn.com/amd-navi-monolithic-gpu-design?tw=PCGN1
Und zu den Leaks:
Der Hype-Train ist wieder unterwegs, klingt alles wie bei Fury & Vega einige Monate vor Release.
TheGood
2018-12-05, 22:39:06
Hoffen wir für AMD dass es nicht war ist. Denn dann hätte wären mal wieder Infos viel zu früh rausgekommen....
Dural
2018-12-06, 10:04:33
Es macht bei GPUs keinen Sinn. Das könnte erst mit RT interessant werden.
Dass es Fake News sind sieht man doch auf den ersten Blick, 7nm GPU Anfang 2019 mit der Leistung einer 2070 für 250.- ganz bestimmt :rolleyes:
AMD versucht mal wieder einen Hype zu generieren, so nach dem Motto "Wir haben bald was tolles und günstiges, jetzt ja nichts kaufen" schon der Zeitpunkt dieser "News" spricht Bände. Wie das am Ende ausgegangen ist sah man ja schon zu genüge. Und mir soll keiner kommen das da nicht AMD dahinter steckt, die Masche von AMD ist seit Jahren doch sehr offensichtlich.
Das einzige Interessante darin finde ich ja, es funktioniert für AMD.
Mangel76
2018-12-06, 10:16:56
Es macht bei GPUs keinen Sinn. Das könnte erst mit RT interessant werden.
Dass es Fake News sind sieht man doch auf den ersten Blick, 7nm GPU Anfang 2019 mit der Leistung einer 2070 für 250.- ganz bestimmt :rolleyes:
AMD versucht mal wieder einen Hype zu generieren, so nach dem Motto "Wir haben bald was tolles und günstiges, jetzt ja nichts kaufen" schon der Zeitpunkt dieser "News" spricht Bände. Wie das am Ende ausgegangen ist sah man ja schon zu genüge. Und mir soll keiner kommen das da nicht AMD dahinter steckt, die Masche von AMD ist seit Jahren doch sehr offensichtlich.
Das einzige Interessante darin finde ich ja, es funktioniert für AMD.
Ja, AMD ist natürlich Urheber dieser Leaks!!! Alles nur Marketingstrategie, sich jetzt durch solche Ankündigungen die Verkäufe der aktuellen Produkte völlig zu versauen, damit die Produkte, die in einem halben oder ganzen Jahr auf den Markt kommen, gekauft werden. Bis dahin sinken die Umsätze ins Bodenlose, um dann bei enttäuschten Hoffnungen (das kann AMD ja nie erreichen!) doch die Kunden zum Kauf von Konkurrenzprodukten zu treiben :facepalm: Hauptsache die AMD-Marketingleute hatten ihren Spaß!
DK999
2018-12-06, 12:41:46
AMD versucht mal wieder einen Hype zu generieren, so nach dem Motto "Wir haben bald was tolles und günstiges, jetzt ja nichts kaufen" schon der Zeitpunkt dieser "News" spricht Bände. Wie das am Ende ausgegangen ist sah man ja schon zu genüge. Und mir soll keiner kommen das da nicht AMD dahinter steckt, die Masche von AMD ist seit Jahren doch sehr offensichtlich.
Das einzige Interessante darin finde ich ja, es funktioniert für AMD.
AMD und AdoredTV haben sich also zusammen getan um die Leute von den überteuerten RTX Karten abzuhalten und auf ein Produkt warten zu lassen, dass dann die Erwartungen sowieso nicht erfüllt, das Image weiter schädigt und die Leute dann halt ein paar Monate später zur Konkurrenz greifen lässt, inklusive neuem Bias gegen AMD.
Klingt plausibel ;D;D
nordic_pegasus
2018-12-07, 07:09:01
AMD und AdoredTV haben sich also zusammen getan um die Leute von den überteuerten RTX Karten abzuhalten und auf ein Produkt warten zu lassen, dass dann die Erwartungen sowieso nicht erfüllt, das Image weiter schädigt und die Leute dann halt ein paar Monate später zur Konkurrenz greifen lässt, inklusive neuem Bias gegen AMD.
Klingt plausibel ;D;D
Der Hype-Train vor Fury und Vega war jedoch sehr massiv. Da wurde die Hoffnung geweckt, AMD würde High-End Karte oberhalb der Nvidia Pendants zu niedrigeren Preisen launchen. Zwar sind Fury und Vega gute Karten geworden, aber der Hype hat zu subjektiver Enttäuschung bei vielen (potentiellen) Kunden geführt.
Es ist allen zu wünschen, das AMD diesmal Karten auf den Markt bringt, die halbwegs zu den Gerüchten passen. Der verdiente Erfolg von Ryzen lässt hoffen, das AMD jetzt die Wunderformel entdeckt hat ;-)
Ein Hypetrain bei der Fury? Da einzige Hype, der da war, war die Hoffnung, dass AMD vllt. auch 8GB mit HBM realisieren könnte, was sich recht schnell als utopisch darstellte. Ansonsten waren damals alle überrascht, dass man wirklich fast die 980Ti packt mit normaler GCN1-Power.
Der AMD Hype war eher früher, als man noch dachte, dass AMD mehr Chips vorbereiten könnte, was nicht der Fall war.
Um mal dem Gedächtnis ein bisschen auf die Sprünge zu helfen:
Bei Polaris gab es einen Hypetrain von Leuten, die AMDs Darstellung, dass das Ding nur Mainstream wird, nicht geglaubt haben. War aber eben so wie von AMD dargestellt, gutes Mainstream und Ende.
Bei Pascal wurd der Hypetrain übertroffen...
Bei Vega hat vor allem Raja und dieser Marketingheini, die jetzt beide bei Intel sind (:freak:), den Hypetrain befeuert, völlig überzogen wie sich rausstellte.
Bei Volta wurd fuhr der Hypetrain fast ein Jahr, bis sich rausstellte, dass das tatsächlich nur heiße Luft war - bei Turing fuhr der dann noch ein halbes Jahr und der kam dann bei der unteren Kante der Erwartungen raus und die "Hyper" reden sich jetzt mit RT raus :D. Hätte NV RT weggelassen, wär das in jedem Fall ne ziemliche Enttschäuschung für die meisten gewesen.
Bei Navi erwartet erst mal niemand ernsthaft signifikante Mehrleistung ggü. Vega, also ein Hype sieht völlig anders aus. Sollte man noch ne 64CU-Variante basteln, wird man irgendwo in den Turings rauskommen ("high end"), auch nix weltbewegendes.
w0mbat
2018-12-07, 09:57:04
Ich glaube der Navi "Hype" ist eher die Hoffnung, dass sich bei den Preisen wieder etwas bewegt. Also wenn man schon ne R9 290/390 oder RX 470/480, RX 570/580, GTX 970/1060 hat, dass man nicht 300€+ für eine 2 1/2 Jahre alte GTX 1070 oder gleich 500€ für ne 2070 ausgeben muss.
Stellt euch eine Navi Karte vor die ca. Vega56 Leistung bietet, bei 50W weniger Verbrauch und für 299€ neu. Das ist die Hoffnung.
Nvidia hat die Mining-Preise einfach als neuen Standard für Turinng genommen. AMD kann das nicht.
Die Hoffnung ist mMn vergebens, da AMD ordentlich hohe Preise für Navi abrufen wird, denn soviele werden die zumindest anfangs davon nicht produzieren. Zen2 hat eindeutig vorrang. Mit 400€ würd ich für einen Navi, der Vega64 erreicht, auf jeden Fall rechnen.
Was den Zeitraum angeht: Der kolpotierte 40CU N12 wird sicherlich im Sommer erscheinen, ein Navi-Chiplet sicherlich ebenfalls, und N10, so er dann doch kommen sollte, so gegen Ende des Jahres, schon in EUV.
w0mbat
2018-12-07, 10:05:56
Naja, es gab in den letzten Tagen schon einige RTX 2070 für um die 450€, da kann AMD nicht nur mit 50€ weniger ankommen.
AffenJack
2018-12-07, 10:15:52
Stellt euch eine Navi Karte vor die ca. Vega56 Leistung bietet, bei 50W weniger Verbrauch und für 299€ neu. Das ist die Hoffnung.
Gemessen an deinen Aussagen zur 2070 wäre so ein Navi ein überteuerter Fail. V56 gibts schließlich jetzt schon für 339€ und Mitte des nächsten Jahres im Abverkauf bestimmt für 300€. Dementsprechend würde Navi V56 bei gleichem Preis/Perf ersetzen und dazu noch den Preis für die gleiche Chipgröße deutlich erhöhen. Dabei wissen wir ja, dass solche chips für unter 200€ zu haben sein müssen. Hast du oft genug gepredigt, also halte dich mal lieber dran oder gelten hier andere Standards?;D
w0mbat
2018-12-07, 10:37:45
Alles ok bei dir? Ich rede über die aktuellen Preise und nicht über Mitte nächsten Jahres.
Schau dir doch mal an, was man neu für 299€ bekommt. Für eine schlechte Vega56 (Gigabyte) zahlst du aktuell min. 369€. Wenn es jetzt eine Navi mit etwas mehr Leistung und weniger Verbrauch für ne UVP von 299€ gibt bedeutet das direkt ein besseres P/L-Verhältnis. Und der übliche Preis wird nach ein paar Wochen ja schnell <299€ liegen, also da wo aktuell die RX 590 sitzt.
Eine 2070 für Anfangs >500€, die eine gleich schnelle 1080 für <500€ ersetzt hat, liefert dies nicht.
Denken scheint nicht so deine Ding zu sein, oder? Aber erstmal trollen, bevor man schaut ob es auch Sinn macht, gell?
AffenJack
2018-12-07, 10:47:25
Alles ok bei dir? Ich rede über die aktuellen Preise und nicht über Mitte nächsten Jahres.
Schau dir doch mal an, was man neu für 299€ bekommt. Für eine schlechte Vega56 (Gigabyte) zahlst du aktuell min. 369€. Wenn es jetzt eine Navi mit etwas mehr Leistung und weniger Verbrauch für ne UVP von 299€ gibt bedeutet das direkt ein besseres P/L-Verhältnis. Und der übliche Preis wird nach ein paar Wochen ja schnell <299€ liegen, also da wo aktuell die RX 590 sitzt.
Eine 2070 für Anfangs >500€, die eine gleich schnelle 1080 für <500€ ersetzt hat, liefert dies nicht.
Denken scheint nicht so deine Ding zu sein, oder? Aber erstmal trollen, bevor man schaut ob es auch Sinn macht, gell?
Es gibt V56 für 339€ schon. Wen interessieren aktuelle Preise, im Abverkauf bei Navi erscheinen wird das Ding auch noch die 40€ auf 299€ runter gehen. Damit dann die gleiche Situation wie bei 2070 vs 1080 im Abverkauf. 2070 leicht schneller, insgesamt gleiches Perf/€ Verhältnis. Laut deinen eigenen Aussagen arg überteuert.
Hier Navi vs V56 im Abverkauf, gleiche Perf/€. Laut dir eine große Hoffnung. Pure Doppelstandards.
An sich fände ich einen 299€ Navi durchaus sehr gut, aber ich fand die 2070 auch insgesamt gut. Mir stören nur Leute die mit der gleichen Argumentation bei einem Hersteller kommen und dann beim anderen das gleiche hernehmen, um etwas völlig anderes auszusagen.
w0mbat
2018-12-07, 10:52:31
Zeig mir V56 für 339€, auf GH ist der günstigste Preis 369€ für die schlechte Gigabyte. BTW: Die UVP ist 399€ für Vega56. Eine leicht schnellere und sparsamere Navi für 299€ UVP wäre also eine bessere Karte für 25% weniger. Was willst du denn noch?
Kein Doppelstandard mein lieber, du suchst nur nach einem.
AffenJack
2018-12-07, 11:16:40
339€ im Schnäppchenthread. Auch da wird es noch weiter runter gehen und im Abverkauf erwarte ich 299€. Aber tätsächlich sind die anderen V56 doch noch teurer als ich annahm. Bleiben dann trotzdem beim Abverkauf wahrscheinlich nur 10% mehr Perf/€. Ist für mich immernoch kein Unterschied zwischen Fail und Mega.
Davon abgesehen sind UVPs völlig witzlos, weil die später eh kaum aktualisiert werden. Da hätte man sogar die 2080 als akzeptables P/L Verhältniss titulieren können, da die 1080Ti UVP auch nie gesunken ist.
Linmoum
2018-12-07, 11:19:40
50W weniger bei Vega56 Performance für 299€ wäre ein ziemlicher fail. Gerade vor dem Hintergrund von 7nm. Wird sicher nicht so kommen.
w0mbat
2018-12-07, 11:27:45
339€ im Schnäppchenthread. Auch da wird es noch weiter runter gehen und im Abverkauf erwarte ich 299€. Aber tätsächlich sind die anderen V56 doch noch teurer als ich annahm. Bleiben dann trotzdem beim Abverkauf wahrscheinlich nur 10% mehr Perf/€. Ist für mich immernoch kein Unterschied zwischen Fail und Mega.
Davon abgesehen sind UVPs völlig witzlos, weil die später eh kaum aktualisiert werden. Da hätte man sogar die 2080 als akzeptables P/L Verhältniss titulieren können, da die 1080Ti UVP auch nie gesunken ist.
Es gab vor nem Jahr auch mal ne 1070 bei MediaMarkt Ebay für 199€ :biggrin:
Nochmal, das ist natürlich alles Speku. Und in nem halben Jahr wären 299€ natürlich nicht mehr so geil. Aber ausgehend von der aktuellen Situation wo die Vega56 eine UVP von 399€ hat wäre eine theoretische Navi Karte, die etwas schneller ist, weniger verbraucht und ne UVP von 299€ hat, ein guter Deal.
Leonidas
2018-12-07, 14:46:04
Wurden die neuesten Spekus von adored schon gepostet? Leo hats in seiner News verlinkt:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-dezember-2018
https://www.planet3dnow.de/cms/42083-amd-ryzen-9-3800x-zen-2-und-amd-radeon-rx-3080-navi-10-zur-ces/
Den Grafikkarten-Part halte ich persönlich für glatt erfunden. AMD ist noch nicht so weit, das man jetzt schon überhaupt so detaillierte Daten hätte. Und wie soll man Preise und Namen nennen können, die erst wenige Wochen vor Release final gemacht werden?
Zudem: Differierende Grafikchips für Lösungen bei 200 vs. 250$? Sehr unglaubwürdig.
w0mbat
2018-12-07, 15:03:38
Vor allem da Navi ja nach Zen2 kommen soll.
SKYNET
2018-12-07, 15:08:03
was interessantes von igor:
AMDs Ansatz mit den sehr preiswert zu produzierenden 8-Kern-Chiplets und dem Controller in der Mitte ist clever gewählt. Yield-Rate hoch, einfacher zu verwertender Ausschuss und mehr Chips pro Wafer, weil der Platz besser ausgenutzt wird. Dazu kommt, dass pro Chiplet geringere Ströme fließen, was die Dichte im Layout zusätzlich erhöht. Wenn es gelingt, diesen Ansatz auf die GPUs zu übertragen, dann wünsche ich allen anderen viel Spaß. :D
Raja hat mir in Macau mal was dahingehgend erzählt, als er noch bei AMD war. mGPU neu interpretiert...
original (https://www.tomshw.de/community/threads/tsmcs-7nm-fertigung-nicht-ausgelastet-amd-wird-es-freuen-freuen.672/#post-9655)
Leonidas
2018-12-07, 15:12:56
Das Problem bei GPUs ist sicherlich nicht der Wille. Der wäre auch trotz aller anderen Vorteile vorhanden. Das Problem ist die software-technische Darstellung. Im CPU-Bereich sind die Programmierer daran gewöhnt, die mehr als einen CPU-Kern auszulasten. Im GPU-Bereich knallt der Entwickler alles dem Treiber auf - und der kann es aufgrund verschiedener Rendering-Techniken nur sehr ineffizient. DX12 wäre hierfür die Lösung, aber die da Spieleentwickler das Thema MultiChip schon zu lange aufgegeben haben, macht hier keiner den ersten Schritt. Also muß der Chipentwickler die Lösung selber bringen - was die Schwierigkeit massiv erhöht.
SKYNET
2018-12-07, 15:32:24
naja, schauen wir mal, wohin die reise geht... wenn AMD wirklich das design der CPUs auf die GPUs übertragen würde, ständen ihnen ja eigentlich alle türen offen, nahezu unendlich* skalierbar...
*halt im sinne, soviele chiplets aufs package passen.
Linmoum
2018-12-07, 15:34:04
Das Problem für GPUs liegt ja auch im Gaming-Bereich, abseits davon würde es mich aber nicht überraschen, wenn AMD entsprechende MCM-Lösungen bringen wird.
It seems, however, that the MCM approach is only an issue in the gaming world, with the professional space more accepting of multi-GPU and potential MCM designs.
“That’s gaming” AMD’s Scott Herkelman tells us. “In professional and Instinct workloads multi-GPU is considerably different, we are all in on that side. Even in blockchain applications we are all in on multi-GPU. Gaming on the other hand has to be enabled by the ISVs. And ISVs see it as a tremendous burden.”
Does that mean we might end up seeing diverging GPU architectures for the professional and consumer spaces to enable MCM on one side and not the other?
“Yeah, I can definitely see that,” says Wang, “because of one reason we just talked about, one workload is a lot more scalable, and has different sensitivity on multi-GPU or multi-die communication. Versus the other workload or applications that are much less scalable on that standpoint. So yes, I can definitely see the possibility that architectures will start diverging.”
https://www.pcgamesn.com/amd-navi-monolithic-gpu-design
Für Navi ist das Thema allerdings sowieso noch zu früh. Ich lasse mich da aber gerne überraschen.
Leonidas
2018-12-07, 15:48:06
Im Prinzip trifft er damit den Punkt: Alle andere Software sorgt ja selbst für Multi-Unterstützung. Genauso wie es gut und schlecht auf Mehrkern-CPUs skalierende Anwendungs-Software gibt. Nur im Gaming-Bereich zieren sich die Entwickler. Hat primär was damit zu tun, das man es nicht einmal einbaut und klappt es für immer bei allen Nachfolge-Produkten, sondern man muß es für jedes Einzelprodukt einzeln pflegen. Dafür, das nur 0,2% überhaupt Multi-GPU-Systeme haben, ist der Aufwand zu hoch.
Na ja, rein Multichip ist für GPUs nicht machbar. Aber Als Chipletdesign kann man ja einzelne Komponenten nicht mehr als monolithisches Design anbieten sondern eben als Chiplets und dann hätte man eine variable Skalierung verschiedener GPU-Komponenten. Als natürlichste Grenze würde mit da Frontend und Backend einfallen, also ein Frontend und mehrere Backend-Chiplets beispielsweise. Es stellt sich natürlich das gleiche Problem wie bei CPUs, die internen Latenzen erhöhen sich natürlich.
Der_Korken
2018-12-07, 15:53:54
Das Problem bei GPUs ist sicherlich nicht der Wille. Der wäre auch trotz aller anderen Vorteile vorhanden. Das Problem ist die software-technische Darstellung. Im CPU-Bereich sind die Programmierer daran gewöhnt, die mehr als einen CPU-Kern auszulasten. Im GPU-Bereich knallt der Entwickler alles dem Treiber auf - und der kann es aufgrund verschiedener Rendering-Techniken nur sehr ineffizient. DX12 wäre hierfür die Lösung, aber die da Spieleentwickler das Thema MultiChip schon zu lange aufgegeben haben, macht hier keiner den ersten Schritt. Also muß der Chipentwickler die Lösung selber bringen - was die Schwierigkeit massiv erhöht.
Eine GPU mit IO-Chip und mehreren Chiplets muss sich nach außen hin in jedem Fall wie eine GPU präsentieren. Alle anderen Ansätze sind eigentlich schon broken by design. Die CUs selbst lassen sich wahrscheinlich einigermaßen auslagern, weil untereinander keine Kommunikation stattfinden sollte. Beim Frontend sieht das sicher ganz anders aus. Um den Ansatz ans Laufen zu kriegen, müsste AMD es schaffen auf dem IO-Chip sowas wie ein Minimalfrontend unterzubringen, dass im Wesentlichen die Arbeit an die Chiplets delegiert oder Ergebnisse einsammelt und neu verteilt, sodass die Chiplets möglichst unabhängig voneinander rechnen können. Wenn der IO-Chip 10% der Arbeit erledigt und die Chiplets 90%, wäre das sicherlich schon brauchbar. Beim DSBR hat man bereits Tiles, die die Arbeit in Häppchen aufteilen. Aber ich habe zu wenig Ahnung von den ganzen Abhängigkeiten und Datenströmen in der GPU. Die Änderungen an der Architektur müssten in jedem Fall enorm sein.
AffenJack
2018-12-07, 16:12:30
Das Problem für GPUs liegt ja auch im Gaming-Bereich, abseits davon würde es mich aber nicht überraschen, wenn AMD entsprechende MCM-Lösungen bringen wird.
Für Navi ist das Thema allerdings sowieso noch zu früh. Ich lasse mich da aber gerne überraschen.
Seh ich genauso. Der V20 Nachfolger für HPC wird sicherlich ein Chipletdesign werden. Da passt dann auch Igors Aussage durchaus dazu, schließlich ist auch ne HPC GPU immernoch ne GPU.
Für Gaming seh ich das aber noch lange nicht. Nicht umsonst äußert sich AMD in die Richtung sehr vorsichtig.
Dino-Fossil
2018-12-07, 16:24:44
Allerdings, was hat Igor denn groß neues gesagt?
WENN es gelingt - also rein hypothetisch, dann wäre man fein raus. Ja, in der Tat, ist aber ja erstmal keine neue Info, sondern nur ein Beitrag zur Diskussion, die so schon eine Weile geführt wird.
Und das Raja da mal was fallen ließ muss auch nichts heißen, denn AMD forscht (wie vermutlich auch Intel und nVidia) sicher schon eine Weile daran. Dank ihrer Erfahrung mit Zen könnten sie natürlich durchaus etwas früher praktikable Lösungen bieten - ich sehe hier aber keinen substantiellen Beitrag seitens Igors im Sinne einer konkreten neuen Info.
BoMbY
2018-12-07, 17:26:27
Also prinzipiell halte ich das immer noch für ein lösbares Problem. XDMA-Crossfire nutzt einen extrem langen weg, und hat eine geringe Bandbreite zur Verfügung, und funktioniert trotzdem in vielen Titeln akzeptabel. Auf einem Interposer hätte das deutlich geringere Latenzen, und eine deutlich höhere Bandbreite. Alles was IMHO fehlt ist eigentlich eine passende Software/Treiber-Schicht, welche das Konstrukt dem System gegenüber (wahlweise) als eine Einheit darstellt.
Screemer
2018-12-07, 17:36:37
Ichs glaube der Navi "Hype" ist eher die Hoffnung, dass sich bei den Preisen wieder etwas bewegt. Also wenn man schon ne R9 290/390 oder RX 470/480, RX 570/580, GTX 970/1060 hat, dass man nicht 300€+ für eine 2 1/2 Jahre alte GTX 1070 oder gleich 500€ für ne 2070 ausgeben muss.
Stellt euch eine Navi Karte vor die ca. Vega56 Leistung bietet, bei 50W weniger Verbrauch und für 299€ neu. Das ist die Hoffnung.
Nvidia hat die Mining-Preise einfach als neuen Standard für Turinng genommen. AMD kann das nicht.
Mhhh. Du hast gesehen für was Polaris die letzten Tage über den Ladentisch ging? 8gb für ~140€ und 4gb für unter 120€. Heute sogar für 99 Franken mit 8gb. Da muss sich aber erst Mal zeigen ob es ein Preisfehler war. Wer wenig bezahlen will, der kann das. Was interessieren mich 50w beim gaming wenn navi v56 Leistung zu dem Preis bietet, zu dem sie nun schon fast zu haben ist? Absolut gar nicht. Bei allen obigen Preisangaben bekomm ich noch mind. 2 aktuelle Games und bei Vega sogar 3.
BlacKi
2018-12-07, 17:58:13
Naja, es gab in den letzten Tagen schon einige RTX 2070 für um die 450€, da kann AMD nicht nur mit 50€ weniger ankommen.
bisher konnten die neuen karten von der etwas günstigeren herstellung profitieren. mit navi in 7nm fällt das weg. es ist zwar möglich schnellere produkte zu bauen, die dann aber deutlich teurer sind. ich glaub daher das die 150w karte ca vega64 performance bringen kann, aber wohl für 400-450€, dem prozess geschuldet.
ich bezweifle das navi eine bessere P/L zusammenbekommt als die vega56 für 339€.
oldgamer
2018-12-07, 19:57:37
Beinhart gesagt, solange AMD bei ihren Produkten nur mit niedrigen Preisen überzeugen kann besteht ihr aktuelles Problem weiter.
Die GPU-Sparte muss mehr Gewinn abwerfen damit auch ordentlich etwas übrig bleibt um R&D finanzieren zu können.
AMD braucht nicht die günstigeren Produkte, sondern einfach die besseren.
Dann kann AMD auch mehr Geld dafür verlangen.
Schönes Beispiel ist Vega für mich, AMD "verramscht" hier einen fettem Chip mit 8GB HBM2 zum Preis für den man bei NV gerade einmal eine 1070 bekommt.
w0mbat
2018-12-07, 20:02:18
Ryzen ist besser, AMD brauch trotzdem niedrigere Preise.
Hakim
2018-12-07, 20:56:23
Schönes Beispiel ist Vega für mich, AMD "verramscht" hier einen fettem Chip mit 8GB HBM2 zum Preis für den man bei NV gerade einmal eine 1070 bekommt.
Ähnlich ist es ja auch bei Polaris zu GTX 1060, obwohl mehr Transistoren, größerer Chip, 2 GB mehr Speicher, sind die Karten teils günstiger als die NV Karten.
Sunrise
2018-12-07, 21:08:54
Kommt Zeit, kommt AMD...aktuell siehts bei GPUs (Vega20) doch ganz gut aus. Geht nicht alles auf einmal.
SKYNET
2018-12-07, 23:20:51
Den Grafikkarten-Part halte ich persönlich für glatt erfunden. AMD ist noch nicht so weit, das man jetzt schon überhaupt so detaillierte Daten hätte. Und wie soll man Preise und Namen nennen können, die erst wenige Wochen vor Release final gemacht werden?
Zudem: Differierende Grafikchips für Lösungen bei 200 vs. 250$? Sehr unglaubwürdig.
in anbetracht der tatsache das AMD in januar nun definitiv ryzen 3000 launchen wird(siehe main thread), sind sie mehr als 4 monate vor dem fahrplan... also möglich das navi im januar in den regalen steht. :biggrin:
Linmoum
2018-12-07, 23:30:14
Werden sie definitiv und das steht auch nirgends außer in deinen feuchten Träumen. Lasst es doch einfach sein, das ist so wahrscheinlich wie ein Turing-Nachfolger in 7nm von Nvidia zur CES.
wolik
2018-12-08, 08:22:28
Im Prinzip trifft er damit den Punkt: Alle andere Software sorgt ja selbst für Multi-Unterstützung. Genauso wie es gut und schlecht auf Mehrkern-CPUs skalierende Anwendungs-Software gibt. Nur im Gaming-Bereich zieren sich die Entwickler. Hat primär was damit zu tun, das man es nicht einmal einbaut und klappt es für immer bei allen Nachfolge-Produkten, sondern man muß es für jedes Einzelprodukt einzeln pflegen. Dafür, das nur 0,2% überhaupt Multi-GPU-Systeme haben, ist der Aufwand zu hoch.
In 2005 100% Anwender hatten sCPU. 2018 100% haben mCPU (von 4 Kerne bis 64) Ich hatte mit vier 1080Ti OC 50Tflops (2016), zwei RTX Titan (2019) werden nur 35Tflop liefern.Und diese 35Tflops sind kaum Bezahlbar. Von VR 2x4K 120 FPS etc., wir sind Meilen weit entfernt ohne mGPU Einsatz.
horn 12
2018-12-08, 14:23:33
Vega 10 /20 Einträge
https://twitter.com/KOMACHI_ENSAKA/status/1071387381415047170
https://twitter.com/KOMACHI_ENSAKA/status/1071388074297384962
BoMbY
2018-12-10, 01:47:16
Hm. Neues Trademark von AMD (USPTO Serial Number 88210086 (https://trademarks.justia.com/882/10/n-88210086.html)):
https://i.imgur.com/iCdt5yE.jpg
The mark consists of two triangles, joined at one corner, so that a leg of each triangle appears to form the side of a letter "V". The left side of the design is a single dark triangle. The right side of the design is composed of a smaller triangle and four alternating light and dark horizontal stripes.
V für Vega, und Römisch Zwei: Vega II ? Könnte das der Markenname für die Navi-Generation werden?
Tobalt
2018-12-10, 11:53:23
lol horizontal stripes :facepalm:
Ja warum nicht, den Markennamen kann man ja beibehalten. Hoffentlich sind das keine 12nm-Vegas :freak:
DK999
2018-12-10, 12:38:46
Vega ist doch verbrannt, sie sollten lieber auf Rage zurückgreifen wenn es um Navi geht :D
Complicated
2018-12-10, 12:41:27
Und typisch Volker Rißka.
https://www.computerbase.de/2018-12/grafikkarte-amd-vega-ii/
Aus einem Bild in dem weder Vega noch "Vega II" erwähnt werden, macht er eine News die sich
Grafikkarte: AMD sichert sich die Marke „Vega II“
nennt. Die Quelle zum Copyright enthält zwar keines der Wörter die Volker nun für gesichert hält, aber was soll's. Für präzise Berichterstattung ist CB ja nun wirklich lange nicht mehr bekannt.
Selbst hier im Forum wird lediglich die Möglichkeit gesehen und das geschützte Bild als Hinweis verstanden und nicht schon so getan als sei es sicher ohne vorherige Bestätigung.
Complicated
2018-12-10, 12:51:14
V für Vega, und Römisch Zwei: Vega II ? Könnte das der Markenname für die Navi-Generation werden?
Doch wohl eher für die Vega 20?
Vielleicht auch nur das Bild um herauszustellen es ist die neue 7nm Vega.
BoMbY
2018-12-10, 12:57:28
Zusammen mit den ganzen neuen Vega10 PCI-IDs von Freitag sieht das fast eher nach einem 12nm Vega10 refresh aus.
Das fürchte ich auch so halb.
Dino-Fossil
2018-12-10, 13:55:33
Hm, in dem Fall wäre Navi definitiv noch ein Stück weg, sonst gäbe es keinen Grund Vega zu refreshen.
Auf der anderen Seite - wenn sie das Powermanagement etwas besser im Griff haben könnte auch ein 12nm Refresh von Vega schon einen gewissen Fortschritt bringen.
Naja, mal abwarten, was da kommt.
Oder Navi ist darüber oder erst mal nur mobile. Aber man kann auch Navi V2 nennen, da darf man nicht zuviel reininterpretieren.
aufkrawall
2018-12-10, 14:14:31
Was stimmt mit dem Powermanagement von Vega 10 nicht?
Savay
2018-12-10, 14:43:49
Mit dem Powermanagement ist alles ok.
Das Verbrauchsniveau ist halt nur vergleichsweise hoch.
Wobei ich kaum glaube das ein 12nm Vega da viel dran ändern würde...eher gibt es analog zu Zen+ und viel besser passend Polaris 30 bei gleichen oder ähnlichen Verbräuchen eher ein wenig mehr Taktspielraum!
Bei 200MHz mehr würde sich das ggf. schon lohnen...vor allem wenn es keine allzu aufwändige Anpassung ist.
Mandalore
2018-12-10, 14:44:50
Hmm kann doch eigentlich echt nur bedeuten, dass NAVI die neue Architektur hat wie auch das Next-Gen in der Roadmap, anders kann man sich den Leak letzter Woche nicht erklären plus das hier, dass Vega refreshed wird....
BoMbY
2018-12-10, 14:48:06
Vega 64 Liquid mit 200 MHz mehr Takt und Aquabolt HBM2 mit 2.4Gbps wäre vermutlich kein schlechtes Produkt.
Dino-Fossil
2018-12-10, 15:21:50
Was stimmt mit dem Powermanagement von Vega 10 nicht?
Naja, zu Hohe Spannung, dadurch hoher Verbrauch und niedrigerer Takt als mit besserem Feintuning zu erreichen.
Diverse Undervolting-Experimente hier im Forum scheinen mir auch ein wenig in die Richtung zu deuten, dass die Regelkreise hinter dem ganzen sich doch manchmal speziell verhalten.
Ich denke schon, dass man aus Vega mehr herausholen könnte, wenn das alles runder liefe.
BoMbY
2018-12-10, 15:44:16
Dafür gibt es angeblich diesen Monat neue Treiber mit Auto-Undervolting. Eventuell morgen? Oder war Dienstags nicht mal der präferierte Tag?
Edit: 17.12.1, die erste Adrenalin Edition, wurde am Dienstag dem 12.12.2017 veröffentlicht, und wir sind ebenfalls jetzt in KW50 bzw. der zweiten Dezemberwoche.
Savay
2018-12-10, 16:37:44
Naja, zu Hohe Spannung, dadurch hoher Verbrauch und niedrigerer Takt als mit besserem Feintuning zu erreichen.
Ich glaube nicht das die wirklich zu "hoch" ist...die Kriterien die AMD anlegt um die Ausbeute zu maximieren und was nach deren Meinung als "stabil" durchgeht, dürften sich nur fundamental von denen eines Bastlers unterscheiden!
Wenn überhaupt, dann ist es eher so, dass die Chips mit weniger Spannung ggf. nicht wirklich Taktstabil genug sind. (davon kann ich BTW ein Liedchen singen!)
Und "speziell" verhält sich die Regelung eigentlich offensichtlich auch erst dann wenn man versucht sie auszuhebeln und ihr Parameter über zu stülpen, auf die sie nicht ausgelegt/optimiert ist.
Davon abgesehen macht sie im Regelbetrieb ja das was sie soll...wenn man das PT als primären Input betrachtet ist sie sogar sehr nachvollziehbar.
aufkrawall
2018-12-10, 16:57:48
Ich denke schon, dass man aus Vega mehr herausholen könnte, wenn das alles runder liefe.
Das Takt- und Spannungsprügeln kommt ja nur daher, weil man ansonsten (defakto kaputte Primitive Shader....) nicht die Leistung rausholen konnte.
Stark undervolten kann man Nvidia-GPUs auch.
Dafür gibt es angeblich diesen Monat neue Treiber mit Auto-Undervolting.
Reines Undervolting führt bei Vega dazu, dass der Kerntakt sinkt. Das ist bei Polaris nicht so, da bekommt man, was man einstellt.
MfG,
Raff
amdfanuwe
2018-12-11, 12:44:06
Ich rechne mitte 2019 mit Navi GPUs von AMD.
Wenn Navi 12 ein ~40 CU Design wird, mit was ist dann eher bei Navi 10 zu rechnen, 60 oder 80 CUs?
Es gibt jetzt ein paar Scenarien.
1.
P30
V"30" (V10 12nm)
N10 (30% mehr als V30)
2.
P30
N12 mit Markennamen VegaII
N10
3.
P30
V20 (nur 2 Stacks)
Complicated
2018-12-11, 12:49:31
Und Vega 2 für Vega 20 in Datacenters ist völlig utopisch?
Könnte eine Radeon Pro Vega II werden, das stimmt.
Radeon Vega II 56 (Navi10, 56CU) und Radeon Vega II 64 (Navi10, 64CU) :rolleyes:
Vega ist eine Marke wie Titan. Ich denke, der nächste GPU Arcturus wird auch eine Marke Vega III bekommen.
Unicous
2018-12-11, 20:10:43
Mojave hints at new & unannounced Vega GPU chips coming to Mac soon (https://appleinsider.com/articles/18/12/11/mojave-hints-at-new-unannounced-vega-gpu-chips-coming-to-mac-soon)
:rolleyes:
yummy_candy
2018-12-11, 21:58:00
Mojave hints at new & unannounced Vega GPU chips coming to Mac soon (https://appleinsider.com/articles/18/12/11/mojave-hints-at-new-unannounced-vega-gpu-chips-coming-to-mac-soon)
:rolleyes:
Das könnte VEGA 48 sein.
Leonidas
2018-12-12, 06:45:40
Zurückkommend auf Navi:
AMDs Navi 10 soll sich mit nVidias GeForce RTX 2080 anlegen können
https://www.3dcenter.org/news/geruechtekueche-amds-navi-10-soll-sich-mit-nvidias-geforce-rtx-2080-anlegen-koennen
mboeller
2018-12-12, 07:07:46
Zurückkommend auf Navi:
AMDs Navi 10 soll sich mit nVidias GeForce RTX 2080 anlegen können
https://www.3dcenter.org/news/geruechtekueche-amds-navi-10-soll-sich-mit-nvidias-geforce-rtx-2080-anlegen-koennen
ui... Leonidas heizt den Hype an ;) :biggrin:
Q2/Q3 = Vorstellung auf der Computex (IMHO)
Hakim
2018-12-12, 08:03:10
Wenn die günstigere Variante (Navi 10, ist zu vermuten das überhaupt variationen kommen?) sich mit der 2070 anlegen kann wäre ich zufrieden, ich hoffe die machen endlich etwas bezüglich Punkt 4. Bin mal auf die Überraschung gespannt.
Der_Korken
2018-12-12, 08:27:11
Die Überraschung beim Verbrauch könnte auch sein, dass er höher ausfällt als erwartet, d.h. die 7nm-Fertigung gerade so reicht, um die Chips auf Pascal-Niveau zu heben.
/schwarzmalerei
Im Ernst: Nach den "up to 2,8x" für Polaris gegenüber 28nm und (ich glaube) "up to 2x" für Vega gegenüber Polaris, die AMD angekündigt hatte, würde ich gerade beim Verbrauch lieber ganz konservativ schätzen. 2080-Performance glaube ich auch erst, wenn ich sie sehe. Für mich klingen die V64+15%, d.h. 2070-Niveau immer noch am plausibelsten. Das Gerücht, dass Navi eher den Midrange abdeckt und die Platzierung als 2070-Gegner wurde auch schon vor Monaten mal genannt.
Palpatin
2018-12-12, 08:28:56
Dann würd der Name Vega II auch gut passen. Vega 1 kam ca ein Jahr nach der 1080 bei etwa gleicher Performance, Vega 2 dann ein Jahr nach 2080 bei etwa gleicher Performance nur ohne den HBM Klotz am Bein und daher hoffentlich günstiger und eine echte Alternative.
Dural
2018-12-12, 09:13:47
Ein 7nm Chip legt es sich mit dem 12nm TU104 Chip an, also mit anderen Worten einen XX106 in 7nm.
Das nenne ich mal gute Aussichten, nicht. ;)
X-Bow
2018-12-12, 09:49:11
Ein 7nm Chip legt es sich mit dem 12nm TU104 Chip an, also mit anderen Worten einen XX106 in 7nm.
Das nenne ich mal gute Aussichten, nicht. ;)
Am Ende zählt doch nur das Ergebnis in abhängigkeit des Preises ;) Nicht welcher Grafikchip sich mit welchem Grafikchip anlegen muss. ;D
SKYNET
2018-12-12, 10:04:21
Zurückkommend auf Navi:
AMDs Navi 10 soll sich mit nVidias GeForce RTX 2080 anlegen können
https://www.3dcenter.org/news/geruechtekueche-amds-navi-10-soll-sich-mit-nvidias-geforce-rtx-2080-anlegen-koennen
wenn 2080 performance bei AMD midrage ist, will ich nicht wissen, welches ziel sie sich für highend gesetzt haben... :freak:
Hakim
2018-12-12, 10:13:31
Steht doch das Navi 10 als HighEnd Chip sich mit der 2080 anlegen wird (und das es vermutlich zu Fett wäre es auf Midrange zu kastrieren). Navi 12 soll als Midrange kommen
Der_Korken
2018-12-12, 10:20:52
Ein 7nm Chip legt es sich mit dem 12nm TU104 Chip an, also mit anderen Worten einen XX106 in 7nm.
Die Frage ist, wann das sein wird. TU104 ist 540mm² groß. Selbst in 7nm wären das unter idealsten Annahmen 270mm², realistisch eher mehr. Also von der Größe her näher an GP104 als an GP106 dran. Turing hat 12nm dermaßen ausgereizt, dass sie selbst mit Shrink auf 7nm noch relativ groß sind.
SKYNET
2018-12-12, 10:26:18
Steht doch das Navi 10 als HighEnd Chip sich mit der 2080 anlegen wird (und das es vermutlich zu Fett wäre es auf Midrange zu kastrieren). Navi 12 soll als Midrange kommen
aber AMD betitelt ihn als mid-rage...
AffenJack
2018-12-12, 10:33:42
aber AMD betitelt ihn als mid-rage...
AMD betitelt ihn als gar nix, weil AMD sich überhaupt nicht dazu geäußert hat. Außer Spekulationen gibts bisher nix.
Die Frage ist, wann das sein wird. TU104 ist 540mm² groß. Selbst in 7nm wären das unter idealsten Annahmen 270mm², realistisch eher mehr. Also von der Größe her näher an GP104 als an GP106 dran. Turing hat 12nm dermaßen ausgereizt, dass sie selbst mit Shrink auf 7nm noch relativ groß sind.
Deswegen glaube ich solchen Perfspekulationen auch erst recht nicht, solange wir nicht von einem Ende 2019 Chip reden. Am Anfang dürfte in 7nm nix viel größeres als 200 mm² erscheinen.
dildo4u
2018-12-12, 10:37:55
Vega 7nm ist doch über 300mm und soll als erstes kommen.
AffenJack
2018-12-12, 10:46:03
Vega 7nm ist doch über 300mm und soll als erstes kommen.
Vega20 ist Datacenter. Wird abscheuliche Yields haben und richtig teuer zu produzieren sein. Ich glaube noch immer nicht, dass er jemals beim Consumer auftaucht. 500$ Produktionskosten scheren dich bei Datacenter aber schlicht nicht.
Troyan
2018-12-12, 10:54:02
Vega@7nm hat 3,2% mehr Transistoren für 20% Mehrleistung. So ja, Navi wird niemals kleiner bei ähnlicher Leistung oder deutlich kleiner bei klar weniger Leistung.
Bambuslooter
2018-12-12, 11:01:12
Ein 7nm Chip legt es sich mit dem 12nm TU104 Chip an, also mit anderen Worten einen XX106 in 7nm.
Das nenne ich mal gute Aussichten, nicht. ;)
So sehe ich das auch.
Wobei man zugeben muss, dass nvidia AMD schon eine Vorlage geliefert hat um aufzuholen.
Der Sprung von TU von P ist nicht wirklich gelungen, teuer und noch in 12nm.
Wenn man sich vorstellt, nvidia hätte in 12nm ohne RT/Tensor alles gegeben würde es anders laufen. Teuer wäre nvidia weiterhin.
Wobei lieber negativ rangehen, die GPU Sparte muss sich noch beweisen.
Ich rechne auch erst mit der nächsten Gen mit einem besseren Produkt.
Der_Korken
2018-12-12, 11:03:13
Vega@7nm hat 3,2% mehr Transistoren für 20% Mehrleistung. So ja, Navi wird niemals kleiner bei ähnlicher Leistung oder deutlich kleiner bei klar weniger Leistung.
:freak:
Bitte nochmal in ganzen Sätzen.
Die Leistungsangaben für V20 beziehen sich im übrigen auf HPC-Anwendungen, nicht auf Spiele. Wenn Navi die Rohleistung besser auf die Straße bringt, reichen auch <64 CUs aus, um die eigene V64 zu schlagen. Außerdem wird Navi allein durch das weglassen der ganzen IO-Interconnects deutlich kleiner pro CU als V20.
Troyan
2018-12-12, 11:15:04
Es sind 20% mehr Rechenleistung. Die Architektur ist die selbe. Wie soll Navi die Rohleistung also besser auf die Straße bringen, wenn man keine weiteren Transistoren investiert? Vega@7nm hat 3,2% mehr und die Effzienz ist 20% besser.
Die Skalierung von Navi wäre sogar schlechter, da GDDR viel komplexer ist als HBM. Turing ist 50% größer gegenüber Pascal, um die "Rohleistung" besser auf die Straße zu bringen. Navi soll es also mit der selben Anzahl an Transistoren schaffen?
Hier fängt man an zu Träumen, dass Navi mehr als doppelt so effizient wird. Und das sechs Monate nach Vega@7nm, den AMD in einem viel stringenteren Markt verkaufen will.
X-Bow
2018-12-12, 11:24:43
Was sind dass schon wieder für Fake-News?
V20 ist 50% effizienter als V10 bei gleichem Takt (MI60 vs MI25) oder 30% schneller bei gleichem Verbrauch.
Quelle: https://www.amd.com/de/technologies/vega7nm
Der_Korken
2018-12-12, 11:33:59
Wie soll Navi die Rohleistung also besser auf die Straße bringen, wenn man keine weiteren Transistoren investiert?
Wie hat Vega es geschafft, die Rohleistung schlechter auf die Straße zu bringen als Polaris, trotz mehr Transistoren pro CU?
Die Skalierung von Navi wäre sogar schlechter, da GDDR viel komplexer ist als HBM. Turing ist 50% größer gegenüber Pascal, um die "Rohleistung" besser auf die Straße zu bringen. Navi soll es also mit der selben Anzahl an Transistoren schaffen?
will.
Die Skalierung ist ganz sicher nicht schlechter. V20 hat zusätzlich mal eben die Bandbreite gegenüber V10 verdoppelt, was bei Navi fürs Gaming natürlich nicht nötig sein wird. Und die ganzen IF-Links mit x00GB/s und 1:2 DP fallen auch einfach unter den Tisch?
Hier fängt man an zu Träumen, dass Navi mehr als doppelt so effizient wird. Und das sechs Monate nach Vega@7nm, den AMD in einem viel stringenteren Markt verkaufen will.
Mehr als doppelt so effizient wie was? Wie V20? Wohl kaum. Wie V10? Dürfte auch eng werden. Hier träumt keiner von doppelter Effizienz. Die einzigen Hinweise auf eventuelle Verbräuche sind "150 TDP" von Adored, bei denen keiner weiß, ob damit die ganze Karte oder nur die GPU gemeint ist und die "große Überraschung beim Verbrauch" in Leos News, von der keiner weiß, ob sie positiv oder negativ zu verstehen ist.
RitterRost
2018-12-12, 11:41:42
Solange AMD versucht NVIDIA einzuholen, werden sie ihre Chips ins (Performance-mäßig) höchste Segment prügeln, um mehr Geld verlangen zu können. Damit müssen sie auch die Chips an der Grenze des Möglichen mit viel Verlustleistung betreiben.
V64+15 % ist doch schon beinahe mit "12 nm" statt "14 nm" zu schaffen.
Brillus
2018-12-12, 12:09:15
Ein 7nm Chip legt es sich mit dem 12nm TU104 Chip an, also mit anderen Worten einen XX106 in 7nm.
Das nenne ich mal gute Aussichten, nicht. ;)
Wenn er kleiner als ein als ein XX106 und weniger verbraucht wäre doch alles okay.
Complicated
2018-12-12, 12:45:39
Navi soll es also mit der selben Anzahl an Transistoren schaffen?
Wer behauptet Navi hätte die selbe Zahl an Transistoren?
Davon habe ich ja noch überhaupt nix gelesen. Bisher waren die Gerüchte von der selbem Anzahl an CUs ausgegangen...
Bei Nvidia rechnest du vor wie TU mehr Transistoren pro CU verbaut hat um Vorteile zu erlangen....
Leonidas
2018-12-12, 14:51:38
Korrekt. Transistoren-Anzahl zu Navi war noch nirgendwo zu lesen. Ergo kann man durchaus spekulieren, das AMD hier Transen opfert, um mehr Rohleistung in echte Performance umzuwandeln. Allerdings bleibt es eine Spekulation, mehr auch wieder nicht.
Troyan
2018-12-12, 14:56:53
Wer behauptet Navi hätte die selbe Zahl an Transistoren?
Davon habe ich ja noch überhaupt nix gelesen. Bisher waren die Gerüchte von der selbem Anzahl an CUs ausgegangen...
Bei Nvidia rechnest du vor wie TU mehr Transistoren pro CU verbaut hat um Vorteile zu erlangen....
Also wird Navi größer als Vega@7nm sein, da Navi mehr Transistoren haben wird?
Der_Korken
2018-12-12, 15:01:46
Also wird Navi größer als Vega@7nm sein, da Navi mehr Transistoren haben wird?
Nein.
basix
2018-12-12, 16:11:27
AMD hat doch selbst gesagt, dass Navi etwas kleiner als Polaris werden wird. Völlig unabhängig von der Anzahl Transistoren etc.
Wieso kommt man jetzt auf V20 Chipgrösse?
Meine Vermutung ist zudem immer noch, das Navi im 7nm Mobile Prozess kommen wird und dafür die Taktraten nicht gross hochgehen werden. Dann ist ein 64CU Chip mit knapp 200mm2 realistisch. 64CU mit etwas höherer IPC und leicht höherem Takt reichen schon für die 2080er. 8GB hätte man mit 256bit SI auch. Aufgrund der eher moderaten Taktraten könnte dann auch die Effizienz eben überraschend gut werden.
Tatwaffe
2019-01-11, 16:19:20
Wurde Navi nicht als Mainstream Chip mit 40 CU vermutet?
sie haben bei der playstation pro ganz simpel den Chip gespiegelt und ein paar Handbremsen gelöst (+1gb DDR3), sodaß die Ps4pro trotz 2,3x facher Leistung 30 watt weniger verbraucht als der ur PS4 chip.
Navi 40 CU, x2 =80CU =Navi², und damit klar Highend, und definitv innerhalb AMD´s Möglichkeiten
Auf der CESPrese sagt sie zu dem Ryzen 3rd Generation und deren IO chip speziell, das er dafür da wäre "to take advantage of faster Graphiccards coming later this year"
fondness
2019-01-11, 17:00:19
Mich würde es nicht wundern, wenn man bei Navi10 die PS5-GPU recycelt, dürfte von der Die-Size ungefähr hinkommen.
Tatwaffe
2019-01-11, 17:09:28
Mich würde es nicht wundern, wenn man bei Navi10 die PS5-GPU recycelt, dürfte von der Die-Size ungefähr hinkommen.
Ist eher andersrum die nehmen Ryzen 3rd und Navi und machen daraus eine apu, deswegen gibts auch keine Ankündigung von neuen Konsolen, erst muss die Pc Version fertig werden.
Linmoum
2019-01-11, 22:52:40
"What we do over the course of the year is what we do every year. We'll round out the whole roadmap," Papermaster said about AMD's 2019 plans for its 7nm GPU lineup. "We're really excited to start on the high-end....you'll see the announcements over the course of the year as we round out our Radeon roadmap."
https://www.thestreet.com/video/amd-cto-14830482
Falls hier noch jemand denkt, dass man dieses Jahr eine weitere High-End-High-End GPU bringen wird. ;) Passt wunderbar zu den Gerüchten, dass Navi im Midrange angesiedelt sein wird.
basix
2019-01-11, 23:40:18
https://www.thestreet.com/video/amd-cto-14830482
Falls hier noch jemand denkt, dass man dieses Jahr eine weitere High-End-High-End GPU bringen wird. ;) Passt wunderbar zu den Gerüchten, dass Navi im Midrange angesiedelt sein wird.
Da würde ich nicht zuviel reininterpretieren. Was soll Papermaster denn sonst sagen? Dass sie gerade mit ihrer schnellsten jemals vorgestellten GPU in Midrange gelaunched haben? ;)
Linmoum
2019-01-11, 23:52:10
Er hätte schlichtweg gar nicht sagen müssen, dass sie beim High-End angefangen haben. ;) Das war ja keine Antwort auf eine ihm spezifisch gestellte Frage. Insofern.
Gipsel
2019-01-12, 01:07:37
Nur mal so nebenbei: 2070/2080er (oder Radeon VII) Level ist "Highend". 2060er Level schimpft sich "Performance" ("Mainstream" kommt erst darunter) und oberhalb der 2080er (also 2080Ti oder Titan) ist "Enthusiast". So ist zumindest die traditionelle Einteilung seitens der Hersteller.
Opprobrium
2019-01-12, 01:14:41
Nur mal so nebenbei: 2070/2080er (oder Radeon VII) Level ist "Highend". 2060er Level schimpft sich "Performance" ("Mainstream" kommt erst darunter) und oberhalb der 2080er (also 2080Ti oder Titan) ist "Enthusiast". So ist zumindest die traditionelle Einteilung seitens der Hersteller.
Kommt drauf an ob man nach Produktnamen oder Produktpreia geht.
Gipsel
2019-01-12, 09:20:38
Kommt drauf an ob man nach Produktnamen oder Produktpreia geht.Nach Produktpreisen wäre Alles eine Stufe runtergerutscht und über Enthusiast (Radeon VII, RTX2080) gäbe es noch "Ultra Enthusiast" für die große Ti bzw. Titan und eine 2060 wäre dann schon Highend?
Opprobrium
2019-01-12, 09:45:43
Würd ich so mitgehen, ja. Schon allein weil alles was zur Zeit über FullHD hinausgeht auch nicht mehr Mainstream ist.
BlacKi
2019-01-12, 11:37:35
wenn navi da ist, wird 1440p mainstream. wir stehen kurz davor, vl noch 6-9monate. 1440p monitore sind schon recht günstig. eine v56 ist schon fast zu schnell für mainstream und die 590 zu langsam für 1440p, hätten wir eine karte dazwischen, wäre 1440p jetzt schon mainstream.
woodsdog
2019-01-14, 10:06:28
was ein Quatsch. Als ob plötzlich Fritz, Peter und Tom ihre 24"FHD TFTs tauschen würden weil AMD 'nen midrange Chip releast... :rolleyes:
Der Monitor wird von "normalen Menschen" viele viele Jahre mitgeschleppt und ist das Letzte was mal neu gekauft wird solange es nicht defekt ist. Es gibt da schlicht null Bewusstsein... Stabile Blickwinkel? Ist doch alles OK wenn ich davor sitze?! mehr als 60 was? mit 30 ist doch schon alles super flüssig...? Nö... ist mir groß genug...
Laptops mit >FHD waren bis "vor kurzem" auch noch außerhalb des "Normalo" Preisrahmens von unter 1000 Eur.
Laut Steam Hardware Survey ist <= FHD bei 91,63% der Single-TFT Benutzer vorhanden. Multi-Monitor ist etwas schwieriger auszumachen aber liegt immer noch deutlichst über 80% für dual/triple Setups. Ja - da sind auch die ganzen Gammel-Laptops mit bei... aber die haben von einem AMD chip auch nix.
Opprobrium
2019-01-14, 10:25:45
1440 wird vermutlich nie wirklicher Mainstream bei Monitoren. WQHD kling einfach nicht so cool wie UltraHD oder 4K ;)
Außerdem ist es auch keine gängige Video Auflösung.
Und bis 4K Mainstream ist wird es noch etwas dauern.
Soll natürlich nicht heißen, dass die nächste Mainstream Generation nicht für WQHD reichen kann, aber das ist nunmal eine Nischenauflösung.
Gut möglich, dass deshalb auch det Markt etwas stagniert. Klar, die AMD Schwäche spielt eine/die große Rolle, aber letztlich ist für viele einfach kein wirklicher Bedarf jenseits von 580/1060
https://www.thestreet.com/video/amd-cto-14830482
Falls hier noch jemand denkt, dass man dieses Jahr eine weitere High-End-High-End GPU bringen wird. ;) Passt wunderbar zu den Gerüchten, dass Navi im Midrange angesiedelt sein wird.
Der hat nur gesagt, mehr gibts, wenn ne Roadmap releast wird. Ansonsten steht da nix davon, dass es bei VII bleibt.
VII mag zwar HighEnd sein, ist aber nix für die Kartenhersteller, da es beim Referenzdesign bleibt. Deshalb ist es äußerst unwahrscheinlich, dass es lange dabei bleibt. Das ist ne pure FE und die hat mit dem Massenmarkt gar nix zu tun. N10 wird der Chip für den Massenmarkt sein.
N10 -> 64-80CUs
N12 -> 40CUs
N14 -> 14-20CUs
N20 -> 64-80CUs für Profimarkt in 2020
Lineup fertig. N12 wird den Anfang machen im Sommer.
woodsdog
Guter Punkt. Hier sind viele abgehoben, in der Presse genauso. Der Durchschnittsnutzer aber nutzt nach wie vor mit überwältigender Mehrheit FHD. N12 und TU106 sind auch FHD-Chips, mehr nicht. WQHD würd ich ab 2080 und VII sehen, wobei ich sowohl der 2060 in FHD als auch der 2080 in WQHD jegliche Zukunftstauglichkeit abspreche aufgrund des unterdimensionierten RAMs. Leute, ihr werdet das übelst merken, wenn die neuen Konsolen kommen. UHD ist mMn nach wie vor nicht spieletauglich. Das wird erst aber der nächsten Generation vernünftig laufen (>60FPS im Durchschnitt).
Es wird immer vergessen, den künftigen Markt mit einzukalkulieren. Eine 2060, die jetzt gekauft wird, wird dazu genutzt werden, Spiele zu spielen, die für die nächsten XBox/PS gemacht sind. Der durchschnittliche Normalkunde wir die GPU sicherlich 3-5 Jahre im Rechner halten.
BoMbY
2019-01-14, 15:03:47
Ja, eher unwahrscheinlich. Im Moment sieht es für mich eher so aus als hätte AMD den Umzug von GloFo zu TSMC für eine Neuaufstellung genutzt, daher vermutlich auch die Verzögerung. Ich rechne aktuell nicht mehr vor Ende Q3 mit Navi, was dabei letztendlich herauskommt ist derzeit pure Astrologie.
mboeller
2019-01-14, 15:42:54
ich fand diesen unwichtigen Punkt interessant:
you'll see the announcements over the course of the year as we round out our Radeon roadmap
es bleibt also bei Radeon. Die RVII ist nicht die letzte Radeon. Vega scheint damit als Marke Geschichte zu sein.
https://www.thestreet.com/video/amd-cto-14830482
Gipsel
2019-01-14, 15:56:21
ich fand diesen unwichtigen Punkt interessant:
es bleibt also bei Radeon. Die RVII ist nicht die letzte Radeon. Vega scheint damit als Marke Geschichte zu sein.
https://www.thestreet.com/video/amd-cto-14830482
Die heißen offiziell Radeon™ RX Vega (https://www.amd.com/de/products/graphics/radeon-rx-vega-64). Das sagt also eigentlich gar nichts über Vega.
Na ja, wenn man schon bei der VII den Namen Vega vermeidet, sollte klar sein, dass Vega nicht mehr genutzt werden wird. Ich tippe auf ein neues Nummernsystem.
Ravenhearth
2019-01-14, 16:35:50
Die nächste heißt dann Radeon VI für (Na)VI? :upara:
amdfanuwe
2019-01-14, 16:37:46
Radeon 7 3080
Radeon 7 3070
Radeon 5 3060
Radeon 5 3050
Radeon 3 3040
BlacKi
2019-01-14, 16:47:30
Die nächste heißt dann Radeon VI für (Na)VI? :upara:
ja, leistungstechnisch also 20 -30% langsamer als R VII könnte das so hinkommen.
Opprobrium
2019-01-14, 16:51:05
Na ja, wenn man schon bei der VII den Namen Vega vermeidet, sollte klar sein, dass Vega nicht mehr genutzt werden wird. Ich tippe auf ein neues Nummernsystem.
Ich hab das eigentlich immer als (gar nicth so) kleine Spielerei mit dem Namen Radeon Vega II angesehen. Sonst hätten sie es ja auch Radeon 7 nennen können.
Mal schauen ob die nächste dann VIII heißt, danach wird's dann aber eng mit den römischen Ziffern ;)
Ravenhearth
2019-01-14, 17:40:21
Ich könnte mir tatsächlich vorstellen, dass AMD die "VII" mit Navi in "7" ummünzt und dann Leistungsklassen wie bei Ryzen einführt (Radeon 3, 5, 7), wie schon von amdfanuwe beschrieben.
pilzsammler2002
2019-01-14, 18:09:50
Dann fehlt aber ne R9 für das Highend :D
Wie bei den CPUs :)
weihnachtskatze
2019-01-19, 13:51:35
Neues video von AdoredTV: https://www.youtube.com/watch?v=c8EONokJTdU
Navi musste wohl re-taped werden. Deshalb keine Ankündigung zur CES2019.
robbitop
2019-01-19, 14:19:52
Ui. Nur ein Metalspin oder auch für das Silizium? Letzteres ist ja deutlich teurer und das wären iirc nochmal gut 3+ Monate mehr.
Klar war das wieder BS was Adored da ablassen. Es ist doch viel wahrscheinlicher, dass der größere Navi AMDs erster EUV-Chip ist, da ja die Chipgröße offenbar nicht unproblematisch ist ohne EUV in 7nm. Die kleineren werden sicherlich die ganze Zeit für Sommer geplant worden sein. CES war eh Blödsinn für einen Navi Launch. Das wussten wir vorher auch schon. VII war etwas überraschend.
Unicous
2019-01-20, 01:09:50
Mal so nebenbei:
"[...] you would be hard pressed to find anyone claiming that vega 7nm was coming as a gamer card for near the entirity of 2018" - really.... @AdoredTV
https://pbs.twimg.com/media/DxRX7vmWoAY0u5j.jpg:large
https://twitter.com/coreteks/status/1086590715877040128
Der Typ hat wohl vor ein paar Monaten ein Video zu Vega 20@Gaming heraugebracht und Adored behauptet, niemand außer ihm hätte diesen Gedanken 2018 geäußert.
Die Pointe (also ich musste jedenfalls ein wenig lachen):
Tbh mate I haven't watched your video as I don't really watch videos so I apologise if you called it. I mostly just read.
;D;D;D
Youtuber macht Youtube-Videos schaut aber selbst keine Videos. Alles klar.:freak:
Dann hör endlich auf deine langweiligen, ewiglangen Videos zu machen und schreib den Scheiß auf. Dein Genuschel kann eh niemand verstehen.:rolleyes:
(Diese Forensoftware:rolleyes: Man kann keine Tweets embedden, man kann keine Twitter .jpgs embedden)
robbitop
2019-01-20, 07:46:06
Klar war das wieder BS was Adored da ablassen. Es ist doch viel wahrscheinlicher, dass der größere Navi AMDs erster EUV-Chip ist, da ja die Chipgröße offenbar nicht unproblematisch ist ohne EUV in 7nm. Die kleineren werden sicherlich die ganze Zeit für Sommer geplant worden sein. CES war eh Blödsinn für einen Navi Launch. Das wussten wir vorher auch schon. VII war etwas überraschend.
Was hat die Belichtungsart mit der Herstellbarkeit verschiedener Chipgrößen zu tun? Oder spielst du darauf an, dass 7nm mit euv bei tsmc ggü der duv Variante höhere Packdichte erlaubt?
AffenJack
2019-01-20, 08:10:01
Was hat die Belichtungsart mit der Herstellbarkeit verschiedener Chipgrößen zu tun? Oder spielst du darauf an, dass 7nm mit euv bei tsmc ggü der duv Variante höhere Packdichte erlaubt?
Yield hängt stark von der Anzahl an Process steps ab. Selbst bei 99,9% Yield pro Schritt, werden die kommulierten Yields immer mehr zum Problem. Die EUV Prozesse haben dagegen 20-30% weniger Process steps, womit auf eine erhöhung der Ausbeute gehofft wird. Ob TSMC und Samsung EUV aber so gut kontrollieren, dass dies sofort der Fall sein wird ist die Frage.
https://electroiq.com/wp-content/uploads/2016/02/Yield-3.png
Was hat die Belichtungsart mit der Herstellbarkeit verschiedener Chipgrößen zu tun? Oder spielst du darauf an, dass 7nm mit euv bei tsmc ggü der duv Variante höhere Packdichte erlaubt?
Nein, die Fehlerquote ist bei non-EUV höher aufgrund der hohen Anzahl der Belichtungen. AffenJack hat das gut erklärt. Je größer die Chips desto unberechenbarer der Yield. Ich finds schon erstaunlich, dass AMD V20 so gut hinbekommt, dass man sich damit in den Consumermarkt traut. Dafür muss der Yield ok sein. AMD wird V20 aber wie gesagt mMn eh nicht lange halten, deshalb hat man auch an Vega nix verändert, er ist eben wie er ist. Aber AMD wird den möglichst zeitig durch einen N10 ersetzen, der schon EUV ist und im Profimarkt durch einen N20, der mehr Profifeatures bietet als V20 und N10 mMn.
Complicated
2019-01-20, 11:03:10
Klar war das wieder BS was Adored da ablassen. Es ist doch viel wahrscheinlicher, dass der größere Navi AMDs erster EUV-Chip ist, da ja die Chipgröße offenbar nicht unproblematisch ist ohne EUV in 7nm.
Das ist doch absoluter Nonsens. Die AMD Roadmap zeigt eindeutig 7nm DUV für Vega und Navi und 7nm+ für NextGen. EUV und Navi haben nichts miteinander zu tun und daher sind alle darauf basierenden Spekulationen zu verwerfen.
TSMC verdoppelt im Sommer wie geplant seine 7nm Kapazität und daher wird da auch Navi kommen. Das ist der einzige Grund für den Zeitplan. Es gibt vorher nicht genug Wafer.
AffenJack
2019-01-20, 12:11:00
Ich glaube wir werden schlicht gar keinen größeren Navi sehen. Kleinere Navis in 7nm DUV und 7nm EUV startet dann mit einem großen Chip (Arcturus) oder wie auch immer das Ding heißen wird.
Complicated
2019-01-20, 12:24:04
Das denke ich ebenfalls. 7nm+ reduziert die Kosten deutlich und macht größere Chips wirtschaftlicher. Das könnte gut der Grund sein warum Nvidia auch erst da auf 7nm+ einsteigt und 7nm DUV überspringt/überspringen muss.
Leonidas
2019-01-21, 07:50:02
Neues video von AdoredTV: https://www.youtube.com/watch?v=c8EONokJTdU
Navi musste wohl re-taped werden. Deshalb keine Ankündigung zur CES2019.
Ich hab eigentlich kein Problem damit, wenn man mal bei einem Leak falsch liegt. Passiert und wird immer wieder passieren. Speziell das ändert nichts an der Qualität einer Quelle.
Aber DIESE MELDUNG scheint nun eher in die Richtung zu gehen "wir hatten sowieso schon immer Recht, haben uns nur im Termin geirrt". Siehe auch die Weltuntergangsspinner, die nach jedem verpassten Termin einfach einen neuen ausgeben.
DK999
2019-01-21, 10:53:57
Aber DIESE MELDUNG scheint nun eher in die Richtung zu gehen "wir hatten sowieso schon immer Recht, haben uns nur im Termin geirrt". Siehe auch die Weltuntergangsspinner, die nach jedem verpassten Termin einfach einen neuen ausgeben.
Nur das die GPUs zu Lebzeiten kommen werden ;)
Mit den RTX Leaks lag er ja ganz richtig und er begründet das Fehlen von Navi / die Präsentation von V7 ja auch ganz stichhaltig. Mir erscheint der Release von V7 auch eher als Notlösung, da Navi anscheinend fast in ähnlichen Regionen zu günstigeren Kosten wildert. Ich kenne es ja auch aus meiner Firma, Pläne ändern sich, der Fokus shifted, Produktvorstellungen verschieben sich. Je nachdem, wen man bei uns fragt, bekommt man auch 5 verschiedene Antworten von 3 Leuten.
BlacKi
2019-01-21, 11:26:22
Nur das die GPUs zu Lebzeiten kommen werden ;)
Mit den RTX Leaks lag er ja ganz richtig und er begründet das Fehlen von Navi / die Präsentation von V7 ja auch ganz stichhaltig. Mir erscheint der Release von V7 auch eher als Notlösung, da Navi anscheinend fast in ähnlichen Regionen zu günstigeren Kosten wildert. Ich kenne es ja auch aus meiner Firma, Pläne ändern sich, der Fokus shifted, Produktvorstellungen verschieben sich. Je nachdem, wen man bei uns fragt, bekommt man auch 5 verschiedene Antworten von 3 Leuten.
günstigere kosten? ja. selbe performance wie V7, nein.
da beide chips midrange werden, wie polaris mit nem 128bit/256bit SI, glaube ich realistischer weise an 60% auf polaris 14nm. das wird nur V64 performance bei ca. 150w sein. preise werden wahrscheinlich sowieso am markt orientiert sein, 250-300€ für die 8gb variante und 350-380€ für die 16gb variante. v64 wird natürlich auslaufen.
Adam D.
2019-01-21, 11:36:18
https://videocardz.com/newz/amd-radeon-navi-gpus-spotted-in-macos-mohave-update
Navi taucht jetzt auch in MacOS Mohave auf, also sehr weit weg kann der Release wirklich nicht sein.
BlacKi
2019-01-21, 11:45:31
würde navi schon vor dem sommer kommen, hätten wir schon mehr gesehen, vl sogar lauffähige entwickler karten.
dildo4u
2019-01-21, 11:45:40
Apple hat grad erst Vega verbaut,kann also locker auch auf Herbst hindeuten.
https://www.heise.de/mac-and-i/meldung/MacBook-Pro-AMDs-mobile-Vega-GPU-gegen-Aufpreis-erhaeltlich-4221356.html
deekey777
2019-01-21, 11:53:49
https://videocardz.com/newz/amd-radeon-navi-gpus-spotted-in-macos-mohave-update
Navi taucht jetzt auch in MacOS Mohave auf, also sehr weit weg kann der Release wirklich nicht sein.
Und wenn man auf weiterführenden Link klickt, sieht man, dass die Originalmeldung vom November 2018 stammt und Mojave 10.14.2 vor einiger Zeit veröffentlicht worden ist.
Apple hat grad erst Vega verbaut,kann also locker auch auf Herbst hindeuten.
https://www.heise.de/mac-and-i/meldung/MacBook-Pro-AMDs-mobile-Vega-GPU-gegen-Aufpreis-erhaeltlich-4221356.html
Genau, schließlich ist das MacBook Pro das Maß der Dinge. Und es kam nie vor, dass die Macs (iMacs, MacBooks usw.) mitten im Sommer aktualisiert werden.
Wir haben doch nen ziemlich realistischen Launchzeitraum:
40 CU Navi (Leistung zwischen 2060 und 70) -> Vorstellung E3 -> Release Juli.
Das wird auch so laufen. Davon wirds sicherlich noch ne kleinere Version geben als Polaris-Ersatz etwas später Richtung Herbst voraussichtlich. Die Wahrscheinlichkeiten hierfür sind jetzt extrem hoch mMn.
Spekulativ ist eher ein neuer High-End-Chip dann in 2020, welcher wahrscheinlich nicht mehr Navi ist. Navi wird mMn ein besser taktbarer Vega sein mit gefixtem NGG, das wars.
deekey777
2019-01-21, 12:30:56
Wir haben doch nen ziemlich realistischen Launchzeitraum:
40 CU Navi (Leistung zwischen 2060 und 70) -> Vorstellung E3 -> Release Juli.
Das wird auch so laufen. Davon wirds sicherlich noch ne kleinere Version geben als Polaris-Ersatz etwas später Richtung Herbst voraussichtlich. Die Wahrscheinlichkeiten hierfür sind jetzt extrem hoch mMn.
Spekulativ ist eher ein neuer High-End-Chip dann in 2020, welcher wahrscheinlich nicht mehr Navi ist. Navi wird mMn ein besser taktbarer Vega sein mit gefixtem NGG, das wars.
Ach weißt du, wenn der Fertigungsprozess immer noch nicht läuft...
Die Leistung einer ausgewachsenen 2060 6 GB wäre zu erwarten.
V20 widerlegt das effektiv. Der Fertigungsprozess läuft. Wenn die V20 produzieren können und auch Prozessoren mit 4GHz+ dann ist Navi Formsache, mehr nicht. Und "Die Leistung einer ausgewachsenen 2060 6 GB wäre zu erwarten." kommt halt schwer auf den Takt an. AMD selbst sagt es läuft besser als geplant, also besser als V10. Da kannste die 2060 schon knicken, ganz abgesehen davon, dass das Ding aufgrund der 6GB eh unkaufbar ist, jetzt, wo die neuen Konsolen vor der Tür stehen. Das ist die Leistung völlig egal.
deekey777
2019-01-21, 13:24:49
"poor volta" und so.
Der Artikel von Videocardz geht mir noch mehr auf den Sack. Sie spekulieren (auf welcher Grundlage?), dass die gefundenen Zahlen für die Anzahl der CUs stehen.
Agent117
2019-01-22, 00:15:55
Navi wird mMn ein besser taktbarer Vega sein mit gefixtem NGG, das wars.
Dem sollte nicht so sein, wenn Mike Mantor noch vor dem Vega Release sagt, dass Navi der nächst größere Sprung wird. Großer Sprung muss aber nicht Post-GCN bedeuten.
robbitop
2019-01-22, 07:46:07
Das gleiche wurde schonmal vor dem Launch von Polaris und auch Vega behauptet.
Arcturus ist wohl die erste post gcn mArch. Nach Gerüchten.
danarcho
2019-01-22, 09:05:50
Das gleiche wurde schonmal vor dem Launch von Polaris und auch Vega behauptet.
Arcturus ist wohl die erste post gcn mArch. Nach Gerüchten.
Polaris kam nach Fiji und Tonga. Wenn das kein Sprung war? Dabei haben sie die ISA sogar komplett gleich gelassen.
Post-GCN? Die selben Gerüchte, die das über Navi gesagt haben? Und was versprecht ihr euch davon überhaupt außer einem diffusen "neuer-ist-besser"?
robbitop
2019-01-22, 09:35:24
Sämtliche einzelne Sprünge seit tahitii in Bezug auf Perf/W, Perf/Transistor, rohleistungsnormierte Perf, Bandbreiteneffizienz waren für sich relativ klein. Polaris war an sich schon der größte. Vega war ja häufig taktnormiert nicht schneller als Fijii.
Man erhofft sich wie bei Maxwell und Pascal mal wieder einen gesunden Sprung.
In all den obigen Metriken liegt Vega einfach ein gutes Stück hinter Pascal. Turing ist pro SM ja nochmal effizienter geworden...
Palpatin
2019-01-22, 09:43:00
Vor paar Monaten gab es mal eine Folie die besagte das Navi GCN 6. Generation
ist und 2020/21 neu Architektur kommt, ist das noch aktuell?
Abgesehen davon, Vega wurd ja in erster Line für den Profi Markt entwickelt, Navi hingegen für die nächste Konsolengeneration und auf 7nm optimiert, könnte also im Gaming und bei der Perf/Watt schon guten Sprung machen.
Windi
2019-01-22, 10:03:53
Vor paar Monaten gab es mal eine Folie die besagte das Navi GCN 6. Generation
ist und 2020/21 neu Architektur kommt, ist das noch aktuell?
Abgesehen davon, Vega wurd ja in erster Line für den Profi Markt entwickelt, Navi hingegen für die nächste Konsolengeneration und auf 7nm optimiert, könnte also im Gaming und bei der Perf/Watt schon guten Sprung machen.
So habe ich das auch immer verstanden.
Vega 7nm für den professionellen Markt optimiert.
Navi 7nm für Spiele optimiert.
Wirklich große Neuerungen kommen dann aber erst mit der NextGen.
Macht auch irgendwie Sinn. AMD war fast Pleite und hat die meisten Resourcen in die Zen Entwicklung gesteckt. Jetzt optimiert man die "alte GCN Architektur" noch einmal auf 2 unterschiedliche Bereiche und konzentriert sich dann vor allem auf die Zukunft.
Navi kann ja trotzdem gut werden, wenn man mit dem Geld von MS/Sony die GCN Architktur noch einmal kräftig auf Spiele optimiert und alles Unnötige heraus schmeißt. Die Spieleperformance scheint mir bei Navi eh das mit Abstand wichtigste zu sein, da dieselbe Architektur auch in den zukünftigen Konsolen landen wird.
Der Sprung wird bei Navi nicht groß. Das wird eher was bodenständiges, optimiert für bessere Perf/W, eben wegen der Konsolen. Ich seh das eher so wie von Tonga -> Polaris. Etwas mehr wirds schon geben, es gibt ja im Gegensatz hierzu auch ne neue ISA. Viel wirds aber nicht sein.
Die große Frage ist jetzt, ob es 2020 wirklich schon die neue Architektur gibt, oder doch "nur" ein Navi. Ich tippe da leider eher auf zweiteres.
robbitop
2019-01-22, 10:12:16
@windi
Das ist die Frage. Bei einer festen Plattform wie einer Konsole kann auch der Entwickler mittels Optimierung eine Menge aus der HW herausholen. Wesentlich mehr als auf dem PC. Auf dem PC muss der Treiber, Shadercompiler ohne/mit weniger Entwicklerliebe klarkommen. Und die Kontrolllogik auf der GPU muss die Auslastung allein hochhalten.
Auslastung von GCN war auf der Konsole wohl weniger problematisch. Insofern weiss ich nicht, ob Navi wegen sony/ms ein Gaminggarant werden muss.
Windi
2019-01-22, 11:01:38
Zu viel würde ich von Navi auch nicht erwarten.
Aber der Vega 7nm Chip hat ja dann doch schon einige Dinge mit dabei, die man zum Spielen nicht braucht. Die könnte man wieder raus werfen und dafür mehr Einheiten verbauen. Oder man hat halt einen günstigeren Chip.
Dazu noch ein paar Architektur Optimierungen und eine optimale Anpassung an den 7nm Prozess.
Man darf auch nicht vergessen, das man dieses Jahr gegen die RTX-Chips von Nvidia antritt. Da werden auch viele Transistoren für Features "verschwendet", die man heute kaum nutzen kann.
Die Navi Rheihe sollte anfangs eigentlich ganz passabel performen.
Käsetoast
2019-01-22, 11:18:59
Ich denke grundsätzlich hat GCN auch heute noch viel Potential. Irgendwie war in der Auslegung des Designs aber ja immer auch eine starke Computing Power mit drin bzw. hinsichtlich dessen was die Desktop Karten in diesem Segment so leisten war man ja eigentlich immer ein gutes Stück vor NVIDIA. Aus meiner Sicht gipfelte das in Vega nun darin, dass der Chip noch ein wenig stärker in Richtung Computing ausgelegt wurde - auch wenn gerüchtehalber bei der Entwickler ja deutlich Manpower abgezogen wurde...
Wenn Navi nun wirklich das sein soll, was grundsätzlich auch in den kommenden Konsolen zu finden sein soll, dann denke ich, dass wir hier eine andere Ausrichtung sehen werden. Das würde ein wenig dafür sprechen, dass Navi wirklich noch GCN ist und noch nichts neues, denn so hätten die Konsolenhersteller ja auch ein einfaches Mittel um abwärtskompatibel zu bleiben (sicherlich kein maßgebliches Kriterium, aber CPU technisch bleibt man ja bei x86 und wenn die Grafikarchitektur in den Grundsätzen gleich bleibt, kann man eine Abwärtskompatibilität ja einfach mitnehmen). Primär dürfte sich (hoffentlich) aber etwas an Spieleleistung und Effizienz ändern. Für so einen Konsolenchip wird man dann auch mal was mehr Geld in die Hand bzw. Arbeit investiert haben. Dementsprechend rechne ich damit, dass viel von der Computing Ausrichtung über Bord geschmissen wird, da für Spiele ungeeignet. Dadurch dürfte man viele Bereiche verschlanken bzw. effizienter gestalten können, so dass die Perf/W deutlich ansteigen wird. Weiterhin gehe ich davon aus, dass man die Architektur an sich z.B. durch ein vernünftiges Binning (das von Vega war ja wohl recht halbgar und weit von dem Sprung entfernt wie man ihn bei Maxwell sah) effektiver macht, so dass man das Hautproblem von GCN in Spielen angeht, nämlich die Rohleistung auch auf die Straße zu kriegen...
Seit langem also wieder mal eine quasi echte Gamer Karte, wo man den "Computing Ballast" über Bord wirft, weil der in Spielen zum Großteil nicht nutzbar ist (ja, Raytracing wäre jetzt so eine Anwendung, aber dafür ist es noch zu früh bzw. für Konsolen ist es noch uninteressant) und wo man versucht die Auslastung in Spielen zu steigern um die Leistung die theoretisch da ist auch wirklich zu nutzen...
Der Traum wäre so gesehen eine allumfassende Effizienz auf Augenhöhe mit Turing (also rein der Rasterizing Teil ohne Tensor Cores und RT). Ob das zu schaffen ist bleibt abzuwarten...
Dino-Fossil
2019-01-22, 11:25:41
Solange Navi einen ordentlichen Leistungszuwachs zu meiner 480 bringt und dabei unter ca 150W bleibt, bin ich eigentlich zufrieden damit.
Raytracing wird mMn erst für die nächsten Generationen (nVidia und AMD) ein echtes Thema sein und absolutes High-End Gaming interessiert mich nicht.
Adam D.
2019-01-22, 11:53:00
Wenn AMD was kann, dann ist es Mittelklasse. Deshalb bin ich optimistisch, dass Navi mit Blick auf Perf/W und P/L den Markt gut durchschütteln wird. Wenn sie mit Navi Vega 64/56 zu einem attraktiven Preispunkt ersetzt bekämen, wäre das mMn absolut ausreichend erstmal. Aber ein von Grund auf für 7nm entwickelter Chip muss mit Blick auf Perf/W nah an Turing rankommen, sonst wäre das für mich persönlich ein echter Fehlschlag.
BoMbY
2019-01-22, 12:06:42
https://videocardz.com/newz/amd-radeon-navi-gpus-spotted-in-macos-mohave-update
Navi taucht jetzt auch in MacOS Mohave auf, also sehr weit weg kann der Release wirklich nicht sein.
Dazu: it’s not Navi10, Navi16 (http://netkas.org/?p=1481), etc.
Dural
2019-01-22, 13:13:03
Vega1 wurde nicht für hpc entwickelt, vega2 hingegen schon.
Ich habe ja schon länger den verdacht das im vega einige bereiche nicht funktionieren oder eine fehlentwicklung war.
Beide (also V10 und 20) werden für HPC entwickelt worden sein. Der Verdacht liegt bei den großen Vegas generell nahe, dass sie fürs Gaming eher "zweckentfremdet" wurden. In kleineren Scales, wie bei RR, taugt Vega ja durchaus auch als normale Grafik.
SKYNET
2019-01-22, 14:31:38
Vega1 wurde nicht für hpc entwickelt, vega2 hingegen schon.
Ich habe ja schon länger den verdacht das im vega einige bereiche nicht funktionieren oder eine fehlentwicklung war.
denke war ein versuch, eine karte für alles... so richtig funktioniert hat aber weder das eine, noch das andere... sie war ich beiden gut, aber nicht überragend.
Adam D.
2019-01-22, 15:11:24
denke war ein versuch, eine karte für alles... so richtig funktioniert hat aber weder das eine, noch das andere... sie war ich beiden gut, aber nicht überragend.
Alleine die Voltage-Kurve bei Vega zeigt doch eindeutig, dass hier etwas anderes als Spielelast im Blick war. Wenn man quasi 20-30% Verlustleistung einsparen kann ohne nennenswerte Performance-Einbußen, stimmt etwas grundsätzlich nicht mit Blick auf das Einsatzgebiet in einem Gaming-PC.
Hm in dem MacOS wird ein Navi9 erwähnt. Ob das ein nachgeschobener High-End-Navi ist? Navi10 wird sicherlich das 40CU-Ding sein und Navi12 und 16 werden sicherlich nur 120 bzw. 90mm² haben und die 14nm-Chips auf Abstellgleis schieben.
Dural
2019-01-22, 17:23:42
Glaube ich nicht, sonst hätte Vega1 von Anfang FP64 in 1:2 und ein 4096Bit Si für 16/32GB gehabt. AMD hat die GPU klar Richtung Gaming ausgelegt.
Quatsch. Ist doch ne Sache der Größe und des Platzes. Das 1:2 hat man sicherlich direkt für 7nm reserviert. Entsprechende Folien leakten doch schon 2016(!). Und für viel professionelles Zeug braucht man doch gar kein 1:2.
BoMbY
2019-01-22, 17:31:48
Hm in dem MacOS wird ein Navi9 erwähnt. Ob das ein nachgeschobener High-End-Navi ist? Navi10 wird sicherlich das 40CU-Ding sein und Navi12 und 16 werden sicherlich nur 120 bzw. 90mm² haben und die 14nm-Chips auf Abstellgleis schieben.
Ließt hier eigentlich irgendjemand noch irgendwas?
Es ist nicht Navi9, Navi10, Navi16, Navi irgendwas. (http://netkas.org/?p=1481)
deekey777
2019-01-22, 21:16:20
Ist das geil. ;D
Leonidas
2019-01-23, 16:42:26
Also ich hab ja nix gegen weitere Navi-Chips ... aber ich denke, AMD wird in dieser Generation (Navi) noch nicht die Reserven haben, um so viele Chips aufzulegen. Die werden wie die letzten Jahre die GPU-Sparte auf Sparflamme haben bzw. die jetzt langsam aufgedrehten R&D-Gelder gehen zugunsten zukünftiger GPU-Entwicklungen, sind für Navi einfach zu spät.
Ergo sind wir schon mit 2 Gamer-Chips von Navi (Navi 10 & Navi 12) gut bedient. Eventuell ist es auch nur ein Chip, der in verschiedenen Ausführungen erscheint, dies ist immer noch nicht gänzlich sicher. Und hintendran Navi 20 für HPC-Zwecke, der kommt aber sicher erst 2020.
Käsetoast
2019-01-23, 17:12:37
Wenn man sich Vega II ansieht kann man denke ich davon ausgehen, dass für's erste Navi nur Polaris Ersatz wird, wobei ich da mit Vega I Leistung zum kleinen Preis und bei kleinem Verbrauch rechne. Ende 2019 / Anfang 2020 würde ich dann mit einem großen Navi rechnen, der schneller ist als die Vega II, aber in Sachen Computing Performance nicht an Vega ran kommt, so dass Vega II eben für Content Creators & Co seine Berechtigung behält...
Ich fand es schade, dass auf der CES kein Navi Teaser gezeigt wurde. Man wollte die Vega II Geschichte wohl nicht stören...
mczak
2019-01-23, 21:07:56
Ergo sind wir schon mit 2 Gamer-Chips von Navi (Navi 10 & Navi 12) gut bedient. Eventuell ist es auch nur ein Chip, der in verschiedenen Ausführungen erscheint, dies ist immer noch nicht gänzlich sicher. Und hintendran Navi 20 für HPC-Zwecke, der kommt aber sicher erst 2020.
Naja so ein Riesenaufwand für mehr Chips ist das im Prinzip nicht - bloss die Masken kosten halt.
Bei Polaris hat AMD ja sogar 2 Chips die schon beinahe identisch sind mit Polaris 11/12 - letzterer hat zwar nur 62.5% der Shaderleistung, aber bzgl. Chipfläche (und auch was die Karten am Ende kosten...) ist der Unterschied minim. Wobei ich sowas bei Navi auch nicht erwarte...
Dino-Fossil
2019-01-23, 21:52:58
So weit ich weiß, ist P11 ca 1,5x so groß wie P12, was vergleichbar ist zu P11 vs P10. Es wird sich für AMD schon irgendwie gelohnt haben, denke ich...
mczak
2019-01-23, 23:12:20
So weit ich weiß, ist P11 ca 1,5x so groß wie P12, was vergleichbar ist zu P11 vs P10.
Nicht mal annähernd. P12 ist 101mm², P11 123mm², P10 232mm².
Das ist gerade mal 23% grösser. Der Chip hat ja auch nur weniger CUs (10 statt 16), alles andere ist 100% identisch.
Selbst nvidia hat meist keine Chips mit derart geringen Unterschieden (na gut tu104 und tu106 liegen auch nicht weiter auseinander).
Es wird sich für AMD schon irgendwie gelohnt haben, denke ich...
Meine Vermutung wäre das hat sich eher nicht gelohnt...
Wenn jetzt das Volumen sehr hoch wäre aber so wie ich das sehe sind die nicht gerade populär, die RX 550 sind doch eher ein Nischenprodukt verglichen mit RX 560. Die Verwendung als low-power Mobilchip würde theoretisch Sinn ergeben (ich schätze mal gp108 werden in Notebooks mehr verbaut als alle anderen Pascal Chips zusammen), bloss ist der Marktanteil von AMD imho da viel zu gering als dass sich da ein eigener Chip wirklich gelohnt hätte. Aber vielleicht liege ich da falsch, ich habe keine Ahnung wie gross die Stückzahl da sein müsste damit sich das lohnt (noch wie viele Dinger davon AMD verkauft hat oder noch verkaufen wird - kann natürlich auch sein dass Polaris 12 da noch eine viel längere Zukunft hat mit Rename-Produkten als die anderen Polaris Chips).
Man muss die Absatzzahlen, grad in China und Indien, bedenken. Das wird sich auf jeden Fall gelohnt haben, zumal sich die Masken nur wenig unterschieden haben dürften.
Für Navi kann man aber denke ich andere Größenordnungen erwarten, sicherlich wird der kleinste eher so ca. 80mm² haben und nur ein 64Bit Speicherinterface mitbringen. Das Ganze dürfte dann so bei 12 CUs rauskommen. Mit GDDR6 hätte er dann genug Bandbreite, er könnte aber eben auch zusätzlich mit GDDR5 und DDR4 auf den Markt kommen für noch günstigere Märkte. Der nächstgrößere dürfte dann schon in Polaris10 Regionen ankommen.
Dural
2019-01-24, 00:01:33
Quatsch. Ist doch ne Sache der Größe und des Platzes. Das 1:2 hat man sicherlich direkt für 7nm reserviert. Entsprechende Folien leakten doch schon 2016(!). Und für viel professionelles Zeug braucht man doch gar kein 1:2.
Wie Die grösse und kosten für eine HPC chip relevant wären... V1 wurde ganz klar auf gaming getrimmt, wer das nicht sieht, sieht nichts.
NV liefert da 800mm2 monster mit 32gb speicher aus, kosten interessiert im HPC bereich keiner.
mczak
2019-01-24, 01:09:42
Man muss die Absatzzahlen, grad in China und Indien, bedenken. Das wird sich auf jeden Fall gelohnt haben, zumal sich die Masken nur wenig unterschieden haben dürften.
Ich habe ja erwähnt der Aufwand ist wohl überschaubar. Aber ist halt trotzdem eine andere Maske.
Keine Ahnung was die Chinesen so kaufen, kann natürlich sein dass da der Chip mehr verbreitet ist.
Für Navi kann man aber denke ich andere Größenordnungen erwarten, sicherlich wird der kleinste eher so ca. 80mm² haben und nur ein 64Bit Speicherinterface mitbringen. Das Ganze dürfte dann so bei 12 CUs rauskommen. Mit GDDR6 hätte er dann genug Bandbreite, er könnte aber eben auch zusätzlich mit GDDR5 und DDR4 auf den Markt kommen für noch günstigere Märkte. Der nächstgrößere dürfte dann schon in Polaris10 Regionen ankommen.
Wenn überhaupt ein low-end Navi zeitnah kommt. Aber ich hoffe doch schwer wir werden nie eine ddr4 Version sehen (jedenfalls nicht wenn der Chip nur ein 64bit Interface hat, und da stimme ich dir zu das wäre sinnvoll), das macht einfach keinen Sinn und damit ist höchstwahrscheinlich nicht mal ein Blumentopf zu gewinnen gegen eine "normale" intel igp (icelake gt2 - jedenfalls wenn das System da dual-channel Speicher hat).
Interessanterweise gibt es ja bei Polaris 12 meines Wissens kein Produkt mit ddr4. Und das obwohl das vermutlich noch beinahe akzeptabel wäre (weil der eben für die Geschwindigkeitsklasse doch ein breites 128bit SI hat).
Nvidia hingegen hat das mit gp108 tatsächlich gemacht (nur auf dem Desktop). Die GT 1030 ddr4 ist aber ein absolutes Katastrophenprodukt, erreicht gerade mal knapp die Hälfte der Geschwindigkeit der normalen GT 1030 (es hilft natürlich auch nicht verbaut da nvidia die absolut langsamsten ddr4 Chips die je produziert wurden, kein PC-Hersteller würde sich trauen die heute noch als Systemspeicher zu verbauen).
amdfanuwe
2019-01-24, 03:46:09
Für Navi kann man aber denke ich andere Größenordnungen erwarten, sicherlich wird der kleinste eher so ca. 80mm² haben und nur ein 64Bit Speicherinterface mitbringen. Das Ganze dürfte dann so bei 12 CUs rauskommen.
Bloß weil es 7nm sind muß der Chip nicht klein sein. Wer die Leistung nahe 12 CUs haben will, kann direkt Picasso verwenden.
Bei GPU kann man durch Reserve CUs bzw. salvaged Chips den Yield hoch halten.
Sieht man ja bei Radeon VII. Schlechter Yield für Vollausbau, für Konsumer reicht aber die Ausbeute bei 60 verwendbaren CUs.
Ich denke eher, dass 40 CU schon der Kleine wird.
Durch effizientere Navi Cores dürfte der dann Vega 64 Leistung bringen.
Eine effiziente salvage Version könnte knapp über der 590 liegen und als Mainstream Full HD Karte für ~200€ ganz gut dastehen.
Den Bereich 100€ - 200€ kann man gut mit P30 abdecken.
Wenn ich mir das Bild von V10 und V20 anschaue, sind die CUs bei V20 nur halb so groß wie bei V10.
AMD könnte also in 7nm Praktisch einen Vega 128 bauen, der bei gleichem Takt den gleichen Verbrauch hat wie V10 und kaum größer ist, aber doppelt so viele CUs hat.
Denke aber eher, dass sie den Takt lieber etwas höher ansetzen und wegen TDP nur 80 CUs verbauen.
basix
2019-01-24, 07:40:08
Ich hoffe bei Navi 10 auf 64 CU. Das liegt bei einer Chipfläche wie Polaris 10 vielleicht noch drin.
Mangel76
2019-01-24, 12:44:51
Neue Gerüchte zur nächsten X-Box: (http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Spezifikationen-samt-Raytracing-angeblich-bestaetigt-1273908/)
Demnach werden der Xbox eine Zen-2-CPU in der Konfiguration 8/18, eine Navi-GPU mit 12 Teraflops, 16 GiByte GDDR6-RAM, 1 TByte SSD-Speicher und Raytacing sowie Microsoft KI nachgesagt.
NAVI mit Raytracing??? Käme jetzt doch etwas überraschend.
w0mbat
2019-01-24, 12:52:28
in der Konfiguration 8/18
Wut?
Complicated
2019-01-24, 12:54:10
Raytracing wird auch über GPGPU möglich mit Microsofts neuer DXR-API. Da ist selbst Vega dabei wie schon mit der Radeon VII demonstriert wurde.
Daredevil
2019-01-24, 12:57:47
Raytracing kann ja auch überall beschleunigt werden, wo eben genug Compute Power vorhanden ist. Die Titan V hat ja auch keine extra Einheiten und bekommt es hin, Turing hat nur Einheiten zum beschleunigen, nicht zum überhaupt möglich machen.
Troyan
2019-01-24, 13:05:57
Jo, auf dem Niveau einer RTX2060 oder langsamer.
Käsetoast
2019-01-24, 13:06:20
Oder AMD hat ihr Chiplet Design beflügelt und pappt da einen Xilinx Chip oder dergleichen für RT mit drauf... :D
Wobei nein - ich denke da auch, dass die XBox halt API technisch auf dem neuesten Stand ist und man den DXR Kram werbeträchtig mitnimmt bzw. ich glaube, dass wenn man Raytracing nur begrenzt einsetzt wie z.B. bei nur einem einzigen Spiegel in der Szene, dass man das dann auch übers reine GPU Computing performant hinbekommt ohne dass das Spiel von der Grafikqualität her wie von vor 10 Jahren aussehen muss...
mironicus
2019-01-24, 13:10:44
Da die Xbox One X bereits 12 GB GDDR5 hat, ist 16 GB GDDR6 für den Nachfolger glaubhaft. Die Frage ist eher wie schnell Raytracing über die Microsoft Schnittstelle auf Navi bzw. Vega ist. Vielleicht kann AMD durch das modulare Design einfach einen Co-Prozessor für Raytracing zusätzlich zum Grafikchip verbauen...?
Palpatin
2019-01-24, 14:14:37
Neue Gerüchte zur nächsten X-Box: (http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Spezifikationen-samt-Raytracing-angeblich-bestaetigt-1273908/)
NAVI mit Raytracing??? Käme jetzt doch etwas überraschend.
Die Daten klingen realistisch, der Sprung zur One X wäre allerdings recht mager.
Xbox = 0,02 TFLOPS
Xbox 360 0,24 TFLOPS = 12x faster
Xbox One 1,4 TFLOPS = 6x faster
Xbox OneX 6,0 TFLOPS = 4x faster
Xbox One2 12,0 TFLOPS = 2x faster
Daredevil
2019-01-24, 14:18:03
1TB SSD klingt realistisch? :<
Soviel haben ja sogar noch die wenigsten PC Gamer.
Also mal abgesehen von dem Rest, macht mich das stutzig.
SKYNET
2019-01-24, 14:29:13
1TB SSD klingt realistisch? :<
Soviel haben ja sogar noch die wenigsten PC Gamer.
Also mal abgesehen von dem Rest, macht mich das stutzig.
naja, die SSD preise sollen dieses jahr um weitere 50% einknicken... dann werde ich wohl auch mal nen grösseres modell als SATA holen, die m.2 rausfriggeln(unterseite mobo) habe ich nämlich kein bock ;D
Daredevil
2019-01-24, 14:35:36
Ja, es gibt aber zwei Faktoren, die eine neue Konsole vermutlich stemmen sollte.
Mehr Speicher UND schnellerer Speicher. :)
Ich sehe das alles irgendwie nicht, solange der Preis nicht bei 699€ anfängt, gerade mit 7nm, 4k60fps und sogar Raytracing.
Raytracing für Konsolen sehe ich eigentlich auch nicht, außer nur ganz ganz spärlich eingesetzt, oder halt als Premium Modell für $$$.
Käsetoast
2019-01-24, 14:47:55
Die Daten klingen realistisch, der Sprung zur One X wäre allerdings recht mager.
Xbox = 0,02 TFLOPS
Xbox 360 0,24 TFLOPS = 12x faster
Xbox One 1,4 TFLOPS = 6x faster
Xbox OneX 6,0 TFLOPS = 4x faster
Xbox One2 12,0 TFLOPS = 2x faster
Naja, wenn man es so auflistet, dann ist die Liste aber auch verzerrt. Es fällt halt der zeitliche Abstand zwischen den Konsolen raus, wie hoch der Verkaufspreis ist und Dinge wie, dass die Xbox One hardwaretechnisch auch unter den Möglichkeiten der Zeit rangierte, weil im Verkaufspreis auch das gebundelte Kinect noch mit drin hatte sein müssen, weshalb die Hardware abspecken musste um preislich nicht unattraktiv zu werden...
So gesehen wäre der Sprung von der One für die One X dann wahrscheinlich auch nur im Bereich "2,5x faster" gewesen anstatt 4x. Wobei die One X auch gut 4 Jahre nach der One kam. Die zukünftige XBox mit 2-3 Jahren (wir wissen ja nix Genaues) nach der One X mit 2x faster liegt dann doch gut im Rennen finde ich. Zumal die neue XBox im Bereich CPU Performance ja dann auch im Bereich 3x faster und besser zulegen wird, während bei der One X da ja quasi Stagnation herrschte und alles primär in die Grafik ging...
So gesehen relativiert sich das "mager" sehr stark bzw. verkehrt sich teils ins Gegenteil...
SKYNET
2019-01-24, 14:54:56
Ja, es gibt aber zwei Faktoren, die eine neue Konsole vermutlich stemmen sollte.
Mehr Speicher UND schnellerer Speicher. :)
Ich sehe das alles irgendwie nicht, solange der Preis nicht bei 699€ anfängt, gerade mit 7nm, 4k60fps und sogar Raytracing.
Raytracing für Konsolen sehe ich eigentlich auch nicht, außer nur ganz ganz spärlich eingesetzt, oder halt als Premium Modell für $$$.
RT wird eh erst mit der übernächsten gen kommen, die jetzigen gens sind schon mehr oder minder fertig, da wird nix mehr passieren.
mehr und schnellerer speicher wird kommen, allerdings wirds trotzdem bei GDDR5 bleiben, weil GDDR6 ist zu teuer... bei 16GB wären das schon $300 nur für den speicher.
Käsetoast
2019-01-24, 14:59:32
mehr und schnellerer speicher wird kommen, allerdings wirds trotzdem bei GDDR5 bleiben, weil GDDR6 ist zu teuer... bei 16GB wären das schon $300 nur für den speicher.
Wie kommst du denn auf den Preis? Gamersnexus hatte doch mal was von geschätzten 90$ pro 8 GB geschrieben (derzeit). In zwei Jahren dürfte der Preis dann auch nochmal ein Stück gesunken sein, so dass wir vielleicht mal mit 80 $ rechnen können. Das wären dann für 16 GB rund 160 $ und damit quasi bei der Hälfte des von dir beanschlagten Preises - wobei da garantiert auch noch ein ordentlicher Massenkaufsrabatt hinzu käme, denn so Konsolen sind dann ja doch nochmal ne Ecke mehr Massenprodukt als Grafikkarten...
SKYNET
2019-01-24, 15:04:39
Wie kommst du denn auf den Preis? Gamersnexus hatte doch mal was von geschätzten 90$ pro 8 GB geschrieben (derzeit). In zwei Jahren dürfte der Preis dann auch nochmal ein Stück gesunken sein, so dass wir vielleicht mal mit 80 $ rechnen können. Das wären dann für 16 GB rund 160 $ und damit quasi bei der Hälfte des von dir beanschlagten Preises - wobei da garantiert auch noch ein ordentlicher Massenkaufsrabatt hinzu käme, denn so Konsolen sind dann ja doch nochmal ne Ecke mehr Massenprodukt als Grafikkarten...
ja, wenn die speicherpreise dann nicht wieder wegen irgendwas explodiert sind... ist ja beim speicher wie ne achterbahnfahrt... mal nen jahr runter, dann wieder nen jahr hoch usw. X-D
Käsetoast
2019-01-24, 15:08:54
Klar - sowas könnte immer mal passieren, aber eigentlich hatten wir ja gerade schon eine Preiserhöhung bei GDDR5 von so knapp 50 %. Ich glaube daher eher nicht, dass wir nochmal so eine Preisexplosion sehen. Zumindest sehe ich bei Handys keinen Bedarf für exorbitant mehr Speicher und eine neue Cryptomining Blase sehe ich eigentlich auch nicht. Wir hatten aber beides ja gerade gleichzeitig, weswegen ich sogar eher sagen würde, dass die derzeitigen Preise auf einem Hoch sind und die Preistendenz eher nach unten geht sowohl was HBM2 als auch GDDR6 angeht...
Complicated
2019-01-24, 17:22:39
Jo, auf dem Niveau einer RTX2060 oder langsamer.
Radeon VII hatte in ersten Tests auf Anhieb das 1.62 fache der RTX 2080 über GPGPU beim Raytraycing-Rendern.
dargo
2019-01-24, 17:27:57
Die Daten klingen realistisch, der Sprung zur One X wäre allerdings recht mager.
Xbox = 0,02 TFLOPS
Xbox 360 0,24 TFLOPS = 12x faster
Xbox One 1,4 TFLOPS = 6x faster
Xbox OneX 6,0 TFLOPS = 4x faster
Xbox One2 12,0 TFLOPS = 2x faster
Die Preise bei den dGPUs "explodieren" am Desktop. Das wirkt sich natürlich dann auch entsprechend auf die kommenden Konsolen aus wenn man dort das Budget nicht sprengen möchte, wofür es gute Gründe gibt. Eventuell geht die UVP diesmal ~100$ rauf. Viel mehr Spielraum wird man da allerdings nicht haben wenn man die Masse ansprechen möchte.
Käsetoast
2019-01-24, 17:43:15
Die Preise bei den dGPUs "explodieren" am Desktop.
Sehe ich nicht so. Die Turings sind so arschteuer, weil die Chips so groß geworden sind. Wenn der Chip der 2080 Ti 750 mm² groß ist, während die 1080 Ti noch ca. 500 mm² maß, dann kann ich die Chips natürlich nicht zum gleichen Preis verkaufen - gerade weil große Chips natürlich auch exponentiell viel teurer werden in der Produktion. Wenn man sich die Launchpreise anguckt ist im Grunde genommen die 2080 Ti entsprechend der Größenänderung auch 50% teurer geworden. So gesehen ist das dann sogar ein ganz guter Preis...
Das viel von der Chipfläche für Spiele nur bedingt nutzbar ist, ist dann ein anderes Kapitel, aber so braucht man mit Rechnen halt gar nicht anfangen...
Auf der AMD Seite ist es bei den schnellen Chips eigentlich primär HBM2 das günstigere Preise verhindert - gerade wenn man beim Vega II 16 GB davon verbaut. Ansonsten waren Grafikkarten in letzter Zeit ja nur wegen der krassen Nachfrage beim Mining so teuer geworden. Die Zeiten sind inzwischen aber ja eher vorbei bzw. wir sind jetzt an dem Punkt wo sich alles wieder einigermaßen normalisiert hat. Natürlich kann theoretisch so ein Boom nochmal kommen, ist aber wenn wir ehrlich sind eher unwahrscheinlich...
Von daher sehe ich nicht, wo Grafikkarten an sich preislich explodiert sind. Die eigentliche Preisexplosion (Mining) ist vorbei, HBM dürfte für Konsolen kein Thema sein - da wird GDDR6 genutzt werden, das preislich "Ok" ist wie ich es mal nennen will und was wir ansonsten momentan an hohen dGPU Preisen sehen lässt sich entweder durch die hohe Chipfläche begründen (Turing) oder durch die große Menge teuren Speichers (Vega II)...
dargo
2019-01-24, 17:53:12
Sehe ich nicht so. Die Turings sind so arschteuer, weil die Chips so groß geworden sind.
Vega VII soll für 699$ kommen. Ich kann mich nicht daran erinnern, dass AMD jemals soviel Kohle für ihre Grafikkarte sehen wollte. Vielleicht irre ich mich auch.
btw.
Mit GDDR6 wäre die Vega VII auch nicht erheblich günstiger. Nicht vergessen eine komplette Konsole bewegt sich bei 399-499$.
Edit:
Die ganze Geschichte ist doch total simpel. Man hat nur drei Optionen die auch kombinierbar sind.
1. Die neue Konsole kommt mit weniger Mehrleistung als sich viele erhoffen.
2. Es gibt eine Preiserhöhung bei der kommenden Konsole gegenüber dem Vorgänger.
3. Die neue Konsole kommt später als erwartet, man dehnt also die Intervalle aus.
Theoretisch gäbe es noch eine vierte Option. Starke Subvention über die Spiele. Daran glaube ich aber im Zeitalter von Multiplattform nicht. Das war schon bei der XBox360/PS3 fast Selbstmord. Bei der PS4(pro) schrumpfen die Zugpferde und bei der XBox One/X gibt es quasi keine mehr da alle AAA Titel auch für den PC kommen. Ergo wäre eine Subvention hier auch Selbstmord.
Daredevil
2019-01-24, 18:02:32
Hier stand quatsch
amdfanuwe
2019-01-24, 18:09:36
Die Preise bei den dGPUs "explodieren" am Desktop.
Seh ich nicht. Die RTX 2060 ab 350€ hat den Preis schon gesenkt. Sieht man auch daran, dass die Konkurrenzprodukte Vega im Preis mitziehen mussten, Vega 56 ab 350€ und Vega 64 ab 400€.
Die RX 580 8GB ab 190€ hat auch schon Federn lassen müssen.
Das Nvidia die 2070 und aufwärts so teuer verkauft liegt an mangelnder Konkurrenz.
dargo
2019-01-24, 18:24:11
Die 2060 ist ein Abfallprodukt vom Abfallprodukt. :D Und dann lächerliche 6GB Speicher. Bei der Konsole reden wir gerade von möglichen 16GB.
btw.
Ich weiß auch gar nicht was du mit den kleinen GPUs, erst recht RX580 vor hast. Bei der nächsten XBox war die Spekulation bei 12 TFLOPs. Das ist V64 Spielwiese.
Käsetoast
2019-01-24, 18:32:18
Vega VII soll für 699$ kommen. Ich kann mich nicht daran erinnern, dass AMD jemals soviel Kohle für ihre Grafikkarte sehen wollte. Vielleicht irre ich mich auch.
Ist aber doch klar, woher dieser Preis kommt. Eine Vega 64 hat eine MSRP von 499$. Verdoppel mal deren Speicher - wenn wir davon ausgehen, dass wie zuletzt geschätzt wurde 8 GB GDDR6 ca. 90$ kosten und wir wissen, dass HBM2 teurer ist, können wir ja mal moderat sein und sagen, dass alleine durch die 8 GB mehr die Kosten um 100$ steigen (ich glaube in Wirklichkeit ist HBM erheblich viel teurer, aber habe da gerade keine Quelle zu). Dann wären wir schon bei 599$. Wenn du jetzt noch im Kopf behältst, dass Vega II so ziemlich das erste 7nm Produkt ist als GPU in Serie, dann kann man sich denken, dass der Prozess noch nicht perfekt läuft. Yield wird also nicht besonders sein und die Stückzahlen auch noch nicht (sonst hätte man die RX590 direkt in 7nm gebracht anstatt diesen 12nm Schritt kurz vor Vega II Launch in 7nm). Das Zusammen mit dem Umstand, dass die Transistorzahl im Vergleich zum alten Vega ja auch gestiegen ist, kann man dann nochmal mit rund 100$ verbuchen, zumal wie man hört die Preise der Vega 64 ja auch wirklich knapp auf Kante kalkuliert wurden - einige Stimmen meinten am Anfang ja sogar AMD würde da beinahe noch Verlust machen, konnte wegen der starken Konkurrenz aber keine anderen Preise verlangen - ob das wirklich so dramatisch war sei mal dahingestellt. Der ultimative Kassenschlager war Vega aber sicher nicht bzw. wird AMD da sicherlich gerne mehr Polster haben dieses Mal...
Troyan
2019-01-24, 18:40:50
Radeon VII hatte in ersten Tests auf Anhieb das 1.62 fache der RTX 2080 über GPGPU beim Raytraycing-Rendern.
Jo, schafft Volta in Form von TitanV auch. Wo liegt die Karte noch mal im Port Royal Benchmark? Richtig, auf RTX2060 Niveau. Das ist der Unterschied zwischen Bandbreitenbenchmark und Raytracing-DXR-Benchmark.
mczak
2019-01-24, 18:59:25
Vega VII soll für 699$ kommen. Ich kann mich nicht daran erinnern, dass AMD jemals soviel Kohle für ihre Grafikkarte sehen wollte. Vielleicht irre ich mich auch.
R9 295 X2 :biggrin:.
Bei Single-Chip Consumer Karten könnte man evtl. noch die Vega Frontier Edition nennen, passt aber auch nur halb.
mr coffee
2019-01-24, 19:02:08
Ihr könnt die preise der grafikkarten doch nicht mit konsolen vergleichen. An den Grafikkarten muss verdient werden, an den Konsolen nicht.
Noch dazu sind die Stückzahlen vermutlich ganz andere ...
dargo
2019-01-24, 19:06:53
Ihr könnt die preise der grafikkarten doch nicht mit konsolen vergleichen. An den Grafikkarten muss verdient werden, an den Konsolen nicht.
Wie kommst du auf den Trichter? :| Wie ich schon sagte... die Zeiten von XBox360/PS3 waren nahezu Selbstmord und daraus haben Microsoft/Sony auch was gelernt. Natürlich sind die Margen sicherlich nicht so hoch wie bei dGPUs von NV. Aber mit Verlust verkaufen ist nicht mehr.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.