PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

robbitop
2019-05-07, 12:52:11
Was ich bei AMD unschön finde, ist dass man es nicht schafft, langfristig stimmige Bezeichnungen zu finden, die hochgezählt werden.

Das ging immer mal wieder gut. Bis zur 7970. Dann die 200er Serie bis zur 500er Serie.
Dann Vega64, dann Vega7. Und jetzt laut Gerüchten eine 3000er Serie...?

Wobei ich die 3000er Serie nicht so dumm finde - damit referenziert man auf NVs 2000er Serie genau wie man es mit den Chipsätzen bei Intel gemacht hat, nur dass man die erste Zahl +1 genommen hat. Frech aber nicht dumm. Allerdings muss dann auch die Leistung passen.

Bspw wenn es eine 3080 gibt, dann sollte sie auch vergleichbare Leistung wie eine 2080 bringen. Dann eine 3070 für die 2070 und eine 3060 für die 2060. Und ggf eine 2660/2650 für TU116/117.

Ich bin wirklich mal gespannt wie viele Navis man rausbringt und was man abdeckt.

IMO wäre es ggf besser ohne Krampf und schlechten Betriebspunkt einen effizienten 2070 Gegenspieler rauszubringen als eine laute, heiße Karte, die die 2080 nicht ganz erreicht. Sowas scheint die Masse nicht zu mögen. Für z.B. 399 € wäre das immer noch ein sehr guter Deal und ein würdiger Nachfolger für Polaris.
Mit niedrigeren Taktraten und noch besseren Betriebspunkten sicher auch eine gute GPU für Premium Laptops.

Den kleineren Polaris würde ich so auslegen, dass er gut zu TU117 (aber zur vollen Variante!) passt. Und zwar auch eher lieber ein bisschen breiter und dafür ein schöner Betriebspunkt. 75W als Desktop GPU - geht dann in eine Menge OEM PCs und kann man sicherlich auch gut in Laptops verkaufen.

Damit obiges aber besser klappt, braucht man nicht nur relativ konservative Frequenzen sondern auch eine bessere, individuellere Spannungsfrequenzkurve die im Werk getestet wird. NVs GPUs sind einfach individuell näher am Optimum als bei AMD. Da kann man in der Endfertigung sicherlich noch was machen.

Die Top Tiers (2080/2080ti) kann man IMO NV überlassen. Da werden eh vergleichsweise wenige GPUs verkauft und man hat dort seit Hawaii nur noch Rückschläge erlebt. Da passt das Aufwand/Nutzen Verhältnis dann einfach nicht mehr für AMD.
Mit 6nm kann man dann in 2020 nochmal beide GPUs refreshen um dann in 2021 mit einer hoffentlich besseren neuen uArch auftreten zu können.

amdfanuwe
2019-05-07, 13:02:19
Wobei ich die 3000er Serie nicht so dumm finde - damit referenziert man auf NVs 2000er Serie genau wie man es mit den Chipsätzen bei Intel gemacht hat, nur dass man die erste Zahl +1 genommen hat. Frech aber nicht dumm. Allerdings muss dann auch die Leistung passen.

Bspw wenn es eine 3080 gibt, dann sollte sie auch vergleichbare Leistung wie eine 2080 bringen. Dann eine 3070 für die 2070 und eine 3060 für die 2060. Und ggf eine 2660/2650 für TU116/117.

3000er passten auch gut zur 3000er CPU Serie.
Nur fürchte ich, es geht noch frecher.
Damals war z.B. die 480 gegen die 970.
Könnte dann also so laufen:
3080 gegen 2070
3070 gegen 2060
etc.

robbitop
2019-05-07, 13:16:35
Wäre auch OK. Aber wie gesagt sollte AMD unbedingt darauf achten, dass die Produkte so energieffizient und leise wie möglich ist und lieber ein paar Prozent Leistung liegen lassen. Und eben schauen dass man generell etwas weniger Vcore Reserve hat und entsprechend näher am Optimum fährt. Die großen Potenziale in Bezug auf Undervolting sprechen ja Bände. Besser wenn ein großer Teil davon an die Masse der Käufer out of the Box weiter gegeben wird.

Die heißen schnellen Modelle kann man ja den AIBs überlassen, die naturgemäß etwas später kommen.

BoMbY
2019-05-07, 13:20:04
Ich glaube nicht an dieses Namensschema.

HOT
2019-05-07, 13:23:42
Jo ich auch nicht. Wird denke ich wieder ganz normales Lineup.
Navi 64 (256Bit GDDR6)
Navi 56
Navi 32 (128Bit GDDR6)
Navi 28
Navi 20 (128Bit GDDR5)
Navi 16

oder so. 3 Chips halt.

robbitop
2019-05-07, 13:32:27
Sinnvoll aber leider nicht gut für den Wiedererkennungswert.
Ständig andere Namen sind da leider Gift.

NV macht das IMO richtig. Radeon und dann die Zahlen erhöhen. Ist natürlich ideal wenn man sich an das Zahlenschema des Wettbewerbers, der bereits eine starke Wiedererkennung hat, heften kann.

amdfanuwe
2019-05-07, 13:45:50
Ich beteilige mich mal an diesem Unsinn:
Radeon VII
demnächst noch
Radeon VI
Radeon V
Radeon IV
und
Radeon III

HOT
2019-05-07, 14:11:51
Radeon Rome Edition :D. Nene, die VII ist ein einzigartiges Stück. Ich geb Robbi aber recht, guter Punkt.

Also RX 600-Serie.
Wenn man wirklich ne 3000er-Serie machen wollte, dann müsste die 3080 auf dem Niveau der 2080 rauskommen, sonst würde das einfach keinen Sinn machen, um mal darauf Bezug zu nehmen. Die Speku ist eh blödsinn, die machen keinen Chip mit 56CUs. Wenn die sowas als Top-Dog bringen, dann sieht das eher so aus wie beim ersten Fermi. Der hätte dann aber in Wirklichkeit 64CUs, aber aufgrund des Yields gehts halt nicht. Ich halts nur für total unwahrscheinlich, da V20 ja gut läuft.
Und 40 CUs macht mMn einfach keinen Sinn, aufgrund des Speicherinterfaces. Wenn man 512 GT/s als ausreichend für 64CUs sieht (was mit etwas Optimierung sicherlich reichen wird) dann hängt 40CUs total in der Luft. Da muss dann was passendes für 128Bit GDDR6 rauskommen.

Übrigens kann man die Story auch etwas anders interpretieren: Es war vllt. tatsächlich der Launch für Februar geplant bei N10. Jedoch könnte ein schwerer Bug das verhindert haben und man musste Personal von den Entwicklern des neuen Projektes abziehen um das zu reparieren (die murren dann natürlich verständlicherweise, denn Feuerwehr spielen für ein fast gescheitertes Projekt macht eben keinen Spass. Zudem wird das massiv mit Überstunden verbunden gewesen sein). Da hat man N10 dann kurzerhand mit der VII einfach vorübergehend ersetzt. Eine echte neue Revision des Chips würde ein halbes Jahr+ verschlingen, das lohnt sich also das damit zu überbrücken.
Das könnte bei Adored auch einfach missinterpretiert gewesen sein. Die bekommen Inforationsschnipsel und spinnen sich da was zurecht, genau wie wir hier. Das hat mMn nichts mit N10 und N20 zu tun, das hat man da hineingesponnen. Die werden N10 repariert haben und N20 ist einfach nur der geplante 6nm-Refresh davon.
Ich wette, dass auch V20 in 6nm nochmals refresht wird und die kleineren Navis ebenfalls.

iuno
2019-05-08, 15:21:58
Dadurch dass Ryzen fuer AMD jetzt auch relativ bekannt geworden ist, wuerde es schon Sinn machen, sich da ranzuhaengen
Ryzen 3,5,7,9 vs. Core i3,i5,i7,i9
Radeon 3,5,7,9 xxxx vs. GTX xxxx, RTX xxxx

Wobei die xxxx ja dann nur noch Beiwerk fuer Variationen (salvage) sind. Stoert aber bei CPUs auch keinen.

Das hatten sie ja damals schon mit Radeon R5/R7/R9 290X versucht aber dann wieder weggeschmissen - aufgrund eines vermeintlich einfacheren Schemas. Das bringt halt nichts, wenn man es sofort wieder ueber den Haufen wirft. Die haben das jetzt so oft umgeworfen, jetzt kommt es auf das eine mal gerade auch nicht mehr an.


Die andere Variante waere natuerlich ohne die kleine Zahl vorne und direkt Gegen Nvidia, genauso wie die CPUs direkt gegen Intel stehen.

robbitop
2019-05-08, 16:54:31
Ich denke man wäre gut beraten, sich beim jeweiligen Wettbewerb einzuklingen was das Namensschema angeht.
Bei CPUs sind 3,5,7,9 sicher interessant, weil Intel es ja auch so benennt. Schlau wäre sicherlich auch die Generation so zu benennen, wenn nicht sogar +1 (frech ^^ - aber dreist gewinnt ja meist). Also wenn Zen 2 herauskommt bspw Ryzen 9 10900X oder ähnliches.

Bei den GPUs wären die 3,5,7,9 eher hinderlich, da man hier sich besser auf das NV Schema beziehen sollte. Also RX3080 etc. Ein Ti kann durch ein X ersetzt werden.
Was wichtig ist, um das Name-Scheme nicht zu versauen, ist dass das jeweilige Pendant nicht langsamer ist.

Ähnliches gab es ja in den 1990er Jahren mit den Pentium Ratings. Leider haben Cyrix, IDT und AMD das damals aber übertrieben und die PRs passten nicht zu den Pentium Pendants. -> Glaubwürdigkeit verloren. Und wir alle wissen, wie wichtig Vertrauen beim Konsumenten ist.

iuno
2019-05-08, 18:40:16
Es kommt darauf an. AMD konkurriert ja nicht nur mit Nvidia sondern auch mit Intel. Bei APUs funktioniert es ganz gut. "Ryzen 7 mit Vega Grafik" vs. "Core i7 mit Iris Grafik". Das Iris 630 oder Vega 8 interessiert da kein Schwein. Wieso sollte man das positive nicht mit in die dGPUs nehmen?

Kann AMD eigentlich Probleme bekommen, wenn sie so nahe an Nvidia ran gehen dass RTX 2080 vs. RX 3080 steht?

Lehdro
2019-05-08, 19:22:25
Kann AMD eigentlich Probleme bekommen, wenn sie so nahe an Nvidia ran gehen dass RTX 2080 vs. RX 3080 steht?
Nein, Zahlen kann man nicht schützen (frag mal Intel warum der Pentium Pentium hieß und nicht 586) und AMD hatte RX bevor NV RTX hatte.

pilzsammler2002
2019-05-10, 06:39:03
Deshalb gab es wahrscheinlich das GPP :freak:

Leonidas
2019-05-14, 10:03:23
Radeon RX 640 (auf Polaris-Basis) entdeckt:
https://www.techpowerup.com/255476/amd-readies-radeon-rx-640-an-rx-550x-re-brand

Damit wird sich das ganze höchstwahrscheinlich "Radeon RX 600" Serie nennen - und nicht "Radeon RX 3000" Serie. Was ganz nebenbei auch (mal wieder) die besagten Navi-Gerüchte seitens A...TV in Frage stellt.

Derzeit denkbare Auflösung:

Chip|Grafikkarten|Segment
Navi 20|?|Profi/HighEnd (erst 2020)
Navi 10|möglicherweise: Radeon RX 670 & Radeon RX 680|Midrange/HighEnd
Navi 12|möglicherweise: Radeon RX 650 & Radeon RX 660|Mainstream/Midrange
Polaris 12|bestätigt: Radeon 630 & Radeon RX 640|LowCost

BoMbY
2019-05-14, 10:29:41
Und was ist mit Navi21 (https://github.com/GPUOpen-Drivers/pal/search?q=navi21&unscoped_q=navi21)?

Complicated
2019-05-14, 10:50:09
Warum sollten das nicht einfach die Lowend Modelle bleiben? Warum soll Navi nicht wie Vega als Produktname kommen?
RX 630 und RX 640 werden wohl den Oland-Chip endlich mal ablösen als Einstiegskarte für die nächsten Jahre.

robbitop
2019-05-14, 11:10:32
Wäre es ggf. auch denkbar, dass man P30 als RX550/650 rebrandet? Somit wäre ein Navi12 gar nicht nötig.

Ist dieser überhaupt bestätigt?

HOT
2019-05-14, 11:37:02
Es ist ja traditionell bei AMD so, dass man die unterste Kante mit Chips aus vorhergehenden Fertigungsgenerationen besetzt. Das passt exakt zum 630/40. Leos Liste wird schon nah an der Realität liegen.
N20 gehört nicht in die 600er Generation. Das wird sowieso nächstes Jahr refresht in 7 EUV oder 6 EUV, das wird das eh die 7ner Generation bilden. Und N21 kann alles mögliche sein.
Denkbar wäre

RX 770/780 -> N20
RX 750X/760(X) -> N21
RX 740/750 -> N12
730/720 -> P23(12)

Ein Profichip ist N20 sowieso nicht. Dafür wird man V20 einfach in EUV refreshen und fertig.
Mit der neuen Generation nach Navi wird man mMn die RX8-Generation begründen oder eben ein neues Nummernsystem aufmachen und einen neuen Profichip bauen. Das wird sich mit Navi einfach nicht lohnen.

Es gäbe da vllt. ne kleine Chance für sowas hier:

RX 680/670 -> N10
RX 660/650 -> P30
RX 640/630 -> P23
620 -> Oland

und dann später

RX 780/770 -> N20
RX 760/650 -> N21
RX 740/730 -> N12
720 -> P23

aber ich glaub da nicht wirklich dran, das wär höchstens so gelaufen, wenn N10 Anfang 2019 erschienen wäre. Stattdessen wurde es halt ne RX590 als Übergangslösung.

Dino-Fossil
2019-05-14, 16:04:07
Navi also auf der E3?

This morning the company is announcing that they will be holding a gaming-focused event at next month’s show, where the company is promising to “unveil the next generation of AMD gaming products.”

https://www.anandtech.com/show/14325/amd-to-host-next-horizon-gaming-event-at-e3-2019

maximus_hertus
2019-05-14, 16:10:33
Navi also auf der E3?


https://www.anandtech.com/show/14325/amd-to-host-next-horizon-gaming-event-at-e3-2019

Oder der Ryzen 3000 Launch (Computex "nur" Ankündigung und E3 dann "echter" Launch / Verkaufsstart).

Warten wir es ab, sind ja nur noch ein paar Wochen.

Dino-Fossil
2019-05-14, 16:37:15
Ich tippe eher auf Navi, da es mMn besser zu einem "gaming product" passt, als der all-round Ryzen.

Unicous
2019-05-14, 16:42:38
Oder beides.:wink:

E3 wurde schon von einer Seite als Termin genannt, das ist jetzt die Bestätigung. Das ist aber kein Launch sondern nur eine Vorstellung.

Zumal auch im Earnings Call gesagt wurde, dass Q3 Launch ist.:wink:

7.7. ist also immer noch im Rennen, auch wenn es ein Sonntag ist.:freak:

Brillus
2019-05-14, 17:15:33
Oder der Ryzen 3000 Launch (Computex "nur" Ankündigung und E3 dann "echter" Launch / Verkaufsstart).

Warten wir es ab, sind ja nur noch ein paar Wochen.

Unvail würde ich er mit preview übersetzen auserdem Launch während messe ist nicht so toll da Redakteure auf messe sind und keine zeit für benchmarks haben.

horn 12
2019-05-15, 07:09:22
https://wccftech.com/nvidia-geforce-rtx-20-refresh-graphics-cards-16-gbps-memory-tackle-amd-radeon-navi/

BullShit oder Navi doch stärker als gedacht und knapp RTX 2070 / 2080 Level ?

Daredevil
2019-05-15, 10:29:09
Faster GDDR6? :D
Mining Tiiiiiiiiime.

HOT
2019-05-15, 11:00:59
Solange die an der Speichermenge nix machen verpufft das eh.

SKYNET
2019-05-15, 14:09:48
Solange die an der Speichermenge nix machen verpufft das eh.

naja, die kurse ziehen grad wieder ordentlich an... überlege mich mit 590ern einzudecken(so 10-20 stk) und die dann fürs doppelte wieder abstossen zu können ;D

Smee
2019-05-15, 15:06:47
naja, die kurse ziehen grad wieder ordentlich an... überlege mich mit 590ern einzudecken(so 10-20 stk) und die dann fürs doppelte wieder abstossen zu können ;D
Dafür würde ich lieber die umgelabelte RX 580 für 96$ aus China nehmen;D

BoMbY
2019-05-15, 15:29:08
naja, die kurse ziehen grad wieder ordentlich an... überlege mich mit 590ern einzudecken(so 10-20 stk) und die dann fürs doppelte wieder abstossen zu können ;D

Sollte nicht die Radeon VII etwa die dreifache Mining-Leistung, bei etwa gleichem Stromverbrauch haben, oder wie war das noch?

Unicous
2019-05-15, 16:34:19
AMD wird auf der Hot Chips Ende August Navi und Zen2 vorstellen (+ Keynote von Lisa Su), es ist also sehr wahrscheinlich, dass Navi davor launched im Gegensatz zu manch einem der einfach mal so ohne Not und Grund September in den Raum wirft.:wink:

http://www.hotchips.org/program/

SKYNET
2019-05-15, 16:38:33
Sollte nicht die Radeon VII etwa die dreifache Mining-Leistung, bei etwa gleichem Stromverbrauch haben, oder wie war das noch?

interessiert aber niemanden im miningwahn, da kaufen die alles was sich eignet... :freak:

AffenJack
2019-05-15, 18:07:19
AMD wird auf der Hot Chips Ende August Navi und Zen2 vorstellen (+ Keynote von Lisa Su), es ist also sehr wahrscheinlich, dass Navi davor launched im Gegensatz zu manch einem der einfach mal so ohne Not und Grund September in den Raum wirft.:wink:

http://www.hotchips.org/program/

Announcement und Launch sind verschiedene Dinge. Beide Hersteller haben sich angewöhnt neue Gens erstmal mit Architekturvorstellung, Chipvorstellung/Paperlaunch etc. anzukündigen. Die Architekturvorstellung gibts bestimmt auf der Computex, dann könnte es auch erst auf der Gamescom die chipvorstellung geben, welche erst im September zu kaufen sind. Kann genauso früher sein, aber HotChips Vortrag Ende August bedeutet nicht mehr, als dass die Architektur schon gezeigt wurde.

MadPenguin
2019-05-15, 19:38:26
Announcement und Launch sind verschiedene Dinge. Beide Hersteller haben sich angewöhnt neue Gens erstmal mit Architekturvorstellung, Chipvorstellung/Paperlaunch etc. anzukündigen. Die Architekturvorstellung gibts bestimmt auf der Computex, dann könnte es auch erst auf der Gamescom die chipvorstellung geben, welche erst im September zu kaufen sind. Kann genauso früher sein, aber HotChips Vortrag Ende August bedeutet nicht mehr, als dass die Architektur schon gezeigt wurde.

Bei den letzten Quartalszahlen würde gesagt, dass neue Produkte den Umsatz von Q3 gut vorantreiben werden. Also glaube ich kaum, dass die Produkte erst Ende Q3 (September) in den Regalen stehen. Wurde auch gesagt, dass ab Halbjahr 2019 ordentlich Umsatz gemacht wird. Tippe eher auf Anfang Q3 mit Launch von Navi und Mitte Q3 mit Ryzen 2

w0mbat
2019-05-15, 19:48:31
Es ist doch schon ziemlich wahrscheinlich, dass auf der Computex Zen2 vorgestllt wird und dann auf der E3 Navi. Hard-launch jeweils ein paar Wochen später.

Brillus
2019-05-15, 19:54:40
AMD wird auf der Hot Chips Ende August Navi und Zen2 vorstellen (+ Keynote von Lisa Su), es ist also sehr wahrscheinlich, dass Navi davor launched im Gegensatz zu manch einem der einfach mal so ohne Not und Grund September in den Raum wirft.:wink:

http://www.hotchips.org/program/


Wie kommst du von "Delivering the Future of High-Performance Computing with System, Software and Silicon Co-Optimization" auf einen Produkt Launch wird eher so was sein wie sie die letzten male auch gemacht haben, jetzt sind die drausen und jetzt erzählen wir euch wie man darauf besser optimiert.

amdfanuwe
2019-05-15, 20:28:08
Es ist doch schon ziemlich wahrscheinlich, dass auf der Computex Zen2 vorgestllt wird und dann auf der E3 Navi. Hard-launch jeweils ein paar Wochen später.
Pressemuster werden nach der vorstellung rausgeschickt, damit vorher nichts geleakt werden kann?

Unicous
2019-05-15, 21:06:27
Wie kommst du von "Delivering the Future of High-Performance Computing with System, Software and Silicon Co-Optimization" auf einen Produkt Launch wird eher so was sein wie sie die letzten male auch gemacht haben, jetzt sind die drausen und jetzt erzählen wir euch wie man darauf besser optimiert.
Liest du einen anderen post als ich? Genau das habe ich geschrieben. Man kann mich gerne eines Besseren belehren aber iirc wurden bei der Hot Chips besprochenen Architekturen zuvor in Produkten gelaunched.

horn 12
2019-05-15, 21:28:21
https://videocardz.com/80709/amd-confirms-radeon-navi-and-3rd-gen-ryzen-available-in-q3-2019

Ravenhearth
2019-05-15, 22:01:44
https://videocardz.com/80709/amd-confirms-radeon-navi-and-3rd-gen-ryzen-available-in-q3-2019
"All New GPU Architecture" :confused:

TheGood
2019-05-15, 22:08:34
Es bleibt auf jedenfall spannend und wir hoffen doch alle auf den großen Wurf!!! Konkurrenz belebt das Geschäft und schont vielleicht unseren GEldbeutel...

Linmoum
2019-05-15, 22:12:13
"All New GPU Architecture" :confused:
Es gab ja hin und wieder, wenn auch sehr vage, Gerüchte/Vermutungen, dass bereits Navi schon nicht mehr GCN ist. Spätestens zur E3 sollte man mehr wissen. ;)

aufkrawall
2019-05-15, 22:12:32
"All New GPU Architecture" :confused:
Ach, kann doch auch reines PR-Geblubber sein.

Achim_Anders
2019-05-15, 22:19:05
"In gaming, we successfully returned to the high-end market with the launch of our Radeon VII GPU in February 2019 and we are on track to introduce our next-generation “Navi” GPUs for the mainstream market later this year."

wie ich nach dem Release von VII vermutete. Die wird weiterhin die schnellste Gaming Grafikkarte bei AMD bleiben.

w0mbat
2019-05-15, 22:38:53
Das Navi erstmal nur im mainstream kommt war schon lange klar, das ist jetzt keine Neuheit.

Locuza
2019-05-15, 23:16:10
"All New GPU Architecture" :confused:
Marketing wie immer.
Bei Vega sagte man auch Next-Generation Architecture mit Next-Generation Compute Units, wo im letzteren Fall funktionell fast alles gleich blieb, außerhalb von ein paar neuen Instruktionen, die meisten davon für packed-math.

Es gab ja hin und wieder, wenn auch sehr vage, Gerüchte/Vermutungen, dass bereits Navi schon nicht mehr GCN ist. Spätestens zur E3 sollte man mehr wissen. ;)
Die Compiler-Patches für Navi haben schon bestätigt, dass die Gerüchte falsch waren.
Es kommt hauptsächlich die gleiche ISA zum Einsatz und man spricht dort nach wie vor von GCN.

Das heißt jetzt natürlich nicht, dass eine andere Implementierung und Weiterentwicklung an vielen unterschiedlichen Stellen nicht deutlich die Effizienz und Leistung verbessern könnte.

gravitationsfeld
2019-05-15, 23:42:24
Was? Die compiler patches sagen genau das Gegenteil. Die register banks conflicts sache allein macht es klar, dass da einiges geaendert wurde.

Unicous
2019-05-15, 23:51:31
Announcement und Launch sind verschiedene Dinge. Beide Hersteller haben sich angewöhnt neue Gens erstmal mit Architekturvorstellung, Chipvorstellung/Paperlaunch etc. anzukündigen. Die Architekturvorstellung gibts bestimmt auf der Computex, dann könnte es auch erst auf der Gamescom die chipvorstellung geben, welche erst im September zu kaufen sind. Kann genauso früher sein, aber HotChips Vortrag Ende August bedeutet nicht mehr, als dass die Architektur schon gezeigt wurde.

Wie ich bereits sagte, was bei Hot Chips gezeigt wurde ist normalerweise auch schon bereits im Laden zu sehen. Dort gibt es einen "deep dive" in die Architektur und nicht nur eine simple Vorstellung der Architektur.

Es ist so gut wie sicher, dass Navi auf der E3 vorgestellt wird(das Werbebanner zeigt einen "Radeon" Chip der in Taiwan gefertigt wurde:wink::wink:), wüsste gerne warum die Gamescom irgendeine Relevanz haben sollte (seit Jahren wird da nur wiedergekaut was zuvor auf der E3 geschehen ist).:freak:

Computex könnte ich mir erste Details vorstellen, E3 paper launch und dann im Juli erste SKUs im Laden.

Locuza
2019-05-16, 00:26:07
Was? Die compiler patches sagen genau das Gegenteil. Die register banks conflicts sache allein macht es klar, dass da einiges geaendert wurde.
Im Prinzip lautete die Aussage nicht, dass sich kaum etwas verändert, sondern das man nach wie vor von GCN reden kann.

Natürlich sind Namen Schall und Rauch und man sollte lieber die Gerüchtemacher fragen, was sie denn unter "non-GCN GPU" verstehen, aber natürlich würde da nichts Konkretes zurückkommen.

So Zeug wurde von der bekannten WCCFTech-Bucht behauptet:
Roadmap: AMD’s Navi 10 will arrive in late 2019 and will be the first non-GCN GPU, no Vega 7nm for gamers
Next-Gen’ architecture is the uArch formerly codenamed KUMA internally before AMD decided it didn’t like that name too much (oops) and will be based on the same brand new major architecture that AMD rolls out with Navi.
https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/

gravitationsfeld
2019-05-16, 00:41:17
Im Prinzip lautete die Aussage nicht, dass sich kaum etwas verändert, sondern das man nach wie vor von GCN reden kann.
Wenn die register banks veraendert sind, dann ist es nicht mehr GCN. Das hat sich seit Tahiti nicht geandert und ist ziemlich fundamental. Zieht einen Rattenschwanz hinter sich in den Scheduler, etc.

Locuza
2019-05-16, 01:46:31
So kannst du natürlich argumentieren, aber gibt es eine klare Definition wie eine Namenskonvention in solchen Fällen von statten gehen "muss"?
Was ist z.B. GCN und ab wann würden wir nicht mehr von GCN reden?

Wir reden ja auch von GCN Gen 5 und Vega, welcher gegenüber Tahiti auch neue Instruktionen hat, wo einige fehlen, wo es mehr Scalar-Register gibt, größere Instruction-Buffer, Instruction-Prefetching und weitere Anpassungen.
Was zählt als kleiner Mist und was als etwas Fundamentales, wo ein neuer Name gerechtfertigt wäre?

AMDs Compiler-Patch bezüglich den Registern hat selbst GCN in den Funktionsnamen unterlegt.
Der Patch selber heißt "[AMDGPU] gfx1010 GCNRegBankReassign pass".
https://reviews.llvm.org/D61344

Man könnte natürlich auch argumentieren, dass wir hier kein "Huhn" mehr vor uns haben, sondern einen Elefanten, AMD das dennoch weiterhin "Huhn" nennt.

Aber ich denke nicht das wir so viele massive Änderungen vor uns haben werden, sodass ein anderer Name wirklich "nötig" wäre.
Nvidia hat von Fermi zu Kepler, zu Maxwell, zu Volta/Turing viel getan.
Das Instruction-Scheduling and Encoding wurde mehrfach verändert, die Instruction-Latencies der Main-ALU, die Cache-Hierarchy und die Kapazitäten.

Da hat man wirklich das Gefühl, dass sich insgesamt soviel verändert hat, dass hinter jedem Namen eine sehr unterschiedliche Architektur steckt.
Consumer Pascal könnte man z.B. deutlich einfacher als Maxwell Gen 3 ansehen.

gravitationsfeld
2019-05-16, 03:18:49
Nein, die Latencies wurden nie angefasst. Auch das Scheduling nicht. Encoding ja, aber auch nur um den Befehlssatz zu erweitern.

Mir ziemlich egal wie die das in LLVM nennen. Wenn es eine neue Architektur ist wuerde man das wohl kaum hinausposaunen.

Aber ich denke nicht das wir so viele massive Änderungen vor uns haben werden, sodass ein anderer Name wirklich "nötig" wäre.
Noch mal: Wenn die register banks auf einem conflicts haben ist die gesamte CU anders. Alles. Das ist eine fundamentale Aenderung.

Jede GCN-ALU macht bisher vier Takte pro Full-Rate-Instruction und interleaved die Zugriffe auf die Register. Es gibt nie Konflikte. Das baust du nicht mal eben so um als kleine Erweiterung.

Zergra
2019-05-16, 08:07:34
Jedenfalls wurde es wieder bestätigt da Navi die VII nicht erreichen wird. Wird an Ende die Vega 64 +- 5-10% für den TopDog sein.

Lehdro
2019-05-16, 08:19:21
Jedenfalls wurde es wieder bestätigt da Navi die VII nicht erreichen wird.
Bitte spezifiziere Navi. Gibt ja augenscheinlich mehrere dann.

robbitop
2019-05-16, 08:21:17
Ist doch sinnvoll erstmal was für den Markt zu bringen, der die meisten Kunden hat, oder?
So wie bei Polaris. Einen günstigen Gegner für die 2070 und 2060 für deutlich weniger Geld. Wäre für die meisten sicherlich interessant.

Bitte spezifiziere Navi. Gibt ja augenscheinlich mehrere dann.
Er wird vom kommenden Navi 10 ausgehen. :)

fondness
2019-05-16, 08:27:07
AMD verfolgt vermutlich wieder eine ähnliche Strategie wie mit Polaris/Vega, da schon 2020 die nächste Architektur auf der Roadmap steht. Ergo würde ich nicht unbedingt high end bei Navi erwarten, "next gen" wird wohl high end inkl den ganzen non gaming Markt abdecken und Navi dürfte more or less der "abfall" aus der PS5/Xbox next Entwicklung sein.

robbitop
2019-05-16, 08:35:57
AMD's Margen sind nicht die besten und man schaut (gerade mit so vielen Einsatzfeldern), dass man seine mArchs in möglichst vielen Produkten unterbekommt.
Für Sony/MS geht man sicherlich auch gern "the extra mile" und baut ein paar Sachen aus zukünftigen mArchs ein. Aber, dass man extra für beide eine neue mArch gestrickt hat, die nicht gut zum übrigen Geschäft passt (wenn man die nur 1x als "Abfall" nutzt und dann etwas neues bringen will)?

Laut gravitationsfeld wurde offenbar (gem compilerpatches) ggü heutigen GPUs so viel geändert, dass er es nicht mehr als GCN bezeichnen würde.
Und gerade gravitationsfeld ist jemand, dem klar ist (im Gegensatz zu 99% des Internets), dass GCN eigentlich nur die ISA ist und nicht die konkrete Implementierung.

Möglich ist vieles - aber so viel hat AMD in den letzten Jahren nicht an seinen mArchs geändert. Jetzt auf einmal 2x große Brüche innerhalb von 2 Jahren?

HOT
2019-05-16, 08:45:41
Dann stimmte aber das Gerücht, dass Navi10 einfach kaputt war. So kaputt, dass man das Originaldesign echt aufgegeben hat. Wir bekommen dann halt nur Navi12 zu Gesicht bis Navi20 als Ersatz für den Großen dann soweit ist. Navi 21 könnte das Ganze nach unten hin abrunden und Navi 14 wird einfach zu Renoir gehören.

X.Perry_Mental
2019-05-16, 08:56:53
Jedenfalls wurde es wieder bestätigt da Navi die VII nicht erreichen wird. Wird an Ende die Vega 64 +- 5-10% für den TopDog sein.
Die Leistung einer Vega64 (plus ein paar Prozent) wäre für mich schon verlockend und mit Sicherheit einen näheren Blick wert, denn bei der Vega64 haben mich vom Kauf "nur" die Abwärme und der Preis abgehalten.
Ich gehe davon aus, dass beides mit Navi nur besser werden kann, und freue mich einfach mal auf den Launch „im dritten Quartal“, wann auch immer das genau sein wird.
Grüße: Perry

dildo4u
2019-05-16, 08:57:25
Es kann nur was Neues sein MS und Sony können es nicht hinnehmen wieder übermäßig große Chips zu kaufen nur weil GCN Chips viel zu heiß werden wenn man sie zu hoch Taktet.(Siehe Radeon 7)Für Konsole braucht es kleine Chips die mit 1.8Ghz laufen ohne das sie alleine schon 200 Watt ziehen,der Ryzen muss auch noch ins TDP!

Zergra
2019-05-16, 08:58:52
Bitte spezifiziere Navi. Gibt ja augenscheinlich mehrere dann.

Naja Navi 2019.
"
In gaming, we successfully returned to the high-end market with the launch of our Radeon VII GPU in February 2019 and we are on track to introduce our next-generation “Navi” GPUs for the mainstream market later this year."

Damit sagt AMD ja quasi schon das kein VegaII Ersatz kommt.

robbitop
2019-05-16, 09:02:55
Dann stimmte aber das Gerücht, dass Navi10 einfach kaputt war. So kaputt, dass man das Originaldesign echt aufgegeben hat. Wir bekommen dann halt nur Navi12 zu Gesicht bis Navi20 als Ersatz für den Großen dann soweit ist. Navi 21 könnte das Ganze nach unten hin abrunden und Navi 14 wird einfach zu Renoir gehören.
Man müsste in einem Entwicklungsstudio für die PS5 arbeiten (oder dort Mäuschen sein) - dann wüsste man, was Navi wirklich ist. Das wäre was.
Laut Gerüchten aus dem April haben die ja alle PS5 Developer Kits mit Navi bekommen. Ggf. waren die PCB Leaks ja auch dafür.
Möglich ist vieles...

Es kann nur was Neues sein MS und Sony können es nicht hinnehmen wieder übermäßig große Chips zu kaufen nur weil GCN Chips viel zu heiß werden wenn man sie zu hoch Taktet.(Siehe Radeon 7)Für Konsole braucht es kleine Chips die mit 1.8Ghz laufen ohne das sie alleine schon 200 Watt ziehen,der Ryzen muss auch noch ins TDP!
Ja das habe ich mir auch gedacht. Gerade vor dem Hintergrund, dass Konsolen bis dato sehr konservativ mit GPU Taktraten waren. Man schaue sich an wie niedrig die GCN GPUs in den current gen Konsolen laufen, wenn man es mit den dGPUs im PC Bereich vergleicht.
Wenn die 1,8 GHz wirklich stimmen (sind ja nur ein Gerücht), dann ist die GPU IP dieses Mal wirklich auch für höhere Taktraten ausgelegt. Ähnlich Pascal/Turing.

Brillus
2019-05-16, 09:33:09
Liest du einen anderen post als ich? Genau das habe ich geschrieben. Man kann mich gerne eines Besseren belehren aber iirc wurden bei der Hot Chips besprochenen Architekturen zuvor in Produkten gelaunched.

Sorry da hab ich mich komplett verlesen.

BlacKi
2019-05-16, 09:33:13
Naja Navi 2019.
"
In gaming, we successfully returned to the high-end market with the launch of our Radeon VII GPU in February 2019 and we are on track to introduce our next-generation “Navi” GPUs for the mainstream market later this year."

Damit sagt AMD ja quasi schon das kein VegaII Ersatz kommt.
auch keine 2080 performance, eher irgendwas zwischen 2060 und 2070. und later this year, in bezug auf datum an dem diese aussage getätigt wurde, hört sich nicht nach juli an. wenn da nicht q3 stehen würde, würde ich glatt oktober oder später schätzen.

w0mbat
2019-05-16, 09:56:57
Die kommenden Navi GPUs werden wohl langsamer als Radeon VII und da Radeon VII etwas hinter einer RTX 2080 liegt rechne ich mit maximal RTX 2070 Leistung, eher etwas weniger. Wie BlacKi schreibt "irgendwas zwischen 2060 und 2070". Das für nen MRPS von $299 + 8GB VRAM und alles ist gut. Kann mir gut vorstellen, dass die ASIC power bei um die 180W liegt und die gesamte Karte bei >200W.

X.Perry_Mental
2019-05-16, 10:35:28
Die kommenden Navi GPUs werden wohl langsamer als Radeon VII und da Radeon VII etwas hinter einer RTX 2080 liegt rechne ich mit maximal RTX 2070 Leistung, eher etwas weniger. Wie BlacKi schreibt "irgendwas zwischen 2060 und 2070". Das für nen MRPS von $299 + 8GB VRAM und alles ist gut. Kann mir gut vorstellen, dass die ASIC power bei um die 180W liegt und die gesamte Karte bei >200W.

Die 2060 braucht für ihre Leistung ca. 160 Watt, die 2070er braucht um die 175W. Wenn der Verbrauch von Navi in der von dir geschätzten Größenordnung liegen sollte, wäre das bei Performance/Watt für AMD zwar ein riesiger Schritt nach vorne, aber nVidia würde trotz älterem Herstellungs-Prozess immer noch deutlich führen. Ich bin gespannt.

robbitop
2019-05-16, 10:40:31
Ggf. hilft eine neue mArch AMD, dass sie ihre GPUs nicht mehr so hochprügeln müssen, um auf die Performance des gewünschten Wettbewerbsprodukt zu bekommen. Das ist ja schon gefühlt ewig ein gewaltiger Nachteil bei AMD.

Wenn man sich mal anschaut, wie stark man mit bspw Polaris P30 runterkommt mittels UV - insbesondere wenn man auch etwas Performance opfert - sagen wir mal 1200 MHz - das ist schon gewaltig. Da halbiert man den Verbrauch relativ locker. P30 mit P10 Taktraten ist immernoch ein riesen Sprung. Und selbst wenn man bei P30 / V64 / V7 nur die Standardtaktraten halten will und undervolted. Da ist zu viel Fleisch, was man liegen lassen muss.

w0mbat
2019-05-16, 10:40:44
Ich denke eben nicht, dass AMD eine 180 Grad Drehung schafft. Dank 7nm werden sie wohl nicht so mega krass abseits liegen, was den Stromverbrauch angeht, aber die Effizienz von Nvidia liegt ja auch an deren Architekturen.

Hakim
2019-05-16, 10:41:32
Nur nicht wieder für 3-4% Mehrleistung deutlich höheren Verbrauch in kauf nehmen. Ist schon etwas nervig das die Karten ab Werk nahe am Limit laufen.

robbitop
2019-05-16, 10:49:44
Ich denke eben nicht, dass AMD eine 180 Grad Drehung schafft. Dank 7nm werden sie wohl nicht so mega krass abseits liegen, was den Stromverbrauch angeht, aber die Effizienz von Nvidia liegt ja auch an deren Architekturen.
Das denke ich auch. Aber ein Sprung wie von Kepler auf Maxwell würde ja schon eine Menge ausmachen. Dazu hat man ja den 7nm Vorteil.

RitterRost
2019-05-16, 10:52:50
Nur nicht wieder für 3-4% Mehrleistung deutlich höheren Verbrauch in kauf nehmen. Ist schon etwas nervig das die Karten ab Werk nahe am Limit laufen.

Welche Option hat den jemand (AMD), wenn er nicht die schnellste GPU der Welt hat?
Jedes Prozent mehr Performance lässt nen höheren Verkaufspreis zu.

robbitop
2019-05-16, 10:57:40
Ich würde ein paar mm² mehr investieren, die GPU ein bisschen breiter machen und dafür etwas Takt opfern. Wenn man im Mainstreambereich ist, dann ist das machbar. Siehe GP106 mit 200mm² vs P10 mit 230 mm².

mboeller
2019-05-16, 11:02:59
Ich würde ein paar mm² mehr investieren, die GPU ein bisschen breiter machen und dafür etwas Takt opfern. Wenn man im Mainstreambereich ist, dann ist das machbar. Siehe GP106 mit 200mm² vs P10 mit 230 mm².

vielleicht, wie schon gesagt, wurde Navi wirklich für den mobile-Prozess ausgelegt und nicht für den High Performance Prozess. Damit sind dann mehr Einheiten bei gleicher Fläche locker drin.

w0mbat
2019-05-16, 11:59:50
Navi kommt im neuen 7nm Prozess, hier sind yields sehr wichtig, AMD wird wohl lieber auf Nummer sicher gehen.

HOT
2019-05-16, 12:08:32
Damit sind aber die Gerüchte, dass Navi NVs Maxwell ist wieder realistischer, also dass er 40CUs mit fast 2 GHz packt. Damit läge er sicherlich über der 2070 und nah an der VII. Aber die VII kommt ja mit 16GB und bleibt daher aktuell.

][immy
2019-05-16, 12:26:12
Ich würde ein paar mm² mehr investieren, die GPU ein bisschen breiter machen und dafür etwas Takt opfern. Wenn man im Mainstreambereich ist, dann ist das machbar. Siehe GP106 mit 200mm² vs P10 mit 230 mm².
naja, hat man ja eigentlich schon versucht mit Vega. Die Performance ist zwar gesprungen, aber eine "Verdopplung" (immerhin hat Vega nicht nur deutlich mehr Einheiten, sondern auch mehr Takt) ist nicht gelungen. Es ist eher so, das sich die Schwächen von GCN langsam aber sicher stärker ausprägen. Sieht man ja an P30 das dieser schon in die nähe der Vegas kommt. Und das mit einem deutlich kleineren Chip. Daher könnte ich mir gut vorstellen das ein 7nm Polaris reichen würde um aktuelle Vega 56/64 Performance zu erreichen. Vega genehmigt sich ja auch noch 2 8-pin Stromanschlüsse.
Auf der anderen Seite, die theoretische Performance von GCN ist ja durchaus vorhanden, man kann sie in Spielen aber einfach nicht wirklich auf die Straße bringen, wobei neue Spiele dazu tendieren, deutlich besser auf den GCN Chips (Polaris/Vega) zu laufen im Verhältnis zu nvidias 10x0er Gen, das Vega inzwischen an die 1080 ran gerückt ist im laufe der Zeit spricht da wieder bände (auch wenn der Verbrauch deutlich höher ist). AMD braucht aber auch einfach zu lang um ein Produkt entsprechend zu optimieren.

Nosferatu1
2019-05-16, 12:57:33
esretzt navi polaris oder vega oder beides? denke vega 64 leistung bei 150-180 watt ist realistisch, 2080 nie miemals. 2070+10% max und dann bringt nvidia ne 2070ti wie schon die 1070ti.

HOT
2019-05-16, 13:06:59
Ne 2070 ist schon der Maximalausbau des TU106. Das muss dann mit TU104 passieren und das wär dann echt nah dran an der 2080 (gut war die 1070Ti auch).
Man könnte natürlich aus TU106 ne 2060 Ti machen und aus TU104 ne 2070Ti.

robbitop
2019-05-16, 13:38:11
Damit sind aber die Gerüchte, dass Navi NVs Maxwell ist wieder realistischer, also dass er 40CUs mit fast 2 GHz packt. Damit läge er sicherlich über der 2070 und nah an der VII. Aber die VII kommt ja mit 16GB und bleibt daher aktuell.
Wer weiß, ob die Dinger noch "CUs" heißen werden, wie sie angeordnet sind und wieviele Ausführungseinheiten sie beinhalten.

robbitop
2019-05-16, 13:40:08
[immy;11995844']naja, hat man ja eigentlich schon versucht mit Vega. Die Performance ist zwar gesprungen, aber eine "Verdopplung" (immerhin hat Vega nicht nur deutlich mehr Einheiten, sondern auch mehr Takt) ist nicht gelungen. Es ist eher so, das sich die Schwächen von GCN langsam aber sicher stärker ausprägen. Sieht man ja an P30 das dieser schon in die nähe der Vegas kommt. Und das mit einem deutlich kleineren Chip. Daher könnte ich mir gut vorstellen das ein 7nm Polaris reichen würde um aktuelle Vega 56/64 Performance zu erreichen. Vega genehmigt sich ja auch noch 2 8-pin Stromanschlüsse.
Auf der anderen Seite, die theoretische Performance von GCN ist ja durchaus vorhanden, man kann sie in Spielen aber einfach nicht wirklich auf die Straße bringen, wobei neue Spiele dazu tendieren, deutlich besser auf den GCN Chips (Polaris/Vega) zu laufen im Verhältnis zu nvidias 10x0er Gen, das Vega inzwischen an die 1080 ran gerückt ist im laufe der Zeit spricht da wieder bände (auch wenn der Verbrauch deutlich höher ist). AMD braucht aber auch einfach zu lang um ein Produkt entsprechend zu optimieren.
Vega64/56/7 war IMO einfach murks. Viel zu wenig Punch pro Transistor vergleichen mit Polaris. Polaris war ja noch halbwegs wettbewerbsfähig. Siehe P10/20/30 vs GP106. Aber Vega lief einfach aus dem Ruder.

Ich frage mich manchmal, ob ein doppelter Polaris nicht die bessere Lösung gewesen wäre.

Effe
2019-05-16, 13:59:26
Fiji war schon ein doppelter Tonga. Vega(I) ist ein "Fiji done right" und Vega II ist Vega auf 7nm.
AMD hat bisher nichts Besseres.

Computetechnisch ist Vega eine Bank. Beim diesjährigen BOINC-Pentadings sind die Vegas einsame Spitze, Polaris mischt auch gut mit.

robbitop
2019-05-16, 14:04:27
Vega hat einfach zu viele Transistoren für den höheren Takt verballert IMO.

amdfanuwe
2019-05-16, 14:16:14
Auch wenn Vega im Consumer Gaming keine Bäume ausreißt; die Design Wins für Google Stadia und Frontier zeigen, dass AMD mit Vega richtig lag.

aufkrawall
2019-05-16, 14:26:45
Für Stadia wird wohl kaum Vega im Speziellen, sondern eher GCN allgemein ausschlaggebend gewesen, inkls. AMDs Offenheit und Vulkan-Expertise.

amdfanuwe
2019-05-16, 14:55:58
Ich denke schon, dass einige Vega Features für Stadia ausschlaggebend waren. Es brauch ja nicht jeder Gamer immer die volle Leistung, da ist es gut, dass sich mehrere VMs eine GPU teilen können z.B..
Wer weiß, was Google auf den Servern laufen läßt, wenn diese von den Gamern nicht ausgelastet sind.

Palpatin
2019-05-16, 15:06:46
Naja Navi 2019.
"
In gaming, we successfully returned to the high-end market with the launch of our Radeon VII GPU in February 2019 and we are on track to introduce our next-generation “Navi” GPUs for the mainstream market later this year."

Damit sagt AMD ja quasi schon das kein VegaII Ersatz kommt.

Richtig aber trotzdem kann Navi schneller als Radeon VII werden. Gab es auch bei NV ja schon öfter das erst das Mainstream Produkt veröffentlich wurde und es schneller bzw gleich schnell war wie Last Gen High End. Z.B. 980 vs 780ti(titan), 1080 vs 980ti (titan x).

dargo
2019-05-16, 15:16:35
[immy;11995844']naja, hat man ja eigentlich schon versucht mit Vega. Die Performance ist zwar gesprungen, aber eine "Verdopplung" (immerhin hat Vega nicht nur deutlich mehr Einheiten, sondern auch mehr Takt) ist nicht gelungen. Es ist eher so, das sich die Schwächen von GCN langsam aber sicher stärker ausprägen. Sieht man ja an P30 das dieser schon in die nähe der Vegas kommt. Und das mit einem deutlich kleineren Chip.
Wie kommst du auf den Quatsch? V56 ist in 1080p 35% schneller als P30.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080

P30 ist 12nm, Vega 14nm. Zudem ist der Verbrauch von P30 zu V56 praktisch identisch. Polaris hat überhaupt keine Chance an Vega zu kommen. Würde man die V56 auf die Leistung von P30 runter drücken würde diese um die 150-160W verbrauchen. In 12nm höchstwahrscheinlich etwas weniger.

Pirx
2019-05-16, 15:30:49
Man sieht ja auch, wie viel von der Implementierung des jeweiligen Spiels abhängt. Gibts da überhaupt noch faire Vergleiche?

reaperrr
2019-05-16, 15:38:05
Ich frage mich manchmal, ob ein doppelter Polaris nicht die bessere Lösung gewesen wäre.
In Sachen absolute Performance eher nicht, das Problem der (bisherigen) GCN-Ausführungen ist ja, dass die reale IPC-Skalierung mit steigender CU-Zahl je SE abnimmt. Dazu kommt, dass ein Polaris mit 60-64 CUs und GDDR5-SI wohl erst 12LP gebraucht hätte, um die Taktraten von V64Air innerhalb von 300W zu erreichen.

Ich stimme dir aber insofern zu, dass man auf Basis von Polaris definitiv einen Chip mit bis zu ~V56-Perf oder zumindest 1070-Perf bei deutlich geringeren Produktionskosten als V10 hätte bringen können, und das wohl auch locker 6-10 Monate früher als V10.

Vega10 hat man in der Form wohl nur für Apple gebracht (und hatte dann Glück mit dem Mining-Boom), sonst hätte es mehr Sinn gemacht, auf 12LP, Aquabolt-HBM und ausgereiftere Treiber zu warten, 2017 mit dem genannten großen Polaris zu bestreiten und V10 mit ~15% mehr Perf und ~20% mehr Perf/W (ggü. 14LPP-Vega) erst in 2018 zu bringen. Dann hätte es auch wenigstens für die 1080 gereicht (vmtl. sogar mit V56).

][immy
2019-05-16, 15:40:55
Wie kommst du auf den Quatsch? V56 ist in 1080p 35% schneller als P30.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080

P30 ist 12nm, Vega 14nm. Zudem ist der Verbrauch von P30 zu V56 praktisch identisch. Polaris hat überhaupt keine Chance an Vega zu kommen. Würde man die V56 auf die Leistung von P30 runter drücken würde diese um die 150-160W verbrauchen. In 12nm höchstwahrscheinlich etwas weniger.
35% ist nicht grad viel wenn man bedenkt wie viel breiter Vega ist (und auch noch höher getaktet + massig mehr Speicherbandbreite).
V56 bekommst du nur so klein wenn du an den Spannungen spielst. Das kannst du aber auch mit Polaris machen. Wobei man dabei jeweils Glück oder Pech haben kann, sonst hätten sie wohl kaum die Spannungen entsprechend hoch angesetzt.

Für die Vorteile die Vega gegenüber P30 hat (oder von mir aus auch P20) ist der Sprung einfach viel zu gering. Spätestens wenn du Vega 56 vs 64 vergleichst sieht man recht schnell, das die Architektur hier einfach auf eine Hürde stößt und nicht weiter kommt. Man ist quasi immer noch auf bei der Fiji-Performance, solange bei dieser der Speicher nicht limitiert.

Linmoum
2019-05-16, 15:46:55
Nur takten die 590er höher und nicht eine Vega56. ;) Wenn du für letztere die Referenz nimmst, dann liegt da sogar ein ordentliches Stück zwischen.

dargo
2019-05-16, 17:04:28
[immy;11996042']35% ist nicht grad viel wenn man bedenkt wie viel breiter Vega ist (und auch noch höher getaktet + massig mehr Speicherbandbreite).

Löl? Was glaubst du was P30 verbrauchen würde wenn man die GPU (natürlich geht das nicht) um X Prozent höher als jetzt takten würde um die V56 zu erreichen? Da wärst du locker beim doppelten Verbrauch.

[immy;11996042']
V56 bekommst du nur so klein wenn du an den Spannungen spielst. Das kannst du aber auch mit Polaris machen. Wobei man dabei jeweils Glück oder Pech haben kann, sonst hätten sie wohl kaum die Spannungen entsprechend hoch angesetzt.
Ich habe nirgendwo ein Wort von UV verloren. Die Spannungen sind u.a. so hoch weil man die Taktkeule rausgeholt hat.

[immy;11996042']Spätestens wenn du Vega 56 vs 64 vergleichst sieht man recht schnell, das die Architektur hier einfach auf eine Hürde stößt und nicht weiter kommt. Man ist quasi immer noch auf bei der Fiji-Performance, solange bei dieser der Speicher nicht limitiert.
So ein Blödsinn.

btw.
Welche Wunder erwartest du von V64 gegenüber der V56 wenn erstere nur 14% mehr Shader bei leicht höherem Takt hat? 17% schlagen durch laut CB im Schnitt bei 1440p, völlig im erwarteten Rahmen.

Edit:
Hier hast du mal ein Beispiel anhand vom Benchmark Superposition. Dabei geht es nicht um die Performance an sich sondern speziell nur um die Relation von Performance zum Verbrauch. In beiden Fällen wird die Default PP-Table einer V64 LCE verwendet, ergo nichts mit UV!

220W Powerlimit (ASIC!)
https://abload.de/thumb/superposition_benchmahdkwa.png (http://abload.de/image.php?img=superposition_benchmahdkwa.png)

165W Powerlimit (ASIC!)
https://abload.de/thumb/superposition_benchma5gju9.png (http://abload.de/image.php?img=superposition_benchma5gju9.png)

8,4% mehr Performance erhöhen den Verbrauch um 33,3%. Bei dem höheren Powerlimit taktet die GPU mit ca. 200Mhz mehr.

unl34shed
2019-05-16, 19:59:32
In Sachen absolute Performance eher nicht, das Problem der (bisherigen) GCN-Ausführungen ist ja, dass die reale IPC-Skalierung mit steigender CU-Zahl je SE abnimmt....

GCN skaliert genauso wie die Nvidia Architekturen mit der Anzahl der Shader und zieht ca. 80% Mehrleistung aus den zusätzlichen Shadern.

Eine FuryX ist ca. 80% schneller als eine RX 280X und ist dabei ne doppelte 280X.
Von einer 590 zur Vega 64 oder 56 sind es auch ca. 80% der zusätzlichen Shader die als Mehrleistung raus kommen.

Eine 2080ti ist zum Beispiel trotz 120% mehr Shader als eine 2060 auch nicht 120% schneller.

etc.

robbitop
2019-05-16, 20:31:56
Wenn Bandbreite oder Takt nicht zur Breite passt oder die Benchmarks nicht im absoluten GPU Limit durchgeführt worden sind, ist es mit der Skalierung nicht weit her.
AMDs GPUs skalieren sicherlich vernünftig mit der Anzahl der CUs solange bspw das Front- oder Backend kein Problem ist. Also möglichst viele Pixel pro Dreieck und idealerweise möglichst viele Takte pro Pixel (viel pro Pixel zu berechnen).

NVs mArch ist seit Fermi schon ausgewogener was Skalierung und Granularität angeht.

horn 12
2019-05-17, 01:01:12
Hinweis:

Die AMD Spieleaktion (Radeon VII bis Vega und RX 590/580)
endet exakt auch am 10 Juni, Also pünktlich zur Navi Vorstellung.


La promozione inizia il 29 Aprile 2019 e termina l'8 Giugno 2019.
I coupon saranno distribuiti fino ad esaurimento scorte e potranno essere riscattati fino all'8 Luglio 2019

w0mbat
2019-05-17, 09:43:49
Das Warten auf Navi macht mich ganz verrückt! Noch gute 3 Wochen und wir wissen hoffentlich mehr...

Leonidas
2019-05-18, 06:29:24
Hinweis:

Die AMD Spieleaktion (Radeon VII bis Vega und RX 590/580)
endet exakt auch am 10 Juni, Also pünktlich zur Navi Vorstellung.

La promozione inizia il 29 Aprile 2019 e termina l'8 Giugno 2019.
I coupon saranno distribuiti fino ad esaurimento scorte e potranno essere riscattati fino all'8 Luglio 2019


Nicht ganz, am 8. Juni endet es. Trotzdem ist die These valide.

Daredevil
2019-05-18, 06:32:24
Die Radeon VII ist mittlerweile bei 629€ + zwei Spiele bei Mindfactory.
Da kann man sich vielleicht auch die zukünftigen Preise zusammen dichten.

Eine deutlich langsamere Navi Karte ( Vega 64 Leistung z.B. ) wird dann wohl kaum um die 500€ kosten, um sich ins Lineup zu intigrieren. Bzw. eine schnellere Karte als Navi Version wird wohl kaum teurer werden.

dildo4u
2019-05-18, 08:55:34
Der Preis hat nix mit AMD zu tun sondern nur damit das sich die Klasse an Karten in dem Laden zu langsam verkaufen.Die 2070 ist hingegen die meist verkaufte neue Karte laut Steam,es gibt also einige deren Limit bei genau 500€ liegt.

horn 12
2019-05-18, 09:05:37
Nun, Navi klein um die 340 bis 380 Euro und wohl ca. 2070 Level

und Navi Big 2020 ca. 2080OC+ und mindestens 550 Euro da wohl auch 16GB GDDR6

Da lohnt eine Seven für 629 bis 659 Euro JETZT schon allemal
Außer Navi bekommt wirklich RayTracing verpasst, aber dies wird wohl wie bei NV zu schwach werden bei der Performance.

dildo4u
2019-05-18, 09:59:34
PC World hat auch spekuliert,die billigen Preise kommen nur wenn sie keine RT Kerne haben.

SKYNET
2019-05-18, 10:07:30
Wie kommst du auf den Quatsch? V56 ist in 1080p 35% schneller als P30.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080

P30 ist 12nm, Vega 14nm. Zudem ist der Verbrauch von P30 zu V56 praktisch identisch. Polaris hat überhaupt keine Chance an Vega zu kommen. Würde man die V56 auf die Leistung von P30 runter drücken würde diese um die 150-160W verbrauchen. In 12nm höchstwahrscheinlich etwas weniger.

ich denke dürfte VIEL weniger als 150W fressen... eher um die 100-110W, weil die leistungs und verbrauchskurve laufen ja nicht linear zueinander, sondern die verbrauchskurve stark progressiv zur leistungskurve.

Leonidas
2019-05-18, 10:14:35
PC World hat auch spekuliert,die billigen Preise kommen nur wenn sie keine RT Kerne haben.


Gute These. Ein deutlicher Preisunterschied würde NV normalerweise zum Handeln zwingen - obwohl dies keiner eigentlich will. Wenn man dagegen weiterhin RT als Alleinstellungsmerkmal hat, dürfte NV eher geneigt sein, nichts an den Preisen zu drehen (oder kosmetisches wie einen Turing-Refresh). Auch AMD wäre dies Recht, weil um 5% besser zu sein denen erfahrungsgemäß nicht viel bringt.

w0mbat
2019-05-18, 11:30:11
Ich hoffe nicht, dass Navi mit dezidierter RT-Hardware kommt, ich sehe in diesem Bereich erst in 2-3 Jahren einen Nutzen. Das kostet nur Die-Fläche und verbraucht unnötig Strom.

BoMbY
2019-05-18, 12:13:08
Was machen die RT Cores denn grundsätzlich genau? Man wirft denen eine Bounding Volume Hierarchy (BVH) hin, und dann hat man eine Instruction um einen Ray gegen diese BVH zu testen, und die gibt das Ergebnis zurück (kein Treffer oder einen Schnittpunkt?)

Wenn ich das richtig sehe gibt es da aber zum Beispiel keine spezielle Hardware-Beschleunigung um das BHV aus der vorhandenen Geometrie zu erzeugen. Das wäre ein Punkt welchen man eventuell noch zusätzlich beschleunigen könnte, dann wäre es eventuell nicht so schlimm wenn die BHV-Intersection etwas langsamer wäre.

Der Vorteil das über separate Einheiten zu machen ist natürlich dass man es parallel ausführen kann, aber so wie es bei den (bisher glaube ich nicht vollständigen) Navi-LLVM-Patches bisher aussieht kann man ja in Zukunft die CUs auch relativ einfach jeweils andere Dinge berechnen lassen, so dass man quasi einen Teil der CUs für dediziertes RT abzwacken könnte.

BoMbY
2019-05-18, 16:22:58
Das war bestimmt schon mal verlinkt worden irgendwann, ist aber auf jeden Fall interessant: Reduced Precision for Hardware Ray Tracing in GPUs (http://diglib.eg.org/handle/10.2312/hpg.20141091.029-040)

Our simulations show that major resources within current GPU architectures are compatible with fixed function MIMD ray traversal. This opens the way for integrating ray tracing capability within GPUs, eliminating area and performance costs of coprocessor designs.

Das Paper nutzt GCN (Hawaii) als Grundlage.

pixeljetstream
2019-05-18, 16:58:31
@Bomby der Vorteil es in hw zu gießen ist grundsätzlich immer die Effizienz. Der Overhead der Verwaltung bei generischen Operationen fällt weg.

Imagination wirbt damit dass sie auch hw IP zum aufbauen des bvh haben

dildo4u
2019-05-18, 17:02:09
Ich hoffe nicht, dass Navi mit dezidierter RT-Hardware kommt, ich sehe in diesem Bereich erst in 2-3 Jahren einen Nutzen. Das kostet nur Die-Fläche und verbraucht unnötig Strom.
7nm+ ist nästes Jahr verfügbar dann muss es drin sein ansonsten ist AMD wieder am Arsch,da jede Form von RT über Jahre auf NV Hardware gebaut wird.

BoMbY
2019-05-18, 17:12:47
@Bomby der Vorteil es in hw zu gießen ist grundsätzlich immer die Effizienz. Der Overhead der Verwaltung bei generischen Operationen fällt weg.

Imagination wirbt damit dass sie auch hw IP zum aufbauen des bvh haben

Ja, es geht ja wohl darum dass es im Prinzip relativ einfach wäre eine Hardware-Unterstützung hinzuzufügen ohne groß etwas an den bestehenden Strukturen ändern zu müssen. Das wäre vielleicht keine 100% Lösung, aber schnell und effektiv umgesetzt.

pixeljetstream
2019-05-18, 17:18:33
Relativ einfach sind neue Instruktionen die Arithmetik und Dekomprimierung beschleunigen. Die fügen sich leicht ein weil sie feste Laufzeit haben.
Komplexer ist die NV Variante wo eigener Speicherzugriff in den RT cores die asynchrone Ausführung erlaubt.

BoMbY
2019-05-18, 17:32:33
Hab das Bild für PowerVR gefunden, das ist auf jeden Fall gut um zu sehen was da so passieren sollte:

https://i.imgur.com/Y0q3QW8.jpg

Muss man halt mal abwarten was AMD da im ersten Wurf bringt, und wie gut das funktioniert. Ich könnte mir halt vorstellen dass es so ähnlich wie in dem Paper beschrieben ist, und dass es dann gegebenenfalls von diesem neuen Workgroup-Mode profitieren könnte, indem man z.B. 4 oder 8 CUs fest für Raytracing reserviert, und das somit auch parallel zur normalen Pipeline laufen lässt.

JVC
2019-05-19, 15:25:15
Ich hoffe nicht, dass Navi mit dezidierter RT-Hardware kommt, ich sehe in diesem Bereich erst in 2-3 Jahren einen Nutzen. Das kostet nur Die-Fläche und verbraucht unnötig Strom.
Sehe ich genau so.

... CUs für Raytracing ...

Fände ich in der Übergangszeit sowieso besser.
(die Karte bleibt so flexibler und günstiger)

7nm+ ist nästes Jahr verfügbar dann muss es drin sein ansonsten ist AMD wieder am Arsch,da jede Form von RT über Jahre auf NV Hardware gebaut wird.
NV hat zwar eigene Hardware, greift damit aber auf den DXR Standart von MS zu.
Also nix spezielles für NV.

Für mich wäre es eher ein Nichtkauf-Argument,
wenn AMD Hardware-RT bringt und wie NV mal eben den Preis "verdoppelt".
Im Moment sehe ich, aufgrund massiv fehlender Spieletitel,
keinen Grund jetzt schon auf RT zu setzen.

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/
Selbst Herr Jen-Hsun, hofft nur auf neue RT-Titel im Herbst ...
So selbstsicher wie zu Anfang, klingt NV schon lange nicht mehr.
Die haben echt Glück, das sie im Moment kaum Konkurrenz haben
und ihnen noch immer genügend Leute den Mist abkaufen den sie verzapfen.

Wenn RT mal Standard ist, werden wir sehen ob extra-Einheiten lohnen,
oder ob das so läuft wie bei PhysX.

m.f.g. JVC

Nosferatu1
2019-05-19, 20:29:31
wird navi endlich mal in der UE4 gut performen oder wird das wieder schwach wie bei amd immer?.

Screemer
2019-05-19, 20:32:29
wird navi endlich mal in der UE4 gut performen oder wird das wieder schwach wie bei amd immer?.
woher sollen wir das wissen? wäre schön. ich bezweifle es aber.

Nosferatu1
2019-05-19, 20:37:33
Ja weis nicht deswegen frage ich ja. mit ner 2070 hatte ich glat t20-30% mehr frames in 4k in einigen ue4 titeln....als ne vega 64

reaperrr
2019-05-19, 20:39:27
wird navi endlich mal in der UE4 gut performen oder wird das wieder schwach wie bei amd immer?.
AMD kann nur bedingt was dafür, dass Epic aufgrund seiner Marktmacht damit durchkommt die Engine nicht ordentlich auf beide Hersteller zu optimieren.

BoMbY
2019-05-20, 13:55:45
Sieht so aus als hätte TUM_APISAK den ersten Eintrag einer neuen Device ID 731F:C1 - wahrscheinlich einer Gaming-SKU von Navi10 gefunden:

https://pbs.twimg.com/media/D7AUSuQVUAE6aN2.jpg

https://twitter.com/TUM_APISAK/status/1130425893220827137

0x7310 bis 0x731F ist ziemlich sicher für Navi10 reserviert, und AMD nutzt in letzter Zeit eigentlich immer das F am Ende für die Gaming-Versionen.

unl34shed
2019-05-20, 14:14:17
HBM oder sehr konservativer Speichertakt?

Linmoum
2019-05-20, 14:17:46
Einfach 3DMark, ausgelesener Takt ist bei sowas häufig Quark.

dildo4u
2019-05-20, 14:18:20
Vermutlich ein frühes Sample daher die 1Ghz Core Takt,oder 3DMark liest Mist aus.

SKYNET
2019-05-20, 16:32:54
oder das teil lässt sich wie ein biet übertakten... wenn die dinger mit 1GHz V64 Leistung erreichen, wäre es das ende für RTX... weil 1700MHz und ab geht's und winke winke 2080Ti :D


gut, genug gesponnen... wird wohl nur ein appetitmacher sein, final wird das ding sicherlich mit jenseits der 1500MHz gelauncht, speicher wohl das gleiche.

am besten aber das, bei den taktraten:

HOT
2019-05-20, 16:46:34
Sieht so aus als hätte TUM_APISAK den ersten Eintrag einer neuen Device ID 731F:C1 - wahrscheinlich einer Gaming-SKU von Navi10 gefunden:

https://pbs.twimg.com/media/D7AUSuQVUAE6aN2.jpg

https://twitter.com/TUM_APISAK/status/1130425893220827137

0x7310 bis 0x731F ist ziemlich sicher für Navi10 reserviert, und AMD nutzt in letzter Zeit eigentlich immer das F am Ende für die Gaming-Versionen.

Vllt auch ein N20-Sample nah am Tapeout.

BoMbY
2019-05-20, 16:48:45
Vllt auch ein N20-Sample nah am Tapeout.

Ja, wenn AMD die bisherige Device-ID-Praxis komplett über den Haufen geworfen hat ...

JVC
2019-05-20, 16:55:28
HBM oder sehr konservativer Speichertakt?
Sieht echt fast nach HBM aus :smile:

@SKYNET
Ich hoffe auch auf ne Nützliche Potente Wakü :freak:
(was wird der wohl an Spannung vertragen ?)


m.f.g. JVC

Edit:
fand ich gut
https://www.youtube.com/watch?v=rtHE3yZ8H_8

BoMbY
2019-05-20, 16:57:27
Polaris10: 0x67C0 - 0x67DF
Polaris11: 0x67E0 - 0x67FF
Polaris12: 0x6980 - 0x699F
Vega10: 0x6860 - 0x687F
Vega12: 0x69A0 - 0x69AF
Vega20: 0x66A0 - 0x66AF

Es sind immer wenigstens 16 Device IDs pro Chip, und die Gaming SKU hat in der Regel immer die letzte mit F, und die ersten Samples die irgendwo auftauchen sind die mit 0, welche in letzter Zeit dann eigentlich immer für die Radeon Instinct SKU verwendet wurden hinterher.

JVC
2019-05-20, 21:16:09
Wie gut stehen eigentlich die Chancen für HDMI2.1 bei Navi20 ?
(Navi10 dürfte es ja noch nicht haben)

Oder weis da gar wer was konkretes ?

m.f.g. JVC

BoMbY
2019-05-20, 21:55:43
Die PS5 soll offiziell 8K unterstützen, was wohl HDMI 2.1 voraussetzen würde. Ansonsten gibt es bisher nichts spezifisches.

robbitop
2019-05-21, 05:37:22
Wie gut stehen eigentlich die Chancen für HDMI2.1 bei Navi20 ?
(Navi10 dürfte es ja noch nicht haben)

Oder weis da gar wer was konkretes ?

m.f.g. JVC
Warum dürfte N10 den noch nicht haben? Die ganzen neuen TVs die seit kurzem verfügbar sind, können das auch. Ich schätze mal, dass es dann jetzt auch eine angemessene Zeit für eine gpu wäre, das zu unterstützen

horn 12
2019-05-21, 07:03:19
Senior Member



Iscritto dal: Sep 2010
Città: Messina
Messaggi: 12351

Notizie fresche fresche dai capoccia di sapphire


>2070

Ci sarà da ridere ci sarà, io preparo popcorn, gelati, torte e rancine


Hersteller Angaben von Sapphire Selbst

Performance größer als 2070
also knapp Radeon VII

Hier die info:

https://www.reddit.com/r/hardware/comments/br4wiv/amd_navi_rumor_interview_with_sapphire_technology/


Vom Event selbst, Bilder:
https://zhuanlan.zhihu.com/p/66321040

dargo
2019-05-21, 09:13:57
Hmm... Performance einer RTX2075 für 499$ klingt ziemlich langweilig. :cool: Eine wassergekühlte Toxic deutet schon mal auf nichts gutes bezüglich Stromverbrauch. Klingt für mich nach einer Radeon VII, nur ohne HBM und natürlich kleiner von der Die-Size.

robbitop
2019-05-21, 09:17:47
Die 2070 gibt es auf der "Straße" schon ab 468 €. Ich denke mal, dass AMD mit Navi da etwas drunter will. Zumindest "auf der Straße". Könnte mir vorstellen, dass wenn die Karte gut verfügbar ist, dass sie zügig auf ~399 € rutscht.

dargo
2019-05-21, 09:21:21
Auch das wäre kein wirklicher Fortschritt. Vega64 gibt es auch schon unter 400€.

robbitop
2019-05-21, 09:23:28
Tja leider völlig normal für Besitzer der ehemaligen High End Generation, die ab einem gewissen Punkt verscheuert wird.
Geht mir mit meiner 1080Ti, die ich vor ~beinahe 2 Jahren für 600 € gebraucht gekauft habe, ebenso. Preis Leistung ist im oberen Segment leider irgendwie stehen geblieben.

w0mbat
2019-05-21, 09:32:38
Das war echt übel, wenn Navi mit neuer Architektur und 7nm für $499 (und das ist ohne Steuern) mit einer 2070 konkurriert. Diese gibt es nämlich schon für um die 450€.

Ich will >2060 Leistung aber mit 8GB für 300€, nicht >2070 für 500€. Naja, wenn Navi nichts wird hol ich mir eben eine 1660 Ti und warte auf Nvidias 7nm gen.

MR2
2019-05-21, 09:34:19
Der nächste will Kühe...

Erstmal abwarten. Wie schnell ist die UVP 100Dollar runter gesetzt. Aber wombat, mir gehts auch so. Die Fury will ersetzt werden :-)

Brillus
2019-05-21, 09:35:02
7. 7. launch bestätigt.da das etwas untergegangen zu sein scheint.

HOT
2019-05-21, 09:38:31
Das war echt übel, wenn Navi mit neuer Architektur und 7nm für $499 (und das ist ohne Steuern) mit einer 2070 konkurriert. Diese gibt es nämlich schon für um die 450€.

Ich will >2060 Leistung aber mit 8GB für 300€, nicht >2070 für 500€. Naja, wenn Navi nichts wird hol ich mir eben eine 1660 Ti und warte auf Nvidias 7nm gen.
Na ja, Listenpreis und Straßenpreis oder? Zudem wäre Navi dann ja auch schneller als die 2070. Die VII ist dann nur noch was für Semiprofessionelle und für Leute, die 16GB wollen, wie gedacht.

Nosferatu1
2019-05-21, 09:48:48
gestern gabs vega 64 unter 300......

dildo4u
2019-05-21, 09:57:54
Das war echt übel, wenn Navi mit neuer Architektur und 7nm für $499 (und das ist ohne Steuern) mit einer 2070 konkurriert. Diese gibt es nämlich schon für um die 450€.

Ich will >2060 Leistung aber mit 8GB für 300€, nicht >2070 für 500€. Naja, wenn Navi nichts wird hol ich mir eben eine 1660 Ti und warte auf Nvidias 7nm gen.
AMD spiegelt immer Nvidia wieder Vega 64 kam für 500$ für die selbe Leistung.

https://www.anandtech.com/show/11173/nvidia-partners-to-begin-selling-geforce-gtx-1080s-gtx-1060s-with-faster-memory

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

Und 7nm ist gearde zum Anfang nicht billiger die Yields sind massiv schlechter als das was Nvidia gerade baut,daher brachte man das (Für AMD) absolute High-End zu erst.

basix
2019-05-21, 09:58:21
7. 7. launch bestätigt.da das etwas untergegangen zu sein scheint.

"Bestätigt" ;) Solche Quellen sind immer mit Vorsicht zu geniessen.

w0mbat
2019-05-21, 10:01:54
Na ja, Listenpreis und Straßenpreis oder? Zudem wäre Navi dann ja auch schneller als die 2070. Die VII ist dann nur noch was für Semiprofessionelle und für Leute, die 16GB wollen, wie gedacht.
Aber auch die 2070 ist für $499 mMn kein guter Deal. Die ganzen Turning Karten sind aus meiner Sicht zu teuer. Zum einen hat Nvidia die Preise angehoben und dann haben sie dazu noch die SKUs eine Stufe hoch gerutscht. TU106, eigenltich die xx60 SKU, ist jetzt die 2070 und kostet mehr als die alten xx70 Karten.

Aber klar, wenn AMD meint sie können mit den Preisen einfach mitziehen werden sie das wohl machen :mad:

Linmoum
2019-05-21, 10:07:39
Natürlich machen sie das, diese 2xx€ die vielen vorschweben mit Leistung einer 2070 sind auch einfach absurd.

dildo4u
2019-05-21, 10:08:06
Aber auch die 2070 ist für $499 mMn kein guter Deal. Die ganzen Turning Karten sind aus meiner Sicht zu teuer. Zum einen hat Nvidia die Preise angehoben und dann haben sie dazu noch die SKUs eine Stufe hoch gerutscht. TU106, eigenltich die xx60 SKU, ist jetzt die 2070 und kostet mehr als die alten xx70 Karten.

Aber klar, wenn AMD meint sie können mit den Preisen einfach mitziehen werden sie das wohl machen :mad:
Du kannst nicht einfach das Preis Dumping von Ryzen auf die GPUs übertragen,AMD kann dort nicht die Die in zwei Teile aufsplitten um bessere Yields zu erzeugen.

Zergra
2019-05-21, 10:14:03
Natürlich machen sie das, diese 2xx€ die vielen vorschweben mit Leistung einer 2070 sind auch einfach absurd.


Ne die wird es bestimmt nicht Geben. Die Preise werden auch nicht groß günstiger sein, sondern in Zukunft noch weiter steigen.

JVC
2019-05-21, 10:18:45
Ich schätze mal, dass es dann jetzt auch eine angemessene Zeit für eine gpu wäre, HDMI 2.1 zu unterstützen

Sehe ich, als Fernsehernutzer, auch so ...

Aber NV meinte doch noch vor kurzem, das Das kein Mensch braucht ...
(find den Artikel dazu grad nicht)

m.f.g. JVC

Edit: Für: y33H@
https://www.gamestar.de/artikel/intel-bestaetigt-adaptive-sync-absage-an-proprietaere-techniken-wie-g-sync,3337113.html
"Ab HDMI 2.1 gehört Adaptive Sync zum Standard - aber selbst die neuesten Geforce-Grafikkarten wie die Geforce RTX 2080 unterstützen offiziell nur HDMI 2.0b (was sich durch ein Bios-Update ändern ließe, so Nvidia denn will)."
https://www.tomshw.de/2019/01/09/guide-alles-ueber-die-kompatibilitaet-zwischen-g-sync-und-a-sync-vrrr-freesync-igorslab/
"Viel wichtiger ist jedoch, dass NVIDIA bei der Verwendung eines normalen Heimfernsehers BFGD-Displays mit der DisplayPort-Schnittstelle, einen erweiterten G-Sync-Controller und dem integrierten Nvidia Shield vorsieht. NVIDIA will wohl vielleicht nicht zu viel Wettbewerb in der Branche, da es ein wenig an Motivation für die HDMI VRR-Kompatibilität mangeln zu scheint. NVIDIA hat zumindest deutlich gemacht, dass zum jetzigen Zeitpunkt keine HDMI VRR-Kompatibilität(HDMI 2.1) geplant ist. Also muss man fürs Wohnzimmer BFGD-Bildschirme wenden."
p.s: Du bist echt anstrengend ^^
aber stimmt, so ist es korrekter.
(ich werd dich zu gegebener Zeit, an das Gleiche erinnern ;) )

y33H@
2019-05-21, 11:00:22
So ein Zufall, an die angebliche Aussage erinnert du dich, aber freilich kein Link ... was soll das denn jedes Mal?

EDIT
Danke für die Links ... da steht aber nicht, dass Nvidia sagt, dass niemand HDMI 2.1 braucht!

w0mbat
2019-05-21, 11:13:33
Natürlich machen sie das, diese 2xx€ die vielen vorschweben mit Leistung einer 2070 sind auch einfach absurd.
Wie kommst du auf 2xx€ für 2070er Leistung? Das ist doch absurd und außer dir behauptet das auch niemand.

Aber $299 für 2060+ Leistung wäre sicher im Bereich des Möglichen, das wären dann so um die 300€ hier in DE.

Raff
2019-05-21, 11:15:26
Tja leider völlig normal für Besitzer der ehemaligen High End Generation, die ab einem gewissen Punkt verscheuert wird.
Geht mir mit meiner 1080Ti, die ich vor ~beinahe 2 Jahren für 600 € gebraucht gekauft habe, ebenso. Preis Leistung ist im oberen Segment leider irgendwie stehen geblieben.

Dis. Mir geht mein gammliger Titan (~gleiche Leistung, gleicher Preis und gleicher Zeitraum wie bei dir) auch schon auf die Nüsse, aber Nvidias Preisvorstellungen für einen fühlbaren Bump können sie sich dorthin schieben, wo die Sonne niemals scheint. Und der Gebrauchtmarkt ist was TU102 angeht ziemlich tot. AMDs Dornröschenschlaf in Sachen High-End nervt ganz schön. Navi 20 für 700 Euro, jetzt, bitte.

MfG,
Raff

Nosferatu1
2019-05-21, 11:17:33
wehe navi ist fixer als ne radeon 7 :D und billiger ^^ auch wenn ich nur 538 bezahlt habe wäre es ärgerlich.(obwohlö was miner zahlen würden wens wieder hot wird beste miningkarte am martkt )^^

Dino-Fossil
2019-05-21, 11:20:14
Wie kommst du auf 2xx€ für 2070er Leistung? Das ist doch absurd und außer dir behauptet das auch niemand.

Naja, der ursprüngliche AdoredTV-"Leak" hat sowas in der Richtung behauptet - RX 3080 (V64+15% = RTX 2070) für 250$...

War zwar schon damals einigermaßen absurd, aber es haben halt ein paar feuchte Träume bekommen...

X.Perry_Mental
2019-05-21, 11:24:07
Wie kommst du auf 2xx€ für 2070er Leistung? Das ist doch absurd und außer dir behauptet das auch niemand.

Aber $299 für 2060+ Leistung wäre sicher im Bereich des Möglichen, das wären dann so um die 300€ hier in DE.

Auch wenn es nichts zu verschenken gibt: AMD wird diese Generation nutzen müssen, um wieder zu größeren Marktanteilen zu kommen. Bei Preis/Leistungsgleichheit gegenüber nVidia wird das schwierig - auch wenn es als Mehrwert bei AMD vermutlich etwas mehr RAM geben wird.
Grüße: Perry

Nosferatu1
2019-05-21, 11:27:20
mehrwert rx 570 vs 1050ti anyone? es ist egal was amd macht nvidia verkauft sich immer besser. auch wenn langsamer teurer und weniger ram. haben wir ja schon gesehen.

HOT
2019-05-21, 11:28:55
Dis. Mir geht mein gammliger Titan (~gleiche Leistung, gleicher Preis und gleicher Zeitraum wie bei dir) auch schon auf die Nüsse, aber Nvidias Preisvorstellungen für einen fühlbaren Bump können sie sich dorthin schieben, wo die Sonne niemals scheint. Und der Gebrauchtmarkt ist was TU102 angeht ziemlich tot. AMDs Dornröschenschlaf in Sachen High-End nervt ganz schön. Navi 20 für 700 Euro, jetzt, bitte.

MfG,
Raff
Na ja, das wird dann wohl erst mit 7 EUV was.

SKYNET
2019-05-21, 11:31:18
wehe navi ist fixer als ne radeon 7 :D und billiger ^^ auch wenn ich nur 538 bezahlt habe wäre es ärgerlich.(obwohlö was miner zahlen würden wens wieder hot wird beste miningkarte am martkt )^^


im bestfall wohl eher gleichstand, tendenziell aber eher langsamer und nur 8GB speicher...

Raff
2019-05-21, 11:35:50
Ich könnte mir vorstellen, dass AMD auch 16 GiByte zulässt. Wir sprechen hier von GDDR6, den's nicht nachgeschmissen gibt, also 8 GiByte beim Referenzdesign, um die Preispunkte um 400/500 Euro zu treffen. Aber optional 16 GiByte. 290X-Style, um die Konkurrenz auszustechen. Ist aber Spekulatius zu einer unpassenden Jahreszeit. ;)

MfG,
Raff

Hasenpfote
2019-05-21, 11:36:09
Also laut
https://videocardz.com/80720/sapphire-preparing-two-radeon-navi-models-for-july-7th-launch

399$ fur 2060-Performance
499$ für 2070-Performance
VII bleibt erstmal das obere Ende der Fahnenstange.

Reißt micht jetzt nicht vom Hocker und meine Vega56 wird somit noch eine GANZE Weile bleiben.

Nosferatu1
2019-05-21, 11:41:51
Quasi vega ersatz mit weniger verrbrauch wie fade. Die performance haben wir ja schon ändert sich nur der verbauch den 10% merkt kein mensch ohne fps anzeige.

w0mbat
2019-05-21, 11:44:10
Also laut
https://videocardz.com/80720/sapphire-preparing-two-radeon-navi-models-for-july-7th-launch

399$ fur 2060-Performance
499$ für 2070-Performance
VII bleibt erstmal das obere Ende der Fahnenstange.

Reißt micht jetzt nicht vom Hocker und meine Vega56 wird somit noch eine GANZE Weile bleiben.
Das macht doch keinen Sinn, eine 2060 bekommt man schon ab ca. 350€ und es gab schon Angebote für <300€, eine 2070 bekommt man ebenfall für <500€ und es gab schon Angebot für <450€.

Wieso sollte AMD die gleiche Leistung für mehr verkaufen wollen? AMD muss günstiger sein, weil sie nicht das "Markenprodukt Nvidia" sind.

Das macht alles keinen Sinn :confused:

MR2
2019-05-21, 11:46:03
"“Navi” soll mit zwei Versionen starten, wobei die größere Variante zu einem Preispunkt von 499 US-Dollar erhältlich und schneller als Nvidias GeForce RTX 2070 sein soll. Für 100 US-Dollar weniger soll die kleinere Version die GeForce RTX 2060 ins Visier nehmen und auf Grund einer besseren Leistung auch etwas teurer sein. "
https://www.planet3dnow.de/cms/46698-kommt-amds-navi-am-7-juli-in-zwei-versionen/

Daredevil
2019-05-21, 11:47:36
MSRP halt, die VII gabs letztens für 599€ bei MF und die ist halt auch bei 749€ gestartet.

MR2
2019-05-21, 11:49:34
Sie wird sich preislich schon dort einpendeln wo sie hingehört. Hoffentlich gibts zeitnah leise Custom Versionen.

Dino-Fossil
2019-05-21, 11:50:00
Wobei ich mich dann frage, wie der Polaris-Ersatz aussieht - was kommt da im Preisbereich 200-300€ (und wann), wieviel Mehrleistung ist da zu erwarten?
Evtl. wird der kleinere Navi dann erst 2020 kommen und sowas wie 590+25% liefern (angenommen erstmal nur 399/499$ für 2060/2070 Performance stimmen).
Ausgehend von meiner 480 8GB eigentlich eher uninteressant.
Naja - erstmal abwarten was dann wirklich kommt...

Zu den kolportierten Preisen:
Wenn AMD die Karten gegen die 2060/2070 stellt, könnte die Performance (ohne RT) evtl. jeweils leicht darüber liegen, Straßenpreise dürften außerdem auch schnell runter gehen.
AMD wird, Marktanteile hin oder her, ihre Karten nicht verschenken, solange sie halbwegs mithalten können.

Nosferatu1
2019-05-21, 11:53:26
MSRP halt, die VII gabs letztens für 599€ bei MF und die ist halt auch bei 749€ gestartet.
da war ja meine dann ein schnäppchen mit 538 euro^^ wenn das stimmt navi 499 2070 leistung.

w0mbat
2019-05-21, 11:57:11
Hoffentlich kommen gescheite ITX Karten :)

In einer Woche ist Computex, vielleicht gibt es dort ja schon erste Infos zu Navi und wir müssen nicht erst bist zur E3 warten. Auf jeden Fall wird es spannend!

dargo
2019-05-21, 12:28:04
"“Navi” soll mit zwei Versionen starten, wobei die größere Variante zu einem Preispunkt von 499 US-Dollar erhältlich und schneller als Nvidias GeForce RTX 2070 sein soll. Für 100 US-Dollar weniger soll die kleinere Version die GeForce RTX 2060 ins Visier nehmen und auf Grund einer besseren Leistung auch etwas teurer sein. "
https://www.planet3dnow.de/cms/46698-kommt-amds-navi-am-7-juli-in-zwei-versionen/
Ähm... bei den TDP-Angaben von Turing müssen die aber nachsitzen. ;) Die Model-Bezeichnungen sind falsch. :D

MR2
2019-05-21, 12:32:57
Genau, er wirds noch korrigieren;-)

edit:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-Preise-Leistung-Geforce-RTX-2070-Sapphire-Toxic-1282431/
"Eine Toxic-Version von Sapphire soll fertig sein."

Super...hatte ich wohl überlesen!

Leonidas
2019-05-21, 12:43:07
Also laut
https://videocardz.com/80720/sapphire-preparing-two-radeon-navi-models-for-july-7th-launch

399$ fur 2060-Performance
499$ für 2070-Performance.


Tut mir leid, ist im Original nicht so zu finden. Ich habe eine koreanische Übersetzung aufgetrieben, die auch zu den Teile des Originals, die es noch so gab, passt. Diese Aussagen finden sich dort nicht:
https://www.3dcenter.org/news/amds-navi-kommt-wohl-zwei-ausfuehrungen-zu-preislagen-von-399-und-499-dollar

Der_Korken
2019-05-21, 12:55:35
Quasi vega ersatz mit weniger verrbrauch wie fade.

Vielleicht nicht einmal das, wenn Sapphire für einen Midrange-Chip schon wassergekühlte Versionen bringt. Würde sich gut hinter die VII einreihen, dass man den gesamten Fertigungsvorteil von 7nm gegenüber 14nm für 10% Performance rausschießt. Wenn ich das alles gewusst hätte, wäre ich vor gut 2 Jahren über meinen Schatten gesprungen und hätte 700€ in eine 1080Ti versenkt. Die hat bis heute quasi nichts an Wert verloren und wird vermutlich auch die 500€-Karte von AMD in 2019 schlagen. Wenns schlecht läuft, sogar bei weniger Verbrauch.

MR2
2019-05-21, 12:57:36
Toxic ist nicht wassergekühlt. Übersetzungsfehler
-> Leonidas`s Link

X.Perry_Mental
2019-05-21, 13:01:09
Vielleicht nicht einmal das, wenn Sapphire für einen Midrange-Chip schon wassergekühlte Versionen bringt. Würde sich gut hinter die VII einreihen, dass man den gesamten Fertigungsvorteil von 7nm gegenüber 14nm für 10% Performance rausschießt. Wenn ich das alles gewusst hätte, wäre ich vor gut 2 Jahren über meinen Schatten gesprungen und hätte 700€ in eine 1080Ti versenkt. Die hat bis heute quasi nichts an Wert verloren und wird vermutlich auch die 500€-Karte von AMD in 2019 schlagen. Wenns schlecht läuft, sogar bei weniger Verbrauch.
Lassen wir uns überraschen, was da von AMD wirklich kommt. 2060-2070 Leistung zum höheren Preis bei mehr Verbrauch wird es wohl kaum werden.

Hasenpfote
2019-05-21, 13:10:04
Tut mir leid, ist im Original nicht so zu finden. Ich habe eine koreanische Übersetzung aufgetrieben, die auch zu den Teile des Originals, die es noch so gab, passt. Diese Aussagen finden sich dort nicht:
https://www.3dcenter.org/news/amds-navi-kommt-wohl-zwei-ausfuehrungen-zu-preislagen-von-399-und-499-dollarschöne Zusammenfasung :)

BoMbY
2019-05-21, 13:11:38
Das ist zu viel Hörensagen und Übersetzung für meinen Geschmack.

Leonidas
2019-05-21, 13:18:25
Ich hab die Originalseite noch gehabt.

Hier der Inhalt:

Google Übersetzer (https://translate.google.de/?hl=de&tab=wT#view=home&op=translate&sl=zh-CN&tl=en&text=AMD粉丝活动成都站:专访蓝宝科技产品经理Leo列克星敦列克星敦RED%20like%20ROSES、PCMR、黑曜石%2FCDPR舔狗30%20人赞 同了该文章关于AMD粉丝成都站的具体详情我就不在这里多说了,因为成都下雨没带相机,所以本文所用到的照片均来自于成都站活动AMD中国和蓝宝科技官方重点是我个人作为 一个AMD粉丝对于Leo能做一个小小的专访,也算是这次活动最大的成果了我永远喜欢蓝宝石.jpgQ%3A笔者L:蓝宝石产品经理leoJ:蓝宝石公关负责人Jenny Q%3A你好Leo,众所周知蓝宝石是一家在大陆广受好评的显卡厂商,但蓝宝石的保修和售后体系却成为了木桶上的短板,蓝宝石对这个有什么解决方案或者是计划吗L:谢谢, 蓝宝石在未来的确是有一个延长保修时间的计划,但是因为你知道的原因(笑)目前来说是暂时执行不了的,只能等某几批显卡的保修期结束以后再推行Q%3A刚刚我在展台那里看 到了原子(atomic)作为AMD非公最高端的旗舰系列还有重启的可能性么?J:你要知道,原子这张卡全世界只有20张,而大陆蓝宝石就要了5张来做展示卡L:蓝宝石作 为一家AIB是不能只考虑技术上的,商业化的决策也很重要,比如利润区间没达到预期或者目标群体比我们预估的小,那这个系列可能就会一直不存在了Q:即便是未来某一天AM D在独显业务上彻底超越友商,蓝宝石也不会重启原子系列?L%3A这就取决于市场了(笑)Q%3ARadeon7会出非公吗?L:不会,目前我们并没有Radeon7非公 的规划,AMD的公版Radeon7已经能达到友商很多旗舰级别的用料标准了Q%3A刚才的公开互动环节里有A粉在问毒药系列的事情,就我个人观察而言,大陆的很多a粉都 是希望能够重启毒药系列的,这个蓝宝石有什么规划么L:你会在下一代显卡上看到毒药的Q%3A真的吗(激动)L%3A我们已经完成了navi毒药的工作,而且是水冷版本的 Q:前两年Vega发布前,也有网友在询问蓝宝石是否有Vega毒药,蓝宝石的回复是会有,但是最后还是没出L:实际上当时是已经完成了相关的设计,但就像我刚才说的,我 们评估结果认为Vega毒药并不能实现盈利,甚至连回本都比较困难。而且AMD的Vega在超显存上的收益比超频核心的收益更高,留给我们做非公的收益极其有限,所以最后 就没有投产Vega毒药Q%3A可以理解,一个企业肯定要确保自己能够用合法手段盈利。那么,您能透露一些关于Navi的信息么(期待)L:因为一些你知道的原因我不能告 诉你太多(笑)Navi目前有两个版本,一个版本的售价是499美元,另一个399美元Q%3A那么大陆地区的售价呢,很多a粉期待的就是毒药,他们认为超白金都是弟弟L %3A目前我们还没有确定大陆地区的售价,但是你自己算一下就知道了,不是么(笑)Q%3A那么对位友商产品呢,以20系为主要竞争对手的话L%3A比2070强Q%3A 那个传闻中5120sp%2Brt%20core的Navi大核心会出现么L%3A你要知道Navi是不存在靠大小核心区分的,目前并没有相关产品Q:那么AMD会考虑硬 件投入光追加速模块么L:这个你可以期待下明年的新架构Q%3A关于新架构,您现在能告诉我些什么%3F是彻底替代目前的GCN?L%3A新架构目前AMD并没有完全敲定 ,你要知道有的产品是不适合使用新一代架构的,不管是我们还好还是友商都一样(这就是AN两家都有马甲卡的原因)目前来说千元级以上的产品都已经确定会完全采用下一代的架 构(指Navi的后继者)Q%3ANavi确定会在今年的7月7号发售么?L是的,你知道7nm%207月7日的噱头嘛(笑)Q:那么5月27号就能看到AMD新一代处理 器和Navi显卡了L:CPU方面的事情我不太了解(毕竟蓝宝石只做显卡嘛)但显卡一定会在5月27号的Computex上进行展示Q%3A您会参加今年的Compute x么?L%3A当然Q%3A下一代主机也会采用Navi的方案么(废话)L%3A是的,但是依旧因为你知道的原因,我不能告诉你太多,希望能在Computex 上看到你)


:up:

Nach Durchlesen kann ich sagen: Die Koreaner haben alles wesentliche dabei gehabt. Alle Übersetzung der Originale ergeben bisher auch denselben Sinninhalt, ergo gibt es hier keine strittigen Fragen. Es gibt nur diverse Fehldarstellungen, welche auf unsoliden Übersetzungen beruhen:
- Die genannte Sonderedition von Sapphire ist nicht wassergekühlt, sondern eine "Toxic" mit Vapor Chamber.
- Die Vorstellung auf der Computex betrifft allein Sapphire selber, zu einer etwaigen AMD-Vorstellung auf der Computex wurde keinerlei Aussage getroffen.
- Es wurde nur ein einziger Performance-Vergleich zur GeForce RTX 2070 getroffen, etwaige zu lesende Performancevergleiche zur GeForce RTX 2060 sind fremde Hinzudichtung.

dargo
2019-05-21, 14:04:31
- Die genannte Sonderedition von Sapphire ist nicht wassergekühlt, sondern eine "Toxic" mit Vapor Chamber.

Beruhigend.


- Es wurde nur ein einziger Performance-Vergleich zur GeForce RTX 2070 getroffen, etwaige zu lesende Performancevergleiche zur GeForce RTX 2060 sind fremde Hinzudichtung.
Naja... selbst hinzugedichtet ergibt das irgendwo Sinn. 2070 ca. 15% schneller als 2060. Wenn N10 = RTX2070 dann Salvage N10 = RTX2060. Der volle Chip ist bei AMD in der Regel grob 15% schneller als Salvage. Wenn N10 >2070 dann N10 Salvage = RTX2060 + X%. Ist nun wirklich kein hohe Mathematik. :wink:

PS: bald sehen wir die RTX2070 TI. ;)

Dino-Fossil
2019-05-21, 14:11:17
Das ist zu viel Hörensagen und Übersetzung für meinen Geschmack.

Ich glaube viel besser wird es pre-launch nicht. Wenn der Typ wirklich von Sapphire ist und keine Nebelkerzen zündet, ist das wohl ziemlich nah dran an den Quellen.

SKYNET
2019-05-21, 14:22:32
Quasi vega ersatz mit weniger verrbrauch wie fade. Die performance haben wir ja schon ändert sich nur der verbauch den 10% merkt kein mensch ohne fps anzeige.

sagte ich schon vor monaten das navi vega 56/64 ablösen wird, und nicht polaris... :rolleyes:

SKYNET
2019-05-21, 14:25:27
Toxic ist nicht wassergekühlt. Übersetzungsfehler
-> Leonidas`s Link

war toxic nicht die fette schwester von der nitro+?

Unicous
2019-05-21, 14:30:45
@Leonidas, die Website heißt Zhihu nicht Zhuanlan, ersteres bedeutet wohl ungefähr "Weißt du...?" letzteres kann man auch als "Kolumne" übersetzen (Ich glaube diese Unterseite ist so etwas ähnliches wie "Medium.com").

Die Seite an sich ist eine Frage/Antwort-Seite und so wie ich das verstehe kann da jeder Einträge verfassen.

Ich würde daher eine Tonne Salz über das Gerücht kippen.

Ich verstehe auch nicht warum euch nicht die 5120SPs Aussage sauer aufstößt?
Niemand hat zuvor danach gefragt es gibt keinen Leak oder ein Gerücht das 5120 SPs nennt, warum wird explizit nach einem "Big Navi" gefragt?:confused:
Und warum sollte es einen Chip mit 80 CUs geben?:confused:

Die Aussagen sind so konfus (liegt unter Umständen an der Übersetzung), das kann sich auch jemand aus den Fingern gesaugt haben.

edit:

Hab einen Erklär-Artikel zur Seite gefunden: https://econsultancy.com/zhihu-china-s-q-a-social-platform-that-s-ripe-for-brands/

Zhihu, which was launched in January 2011, is a Chinese question-and-answer website like Quora. Its motto is “Share your knowledge, experiences and thoughts with the world.” On Zhihu, questions are created, answered, edited and organized by its users. In Classical Chinese, “Zhihu” means “Do you know.”

In addition to basic questions and answers, Zhihu has also developed other functions, like Zhihu Column (知乎专栏), Zhihu Roundtable (知乎圆桌), Zhihu Bookstore (知乎书店) and Zhihu Live (知乎Live). Users can write articles, participate in discussions, read e-magazines containing the best answers related to certain industries, or give an online presentation about a specific topic and interact with an audience in real-time.

w0mbat
2019-05-21, 14:31:20
Toxic ist einfach nur ein älterer Namen, zuletzt gab es den bei der R9 280X. Danach hat Sapphire Vapor-X und Nitro(+) genutzt.

Aber die wird für mein ITX Gehäuse eh nix. Obwohl, die R9 290 Vapor-X passt ja auch :D

HOT
2019-05-21, 15:18:37
Hm neue Speku: Navis neue Architektur ist eigentlich Navi Teil1, also Runderneuerung des Frontendes und neue ISA und nächstes Jahr die "neue" neue Architektur ist dann auch neues Backend => neue Architektur komplett? Irgendwie ist das alles zu spekulativ.
Neue Architektur = Navi und das in 2 Teilen kann ich mir hingegen gut vorstellen, steht aber eben in den Sternen oder wahlweise in der Glaskugel. Es ist immer noch keine Strategie hinter AMDs Produkten im GPU-Bereich sichtbar, offenbar bleibt es bei den eher opportunistisch entstandenen Abfallprodukten vom semi-custom-Bereich. Oder ist N20 ein V20-Nachfolger im Geiste? Also wieder nichts halbes und nicht ganzes? Und dann NVs krampfhaftes Festhalten an veralteter Fertigung? Und das sich das auch schon wieder für die nächste Generation (6FFN) so abzeichnet? Das schmeckt mir alles überhaupt nicht. Hoffenlich kann Intel wenigstens liefern. Die kommen zum richtigen Zeitpunkt.

Ravenhearth
2019-05-21, 15:22:03
Wie passt es denn zusammen, dass Navi noch kein RT haben soll, der "custom Navi" der PS5 hingehen schon? Übernimmt die PS5 dann was von der Next-Gen-Arch?

Piefkee
2019-05-21, 15:24:37
https://twitter.com/KOMACHI_ENSAKA/status/1130765154130337792

Yes. He/She said Navi 10 has 8 Shader Engines/each 5CU/2*SIMD-32 per CU.

BlacKi
2019-05-21, 15:25:39
Wie passt es denn zusammen, dass Navi noch kein RT haben soll, der "custom Navi" der PS5 hingehen schon? Übernimmt die PS5 dann was von der Next-Gen-Arch?
vega kann doch auch RT. genau wie pascal.

Ravenhearth
2019-05-21, 15:35:17
vega kann doch auch RT. genau wie pascal.
Es sollte klar sein, dass damit RT-Beschleunigung in Hardware gemeint ist :rolleyes:

Raff
2019-05-21, 15:38:15
war toxic nicht die fette schwester von der nitro+?

Um genau zu sein stand Toxic damals für eine stark aufgemotzte Vapor-X (mehr Takt). Selten gab's darüber noch eine Atomic (https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Sapphire-Atomic-Radeon-HD-7870-Test-1061631/). Beides gibt's aber nimmer, die Dinger heißen nun Nitro. Toxic Nitro? Nitrotoxic? Werden's sehen.

MfG,
Raff

BoMbY
2019-05-21, 15:39:09
Es ist doch überhaupt noch nichts klar. Selbst der Sapphire-Typ war sich offensichtlich nicht sicher.

BlacKi
2019-05-21, 15:49:35
Es sollte klar sein, dass damit RT-Beschleunigung in Hardware gemeint ist :rolleyes:
warum muss die ps5 denn rt beschleuningung haben?

JVC
2019-05-21, 15:51:36
Es sollte klar sein, dass damit RT-Beschleunigung in Hardware gemeint ist :rolleyes:

Nur weil NV das in Hardware löst,
heißt das nicht, das spezielle Hardware zum lösen da sein muss!

m.f.g. JVC

HOT
2019-05-21, 15:52:51
warum muss die ps5 denn rt beschleuningung haben?
Denke schon dass sie das haben wird. Ich würd sagen, dass der PS5-SoC eine (halbe) Generation weiter ist als der Navi, der dieses Jahr auf den Markt kommt. Das war bei der PS4 Pro im Vergleich zu Polaris ja ähnlich.

Ravenhearth
2019-05-21, 15:53:41
warum muss die ps5 denn rt beschleuningung haben?
Alles andere macht einfach keinen Sinn. Sonst würde Sony das wohl kaum so explizit erwähnen, außerdem sind sie sich ziemlich sicher bewusst, was mit dem Versprechen von RT einhergeht. Auf einer Konsole ohne RT-Beschleunigung wäre die Performance ein ziemliches Problem.

Complicated
2019-05-21, 16:05:49
Man muss schon nach dem Sinn von RT Cores in einer Konsole fragen, wenn Sony und MS das serverseitige Streamen anstreben mit der neuen gemeinsamen Kooperation. Was nützen da RT Cores beim Client der streamt?

dargo
2019-05-21, 16:12:38
Alles andere macht einfach keinen Sinn. Sonst würde Sony das wohl kaum so explizit erwähnen, außerdem sind sie sich ziemlich sicher bewusst, was mit dem Versprechen von RT einhergeht. Auf einer Konsole ohne RT-Beschleunigung wäre die Performance ein ziemliches Problem.
Die wird selbst mit RT-Beschleunigung ein ziemliches Problem. Oder hat hier tatsächlich jemand feuchte Träume die RT-Performance beim PS5 SoC würde einer RTX2080 TI entsprechen oder gar diese übertreffen? Ich frage mich sowieso was dieser RT-Quatsch in einer kommenden Konsole bei einem Budget von ca. 500-600$ für die gesamte Box soll? Dafür ist es einfach zu früh. Man will sicherlich wieder näher 4K Gaming kommen. Was glaubst du wie RT dort erst reinhaut? Das einzige Szenario welches ich mir vorstellen könnte wäre ~4K mit der konventionellen Methode und optional 1080p mit RT. Das könnte durchaus funktionieren. Denn selbst wenn die PS5 Hardware RT-Einheiten abbekommt erwarte ich da nicht unbedingt mehr RT-Leistung wie sie heute eine RTX2060 liefert.

Razor
2019-05-21, 16:15:48
Serversetiges Streamen muss nicht zwangsläufig bedeuten, dass ALLES im Backend geschieht.

Könnte mir gut vorstellen, dass einige Features client-seitig berechnet werden... so etwas wir Kantenglättung und/oder RT wäre dafür prädestiniert.
Eigentlich alles, was im Post-Processing geschieht.

Somit ist es dann vom Endgerät abhängig, ob bestimmte Features verfügbar sind und in welcher Qualität.
Zumal dieser enorme Rechenaufwand im Backend eingespart werden und in Hinsicht auf die Latenzen positiv auswirken könnte.

@Dargo: die neue Generation soll ja schließlich die nächsten 5 Jahre "halten" :)

Razor

Screemer
2019-05-21, 16:20:32
https://twitter.com/KOMACHI_ENSAKA/status/1130765154130337792
das wäre eine cu pro se mehr. das schmeißt mir allerdings der google-übersetzter nicht aus.

allerdings folgendes:
but will it change a lot by changing from 4 × SIMD-16 to 2 × SIMD-32?

die simd blöcke dazu wären mehr in 4x16bit sonder 2x32bit aufgeteilt. würde das auch bedeuten, dass größere register für vector und scalar daten geben muss? was hätte das für auswirkungen?

Complicated
2019-05-21, 16:24:57
Serversetiges Streamen muss nicht zwangsläufig bedeuten, dass ALLES im Backend geschieht.

Könnte mir gut vorstellen, dass einige Features client-seitig berechnet werden... so etwas wir Kantenglättung und/oder RT wäre dafür prädestiniert.
Eigentlich alles, was im Post-Processing geschieht.


Denk mal über die zusätzliche Latenz nach, die ja der größte Hemmschuh für Serverstreaming ist, wenn die Bilder alle zweimal berechnet werden müssen. Streamingdienst hat lokal dann nur noch die Bilddarstellung der ankommenden Daten als Aufgabe... Da wird dann höchstens noch eine FFU für das gewählte Format benötigt.

Leonidas
2019-05-21, 16:30:10
@Leonidas, die Website heißt Zhihu nicht Zhuanlan, ersteres bedeutet wohl ungefähr "Weißt du...?" letzteres kann man auch als "Kolumne" übersetzen (Ich glaube diese Unterseite ist so etwas ähnliches wie "Medium.com").


Danke für die Richtigstellung und die anderen Erläuterungen.

Gipsel
2019-05-21, 16:32:59
Hm neue Speku: Navis neue Architektur ist eigentlich Navi Teil1, also Runderneuerung des Frontendes und neue ISA [..]Nur hat Navi offenbar immer noch die gleiche ISA (mit ein paar neuen Befehlen, aber nichts Weltbewegendes [solche kleinen Änderungen gab es auch schon vorherigen GCN-Iterationen]).

==========================

allerdings folgendes:

die simd blöcke dazu wären mehr in 4x16bit sonder 2x32bit aufgeteilt. würde das auch bedeuten, dass größere register für vector und scalar daten geben muss? was hätte das für auswirkungen?Das sind keine Bits sondern die Anzahl der SIMD-Lanes in einer Vektor-ALU. GCN hat bisher pro CU vier Vektor ALUs verbaut, die physisch 16 Lanes breit sind (16 x 32bit = 512 bit), aber logisch 64 Lanes breite Vektoren verarbeiten (eine Wavefront, also 64x32bit = 2048bit). Eine Vektor-ALU arbeitet also über 4 Takte eine Instruktion ab (wenn es breiter als 32bit pro lane wird [double precision], dauert es länger).
Das Gerücht lautet also, daß es jetzt nur noch zwei physisch 32 Lanes (32 x 32bit = 1024bit) breite Vektor-ALUs geben soll.
Dies würde z.B. erklären, warum es jetzt (also ab Navi) Register-Bank-Konflikte geben kann (falls die Registerfiles identische Bandbreite behalten), da man nur noch 2 Takte (statt 4 Takte) Zeit hat, alle Operanden zu lesen. Selbst bei Hinzufügen eines in der Diskussion stehenden register file caches/result buffers (wie auch immer man das genau bezeichnet), um das zu kompensieren, steht dann bei einer im Prinzip halbierten Bandbreite der Registerfiles pro Flop (gleiche Bandbreite, doppelte Flops pro vALU) eine in der Summe geringere Komplexität und niedrigere Stromaufnahme zu Buche. Ich hatte ja schon mal eine Halbierung der Registerbandbreite (bei Beibehaltung der Größe der vALUs) in den Raum gestellt. Die Verdopplung der vALU-Breite bei Beibehaltung der Registerbandbreite hätte natürlich einen sehr ähnlichen Effekt.
Aber 32 Lanes breite vALUs würde auch bedeutet, daß man mindestens 2 Wavefronts pro vALU benötigt (bleiben aber 4 pro CU), um auch bei reinen vALU-Instruktionen keine Pipeline-Bubbles zu erzeugen, da back-to-back issue von abhängigen Instruktionen mit nur 2 Takten ALU-Latenz vielleicht etwas sportlich aussieht (nur für einfache Bit-Operationen oder Integer-Adds würde es vermutlich gehen), wenn man 1,5 - 2 GHz Takt anpeilt und geringer Stromverbrauch ein Ziel ist (was es bei GPUs immer ist). Bisher haben alle GCN-Varianten 4 Takte ALU-Latenz für die meisten Instruktionen, was dann logisch (da Ausführung einer Wavefront über 4 Takte) zu einem einzigen "issue-Takt" wird (erlaubt das Absetzen voneinander abhängiger vALU-Befehle direkt nacheinander ohne Erzeugung von Pipeline-Bubbles). Das geht dann nicht mehr ganz so. Ist aber vielleicht auch nicht der ganz große Verlust, wenn der Rest stimmt.

Ravenhearth
2019-05-21, 16:37:31
Man muss schon nach dem Sinn von RT Cores in einer Konsole fragen, wenn Sony und MS das serverseitige Streamen anstreben mit der neuen gemeinsamen Kooperation. Was nützen da RT Cores beim Client der streamt?
Mit dem Argument bräuchte man erst gar keine Konsole mit 1X TFLOPs, 8-Kern-CPU und SSD. Das Streaming ist ja nur eine Option, dadurch fällt die Möglichkeit der Berechnung auf der Konsole nicht weg.

Serversetiges Streamen muss nicht zwangsläufig bedeuten, dass ALLES im Backend geschieht.

Könnte mir gut vorstellen, dass einige Features client-seitig berechnet werden... so etwas wir Kantenglättung und/oder RT wäre dafür prädestiniert.
Eigentlich alles, was im Post-Processing geschieht.

Somit ist es dann vom Endgerät abhängig, ob bestimmte Features verfügbar sind und in welcher Qualität.
Zumal dieser enorme Rechenaufwand im Backend eingespart werden und in Hinsicht auf die Latenzen positiv auswirken könnte.

@Dargo: die neue Generation soll ja schließlich die nächsten 5 Jahre "halten" :)

Razor
RT ist doch kein Post-Processing, sondern integraler Bestandteil des Renderings. Das lässt sich noch nichtmal wirklich auf einen separaten Chip auslagern, geschweige denn sowas.

Unicous
2019-05-21, 16:43:52
Der Tweet wurde übrigens mittlerweile gelöscht, da hat der gute Komachi mal wohl wieder mal Quatsch erzählt.:wink:

dargo
2019-05-21, 16:57:34
@Dargo: die neue Generation soll ja schließlich die nächsten 5 Jahre "halten" :)

Klar... nur erwarte ich in den kommenden 5 Jahren keine riesen Sprünge im Bereich Hardware ohne Kostenexplosion. Man sieht es jetzt schon, dass eine Verdoppelung der Performance 3-4 Jahre benötigt. Und besser wirds sicherlich nicht in Zukunft.

w0mbat
2019-05-21, 17:06:21
Noch sieben mal Schlafen, dann wissen wir mehr :)

BlacKi
2019-05-21, 17:10:57
Noch sieben mal Schlafen, dann wissen wir mehr :)
leider werden wir hinterher fast mehr fragen haben wie vorher, das ist doch immer das gleiche.:rolleyes:

Complicated
2019-05-21, 17:40:16
Mit dem Argument bräuchte man erst gar keine Konsole mit 1X TFLOPs, 8-Kern-CPU und SSD. Das Streaming ist ja nur eine Option, dadurch fällt die Möglichkeit der Berechnung auf der Konsole nicht weg.
Beim Streamen brauchst du die Rechenleistung nicht mehr im Client, siehe Googles Stadia, wo alles nötige im Controller sitzt.
https://www.gamepro.de/artikel/google-stadia-alle-infos,3342326.html

Dank der bereits sehr gut ausgebauten Datenzentrum-Infrastruktur will Google in diesem Bereich aus dem Vollen schöpfen und bereits zum Release Auflösungen von 4K und 60 Bildern pro Sekunde bieten. Später sollen dann sogar Auflösungen von 8K und 120 Bilder pro Sekunde möglich sein - eine entsprechende Internetverbindung vorausgesetzt.

Da die Server bei Spielen auch das Rendering übernehmen sollen, können Entwickler die freiwerdende Prozessorleistung anderweitig nutzen, zum Beispiel für aufwändigere Zerstörungseffekte.
Die Project Stream-Technologie kann offenbar auf satte 10,7 Teraflops CPU zurückgreifen und damit also 10,7 Billionen Berechnungen pro Sekunde durchführen. Wenn diese Zahlen stimmen, wäre Stadia zumindest in der Theorie in diesem Punkt besser ausgestattet als Xbox One X (6 Teraflops) und PS4 Pro (4,2 Teraflops) zusammen.

Das soll sogar auf Smartphones mit 4K funktionieren.

Ravenhearth
2019-05-21, 18:00:50
Das ist mir bewusst. Aber die PS5 wird keine reine Streaming-Box, sondern kann Spiele auch selber berechnen. Also ist RT-Beschleunigung durchaus sinnvoll.

Screemer
2019-05-21, 18:01:57
@gipsel: thx. Also wäre es vor allem der Effizienz zuträglich. Was wären möglich drawbacks?

Gipsel
2019-05-21, 18:12:41
@gipsel: thx. Also wäre es vor allem der Effizienz zuträglich. Was wären möglich drawbacks?Hauptsächlich tut es der Energieeffizienz gut, ja.
Möglicher Nachteil wäre, daß die nutzbare Performance pro verbauten Peak-Flops sinkt, falls man es nicht richtig macht bzw. mit weiteren Maßnahmen kompensiert. Aber Performance/Watt sollte auf jeden Fall hochgehen, wenn man es nicht völlig verbockt.

robbitop
2019-05-21, 18:19:10
Wenn man mit 2560sm die 2070 erreicht oder gar knapp schlägt, erreicht man jedenfalls einem guten Sprung was rohleistungsnormierte Performance angeht. Wenn 256bit gddr6 reichen, um das zu erreichen, hat man auch einen Sprung bei der Bandbreiteneffizienz gemacht. Sofern das alles stimmt...

Gravitationsfeld meinte nach dem er die Compilerpatches sah, dass Navi eine neue uArch hätte (sinngemäß).

Unicous
2019-05-21, 18:20:17
Bislang sind die angeblichen Leaks und Gerüchte ein komplettes Trauerspiel, es schwankt zwischen komplettem Wunschdenken bis zu doom&gloom und diese Widersprüche kann man kaum zu einem kohärenten Bild formen.

Ich gehe mittlerweile davon aus, dass nichts stimmt und Navi uns "überraschen" wird. Ob positiv oder negativ, das wissen wir wohl frühestens in ein paar Tagen/Wochen oder erst in ein paar Monaten.:freak:

dargo
2019-05-21, 18:23:25
Wenn 256bit gddr6 reichen, um das zu erreichen, hat man auch einen Sprung bei der Bandbreiteneffizienz gemacht. Sofern das alles stimmt...

:confused:

Ne 2070 hat schon 448GB/s.

robbitop
2019-05-21, 18:26:55
Stimmt. Die 2070 hat tatsächlich eine ziemlich hohe Bandbreite pro Flop. Wohl auch wegen Raytracing. Das Extrem war damals die 1070ti in genau die andere Richtung.

Ravenhearth
2019-05-21, 18:41:40
Ich finde auch, dass die Gerüchte nicht ganz passen. Bisher zeichnen sich 40 CUs und 2070-Leistung ab, das passt noch, und wäre vielleicht sogar mit einem Chip mit Polaris10-Größe erreichbar (verglichen mit Vega20). Aber dafür $499? Ohne Raytracing und wenn sich die 8GB auch noch bewahrheiten, hätte AMD ja im Prinzip eine Vega 64 mit weniger Verbrauch bzw. eine GTX 1080 gebaut. Die wird zu dem Preis überhaupt keine neuen Impulse senden können. Vielleicht macht man das auch, um der Radeon VII nicht das Wasser abzugraben, die bei einem 40% höheren Preis dann noch ~20% mehr Leistung und den doppelten Speicher böte. Aber ob das die richtige Entscheidung ist? Dann kann man auch gleich eine 2070 kaufen, die hat immerhin RT.

robbitop
2019-05-21, 18:53:26
MSRP und Straßenpreis sind zwei paar Schuhe. Bei vernünftiger Verfügbarkeit wird man Navi sicherlich etwas günstiger im Markt finden als eine gleich schnelle Turing.

Leonidas
2019-05-21, 19:21:25
Stimmt. Aber es lohnt eigentlich nicht, deutlich bessere Straßenpreise zu machen, wenn im US-Raum nach dem Listenpreis verglichen wird. Dann hat man einen optisch nicht sichtbaren Vorteil.

Am Ende geht es um die Nuancen. Eine Navi zu 499$ mit Performance nahe der 2080 zum Preis der 2070 wäre ein klarer P/L-Sieger. 10% Performance auf 2070 oben drauf können den ganzen Unterschied ausmachen zwischen erstklassigem Angebot und enttäuschendem Nachzügler.

Ravenhearth
2019-05-21, 19:31:17
Wäre Navi nah an der 2080, hätte man das sicher gesagt anstatt nur "über der 2070". Kann mir auch gut vorstellen, dass letzteres auf AMD-Angaben basiert und die Karte sich in unabhängigen Tests ein Kopf-an-Kopf-Rennen mit der 2070 liefert. Insbesondere wenn die 40 CUs stimmen sollten. Außerdem scheint AMD die teurere Radeon VII weiterzuführen, was mit einem Navi auf gleichem Niveau sinnfrei wäre.

Selbst wenn die Karte dann wirklich etwas günstiger als die RTX 2070 wäre, würde das am Gesamtbild nichts ändern, denn bspw. die Vega 64 gibt es jetzt schon für 400€. Außerdem würde AMD den Preisbereich unter 300€ ignorieren, wenn der Chip mit 40 CUs wirklich der kleinste wird. Was möchte man dort anbieten, noch einen Polaris-Refresh? Vega10 wird ja sicher auslaufen, der ist zu teuer.

Linmoum
2019-05-21, 19:34:33
AMDs GPU-Benchmarks sind eigentlich immer recht akkurat, bei der VII zuletzt war's quasi 'ne Punktlandung.

Und nach dem "Radeon VII + Navi" war doch klar, dass beide parallel laufen und die VII nicht ersetzt wird.

Ex3cut3r
2019-05-21, 20:00:12
Sehe ich das richtig, dass es wieder eine GPU mit 8GB wird? Wo sind denn die ganzen Leute hin? Die das schon bei einer 2070 lächerlich fanden? :rolleyes:

Korvaun
2019-05-21, 20:20:34
Man sollte den vermeintlichen Listenpreis nicht zu ernst nehmen. Der wird sich wenn es nötig ist sicher noch ändern, AMD ist ja auch nicht völlig ahnungslos was die Preise/Leistung/Features der Konkurrenz von nV angeht ;)
Selbst wenn die entsprechend Karten schneller als die NV Modelle werden sollten wäre ein Preis leicht unter nV sehr sinnvoll um den "nV-Marken-Bonus" auszugleichen.

Mr.Scott
2019-05-21, 20:25:39
Denkt ihr rx580 leistung @ 75Watt wären möglich?
Wenn ja, welcher Preis wird realistisch sein?

basix
2019-05-21, 20:45:35
Drin liegen könnte es schon, wenn AMD die Karten mal vernünftig taktet. Bei den Preisen würde ich mal die heutigen Preise in der vergleichbaren Performance-Klasse als Referenz nehmen. Günstiger wird es vermutlich nicht.

BoMbY
2019-05-21, 20:51:26
@KOMACHI_ENSAKA (https://twitter.com/KOMACHI_ENSAKA/) hatte etwas auf Twitter gepostet (https://twitter.com/KOMACHI_ENSAKA/status/1130811301574242305?s=20) nachdem Navi10 wohl 8 Shader Engines mit je 5 CUs haben soll, was aber mittlerweile gelöscht wurde. Reddit-Diskussion (https://www.reddit.com/r/Amd/comments/braa94/navi_simd_changes_leak/) dazu. Außerdem schrieb er (https://twitter.com/KOMACHI_ENSAKA/status/1130765154130337792) irgendwas von 2× SIMD-32 statt 4× SIMD-16, wobei das halb aus dem Zusammenhang ist.

Screemer
2019-05-21, 21:02:12
Und wenn du genau eine Seite zurück schaust dann siehst du, dass das schon diskutiert wird.

BoMbY
2019-05-21, 21:04:59
Ahh ja., hab ich übersehen. Irgendwie fehlt hier die Funktion zum letzten ungelesenen Beitrag eines Threads zu springen (oder sie ist zu gut versteckt).

Unicous
2019-05-21, 21:09:29
Gibt es, Pfeil nach unten, letzter ungelesener Beitrag (Pfeil nach rechts -> letzter Beitrag), sowohl im Kontrollzentrum, als auch im "restlichen" Forum.

Scheinen leider sehr wenig zu nutzen.

Screemer
2019-05-21, 21:10:04
Schau Mal:

SKYNET
2019-05-21, 21:11:41
Sehe ich das richtig, dass es wieder eine GPU mit 8GB wird? Wo sind denn die ganzen Leute hin? Die das schon bei einer 2070 lächerlich fanden? :rolleyes:

keine ahnung, ich fands nur bei der 2080 absurd, das eine karte mit der leistung einer 1080Ti weniger speicher hat als diese... 2070 mit 8GB und 2080Ti sind relativ runde produkte(abgesehen vom preis), aber 2080 und alles unterhalb der 2070 ist abfall den man mit nichtkauf abstrafen sollte.

davidzo
2019-05-21, 21:18:44
Ich sehe keinen Widerspruch wenn Navi sogar die Radeon VII einholen würde und letztere trotzdem als Highend weiter geführt wird.
- Die VII hat als Alleinstellungsmerkmal immer noch die 16GB HBM2
- Die VII muss sich nicht gut verkaufen, Marge wird damit sowieso nur als Profikarte gemacht. Man hat die nur gelauncht um im Highend nicht mit leeren Händen da zu stehen. Da kann sie auch weiterhin positioniert sein und füllt damit eine Lücke im AMD Portfolio ohne dass es etwas kostet wenn sie nicht verkauft wird. 90% der Leute interessieren sich ohnehin für Performance und Midrangekarten, die Forennutzer hier sind eine besondere Minderheit.


Wieso also nicht: Rechenleistung gleich oder besser als die Radeon VII + geringere Speicherausstattung und Speicherbandbreite? in 2,5K dann gleichschnell, in 4K etwas langsamer als die VI...

Der_Korken
2019-05-21, 21:30:08
8 Shader Engines mit nur 5CUs jeweils hört sich sehr komisch an. Im Prinzip haben 8 CUs pro Shader Engine doch sehr gut funktioniert, wenn an Chips wie Pitcairn und Tonga zurückdenkt. Erst darüber wurde die Rechenpower nicht mehr richtig auf die Straße gebracht. Ich hätte sowas wie 6 SEs mit jeweils 7 (oder 8) CUs logischer gefunden.

Brillus
2019-05-21, 21:33:46
Alles andere macht einfach keinen Sinn. Sonst würde Sony das wohl kaum so explizit erwähnen, außerdem sind sie sich ziemlich sicher bewusst, was mit dem Versprechen von RT einhergeht. Auf einer Konsole ohne RT-Beschleunigung wäre die Performance ein ziemliches Problem.
Buzzword Bingo wie es bei Konsolen üblich ist die. Die aktuellen Konsolen sind ja auch 4k konsolen weil sie es theoretisch könnten, halt nur nicht bei den AAA Titeln die drauf laufen.

zucee
2019-05-21, 21:39:06
Denkt ihr rx580 leistung @ 75Watt wären möglich?
Wenn ja, welcher Preis wird realistisch sein?
Nennt sich GTX 1060 und kann man seit drei Jahren kaufen. :whisper:

https://abload.de/img/unbenannt2xcjg6.png

Wenn Navi zu genannten Preisen kommt setze ich weiter aus, obwohl ich den seit Ankündigung kaufen wollte. Dann spare ich mir aber auch Zen 2 und schaue nächstes Jahr zu Zen 3 nochmal auf den Markt. 300 Euro sind meine Schmerzgrenze, eher weniger.

Ist ja nicht mehr lange und ich warte bis es verlässliche Infos gibt.

HOT
2019-05-21, 21:50:28
8 Shader Engines mit nur 5CUs jeweils hört sich sehr komisch an. Im Prinzip haben 8 CUs pro Shader Engine doch sehr gut funktioniert, wenn an Chips wie Pitcairn und Tonga zurückdenkt. Erst darüber wurde die Rechenpower nicht mehr richtig auf die Straße gebracht. Ich hätte sowas wie 6 SEs mit jeweils 7 (oder 8) CUs logischer gefunden.

Die 8 Shaderengines könnten dem neuen Frontend geschuldet sein, dass sicherlich bis irgendwann mal 128CUs skalieren soll.
Ich nehme an, dass Navi eben dies erneuert und noch auf "klassische" Vega-CUs setzt. Erst nächste Generation wird mMn auch die CU an sich renoviert und auch RT-fähig gemacht. Würde auf jeden Fall zu AMDs wichtigstem Punkt bei Navi, der Skalierung, passen.

MR2
2019-05-21, 21:57:54
Auf videocardz schrieb Jemand das das Singapur Dollar wären.

270 und 380USD ohne Steuer

"Apparnetly the price isn't in USD, but Singapore currency."

Weiß der Geier

aufkrawall
2019-05-21, 22:04:23
Nennt sich GTX 1060 und kann man seit drei Jahren kaufen. :whisper:

https://abload.de/img/unbenannt2xcjg6.png

Es findet sich bestimmt auch irgendein noch weltfremderer Test, bei dem es nur 55W sind.

Mr.Scott
2019-05-21, 22:04:56
Nennt sich GTX 1060 und kann man seit drei Jahren kaufen. :whisper:

https://abload.de/img/unbenannt2xcjg6.png

Wenn Navi zu genannten Preisen kommt setze ich weiter aus, obwohl ich den seit Ankündigung kaufen wollte. Dann spare ich mir aber auch Zen 2 und schaue nächstes Jahr zu Zen 3 nochmal auf den Markt. 300 Euro sind meine Schmerzgrenze, eher weniger.

Ist ja nicht mehr lange und ich warte bis es verlässliche Infos gibt.


Die GTX1060 mit 75 Watt (also ohne zusätzlichen Stromanschluss) wäre mir neu :whisper:

Was versteht ihr unter einer GraKa mit 75Watt?
Idle?

zucee
2019-05-21, 22:09:57
So spezifisch warst du jetzt nicht. :D Zeigt ja nur, es ist möglich auch eine 1060 noch gut zu drücken. Bei gleicher Leistung.

@aufkrawall: Es ist auf jeden Fall um einiges weniger als die 120W @stock. Aber das soll hier nicht das Thema sein.

Würde mich freuen wenn die Preise günstig wären. Denke AMD muss über den Preis kommen. So wie sie es anfangs auch mit Polaris versucht haben.

dargo
2019-05-21, 22:12:55
Auf videocardz schrieb Jemand das das Singapur Dollar wären.

270 und 380USD ohne Steuer

"Apparnetly the price isn't in USD, but Singapore currency."

Weiß der Geier
Lol... wie schnell falsche Gerüchte im Netz wieder entstehen. ;D Das würde dann schon viel besser zu Navi 10 passen. :) Ist ja nicht mehr so lange hin.

BoMbY
2019-05-21, 22:14:22
War nicht auch mal die Rede von 48 CUs bei Navi10? Vielleicht ist das 8x5 die Pro-Version und die XT-Version hat 8x6? Wäre immer noch recht klein in 7nm.

zucee
2019-05-21, 22:17:51
Ja, in einem der letzten Navi Videos von "dessen Name hier nicht genannt werden soll" wurden "Special Editions" mit mehr CUs erwähnt.

@Mr.Scott: https://abload.de/thumb/unbenannt2zzkms.png (http://abload.de/image.php?img=unbenannt2zzkms.png)

War eines der ersten Gerüchte. in einer Woche wissen wir mehr.

Mr.Scott
2019-05-21, 22:18:11
Ok, also nochmal.
Denkt ihr rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?

aufkrawall
2019-05-21, 22:22:58
Denkt ihr rx580 leistung @ 75Watt unter Last wären möglich?

Kann man ohne Kenntnisse über Takt und Spannung schwerlich spekulieren. Die Chance besteht, wenn der Chip mit sehr niedrigen Taktraten noch läuft, man also in keine Mauer nach unten läuft.
Ansonsten bliebe nur ein deutlich herab gesetztes Powertune-Limit, was aber stark schwankende Taktraten verursacht.

BlacKi
2019-05-21, 22:23:31
Ok, also nochmal.
Denkt ihr rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?
der chip von dem wir reden dem 400€+ 200w+ chip? vielleicht kommt später sowas wie ein navi14 , der könnte in die region kommen. der liegt wohl unterhalb 200€.

reaperrr
2019-05-21, 22:25:25
8 Shader Engines mit nur 5CUs jeweils hört sich sehr komisch an. Im Prinzip haben 8 CUs pro Shader Engine doch sehr gut funktioniert, wenn an Chips wie Pitcairn und Tonga zurückdenkt. Erst darüber wurde die Rechenpower nicht mehr richtig auf die Straße gebracht. Ich hätte sowas wie 6 SEs mit jeweils 7 (oder 8) CUs logischer gefunden.
Die SEs nehmen aber nicht viel Fläche ein, und man muss auch erstmal sehen, wie das vom physischen Layout her aussieht. Kann gut sein, dass 6 SEs zu asymmetrisch für ein sinnvolles Layout gewesen wäre.
Ganz abgesehen davon, dass es dann mindestens 42 CUs hätten sein müssen (36 wäre dann doch zu wenig, und zu ähnlich zu P10).

Oder es wird schlicht technisch nicht unterstützt und die Architektur erlaubt nur 2er-Potenzen bei der SE-Zahl (gab ja in früheren GCN-Generationen auch keine Chips mit 3 SEs).

Mr.Scott
2019-05-21, 22:32:52
Ähm, ok, was ist an dieser Frage so schwer zu verstehen?
Wir sind doch hier im Navi Thread? Oder??

Einmal noch:

Denkt ihr, (irgend)ein Navi Chip mit rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?

Brillus
2019-05-21, 22:45:26
Ähm, ok, was ist an dieser Frage so schwer zu verstehen?
Wir sind doch hier im Navi Thread? Oder??

Einmal noch:

Denkt ihr, (irgend)ein Navi Chip mit rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?

Denn größten mit guten Undervolting und Frequenz runter könnte gehe, da wärst du nach letzten Gerüchten bei 500$.

Dino-Fossil
2019-05-21, 23:02:21
Einmal noch:

Denkt ihr, (irgend)ein Navi Chip mit rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?

Möglich? Klar.

Realistisch? Keine Ahnung, kommt halt drauf an, wie Navi ggü. Polaris dasteht.
Theoretisch könnte man 14nm vs 7nm bei gleichem Takt die Leistungsaufnahme (laut TSMC) fast halbieren. Wenn Navi dann noch architekturbedingte Perf./Watt Verbesserungen mitbringt wären 75W bei 580 Performance durchaus möglich. Jetzt mal ausgehend von einem ähnlich großen Chip mit ~36CU.
Ob es so kommt muss man abwarten.

Ravenhearth
2019-05-21, 23:22:07
Auf videocardz schrieb Jemand das das Singapur Dollar wären.

270 und 380USD ohne Steuer

"Apparnetly the price isn't in USD, but Singapore currency."

Weiß der Geier
Nein, 美元 wie im Interview sind US-Dollar, Singapur-Dollar wären 新加坡元. Also laut Interview eindeutig US-Dollar.

Nosferatu1
2019-05-22, 00:06:49
Crypto currency goes up 35 percent right when NAVI and the 600 series comes out... well played AMD, well played.

vega launch all over again XD und 1 jahr lang saubere preise. na mal schauen

BoMbY
2019-05-22, 00:12:30
Ich kann mir immer noch nicht vorstellen dass überhaupt jemand von Sapphire öffentlich das NDA mit AMD in solch einem Umfang brechen würde, und damit den Fortbestand der Vereinbarungen, des Geschäftsverhältnisses und seines Jobs gefährden würde.

Nosferatu1
2019-05-22, 00:14:16
vlt von AMD gewollt? ´´leaks´´ bedeuted mittlerweile - ganz direkte werbung.

Daredevil
2019-05-22, 00:24:50
Ähm, ok, was ist an dieser Frage so schwer zu verstehen?
Wir sind doch hier im Navi Thread? Oder??

Einmal noch:

Denkt ihr, (irgend)ein Navi Chip mit rx580 leistung @ 75Watt unter Last wären möglich?
Wenn ja, welcher Preis wird realistisch sein?
Das ist ein Szenario, welches du schon mit einer GTX1060 mit Undervolting schaffen kannst. Also kann man wohl stark darauf hoffen, falls was in der Preisklasse kommt.

Ravenhearth
2019-05-22, 00:48:15
Ich kann mir immer noch nicht vorstellen dass überhaupt jemand von Sapphire öffentlich das NDA mit AMD in solch einem Umfang brechen würde, und damit den Fortbestand der Vereinbarungen, des Geschäftsverhältnisses und seines Jobs gefährden würde.
Die Erwähnung einer Toxic ist auch komisch, die Reihe gibts gar nicht mehr. Wirkt jedenfalls alles nicht als ob es echt wäre.

Brillus
2019-05-22, 01:06:12
Ich kann mir immer noch nicht vorstellen dass überhaupt jemand von Sapphire öffentlich das NDA mit AMD in solch einem Umfang brechen würde, und damit den Fortbestand der Vereinbarungen, des Geschäftsverhältnisses und seines Jobs gefährden würde.
Nachdem mittlerweile ja geklärt ist das die eine ein jeder darf posten was er will ala Pastbin ist und nicht eine seriöse Nachrichtenseite wie ich zuerst dachte geh ich davon aus das das ganze Ding einfach nur Fake ist.