PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 [77] 78 79 80 81

aufkrawall
2021-01-05, 14:39:59
Ja, macht voll Spaß mit 45fps auf Navi 10 bei Prerenderlimit 3 + Ekel-LOD, SSR-Rauschen ala Quake 2 RTX ohne Denoiser etc. So stell ich mir vor wie andere Spiele auf der PS4 laufen. ;D

robbitop
2021-01-05, 14:44:20
Ja, macht voll Spaß mit 45fps auf Navi 10 bei Prerenderlimit 3 + Ekel-LOD, SSR-Rauschen ala Quake 2 RTX ohne Denoiser etc. So stell ich mir vor wie andere Spiele auf der PS4 laufen. ;D
Eventuell brauchst du ein Upgrade? :)

aufkrawall
2021-01-05, 14:56:04
Wegen einem unfertigen Spiel von einem Entwickler, der offenbar nichts zu Ende gebracht hat, außer sich von Nvidia so richtig durchpimpern zu lassen? Ich glaub nicht.

robbitop
2021-01-05, 15:07:26
Wegen einem unfertigen Spiel von einem Entwickler, der offenbar nichts zu Ende gebracht hat, außer sich von Nvidia so richtig durchpimpern zu lassen? Ich glaub nicht.
Ich hab das Spiel noch nicht probiert. Kenne bis dato nur die Digital Foundry Videos. Laut Alex Bataglia ist das grafische Level of Detail so hoch wie nie zuvor. Die wirken sehr beeindruckt und das kommt so nur selten vor.
In der Regel ist es leider so, dass Fortschritte in der 3D Grafik basierend auf aktuellem Niveau überproportional mehr Leistung kosten. Damit Dinge korrekter gerendert werden fällt eben überproportional mehr Compute effort an.

Ggf. fährt das Spiel erst das volle Potential mit Raytracing auf maximum Details aus. Oftmals sind ja fall-back Lösungen keine richtig gut gemachten Lösungen. Bin mir aber nicht sicher, wie gut die Fallback Lösungen bei CP sind.

Vielleicht ist es übertrieben: aber erinnere dich an 2007 zurück. Kein Mensch konnte Crysis bei vernünftiger Auflösung und Details flüssig spielen. "Schlecht optimiertes Spiel" etc haben viele behauptet.
Und dabei hat man einfach nur sehr offensiv geplant.

ChaosTM
2021-01-05, 15:40:27
Wegen einem unfertigen Spiel von einem Entwickler, der offenbar nichts zu Ende gebracht hat, außer sich von Nvidia so richtig durchpimpern zu lassen? Ich glaub nicht.


Blumig aber wahr - der Teil mit dem pimpern :)

dargo
2021-01-05, 15:41:05
Ich hab das Spiel noch nicht probiert. Kenne bis dato nur die Digital Foundry Videos. Laut Alex Bataglia ist das grafische Level of Detail so hoch wie nie zuvor. Die wirken sehr beeindruckt und das kommt so nur selten vor.
In der Regel ist es leider so, dass Fortschritte in der 3D Grafik basierend auf aktuellem Niveau überproportional mehr Leistung kosten. Damit Dinge korrekter gerendert werden fällt eben überproportional mehr Compute effort an.

Blöd nur, dass man von diesem grafischen Fortschritt in CP77 nichts sieht bei der gegebenen Anforderung an Hardware. Ich jedenfalls bilde mir erst ein endgültiges Urteil Ende 2021.


Vielleicht ist es übertrieben: aber erinnere dich an 2007 zurück. Kein Mensch konnte Crysis bei vernünftiger Auflösung und Details flüssig spielen. "Schlecht optimiertes Spiel" etc haben viele behauptet.
Und dabei hat man einfach nur sehr offensiv geplant.
Und damit hatten viele auch recht, wobei damals auch die Steinzeit-API viel kaputt gemacht hat. Selbst das remastered Crysis läuft mit aktueller Hardware wie Gülle.

Lehdro
2021-01-05, 15:41:50
Vielleicht ist es übertrieben: aber erinnere dich an 2007 zurück. Kein Mensch konnte Crysis bei vernünftiger Auflösung und Details flüssig spielen. "Schlecht optimiertes Spiel" etc haben viele behauptet.
Und dabei hat man einfach nur sehr offensiv geplant.
Bullshit. Crysis war teilweise sehr schlecht/garnicht optimiert, gerade im CPU-seitigen Teil der Engine, kannst du sehr gern nachtesten/lesen, dass selbst heute noch CPU limitierte Szenen vorkommen, gerade wenn die Spielphysik mit am werkeln ist. Das ist nun wahrlich kein Glanzstück. Dass es auch anders geht beweisen die neueren Iterationen der CryEngine - ohne auf Grafikqualität verzichten zu müssen. Was selbst das OG Crysis machen musste, weil eben doch manchmal zu viel einfach zu viel war.
PcYA-H3qpTI

Yes, Crysis was a heavy game on system resources and to this day it has a reputation that it was 'unoptimised'. Now, on the one hand, it was clear that Crytek took liberties with a platform that was, in effect, infinitely expandable across time with a view of technology catching up wth its design choices. As then-Crytek (now id software) rendering mastermind Tiago Sousa told us back in the day: "In Crysis 1 times, our attitude was, 'oh what the heck, what's one more additional full resolution FP16 target or a couple of full screen passes, let's just add it'.

But Crysis also hails from an era where the future of CPU technology was heading in a very different direction than Crytek may have originally envisaged. It is multi-core aware to a certain extent - gaming workloads can be seen across four threads - but the expectation for PC computing, especially from Intel with its Netburst architecture, was that the real increase in speed in computing would happen from massive increases in clock speed, with the expectations of anything up to 8GHz Pentiums in the future. It never happened, of course, and that's the key reason why it is impossible to run Crysis at 60fps, even on a Core i7 8700K overclocked to 5GHz. At its nadir in the Ascension stage (sensibly removed from the console versions), the fastest gaming CPU money can buy struggles to move beyond the mid-30s.
Zum nachlesen. (https://www.eurogamer.net/articles/digitalfoundry-2018-why-crysis-still-melts-the-fastest-gaming-pcs-10-years-later)

robbitop
2021-01-05, 16:24:35
Man darf aber nicht vergessen, dass 2007 noch wenig auf Multi Core optimiert wurde im PC Spielebereich. Da fehlte so ziemlich allen Studios noch eine ganze Menge know-how. Mit Cryengine 3 hat man das dann ein paar Jahre später auch hinbekommen. Der CE3 Port von Crysis lief ja sogar auf der X360 und der PS3 mit deren Kartoffelhardware. Ein PC Port wäre wahrscheinlich ganz gut gelaufen. Nur ist das Studio im Prinzip seit 2013 ausgeblutet. Das ganze technische Talent arbeitet woanders. Crysis Remastered wurde ja auch von einem externen Studio gemacht - aber richtig gut eben leider auch nicht. Tiago Sousa und Co hätten das sicherlich viel viel besser hinbekommen. Die besten Leute sind ja seit Jahren bei id und zeigen, wie gut man mittlerweile optimierte Engines machen kann. :)

Nichtsdestotrotz war Crysis grafisch seiner Zeit einiges voraus. Perfekt optimiert war es sicherlich nicht - insbesondere in den höheren Detailgraden.

Blöd nur, dass man von diesem grafischen Fortschritt in CP77 nichts sieht bei der gegebenen Anforderung an Hardware. Ich jedenfalls bilde mir erst ein endgültiges Urteil Ende 2021.
Hast du dir schon das DF Video von Alex angeschaut? Das geht sehr im Detail darauf ein. Und IMO sieht man da schon einiges, was wirklich Next Gen ist.

dargo
2021-01-05, 16:41:18
Hast du dir schon das DF Video von Alex angeschaut? Das geht sehr im Detail darauf ein. Und IMO sieht man da schon einiges, was wirklich Next Gen ist.
Besser... ich habe mir das Spiel selbst angesehen.

robbitop
2021-01-05, 16:46:38
Besser... ich habe mir das Spiel selbst angesehen.
Aber nicht auf Raytracing Hardware und somit voll ausgefahrenen Settings, oder? Entsprechend hast du es ja nicht in der Detailfülle gesehen, die es bietet. Genau diese Aspekte hat Alex ja in seinem Video Punkt für Punkt beleuchtet.

ChaosTM
2021-01-05, 16:51:27
CP77 ist schon Next Gen in einigen Bereichen. Die Bugs mal außen vor.
Core-Skalierung um den wichtigsten zu nennen. Beim Rest kenne ich mich zu wenig aus und da werde ich garantiert wieder zur Schnecke gemacht wenn ich was sage. ;)

dargo
2021-01-05, 16:57:23
Aber nicht auf Raytracing Hardware...
Doch.

robbitop
2021-01-05, 17:02:58
Interessant. :) Mit welchen Aspekten stimmst du denn nicht mit Alex überein? Ich würde gern differenziert wissen, wo hier die Abweichung liegt.
Eigentlich weiß Alex sehr sehr gut bescheid, über was er spricht und das Video zeigte es ja jeweils auch sehr gut.

DrumDub
2021-01-05, 17:09:38
passend zur ot-diskussion:

Die Abkürzung steht für Windows Advanced Rasterization Platform, einen von Microsoft entwickelten Software Rasterizer. Vorgestellt wurde dieser mit einer Preview von Windows 7 samt Benchmarks von - wie sollte es anders sein - des erst ein Jahr zuvor erschienenen Crysis. Ein damaliger Core i7 (Nehalem) mit 3 GHz und 4C/8T kam in 800 x 600 bei niedrigen Details auf magere 7 fps - ein heutiger Ryzen 7 5800X (Test) schafft gleich 47 fps.

Wenn Crysis im WARP-Modus läuft (giolem.de) (https://www.golem.de/news/software-rasterizer-im-test-wenn-crysis-im-warp-modus-laeuft-2101-153104.html)

-/\-CruNcher-/\-
2021-01-05, 18:35:36
WARP ist zum Debugen nicht für Performance

as misserable as windows can be

v8c2FKG1aec

amdfanuwe
2021-01-05, 18:47:15
Was hat das ganze mit Navi zu tun?

Mr.Scott
2021-01-10, 18:45:49
Was denkt ihr, wir eine Navi 2X Desktop GPU ohne externe Stromversorgung kommen?
Also kleiner, oder gleich 75W?

SKYNET
2021-01-10, 19:17:50
Was denkt ihr, wir eine Navi 2X Desktop GPU ohne externe Stromversorgung kommen?
Also kleiner, oder gleich 75W?


denk eher nicht, der markt wurde nichtmal mit RDNA1 bedient, da lässt man schön polaris seine arbeit verrichten, mehr brauchs da auch nicht.

gedi
2021-01-10, 20:22:56
Wäre ich mir nicht ganz so sicher. Ne 6500 bei max. 75W, welche die 5500(XT) beerbt und gleich schnell rendert - hört sich imo gut an!

Lehdro
2021-01-10, 20:30:11
Von der bisherigen Abstufung des Portfolios und dass da noch Mobile kommt würde ich schon erwarten dass die absolute Lowend Karte durchaus nur mit 75W auskommt. Wenn man sich mal anschaut wie effizient RDNA sein kann, dann ist das durchaus realistisch. Wenn NV das wirklich nicht bietet dann gleich doppelt so wahrscheinlich dass da was von AMD kommt.

reaperrr
2021-01-10, 20:33:54
Wäre ich mir nicht ganz so sicher. Ne 6500 bei max. 75W, welche die 5500(XT) beerbt und gleich schnell rendert - hört sich imo gut an!
Vielleicht, aber so wie es derzeit um Fertigungskapazitäten im Verhältnis zur Nachfrage bestellt ist, sehe ich sowas (im Desktop) nicht vor Herbst/nächsten Winter.

spotz
2021-01-12, 02:54:25
Was denkt ihr, wir eine Navi 2X Desktop GPU ohne externe Stromversorgung kommen?
Also kleiner, oder gleich 75W?

Laut Gerüchten wird es Navi 24 mit 25 bis 50 Watt TDP für Laptops geben. Grundsätzlich könnte AMD daraus auch Karten ohne zusätzlichen Stromversorgung für den Desktop machen, die Frage ist nur ob sie es machen werden und wenn ja, wann und ob die auch für den Einzelhandel gedacht sind. Wird davon abhängen wie sich die Lieferbarkeit innerhalb dieses Jahres entwickelt. Sollten die OEM Hersteller die Karten auch in ihre Desktops einbauen wollen, wäre das ein gutes Zeichen. Je nach Lieferbarkeit wird es diese Karten dann auch ggf. für den DIY Markt geben, da die großen OEMs für AMD Vorrang haben sollten.

https://www.computerbase.de/2020-12/amd-radeon-rx-6000-mobile-navi-24-xm-xml/

mczak
2021-01-12, 05:20:24
Von mir aus dürfte eine low-end Navi2x Karte auch knapp über 75W liegen, ein externer Stromanschluss würde mich nicht so sehr stören (müsste die Karte ohne externe Stromversorgung auskommen würde auf jeden Fall in jedem Test bemängelt dass man die nicht übertakten kann...).
Die bisherige Navi Einstiegslösung (5500XT) liegt aber bei 130W und kommt mit 8-Pin Anschluss, was doch (beides) reichlich übertrieben ist.

Brillus
2021-01-12, 22:35:17
Zu den mobilen gab es jetzt noch nichts oder hab ich was übersehen?

Nightspider
2021-01-12, 22:37:06
Nope, man sprach nur vom ersten Halbjahr.

Loeschzwerg
2021-01-13, 11:31:24
"Neue" Infos zu kommenden RX 6000 Mobile und Desktop Lösungen:
https://www.computerbase.de/2021-01/amd-radeon-rx-6000-notebooks-termin/

So eine kompakte ITX Karte würde mich ja schon interessieren =)

disap.ed
2021-01-13, 12:05:30
Bin wirklich gespannt wie sie die preislich positionieren, vor allem in Hinblick auf die RTX 3060 als Konkurrenz.
Ich persönlich finde ja, dass der Sprung von 60 auf 40 CUs viel zu groß ist, es sei denn man bringt die über 2,2 GHz Basetakt / 2,5 GHz Boost bei vertretbarem Verbrauch. Wie auch immer, ich finde da hätte durchaus noch ein 56 CU (48 Salvage)-Chip dazwischengepasst (ebenfalls mit 192 bit / 96MB IC).

Hakim
2021-01-14, 15:42:43
Wenn die Prognose von Igor zu 6700xt stimmt (also so etwa 5700xt/VII) Niveau, dürfte die Karten ja so um die 350€ kosten. Halt etwas über 3060 und deutlich unter 3060Ti. Sehr große Lücke zwischen 6700 und 6800er

Lehdro
2021-01-14, 15:53:07
Das riecht echt immer mehr nach einer 6800 LE oder sowie damals als zwischen HD 7870 und HD 7950 das Loch klaffte, ein deutlich beschnittener Tahiti als 7870 XT kam.

Der_Korken
2021-01-14, 16:03:44
Warum sollte die 6700XT nur auf 5700XT-Niveau kommen mit der gleichen Anzahl an CUs, aber vermutlich 30% mehr Takt? Ich würde sagen, dass selbst die 6700 ohne XT das alte Flagschiff schlagen wird. Vor allem wäre es auch wirtschaftlich Humbug, weil N22 durch die 96MB I$ ziemlich sicher größer als N10 sein wird. Da hätte man auch gleich den alten Chip rebranden können.

Vor dem Hintergrund wird auch der Abstand zwischen 6700XT und 6800 nicht so riesig sein, wie die Anzahl der CUs das suggeriert. 30% können es zwar sein, aber dafür lohnt sich ein zusätzlicher Chip nicht und ein dritter N21-Salvage ist für AMD viel zu teuer, weil sie dafür einen 520mm² großen Chip verramschen müssten. Die 6800 könnte aber deutlich effizienter sein als die 6700XT.

davidzo
2021-01-14, 16:13:03
Der_Korken hat recht, AMD wird sich schon etwas bei gedacht haben den Chip nicht mit 48 oder 56CUs ausgestattet zu haben.

60 auf 40 CUs ist zwar eine Lücke von 33%, aber wenn der Chip 15% höher taktet und auch bei der Bandbreite nur 25% drunter liegt, dann sind das auch nur noch 15-20% Abstand. Und die Leaks auf sehr hohe Taktraten sind ja da, viel deutlicher als bei Navi21. Es wäre jetzt eher eine Überraschung wenn Navi22XT unter 2,5Ghz liegt.

Der CU Count Abstand der Navi Chips ist schon sehr merkwürdig. Ich kann mir gut vorstellen dass das Entwicklungshistorische Gründe hat und z.B. verschiedene Packungsstrategien bei Navi22 und 23 zur Anwendung kommen. Sowas wie Navi22 Hochtaktdesign und Navi23 eher flächeneffizient und sparsam. Auch möglich dass Navi22 eigentlich das ist was man sich mit Navi10 vorgenommen hatte, also 40CU Hochtaktdesign und IFcache nur dass es letztendlich zu spät fertig war und man dann erstmal einen Zwischenschritt gegangen ist und dann schließlich noch Navi21 als Highendversion dazu genommen hat.

Lehdro
2021-01-14, 16:18:17
[...] dann sind das auch nur noch 15-20% Abstand.
Wie willst du das denn preislich einordnen? Der preisliche Abstand wäre dann ja noch größer als der Performanceabstand. Das kann, wenn man mit NV konkurrieren will, ja auch nicht gewollt sein, das man genau dort im Portfolio nichts stehen hat.

Und als dritte Salvage Karte verbaut man sicherlich dann alles was es nicht einmal als 6800 geschafft hat: Cache defekt, Speicherinterface hat einen weg etc.

Cyberfries
2021-01-14, 16:53:39
Im Oktober/November wurde hier noch geschrieben, dass die 6700xt auf jeden Fall die 3070 schlägt.
Jetzt solls nicht mal mehr für die 3060 non-TI reichen?
Dabei sind die erwarteten Leistungsdaten immer noch die gleichen.
40 RDNA2-CUs und ein ordentliches Taktplus, da würde ich gleiche Leistung und gleichen Preis zur 3060TI erwarten.
Eine Lücke für eine weitere N21-Ableitung gibts da nicht wirklich, ergibt auch nicht Sinn, den Chip noch mehr abzuspecken.

davidzo
2021-01-14, 17:06:15
Wie willst du das denn preislich einordnen? Der preisliche Abstand wäre dann ja noch größer als der Performanceabstand. Das kann, wenn man mit NV konkurrieren will, ja auch nicht gewollt sein, das man genau dort im Portfolio nichts stehen hat.

Und als dritte Salvage Karte verbaut man sicherlich dann alles was es nicht einmal als 6800 geschafft hat: Cache defekt, Speicherinterface hat einen weg etc.


Preislich muss AMD als Underdog immer auf den nächstniedrigeren NVchip zielen, bzw. kann es sich höchstens mal erlauben geringfügig teurer zu sein wenn man auch deutlich schneller ist. Dadurch dass man Geschwindigkeitsmäßig immer dazwischen zielt startet man keinen Preiskampf, kann aber immer ein attraktives Upgradeangebot zur Nvkarte anbieten.
Also 6800 >= 3070

Die 6700xt wird wohl zwischen 3060 und 3060ti positioniert, preislich näher an ersterer, performancemäßig auf dem niveau letzterer. Da fehlt dann wirklich auf dem Papier ein Konter zwischen 3070 und 3060ti, allerdings ist die Lücke auch ungemein klein, weil beides GA104/256bit. Und nvidia würde bei einem Preiskrieg gegen eine 192bit Karte auch nicht mitziehen, da sie wissen dass ein großer chip wie GA104 mit 256bit kostentechnisch am Ende den kürzeren ziehen würde.


Soviel die Theorie. Mal sehen wann die Verfügbarkeit von Hardware wieder besser wird.

vinacis_vivids
2021-01-14, 17:49:28
6900 XT = 80 CUs = 5120SP ~ 2,25Ghz ~ 23.04 Tflop/s 16GB ~ 512GB/s
6800 XT = 72 CUs = 4608SP ~ 2,25Ghz ~ 20.74 Tflop/s 16GB ~ 512GB/s
6800 = 60 CUs = 3840SP ~ 2,25Ghz ~ 17.28 Tflop/s 16GB ~ 512GB/s

6700 XT = 40 CUs = 2560SP ~ 2,50Ghz ~ 12.80 Tflop/s 12GB ~ 336 384GB/s
6700 = 36 CUs = 2304SP ~ 2,25Ghz ~ 10.37 Tflop/s 12GB ~ 288 384GB/s
6600 XT = 36 CUs = 2304SP ~ 2,25Ghz ~ 10.37 Tflop/s 8GB ~ 192 256GB/s

Cyberfries
2021-01-14, 19:54:47
6700 = 36 CUs = 2304SP ~ 2,25Ghz ~ 10.37 Tflop/s 12GB ~ 288GB/s
6600 XT = 36 CUs = 2304SP ~ 2,25Ghz ~ 10.37 Tflop/s 8GB ~ 192GB/s

Wieso diese enge Abstufung? Weil es auch mal eine 5600xt gab?
Ergibt angesichts eines bekannten N23-Chips wenig Sinn. Ich gehe eher von folgendem Portfolio aus:
Name|Chip|CUs|SPs|Ø-Takt|Max.-Takt|TFlops|Inf $|Speicher|3dc_index
6900 XT|N21|80|5120|2,015|2,250|20,63|128 mb|16 GB|332
6800 XT|N21|72|4608|2,015|2,250|18,57|128 mb|16 GB|306
6800|N21|60|3840|1,815|2,105|13,94|128 mb|16 GB|266
6700 XT|N22|40|2560|2,1-2,2|2,3-2,5|10,8-11,3|48-96 mb|12 GB|207-216 (3060ti 212%)
6700|N22|36|2304|1,9-2,1|2,2-2,4|8,8-9,7|48-96 mb|12 GB|168-186 (2080 186%)
6500 XT|N23|32|2048|1,7-1,9|1,9-2,1|7-7,8|32-64 mb|8 GB|134-149 (5700 145%)
6300 XT|N24|24|1536|1,7-1,9|1,9-2,1|5,2-5,8|0-32 mb|6-8 GB|99-111 (1660ti 103%)

Ravenhearth
2021-01-15, 17:45:58
Ich erwarte die 6700XT im Optimalfall auch auf Höhe der 3060 Ti, die ist laut Leos Analyse ca. 25-30% schneller als die 5700XT. Das könnte machbar sein, auch wenn die dann vielleicht 225W verbraucht. Die 6700 dann als 3060 12GB-Konter zum ebenfalls gleichen Preis.

N23 wird imo eher die 6600-Serie, gibt ja keinen Grund die auszulassen. Preisbereich 200-300€. Im Bereich unter 200€ bringt man die 6500XT auf N24-Basis als Nachfolger für die 5500XT.

basix
2021-01-15, 23:32:24
Ich erwarte die 6700XT im Optimalfall auch auf Höhe der 3060 Ti, die ist laut Leos Analyse ca. 25-30% schneller als die 5700XT. Das könnte machbar sein, auch wenn die dann vielleicht 225W verbraucht. Die 6700 dann als 3060 12GB-Konter zum ebenfalls gleichen Preis.

Kommt stark auf den Takt an und wie viel IPC RDNA2 nun wirklich drauflegt. Mit 2.4 GHz würde man die +30% wohl erreichen. Ich denke, AMD wird den N22 Top Dog etwas prügeln um zumindest gleichauf mit der 3060 Ti liegen. Machbar wäre es wahrscheinlich. Ich hoffe aber eher auf etwas in Richtung 200W.

Der_Korken
2021-01-15, 23:57:06
Die 6700 könnte auch mit 10GB und entsprechend deaktiviertem I$ kommen. Bandbreite wäre immer noch mehr als genügend vorhanden, man spart etwas Kosten, weil man weniger Speicherbausteine braucht und man könnte beim I$ etwas Redundanzen (=Fläche) sparen, weil man einen Salvage hat, um Chips mit Cache-Defekten zu verwerten. Afair hatte MooresLawIsDead sowas auch mal bei einem seiner Videos mal erwähnt. Für mich ergäbe das Sinn.

basix
2021-01-16, 00:03:07
Grundsätzlich hast du recht. Nur kommt die 3060 mit 12 GB. Das wäre dann der direkte Konkurrent für die 6700. Mit 10GB hat man nicht unbedingt das wesentlich schlechtere Produkt (für 1440p reicht 10GB noch eingermassen und für 4K ist die Karte zu schwach). Aber auf der Packung steht die kleinere Zahl ;) Ich könnte mir einen 5600 XT Move vorstellen: 6700 mit 12GB und eine 6600 XT mit 10GB.

Der_Korken
2021-01-16, 00:25:29
Die 10GB sind immerhin genauso viel wie die doppelt so teure 3080 hat :D. Aber vielleicht werden es aus Marketinggründen doch 12GB. Genauso wie man auch bei 6800 problemlos 14GB/112MB hätte nehmen können, um das Ding etwas billiger zu kriegen, es aber doch bei 16GB belassen hat, vermutlich damit man gegenüber einer möglichen 3070 Super/Ti mit 16GB nicht blöd dasteht.

vinacis_vivids
2021-01-16, 01:21:53
Wieso diese enge Abstufung? Weil es auch mal eine 5600xt gab?
Ergibt angesichts eines bekannten N23-Chips wenig Sinn. Ich gehe eher von folgendem Portfolio aus:
Name|Chip|CUs|SPs|Ø-Takt|Max.-Takt|TFlops|Inf $|Speicher|3dc_index
6900 XT|N21|80|5120|2,015|2,250|20,63|128 mb|16 GB|332
6800 XT|N21|72|4608|2,015|2,250|18,57|128 mb|16 GB|306
6800|N21|60|3840|1,815|2,105|13,94|128 mb|16 GB|266
6700 XT|N22|40|2560|2,1-2,2|2,3-2,5|10,8-11,3|48-96 mb|12 GB|207-216 (3060ti 212%)
6700|N22|36|2304|1,9-2,1|2,2-2,4|8,8-9,7|48-96 mb|12 GB|168-186 (2080 186%)
6500 XT|N23|32|2048|1,7-1,9|1,9-2,1|7-7,8|32-64 mb|8 GB|134-149 (5700 145%)
6300 XT|N24|24|1536|1,7-1,9|1,9-2,1|5,2-5,8|0-32 mb|6-8 GB|99-111 (1660ti 103%)


Diese Mittelklasse ist extrem hart umkämpft, weil es potentiell sehr viele Kunden gibt und somit jede Abstufung wird gebraucht wird um die Konkurrenz den Marktanteil wegzunehmen.

Die 5600XT hat ein sehr stark beschnittenes SI mit 192bit & 12Gbps & 6GB und "nur" 288GB/s während die 5700er im Bandbreite schwimmt mit 448GB/s und ist im Gaming Bereich dennoch sehr nah dran und praktisch kaum zu unterscheiden.

Vorteil sind günstigere und breitflächig verfügbare/bezahlbare Systeme für den Massenenduser.

Eine 6600XT mit dem N22 und harter cut des SIs ist sehr günstig und schnell fürs Gaming zugleich. Viel Rechenleistung und wenig Bandbreite bedeutet auch Optimierung auf eine Auflösung hin, nämlich 1440p - Monitore.

Es spricht außerdem für eine 6600XT weil man damit so gut wie alle Die's maximal verwerten kann. In der Herstellung werden "zufällig" einige Bereich unbrauchbar und wenn die "Unreinheit" die Shader Prozessoren und das Speicherinteface trifft, muss man den Chip nicht wegschmeißen, sondern kann ihn immer noch verkaufen.

Sehr sehr viele Gründe sprechen für eine 6600XT.

Cyberfries
2021-01-16, 09:01:46
Mein letzter Stand zu N22@10GB war, dass diese Variante nur für mobile Einsatzzwecke vorgesehen ist.

Sehr sehr viele Gründe sprechen für eine 6600XT.

Ich fürchte da ist meine Frage nicht voll verstanden worden.
Du begründest allgemein, weshalb Salvage-Versionen Sinn ergeben, mir ging es aber um N22@128bit im speziellen.
AMD hat mit N22, N23 und N24 drei Chips eng beieinander, N22@128bit und N23 im Vollausbau lägen etwa gleichauf,
Beide bedienen das gleiche Leistungssegment, wobei N23 klar kleiner und damit günstiger ist.

Sinn ergäbe das nur, wenn die Yields dramatisch schlecht wären und der Vollausbau kaum möglich wäre.
Dagegen spricht die lange Erfahrung AMDs und TSMCs bei der 7nm-Fertigung ähnlich großer Chips (N10).
N22 soll immerhin in min. sechs Varianten erscheinen, da gibt es ausreichend Möglichkeiten Abfall zu verwerten.

robbitop
2021-01-16, 10:22:56
Soweit ich es verstanden habe, legt RDNA2 nicht wesentlich etwas an IPC ggü RDNA1 drauf. Der SRAM bringt etwas. Allerdings gehe ich nicht davon aus, dass das in nicht bandbreitenlimitierten Szenarien der Fall ist.

Entsprechend realistisch ist es N22 dort einzuordnen wo er mit seiner Rohleistung liegen kann gemessen an N10 IPC.
Die Frage ist am Ende wie hoch der tatsächlich anliegende Takt out of the Box ist. Gute 20-25% mehr als N10 kann gut hinkommen. Dann wird N22 auch etwa da liegen.

vinacis_vivids
2021-01-17, 12:05:58
Ich fürchte da ist meine Frage nicht voll verstanden worden.
Du begründest allgemein, weshalb Salvage-Versionen Sinn ergeben, mir ging es aber um N22@128bit im speziellen.
AMD hat mit N22, N23 und N24 drei Chips eng beieinander, N22@128bit und N23 im Vollausbau lägen etwa gleichauf,
Beide bedienen das gleiche Leistungssegment, wobei N23 klar kleiner und damit günstiger ist.

Sinn ergäbe das nur, wenn die Yields dramatisch schlecht wären und der Vollausbau kaum möglich wäre.
Dagegen spricht die lange Erfahrung AMDs und TSMCs bei der 7nm-Fertigung ähnlich großer Chips (N10).
N22 soll immerhin in min. sechs Varianten erscheinen, da gibt es ausreichend Möglichkeiten Abfall zu verwerten.

Vielleicht hast du mich nicht ganz verstanden :rolleyes:

Der Vollausbau hat doch nicht nur mit Erfahrung zu tun, sondern mit dem unkontrollierbaren Teil des Yields.

Natürlich will man immer die größte Ausbeute und die größtmögiche Fläche haben, aber die gaussche Normalverteilung schlägt einfach zu.

Der wertvolle Siliziumabfall ist nach wie vor super verwendbar. Bei Navi10 gibt es 4 GPU-Derivate, 2 davon im Bild unten zu erkennen und der Vollausbau mit 256bit & 2560SP der 5700XT ist vom Markt leergefegt. Die 5700 non XT schwimm noch mehr in Bandbreite und ist damit perfekt geeignet fürs OC.

https://abload.de/img/navi10rtkmr.png

Navi10 - 251mm²
40CU 2560SP - L2 4MB - 256bit - 8GB -> RX5700XT
36CU 2304SP - L2 4MB - 256bit - 8GB -> RX5700 & RX5700M
36CU 2304SP - L2 3MB - 192bit - 6GB -> RX5600XT & RX5600M
32CU 2048SP - L2 3MB - 192bit - 6GB -> RX5600OEM

Spekulatius:
Navi22 - 335mm²
40CU 2560SP - L2 3MB - 192bit - 12GB -> RX6700XT?
36CU 2304SP - L2 3MB - 192bit - 12GB -> RX6700?
36CU 2304SP - L2 3MB - 128bit - 8GB?? -> RX6600XT??
32CU 2048SP - L2 3MB - 128bit - 12GB?? -> RX6600 (12GB)??
.
Navi23 - 236mm²
32CU 2048SP - L2 2MB - 128bit - 8GB? -> RX6500XT?

Der unterste N22 ist immer noch schneller als der Vollausbau des N23. Ich gehe weiter davon aus, dass es eine 6600XT geben wird um auch schematisch gegen die 3060(Ti) der anderen Fraktion vorzugehen, gegebenfalls auch mit 12GB "langsamen" Speicher.

Brillus
2021-01-17, 12:49:03
Vielleicht hast du mich nicht ganz verstanden :rolleyes:

Der Vollausbau hat doch nicht nur mit Erfahrung zu tun, sondern mit dem unkontrollierbaren Teil des Yields.

Natürlich will man immer die größte Ausbeute und die größtmögiche Fläche haben, aber die gaussche Normalverteilung schlägt einfach zu.

Der wertvolle Siliziumabfall ist nach wie vor super verwendbar. Bei Navi10 gibt es 4 GPU-Derivate, 2 davon im Bild unten zu erkennen und der Vollausbau mit 256bit & 2560SP der 5700XT ist vom Markt leergefegt. Die 5700 non XT schwimm noch mehr in Bandbreite und ist damit perfekt geeignet fürs OC.

https://abload.de/img/navi10rtkmr.png

Navi10 - 251mm²
40CU 2560SP - L2 4MB - 256bit - 8GB -> RX5700XT
36CU 2304SP - L2 4MB - 256bit - 8GB -> RX5700 & RX5700M
36CU 2304SP - L2 3MB - 192bit - 6GB -> RX5600XT & RX5600M
32CU 2048SP - L2 3MB - 192bit - 6GB -> RX5600OEM

Spekulatius:
Navi22 - 335mm²
40CU 2560SP - L2 3MB - 192bit - 12GB -> RX6700XT?
36CU 2304SP - L2 3MB - 192bit - 12GB -> RX6700?
36CU 2304SP - L2 3MB - 128bit - 8GB?? -> RX6600XT??
32CU 2048SP - L2 3MB - 128bit - 12GB?? -> RX6600 (12GB)??
.
Navi23 - 236mm²
32CU 2048SP - L2 2MB - 128bit - 8GB? -> RX6500XT?

Der unterste N22 ist immer noch schneller als der Vollausbau des N23. Ich gehe weiter davon aus, dass es eine 6600XT geben wird um auch schematisch gegen die 3060(Ti) der anderen Fraktion vorzugehen, gegebenfalls auch mit 12GB "langsamen" Speicher.

128 Bit und 12 GB gehen sich nicht so recht aus. 1,5 Chips sind weit und breit nicht zu sehen und nur für eine Salvage die eher billig sein soll seh ich keinen neuen Speicherchip.

davidzo
2021-01-17, 12:51:17
Navi23 - 236mm²
32CU 2048SP - L2 2MB - 128bit - 8GB? -> RX6500XT?



Danke für die Übersicht!
Ich denke da wird klar dass nicht N22 der N10 Ersatz ist, sondern N23.

Flächenmäßig ist N23 etwas kleiner, aber die Transistor Density bei RDNA2 ist auch 20% höher als bei RDNA1. Es ist also Transistorentechnisch ein leicht größerer Chip, dazu verbesserte Architektur, Taktraten, geringere Leistungsaufnahme etc.

Wäre da nicht das SI. Aber wenn ein 256bit SI +128M Infcache die Alternative zu einem 512bit SI ist, dann sind 128bit + 64M doch auch ein Äquivalent zu 256bit, oder?
Und an der 5600 sieht man dass Navi 10 durchaus mit kleineren Bandbreiten umgehen kann.

Ich sehe N23 als perfekten kostenoptimierten Ersatz für Navi10. Der Chip ist etwas günstiger, das Package deutlich, die Platine viel kleiner, Power delivery und Kühler sparsamer. Nur der RAM kostet wohl gleichviel (8gb G6) wie bei N10.
Es würde mich wundern wenn N23 nur auf maximal 5700 Niveau landet und die XT nicht erreicht. Das würde die Existenz des Chips an sich in Frage stellen.


Insofern erwarte ich weit mehr SKUs mit N23 als nur eine 6500xt.
Mit 128bit und Leistung auf N10 Niveau ist es übrigens der ideale Mobile Chip. Das Speicherinterface ist immer ein Riesenfaktor bei Mobile, weil es kostbare PCBfläche kostet. Klar gibt es MXM und Co und Desktop replacements. Aber der Großteil der OEMs wünscht sich einen Chip den man easy auf das mainboard mit draufkriegt und mehr Platz für die Kühlung lässt. So Thinkpad P14S -P15 Klasse...

Cyberfries
2021-01-17, 16:37:06
Der Vollausbau hat doch nicht nur mit Erfahrung zu tun, sondern mit dem unkontrollierbaren Teil des Yields.

Ein ausgereifter Prozess spuckt mehr verwertbare Chips aus.
Schon bei den 5000ern war der Zwang zur Resteverwertung wohl nicht so zwingend, die 5600er kamen erst ein halbes Jahr später.
Da scheint das Motiv nicht zuviele unbrauchbare Chips, sondern eine Portfolioerweiterung gewesen zu sein.
Eine 5700 spart gegenüber der XT nur ca.10mm² von immerhin 251mm².

der Vollausbau mit 256bit & 2560SP der 5700XT ist vom Markt leergefegt.

Die 5700 ist noch schlechter lieferbar.
Die Ursache wird eher das Auslaufen der Produktion bei immer noch hoher Nachfrage sein.

Der unterste N22 ist immer noch schneller als der Vollausbau des N23.

Und das leitest du ab aus der geringeren Menge an L2$?
Der Leistungsverlust der 5600xt kommt größtenteils durch GPU-Takt. (TFlops -11%, L2$ & SI -25%, Index -16%)
Bei N22@36CU und N23@32CU sind es -12,5% TFlops auf gleichem Takt.
Um da einen N22@8GB dazwischen zu zwängen, müsste die 6700 ca.20% höher takten als N23.
Wenn die 6700xt dann weitere 20% mehr Takt obenauf legen muss um auf 16% Vorsprung zur 6700 zu kommen...

Kurz gesagt:
Wenn N23 im Vollausbau kommt, sehe ich keine sinnvolle Lücke für N22@8GB.
Die Yield-Problematik würde ich im Bereich 300mm² auch nicht als derart dramatisch einschätzen,
dass es selbst im Notebook nur auf 10GB runter geht statt auf 8GB deutet dies auch an.

Wenn jedoch N23 nur mit 28CUs - oder gar nicht kommt, dann wird N22@8GB natürlich wieder interessanter.

vinacis_vivids
2021-01-17, 17:59:33
@Cyberfries

Ich weiß nicht was du mir mit deinen Ausführungen hier erklären willst.

Die 251mm^2 GPU-Fläche sind bei RX5700, RX5700XT und RX5600XT absolut gleich.
An sich wird da nichts gespart von der 5600XT, 5700 zur 5700XT, weil AMD den vollen Preis für die Wafer zahlen muss.
Eine Wafer wirft dir mehrere N10 GPUs ab. Die besten Stücke sind fehlerfrei und eignen sich für den Vollausbau.
Genau da kommt die gaussche Normalverteilung ins Spiel. Deshalb gibs 2560SP,2304SP und 2048SP Varianten bei N10, um die Ausbeute zu maximieren.

Die RX5600XT macht Sinn, weil man am PCB, VRM, Kondensatoren und Speicher sparen kann.

Und weil Speicher recht teuer ist, macht es Sinn eine stärkere GPU mit schwächeren Speicher zusammen zu nähen. Das macht übrigens die grüne Fraktion in Perfektion.

Der Vollausbau von N23 ist lange KEIN Grund auch ein Salvage N22 rauszubringen.

davidzo
2021-01-17, 22:53:31
Und weil Speicher recht teuer ist, macht es Sinn eine stärkere GPU mit schwächeren Speicher zusammen zu nähen. Das macht übrigens die grüne Fraktion in Perfektion.

In deinen Augen machen SI Abstufungen Sinn, für Entwickler ist es der Horror auf zig verschiedene speichergrößen zu optimieren. 4, 8, 16gb so sollte es sein. Und AMD hat in der Regel keine Probleme mit einem 100% Yield beim SI. Auch beim Cache scheint das nicht das Problem zu sein, sonst hätte man die 6800 dort kastriert. Es ist wohl genug on chip redundanz vorhanden dass man das nicht nötig hat.
Bisher deutet alles daraufhin dass AMD nur Karten mit voll ausgebautem SI liefert. Das wird auch vom Kunden am meisten geschätzt. Zwischengrößen wie 3 oder 6gb sind immer ein Manko im Verkauf.

mironicus
2021-01-21, 11:32:22
Was meint ihr? Könnte AMD einen noch größeren RDNA2-Chip bringen (in 7 nm) mit mehr CU und mehr Cache und höherer Bandbreite (>256 Bit), schnellerem RAM und dann bei einer TDP von 350 Watt noch mal 20-30% mehr Performance gegenüber 6900XT hinzugewinnen?

dargo
2021-01-21, 11:48:44
Größerer Chip ja, bei 350W nein. Das würde zwar generell mit deutlich tieferen Frequenzen gehen, wäre aber in der Gamingsparte unwirtschaftlich.

vinacis_vivids
2021-01-21, 12:05:11
Den größeren Chip gibt es schon, nur ist er nicht für consumer oder gaming, sondern für HPC.

Meiner Meinung nach lohnt es sich nicht wenn man mal die Chipfläche anschaut.
Fiji - 596mm²
Vega10 - 484mm²
Navi20 - 520mm²

AMD wird für die paar Leute keine neue Maske designen, weil der Aufwand zu groß ist.
Vorstellbar ist eine 6950XTX mit 32GB als refresh mit 520mm², höheren Takt, schnelleren Speicher, aber kein größeres SI und kein größerer Cache.

Mehr Takt -> ja -> 2.25Ghz -> 2.5Ghz
Durch eine LC-Edition ist es möglich und bereits praktiziert worden (Vega LC, FuryX)

Mehr VRAM -> ja -> 16GB -> 32GB
32GB sind allerdings total sinnlos, Wahrscheinlichkeit sehr gering für Gamer, total überteuert. Außerdem gibs dann Kühlungsprobleme.

Mehr Bandbreite -> ja -> 16Gbps -> 19.5Gbps
Mehr Bandbreite geht immer, allerdings auch teuer, aber machbar. Allerdings ist der Zugewinn zu gering.

Größeres SI -> nein, weil das SI ja jetzt verkleinert wurde wegen den Kosten.
Größerer Cache -> nein, weil die Hitrate nicht durch Größe steigt, sondern der Algorithmus.

Ein sanftes refresh (mehr Takt + schnelleren Speicher) kann ich mir vorstellen in dieser Gen. , aber keine 20-30% Mehrleistung bei 350W gegenüber der 6900XT.

davidzo
2021-01-21, 12:33:41
Wo willst du denn 19.5Gbps GDDR6 herbekommen?

18Gbps könnte es theoretisch geben, allerdings ist es um Samsung seit der Ankündigung still geworden und nvidia hat lieber PAM4 Signaling und GDDR6X eingeführt, was wohl kaum nötig gewesen wäre wenn der RAM von Samsung einigermaßen verfügbar gewesen wäre.

Leonidas
2021-01-22, 14:04:01
Navi 21
mit HBM womöglich für RTX 3080 TI

https://videocardz.com/newz/amd-navi-2x-xtxh-and-nashira-point-gpus-spotted


Aus meiner Sicht eine "lustige" Auslegung. Wir sind zuletzt wirklich gut über neue AMD- und NV-Chips *vorab* informiert gewesen. Daher sehe ich nicht, wie AMD einen extra Chip an den ganzen Leakern vorbeischmuggeln könnte.



Was denkt ihr, wir eine Navi 2X Desktop GPU ohne externe Stromversorgung kommen?
Also kleiner, oder gleich 75W?


Navi 24 sollte das schaffen können. Ich vermute, das AMD in dieser Gen weiter nach unten als NV skaliert.

Denniss
2021-01-22, 17:58:19
Die zwitscherer konzentrieren sich sicherlich mehr auf Desktop Navi, mit HBM wäre das eher eine abwandlung eines für für professionelle Anwendungen entwickelten Chips.
Zudem wäre es möglich das AMD bei Navi auf Speziallösungen vorbereitet ist und den Block des GDDR-Speichercontrollers mit einem HBM-Controller ersetzen könnte.

Leonidas
2021-01-23, 04:12:19
Man will sich sicher gern eher auf Desktop & Gaming konzentrieren. Aber gerade bei neuen Projekten ist dies vorab noch gar nicht raus, in welche Richtung es geht - ergo werden auch diese Infos verbreitet. Wie lange haben alle am GA100 und dessen Specs gehangen - obwohl zu dem vorab klar war, das es HPC-only wird? Will sagen: Diese Infos würden trotzdem gestreut.

Dural
2021-01-28, 09:06:59
Das neue Model X und S haben offenbar einen Navi Chip mit bis zu 10 Teraflops drin, wahrscheinlich N23.

y33H@
2021-01-28, 10:25:10
Und wieso sollte das ausgerechnet ein Navi sein?

vinacis_vivids
2021-01-28, 11:01:07
Und wieso sollte das ausgerechnet ein Navi sein?

Perf/Watt :biggrin:

Dural
2021-01-28, 11:10:59
Weil ich es sage und weil es bei der Leistung ziemlich klar sein sollte ;)

NV fällt raus, Tesla ist nicht mehr gut auf NV zusprechen... und alles andere als Navi2 kommt bei 10TFlops und vernünftigen Verbrauch nicht in Frage.

mboeller
2021-01-28, 11:12:24
oder deshalb:

https://twitter.com/patrickschur_/status/1325217367509639173?lang=de

Dural
2021-01-28, 11:15:05
OK, habe ich gar nicht mitbekommen.

Dann ist N23 ziemlich sicher drin, mit bis zu 2,5GHz.

basix
2021-01-28, 11:32:14
Aber kurze Frage: Was hat das für einen Sinn, eine solche GPU im Auto zu haben? Das ist doch eine Ente. Oder will jemand wirklich Witcher 3 während der Fahrt spielen? :D

y33H@
2021-01-28, 11:36:33
Die Kids auf dem Rücksitz!

basix
2021-01-28, 11:38:31
10 TFLOPs sind gar etwas Overpowered, das wollte ich damit sagen ;)

Der Minidisplay zwischen den Sitzen kann mit 720-1080p bespielt werden. Auf der Mittelkonsole spielen? Wenn man auf dem Parkplatz hält oder der Beifahrer während der Fahrt? Öhm, OK.

Aber OK, Tesla geht immer All-In. 10 TFLOPs steht ja sogar auf deren Model X Homepage :D
https://www.tesla.com/de_ch/modelx
Bis zu 10 Teraflops Rechenleistung ermöglichen das Spielen im Auto auf gleichem Niveau der neuesten Spielkonsolen. Dank der Kompatibilität mit drahtlosen Controllern können Sie von jedem Platz aus spielen.

vinacis_vivids
2021-01-28, 11:38:54
Aber kurze Frage: Was hat das für einen Sinn, eine solche GPU im Auto zu haben? Das ist doch eine Ente. Oder will jemand wirklich Witcher 3 während der Fahrt spielen? :D

Es geht um u.a. die (Motor)Steuerung und Fahrsensoren, die während der Fahrt immer im Betrieb sein müssen. Diese sind zunehmend elektronisch gesteuert und weniger mechanisch.

10 Tflop/s braucht das gar nicht. Da reichen locker N23 - 2048SP@1,4-1,5Ghz und 5-6 Tflop/s

y33H@
2021-01-28, 11:39:55
Tesla hat für sowas doch bereits den FSD.

basix
2021-01-28, 11:45:05
Japp. Und aus Gründen der Sicherheit sollte man FSD und GPU zum Gamen nicht mischen. Sonst muss man auch die GPU nach FSD Standards beurteilen und zulassen. Dass will weder AMD noch Tesla.

Ich bin ja eigentlich ziemlich Technik-Geil, aber eine 10 TFLOP GPU zum Gamen im Auto ist irgendwie over-the-top ;) Und die armen Gamer am PC warten noch länger auf HW :D

Dural
2021-01-28, 11:45:50
Ist für Gaming, alle Monitore können Spiele wieder geben.

basix
2021-01-28, 11:48:23
Was mich jetzt dennoch interessieren würde: Split Screen zwischen den Bildschirmen bei 2P-Games. Spieler 1 auf der Mittelkonsole und Spieler 2 auf dem Display zwischen den Sitzen. Ginge das? Das wäre eigentlich noch lustig.

Dural
2021-01-28, 11:50:40
Technisch schon, einfach bisschen unfair weil der hintere ja auch auf den vorderen Monitor sehen kann ;)

Edit:
Laut Elon Musk läuft auch Cyberpunk drauf :D

davidzo
2021-01-28, 12:00:32
Und wieso sollte das ausgerechnet ein Navi sein?

Elon (in 2019): Ich will Witcher in meinem Tesla spielen.

Jensen: Wir können dir das liefern was wir für Nintendo bauen, nur wenn du nicht dieselben Stückzahlen orderst wird es natürlich teurer.

Lisa: Dude, Witcher ist schon altes Eisen, wie wäre es mit Cyberpunk? Schon die closed Beta agespielt?

Elon: Jensen, Ich habe die Switch Version gesehen, aber 720P geht gar nicht.
- Lisa, ich bin ganz Ohr, schick mal nen Invite zur Beta.

Jensen: Wir haben ARM gekauft, wir können dir einen superduper gaming soc bauen in 8nm samsung oder 12nm TSMC. wir brauchen bloß 2-3 Jahre und was anderes ist fertigungsmäßig leider nicht frei. Dafür bauen wir dir gleich auch gleich den Drive PX dazu, dann könnt ihr euer selbstgebrautes geraffel in Rente schicken.

Elon: Jensen, du kapierst es einfach nicht. Es ist aus zwischen uns.

Lisa: Ihr braucht in late 2020 / 2021 einen Entertainment Chip auf dem Niveau mit den Next Gen Konsolen. Da bist du eigentlich mindestens 2 Jahre zu spät dran Elon. Sony und Microsoft haben ihre Custom Projekte bei uns schon lange am laufen, die Teams sind ausgelastet. Allerdings habe ich nen guten Draht zu unseren Sales support Engineers, ich kann da mal gucken.

Elon: Kann man da nicht irgendwas machen, lean, off the shelve? In 2021 sollte es dann aber auf jeden Fall schneller sein als der Chip den ihr an Yoshida und Nadella verkauft! Von wegen bragging rights und so...

Lisa: Wir haben da was im lab, was beide Konsolen schlägt. Allerdings werden die Gamer nicht amused sein, so von wegen Verfügbarkeit und so. Andererseits könnten wir dann die hohen Bins mit 2,5Ghz plus an die Gamer verticken und ihr bekommt die günstigere Standardware, die immer noch schneller als PS5 und XSX ist. Wäre doch fast win-win, wie klingt das?

Elon: Deal!

Dural
2021-01-28, 12:07:13
Mir fällt gerade auf das eine CPU (zwangsweise) ja auch drin sein muss :freak:

Hmm wohl doch eher einen fetten SoC drin, eventuell sogar der gleiche wie in der PS5 :biggrin:

y33H@
2021-01-28, 12:21:51
Navi 23 wäre Stand-alone, dazu vll noch was mit ARM als SoC.

dargo
2021-01-28, 12:49:13
NV fällt raus, Tesla ist nicht mehr gut auf NV zusprechen... und alles andere als Navi2 kommt bei 10TFlops und vernünftigen Verbrauch nicht in Frage.
Wer ist überhaupt noch gut auf NV zu sprechen? ;D

Aber kurze Frage: Was hat das für einen Sinn, eine solche GPU im Auto zu haben? Das ist doch eine Ente. Oder will jemand wirklich Witcher 3 während der Fahrt spielen? :D
Wo ist das Problem? Vorher haben die Kinder auf dem Rücksitz Filme geschaut, jetzt wird gedaddelt. Die Technik entwickelt sich weiter. ;)

10 TFLOPs sind gar etwas Overpowered, das wollte ich damit sagen ;)

Bei einem Tesla? Das glaube ich kaum. :D


Ich bin ja eigentlich ziemlich Technik-Geil, aber eine 10 TFLOP GPU zum Gamen im Auto ist irgendwie over-the-top ;) Und die armen Gamer am PC warten noch länger auf HW :D
N23 war nie für Desktop gedacht. ;) Die Kapazitäten bei TSMC nimmt das Teil natürlich in Anspruch mit entsprechenden Folgen.

davidzo
2021-01-28, 13:19:55
N23 war nie für Desktop gedacht. ;) Die Kapazitäten bei TSMC nimmt das Teil natürlich in Anspruch mit entsprechenden Folgen.


Ich glaube kaum dass Teslas Stückzahlen groß ins Gewicht fallen im Vergleich zum Desktop.
Tesla Model S + X haben zusammen gerechnet eine Jahresstückzahl von 50K in 2020, bzw. ca. 15K pro Quartal. Das wird vorraussichtlich auch kaum steigen, da der Löwenanteil der Tesla Sales über das Model 3/Y kommen wird und Model S als Oberklasse Limousine nur einen kleinen Zielmarkt anspricht (der mit zunehmenden Model S verkäufen langsam gesättigt wird).
Das Model S mit dem gaming Package scheint ein upgrademodell zu sein, wenn nicht sogar eine limited edition. Ich glaube kaum dass es mehr als 1/3 der Quartalsmenge an Model S ausmacht.

Wir reden hier also von 2000-5000 Navi23 Chips pro Quartal. Das ist gar nichts. Marketingmäßig ist das natürlich riesig, aber im gamingmarkt macht das nichtmal eine kleine Delle.

dargo
2021-01-28, 13:26:49
Ich glaube kaum dass Teslas Stückzahlen groß ins Gewicht fallen im Vergleich zum Desktop.

Habe ich gesagt, dass N23 nur in Tesla landet? Richtig lesen bitte.

davidzo
2021-01-28, 13:44:31
Habe ich gesagt, dass N23 nur in Tesla landet? Richtig lesen bitte.

Okay und ich habe Elon wohl auch falsch verstanden: https://www.computerbase.de/2021-01/tesla-neues-model-s-model-x-2021/


Alle 2021er Model S und Model X sollen die Konsole haben!

Elon provoziert damit ganz schön die Regulierungsbehörden in bezug auf self-driving cars. Das große Display ist ja ohnehin vorne, insofern ist das wohl durchaus auf für den Fahrer gedacht, selbst wenn es nicht legal ist. Er ist dabei Fakten zu schaffen und dann damit die Regulierung aufzuweichen.

Ich weiß nicht ob ich das gut finde...
Sehe das eher so wie CD project Red:
What can possibly go wrong?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73889&stc=1&d=1611837920

Dural
2021-01-28, 14:08:35
Bei den aktuellen Teslas kannst du nicht spielen wenn das Auto fährt, wird beim neuen auch so sein, eventuell nur hinten halt.

Unicous
2021-01-28, 20:32:43
https://cdn.videocardz.com/1/2021/01/Navi-23-Tesla-Diagram.jpg
https://videocardz.com/newz/amd-navi-23-gpu-block-diagram-for-tesla-2021-infotainment-system-has-been-leaked

memory_stick
2021-01-28, 20:48:22
originalquelle von patrickschur
https://twitter.com/patrickschur_/status/1354854817697566723?s=20

Unicous
2021-01-28, 20:55:11
Ja stimmt, habe ich nur über Twitter gesehen und da hat VCZ nicht angegeben, dass es von ihm ist.:rolleyes:

y33H@
2021-01-29, 09:51:13
Noch spannender als das Diagramm zu Navi 23 wäre, an welches SoC die GPU ankoppelt :biggrin:

bbott
2021-01-29, 11:06:15
Noch spannender als das Diagramm zu Navi 23 wäre, an welches SoC die GPU ankoppelt :biggrin:
Ist doch klar, an ein Nintendo Switch Pro SoC ;D

fondness
2021-01-29, 12:06:28
Wer ist überhaupt noch gut auf NV zu sprechen? ;D


Schon langsam finde ich es echt schon spannend. AMD hat mit RDNA2 immerhin Apple, Tesla, Samsung, Microsoft, Sony, etc gewinnen können. Alles was mir da bei Nv einfällt ist der uralte Tegra SoC in der Switch.

Dural
2021-01-29, 12:42:20
"Gewinnen" können... Verschenkt und alternativlos würde es wohl eher besser treffen ;)

NV hat mehrfach gesagt das sie nichts zu verschenken haben und es nach ihren Regeln geht. Wie lange sie das noch durchziehen können wird die Zeit zeigen.

Edit:
Gerade aktuell sind die AMD Deals alle sogar eher hinderlich, die könnten den PC Markt mit GPUs und CPUs fluten und deutlich mehr Gewinn einfahren als sie es jetzt machen.

Tarkin
2021-01-29, 13:08:58
"Gewinnen" können... Verschenkt und alternativlos würde es wohl eher besser treffen ;)

NV hat mehrfach gesagt das sie nichts zu verschenken haben und es nach ihren Regeln geht. Wie lange sie das noch durchziehen können wird die Zeit zeigen.

Edit:
Gerade aktuell sind die AMD Deals alle sogar eher hinderlich, die könnten den PC Markt mit GPUs und CPUs fluten und deutlich mehr Gewinn einfahren als sie es jetzt machen.

Jo, AMD verschenkt alles, nVidia zieht überall maximal Kohle raus - alles klar.

Ich denke die 100.000 GPUs für Tesla (Mode S + X) in 2021 wird man GERADE noch so hinbekommen. :rolleyes:

mboeller
2021-01-29, 15:49:31
Jo, AMD verschenkt alles, nVidia zieht überall maximal Kohle raus - alles klar.

Ich denke die 100.000 GPUs für Tesla (Mode S + X) in 2021 wird man GERADE noch so hinbekommen. :rolleyes:

eben, weil sie alles verschenken ist ihr Umsatz und Gewinn so massiv gewachsen ;)

https://www.3dcenter.org/news/die-amd-geschaeftsergebnisse-im-vierten-quartal-sowie-gesamtjahr-2020

Zossel
2021-01-29, 16:05:24
Laut Elon Musk läuft auch Cyberpunk drauf :D

Ein Windows im Auto das man patchen und mit Virenscannern versorgen muß?

Hakim
2021-01-29, 16:09:16
Fährt der Autopilot dann bei einem bluescreen gegen eine blaue Wand?

Zossel
2021-01-29, 16:11:36
Navi 23 wäre Stand-alone, dazu vll noch was mit ARM als SoC.

Es gibt Blockbuster-Spiele die 10 Tflop/s brauchen und auf ARM laufen?

Lurtz
2021-01-29, 16:32:59
Ein Windows im Auto das man patchen und mit Virenscannern versorgen muß?
Läuft doch auch auf Stadia, also unter Linux.

Lehdro
2021-01-29, 16:35:27
Fährt der Autopilot dann bei einem bluescreen gegen eine blaue Wand?
Denke mal dass man das technisch trennen wird, spriche 2 seperate Systeme. Anders wird das regulatorisch wohl kaum möglich sein da "normale" Consumerhardware reinzubasteln.

Nightspider
2021-01-29, 16:48:56
Wenn da keine potente CPU, viel VRAM und vielleicht noch eine superschnelle SSD dran hängt wird das aber nichts mit NextGen Games spielen. ^^

Vor allem: auf welcher Plattform soll das laufen? Windows? Wohl kaum. Linux? Näää.
Eigene Software? Dann müssten Spiele-Entwickler ja jedes Spiel noch extra für Tesla anpassen oder noch schlimmer, für jeden Auto Hersteller einzeln. Das wird doch Brühe am Ende...

Screemer
2021-01-29, 16:49:56
Hast du dir den aktuellen Stand von Linux gaming mit dxvk und Proton einmal abgesehen? Wohl eher näää.

Poekel
2021-01-29, 16:54:17
Edit:
Gerade aktuell sind die AMD Deals alle sogar eher hinderlich, die könnten den PC Markt mit GPUs und CPUs fluten und deutlich mehr Gewinn einfahren als sie es jetzt machen.
Könnte das auch bedeuten, dass man erstmal gar keine "kleineren" Grafikkarten von AMD zu Gesicht bekommt, wenn die Chips überall anders vorbaut werden.
Analog zu Renoir gibts für Endkunden dann erst wieder die 7500XT und 7600XT, während es ein paar 6500XT für die OEMs gibt?

Nightspider
2021-01-29, 16:55:02
Hast du dir den aktuellen Stand von Linux gaming mit dxvk und Proton einmal abgesehen? Wohl eher näää.

näää :wink:

Mit Linux hab ich nix am Hut.

Weiß nur das auf Linux kaum ein Spiel so performt wie unter Windoof.

][immy
2021-01-29, 16:55:39
Jo, AMD verschenkt alles, nVidia zieht überall maximal Kohle raus - alles klar.

Ich denke die 100.000 GPUs für Tesla (Mode S + X) in 2021 wird man GERADE noch so hinbekommen. :rolleyes:

Der nächste Benchmark wird dann, wie lange man welches Spiel in einem Tesla Zocken kann, bis der Akku leer ist ^^


naja, wohl nicht wirklich 100k aber bleibt trotzdem eine ziemliche Verschwendung. Nur unnötiger Ballast, damit sich ein paar Leute zusätzlich für einen Tesla entscheiden ... finde ich sehr fragwürdig.

Da hätten sie einfach lieber einen HDMI InPut verbauen sollen, so das man da anschließen kann was man will, während man grad nicht fährt.

Screemer
2021-01-29, 17:06:38
näää :wink:

Mit Linux hab ich nix am Hut.

Weiß nur das auf Linux kaum ein Spiel so performt wie unter Windoof.
Schau einmal beim protondb.com vorbei. Das könnte dir die Augen öffnen. Borked/Rot hängt in der Regel an einem Kopierschutz/Antitamper wie denuvo oder Battleeye.

Cyberfries
2021-01-29, 17:16:16
Zwischen einem simplen "das Spiel läuft" und einem "es funktioniert gleich gut wie auf Windows" liegt aber eine gewisse Spanne.
Wenns nur ums funktionieren geht, da hat Linux viel aufgeholt, ja.
Aber es ist leider immer noch etwas langsamer und ich habe mein Lenkrad nie perfekt zum Laufen gebracht.

Aber ich denke auf das letzte Quäntchen Leistung kommt es in einem Tesla nicht wirklich an,
da ist eher der Gag der eingebauten Konsole wichtig.
Vielspieler scheitern da bereits an der Sitzposition mit verdrehter Kopfhaltung.
Schön ein Lebenszeichen von N23 zu hören.

Hakim
2021-01-29, 18:11:12
Denke mal dass man das technisch trennen wird, spriche 2 seperate Systeme. Anders wird das regulatorisch wohl kaum möglich sein da "normale" Consumerhardware reinzubasteln.

Das war als Joke gedacht, selbst vor Jahren liefen beim Bordcomputer die Grundfunktionen weiter wenn das Navi oder Entertainment System am Spinnen waren. Alles andere wäre auch mehr als Verantwortungslos :)

Andere Frage, würden eigentlich Sony oder M$ vereinbaren das ihr SoC im Tesla verbaut wird? Sprich Xbox oder PS Technik samt Kompatibilität im Tesla?

Brillus
2021-01-29, 18:40:47
Zwischen einem simplen "das Spiel läuft" und einem "es funktioniert gleich gut wie auf Windows" liegt aber eine gewisse Spanne.
Wenns nur ums funktionieren geht, da hat Linux viel aufgeholt, ja.
Aber es ist leider immer noch etwas langsamer und ich habe mein Lenkrad nie perfekt zum Laufen gebracht.

Aber ich denke auf das letzte Quäntchen Leistung kommt es in einem Tesla nicht wirklich an,
da ist eher der Gag der eingebauten Konsole wichtig.
Vielspieler scheitern da bereits an der Sitzposition mit verdrehter Kopfhaltung.
Schön ein Lebenszeichen von N23 zu hören.
Ich habe auch einige Spiele die unter Linux besser laufen als unter Windows, bis hin zu läuft super unter Linux, lässt sich unter Windows nicht installieren.

Zossel
2021-01-29, 20:12:32
Aber es ist leider immer noch etwas langsamer und ich habe mein Lenkrad nie perfekt zum Laufen gebracht.

Das bringt mich auf eine Idee: Autorennspiele im eigenen "echten" Auto, als Controller werden die sowieso Vorhanden genutzt :-)

Ansonsten: Nerv den Hersteller das der sich um vernünftige Treiber kümmert, und teile uns mit welches Produkt das ist.

teetasse
2021-01-30, 19:51:34
Ich habe auch einige Spiele die unter Linux besser laufen als unter Windows, bis hin zu läuft super unter Linux, lässt sich unter Windows nicht installieren.
Ja, das wird gerne mal vergessen. Nicht selten von Leuten, die Steam Play nicht aus der Praxis kennen.

Leonidas
2021-01-31, 09:19:51
Andreas Schilling (HWLuxx) teasert Navi 22 an:
https://twitter.com/aschilling/status/1355550024680280066

Radeon RX 6700 XT
- 1440p Gaming
- 12 GB GDDR6

https://pbs.twimg.com/media/Es_hj5pW8AICazC?format=jpg

Adam D.
2021-01-31, 09:32:47
Andreas Schilling (HWLuxx) teasert Navi 22 an:
https://twitter.com/aschilling/status/1355550024680280066

Radeon RX 6700 XT
- 1440p Gaming
- 12 GB GDDR6

Hurra, wieder eine neue Grafikkarte, die man nicht oder nur für absurde Preise kaufen kann. Hoffe, die Reihe wird noch weiter ergänzt, damit auch dem letzten Kunden der Spaß vergeht :freak:

DeadMeat
2021-01-31, 10:02:34
Hurra, wieder eine neue Grafikkarte, die man nicht oder nur für absurde Preise kaufen kann. Hoffe, die Reihe wird noch weiter ergänzt, damit auch dem letzten Kunden der Spaß vergeht :freak:

Woher sollen sonst die Highlights kommen das man 3060er manchmal für 100€ mehr als 3070er kaufen kann und beide um 40%-80% sowieso zu teuer sind, da in dem Bereich kann AMD nicht mithalten da müssen sie erst noch liefern ;D


Aber im ernst, ich würde gern so eine Karte kaufen aber es gibt doch 0 Gründe das es anders laufen würde, wenigstens in diesem Halbjahr noch.

vinacis_vivids
2021-02-04, 13:56:49
https://gamegpu.com/%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%BE/gigabyte-predstavila-svoyu-radeon-rx-6700-xt-serii

Gigabyte mit 6 verschiedenen RX6700XT Modellen.
Der 335mm² 7nm Chip ist viel bezahlbarer und breiter für Gamer verfügbar.

Linmoum
2021-02-04, 14:02:16
Dass er nicht breit verfügbar sein wird, erkennt man anhand von AMDs Prognose für 2021. Vor Juli wird da gar nichts besser und selbst das ist wahrscheinlich noch optimistisch.

Leonidas
2021-02-07, 15:25:26
6700XT — 12GB
6700 — 6GB
6600XT — 12GB
... und damit vermutlich alle drei Navi-22-basierend
https://www.3dcenter.org/news/geruechtekueche-radeon-rx-6600-xt-mit-12-gb-rx-6700-nur-mit-6-gb-und-rx-6700-xt-wieder-mit-12-g

Nightspider
2021-02-07, 15:26:07
Navi 22 wird Navi 21 halt auch Wafer wegnehmen.

Bei der aktuellen Nachfrage könnte AMD auch 450 USD UVP ausrufen und den Händlern nicht so eine große Spanne gönnen.

gas3t
2021-02-07, 18:32:00
Dieses Jahr ist es mal wieder richtig spannend, meine Einschätzung lautet:

Navi 21: 80 CU, 512Bit 16 GB GDDR6, 300W TBP, Launch Q4/20, 999 €
Navi 22: 60 CU, 384Bit 12 GB GDDR6, 225 TBP, Launch Q4/20, 699€
Navi 23: 40 CU, 256Bit 8 GB GDDR6, 150W TBP, Launch H1/21, 399 €
Navi 24: 20 CU, 128Bit 4/8 GB GDDR6, 75W TBP, Launch H2/21, 199€

Beim Navi 21 ist auch HBM2e statt GDDR6 möglich. Dann noch zu jeder Variante eine Full- sowie Salvage-Version und das RDNA2 Portfolio sieht rund aus. Die Preise sind abhängig davon, was NVIDIA preis- und performancetechnisch vorlegt.

Hier lag ich wohl gut daneben, jetzt meine neue Prognose für den Navi 22:

6700 XT: 40CU, 192Bit 12 GB GDDR6, 96MB IC, 225 TBP, 499€ UVP
6700: 36CU, 192Bit 12 GB GDDR6, 96MB IC, 180 TBP, 399€ UVP
6700: 36CU, 192Bit 6 GB GDDR6, 96MB IC, 180 TBP, 349€ UVP
6600 XT: 32CU, 192Bit 12 GB GDDR6, 96MB IC, 150 TBP, 299€ UVP
6600 XT: 32CU, 192Bit 6 GB GDDR6, 96MB IC, 150 TBP, 249€ UVP

Beim Preis muss man real wohl 100 bis 200€ drauflegen.

gruntzmaker
2021-02-08, 19:12:03
AMDs Super Fidelityfx Super Resolution lebt noch:

https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Releasetermin-zum-Konkurrenten-Nvidia-DLSS-1366518/

...und scheinbar kommt es die nächsten Monate. Diese Technik ist auch bitter nötig.

robbitop
2021-02-08, 19:22:29
Mal schauen wie gut es wird und noch fast wichtiger: wie schnell sich das verbreitet. Denn das beste Verfahren nutzt ohne Verbreitung nur wenig.

Linmoum
2021-02-08, 19:25:35
Es entsteht in Zusammenarbeit mit u.a. Spieleentwicklern und vor allem (noch viel wichtiger) Sony und Microsoft als offener Standard. Die Frage nach der Verbreitung erklärt sich dann von selbst. Die Frage ist eher, wann DLSS endgültig vom Markt verschwindet. Da ist die Frage im Anschluss nicht ob, sondern wann.

vinacis_vivids
2021-02-08, 19:37:57
DLSS ist proprietärer NDA-Gameworks und wird verschwinden müssen. So eine dumme Politik kann man im 21. Jahrhundert beim besten Willen nicht mehr unterstützen.

Ich gehe davon aus, dass sich Fidefy FX Super Resolution sich auch auf älteren GCN uArch freischalten lässt. Ist schließlich keine VooDoo Raketentechnik, sondern lediglich ein 720p Bild hochskaliert auf 1440p und dann mit Bufferdaten eingefügt.
Letzendlich isses upscaling und checkerboard rendering mit ein paar updates.

Gratzner
2021-02-08, 19:53:33
AMDs Super Fidelityfx Super Resolution lebt noch:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Releasetermin-zum-Konkurrenten-Nvidia-DLSS-1366518/
...und scheinbar kommt es die nächsten Monate. Diese Technik ist auch bitter nötig.

Die PCGH verweist auf eine ungarische Website, ich habe mal deren Artikel in Google-Translate gehauen und das ist die (Roh-)Übersetzung der zwei Absätze über FFSR:
Wir haben auch den mit Spannung erwarteten FidelityFX Super Resolution-Prozess in Frage gestellt, der AI-Skalierung verwendet. Im Gegensatz zum konkurrierenden DLSS wird dieser jedoch nicht Teil des Grafiktreibers bei AMD sein, sondern als eigenständiger In-Game-Effekt funktionieren. Die einzige Anforderung auf der Seite der grafischen Gerätetreiber ist die Unterstützung der DirectML-API, die bereits auf dem PC-Markt gelöst ist.

Übrigens erzwingt das Unternehmen von allen verfügbaren FidelityFX-Verfahren die bestmögliche Implementierung der neuen Super Resolution. Der Hauptgrund dafür ist der Infinity-Cache, der besonders für Bildberechnungen mit niedrigeren Auflösungen von Vorteil ist. Dies zeigt sich auch in unserem Test: Die Radeon RX 6800 und 6800 XT fühlen sich in Full HD-Einstellungen eindeutig am besten an, und die durch AI-Upscaling erstellte spezielle Computerumgebung basiert auf der Tatsache, dass die Berechnung mit einer niedrigeren Auflösung als die native durchgeführt wird ein. Darüber hinaus verbessert Infinity Cache die Effizienz der maschinellen Lernverarbeitung.
Auch noch interessant, vorher wird noch über Radeon Boost geschrieben [Anmerkung:-> Radeon Boost -> Reduzierung der Dynamischen Auflösung bei Bewegung (der Maus), um FPS hoch zu halten]
Der neue Radeon Boost bietet eine alternative Methode zu DirectX 12-Adressen. Der Geschwindigkeitsvorteil wird tatsächlich ähnlich wie bei der ursprünglichen Implementierung sein, nur die oben genannten Nachteile werden beseitigt [Anm.: gemeint sind die Nachteile durch die (dynamische) Auflösungsreduzierung]. Das Unternehmen erreicht dies, indem es die variable Schattierungsrate für ROP-Blöcke nutzt, die in Radeons mit RDNA 2-Architektur eingebaut sind. Der neue Boost erhält jetzt die Beschleunigung, und wenn er auf unterstützte DirectX 12-Spiele angewendet wird, gibt es ein spezifisches Muster, das die Mitte des Rahmens und andere nahezu statische Teile davon, selbst in Bewegung, mit voller Auflösung abbildet. Durch die Änderungen werden die im vorherigen Absatz erörterten Kompromisse bei der Bildqualität praktisch beseitigt.
Edit: Der Link (https://prohardver.hu/hir/uj_radeon_boost_verzion_dolgozik_amd.html) zur originalen ungarischen Website

Edit2: Als Voraussetzung (auf Nutzerseite) wird DirectML kompatible Hardware genannt, MS gibt folgende Hardware als DirectML-kompatibel an:
AMD GCN 1st Gen (Radeon HD 7000 series) and above
Intel Haswell (4th-gen core) HD Integrated Graphics and above
NVIDIA Kepler (GTX 600 series) and above
Qualcomm Adreno 600 and above
Quelle (https://github.com/microsoft/DirectML)

robbitop
2021-02-08, 20:02:59
Ggf liefert AMD (sofern es NN basiert ist) das neuromale Netzwerk den Studios und die packen es dem Spiel bei. Wirklich krass wäre es, wenn es GPU agnostisch wäre. Ich meine: warum eigentlich nicht? Was hat man zu verlieren? NV hat ja schon dlss also lass deren GPUs das doch nutzen. Entsprechend kann man dadurch nur Marktverbreitung gewinnen. :)

Allerdings wären dann alle von AMDs NN abhängig.

Gratzner
2021-02-08, 20:12:53
Wenn ich mir den Satz: "Darüber hinaus verbessert Infinity Cache die Effizienz der maschinellen Lernverarbeitung" lese, könnte man interpretieren dass das NN (für FidelityFX) den großen Cache der RDNA2 Generation brauch um Performant zu sein. Die breite Hardwareunterstützung wäre dann erstmal nur kosmetisch

-/\-CruNcher-/\-
2021-02-08, 20:22:11
Ggf liefert AMD (sofern es NN basiert ist) das neuromale Netzwerk den Studios und die packen es dem Spiel bei. Wirklich krass wäre es, wenn es GPU agnostisch wäre. Ich meine: warum eigentlich nicht? Was hat man zu verlieren? NV hat ja schon dlss also lass deren GPUs das doch nutzen. Entsprechend kann man dadurch nur Marktverbreitung gewinnen. :)

Allerdings wären dann alle von AMDs NN abhängig.

Das ist garnicht so abwegig TressFX kann auch schlechte Hairworks implementierungen vor allem auf Älterer Nvidia Hardware aber sowas von weghauen ;)

robbitop
2021-02-08, 20:22:57
Das mit dem Cache im Zusammenhang zu Super Resolution liest sich ungewöhnlich. Ich hätte angenommen dass das ganze eher compute limitiert ist.

Nightspider
2021-02-08, 20:25:44
Ist TressFX eigentlich noch lebendig?

Wird das noch in neuen Spielen verwendet?

-/\-CruNcher-/\-
2021-02-08, 20:37:37
Das mit dem Cache im Zusammenhang zu Super Resolution liest sich ungewöhnlich. Ich hätte angenommen dass das ganze eher compute limitiert ist.

Der cache könnte einige interessante Möglichkeiten vor allem für VCN bieten
und auch die Möglichkeiten im Zusammenspiel mit Xilinx FPGA das wird extreme interessant HSA schreitet voran

Die schematic für die Interkommunikation von GPU und FPGA zeigt AMD ja schon sehr sehr spannend die Nächste Generation von Fusion
Intel setzt es ja auch kontinuierlich um und tüftelt wie wild an OneAPI

https://newsroom.intel.com/wp-content/uploads/sites/11/2019/11/intel-oneapi-info-690x279.jpg


Mega Super Konsolen beyond your imagination ;)

Gratzner
2021-02-08, 20:59:51
Das mit dem Cache im Zusammenhang zu Super Resolution liest sich ungewöhnlich. Ich hätte angenommen dass das ganze eher compute limitiert ist.
Der cache könnte einige interessante Möglichkeiten vor allem für VCN bieten

Ich verstehe nicht, wie es dem FidelityFX (Upscaling vermutlich mithilfe von KI) helfen soll,
wenn AMDs ihre dedizierten De- und Encoder Hardware für Videos (Marketingname VCN - Video Core Next) mithilfe des Infinity-Cache "einige interessante Möglichkeiten" geben

-/\-CruNcher-/\-
2021-02-08, 21:20:00
die Forward Backward Prediction können effizienter durchgeführt werden eine Achillesferse weniger aber im Gesammten PC Architekturisch gesehen natürlich immernoch nicht perfekt aber immerhin effizienter.
Für die Konsolen sieht das mit der Effizienz dann natürlich noch mal ganz anders aus.

genervt
2021-02-09, 00:53:58
Ist TressFX eigentlich noch lebendig?

Wird das noch in neuen Spielen verwendet?
wurde in 2020 erst Version 4.1 veröffentlicht und in Unreal Engine 4 integriert. Also ja. Ist halt inzwischen ein alter Hut, daher keine Aufmerksamkeit mehr.

dargo
2021-02-09, 01:24:07
Ist TressFX eigentlich noch lebendig?

Wird das noch in neuen Spielen verwendet?
Klar... bsw. in Horizon: Zero Dawn.

Nightspider
2021-02-09, 03:30:28
Klar... bsw. in Horizon: Zero Dawn.
Hab ich gar nicht mitbekommen.
Wird aber wohl kein so großer Unterschied sein bei den Haaren von der Hauptfigur.

Geht das auch auf Nvidia?

dargo
2021-02-09, 04:00:18
Es ging schon immer bei Nvidia. :confused:

Locuza
2021-02-09, 14:59:34
Ggf liefert AMD (sofern es NN basiert ist) das neuromale Netzwerk den Studios und die packen es dem Spiel bei. Wirklich krass wäre es, wenn es GPU agnostisch wäre. Ich meine: warum eigentlich nicht? Was hat man zu verlieren? NV hat ja schon dlss also lass deren GPUs das doch nutzen. Entsprechend kann man dadurch nur Marktverbreitung gewinnen. :)

Allerdings wären dann alle von AMDs NN abhängig.
Anders als über ein trainiertes Netzwerk wird man wohl kaum an die Qualität von Nvidia herankommen, wo die Umsetzung wirklich eine interessante Frage ist.
Wird es auf DirectML basieren und dank Metacommands "optimal" auf unterschiedlicher Hardware ausgeführt?
In so einem Fall könnte man fast einen Apples-to-Apples-Vergleich zwischen AMDs Netzwerk und Nvidias DLSS ausführen, wenn dann Beide über die Tensor-Kerne beschleunigt werden.

Microsoft hat schon damals bei der Präsentation von DirectML ein reconstruction model vorgestellt, entsprechend lag die Erwartung schon da, dass es die Studios selber und/oder Microsoft angehen wird.

Falls es so kommen sollte, dann wäre es einfach AMDs Technik auf der Xbox Series laufen zu lassen, gleiches API set ist verfügbar und die gleichen dot-product instructions für FP16, INT8&4.
Allerdings wäre das nicht so einfach bei der PS5, dafür müsste AMD sich extra Mühe machen und das für Sonys APIs anpassen und dann hat die PS5 vermutlich keine Hardware-Unterstützung für dot-product instructions und Packed-Math für FP16&INT16 wäre das Beste was man bekommen könne.

Complicated
2021-02-09, 17:05:08
Das Training wird Teil des Entwicklungsprozesses jedes einzelnen Titels werden - da gehört es auch hin, sozusagen als "Finishing". Oder es wird als Feature nachgeliefert, wie es heute ja eher üblich ist mit dem Support, z.B. für DX12/11/Vulkan. Das wird dann das Studio entscheiden wie wichitg das für die Zielgruppe ist. So wie alle AA Modi.

robbitop
2021-02-09, 17:12:55
Das Training wird Teil des Entwicklungsprozesses jedes einzelnen Titels werden - da gehört es auch hin, sozusagen als "Finishing". Oder es wird als Feature nachgeliefert, wie es heute ja eher üblich ist mit dem Support, z.B. für DX12/11/Vulkan. Das wird dann das Studio entscheiden wie wichitg das für die Zielgruppe ist. So wie alle AA Modi.
Das ist die Frage. NV hat ja schon beide Ansätze probiert. Titel spezifisches Training (DLSS 1.x) oder generelles Training (DLSS 2.x). Kontraintuitiv erzielte das generell trainierte NN die besseren Ergebnisse (und ist auch schneller zu implementieren).

Gipsel
2021-02-09, 17:48:51
Das ist die Frage. NV hat ja schon beide Ansätze probiert. Titel spezifisches Training (DLSS 1.x) oder generelles Training (DLSS 2.x). Kontraintuitiv erzielte das generell trainierte NN die besseren Ergebnisse (und ist auch schneller zu implementieren).Ich dachte eigentlich, DLSS2 macht noch sehr viel mehr anders als nur das.

|MatMan|
2021-02-09, 18:10:47
Ein neuronales Netz zu trainieren sehe ich überhaupt nicht beim Spieleentwickler. Das ist gar nicht deren Kompetenz, das Know-How dafür baut man nicht mal eben nebenbei auf, Hardware zum Training braucht man auch noch oder muss sie mieten.
An zentralerer Stelle sehe ich das besser aufgehoben, damit nicht jeder Spieleentwickler quasi dasselbe machen muss. Vielleicht schafft man es ja irgendwann eine API dafür festzulegen und jeder IHV kann sein eigenes Netz liefern, als Fallback gibt es ein Netz von Microsoft.

vinacis_vivids
2021-02-09, 18:26:44
Das Spielchen mit dem zentralisiert neuralen AI-Netz, vor allem unter Nvidia`s proprietärer Hand gefällt mir irgendwie nicht. Das ist der Tod der kleinen Code-Entwickler, die ja mit zunehmender technischer Entwicklung doch mehr selbst in die Hand nehmen sollen statt immer mehr abzugeben.
Außerdem ist das AI-Training energietechnisch zu teuer und bringt nicht immer die besseren graphischen Ergebnisse zum Vorschein.
Vor allem: Wieso soll ich meinen Code an Nvidia geben, damit die Einsicht drauf haben und den Code verändern und im Gegenzug ihren Code nicht preisgeben. :freak:

Fragman
2021-02-09, 19:44:40
Kleiner Codeentwickler?
Die sind doch froh, das sie Hilfe bekommen und sich nicht über grundlegende Dinge kümmern müssen. So läuft das doch schon seit Jahren. Wer hat denn als "Kleiner" Resourcen um entsprechend größeres aufzubauen und selbst zu pflegen?
Die Demokratisierung der Spieleengines ist das beste Beispiel dafür. Nur deshalb sehen wir soviele Indiegames, das könnten diese kleinen Studios gar nicht selbst stemmen.

Complicated
2021-02-09, 20:06:06
Ein neuronales Netz zu trainieren sehe ich überhaupt nicht beim Spieleentwickler. Das ist gar nicht deren Kompetenz, das Know-How dafür baut man nicht mal eben nebenbei auf, Hardware zum Training braucht man auch noch oder muss sie mieten.

Was genau das sein wird was kommt. KIs werden konkurrieren um Aufträge, auch bei den Spielestudios. Und KIs werden nach Geschäftsmodellen suchen, denn Know-How und Hardware sind nicht umsonst.

|MatMan|
2021-02-10, 00:24:21
Was genau das sein wird was kommt. KIs werden konkurrieren um Aufträge, auch bei den Spielestudios. Und KIs werden nach Geschäftsmodellen suchen, denn Know-How und Hardware sind nicht umsonst.
Wenn nVidia keinen Unfug erzählt und DLSS 2 tatsächlich kein spezielles Training je Spiel benötigt, dann macht es für mich keinen Sinn, dass jeder Spieleentwickler Geld für die Entwicklung eines DLSS-Äquivalents ausgeben soll. Wozu Geld / Manpower verschwenden, wenn es von beiden großen IHVs eine kostenlose (!) Variante gibt?! Das würde bedeuten, dass die Lösung des Spieleentwicklers (bzw. der KI-Firma, die der beauftragt), etwas deutlich besseres als die AMD / nVidia Lösung bietet. Üblicherweise müsste man dafür dann auch mehr Aufwand (=Geld) reinstecken -> unwahrscheinlich...

Vorstellen könnte ich mir natürlich andere KI-Anwendungen in Spielen!

Complicated
2021-02-10, 07:12:48
Dass die Spieleentwickler die KI mieten werden und nicht selber Manpower und Ressourcen dafür aufwenden wurde doch schon deutlich gesagt. Nvidias DLSS 2.0 wird man sich erst mal anschauen müssen. Die erzählen viel wenn der Tag lang ist. Bei KI gibt es grössere Player die auf Kundensuche sind.

robbitop
2021-02-10, 08:57:24
Ich dachte eigentlich, DLSS2 macht noch sehr viel mehr anders als nur das.
Ja da hast du Recht. Insofern kann man es natürlich schwerlich 1:1 vergleichen. Soweit ich es verstanden habe: DLSS 2.x scheint ja eher den Ansatz zu verfolgen, das Bild in höherer Zielauflösung mittels temporal vorliegenden Informationen zu rekonstruieren.

DLSS 1.x nutzte das NN eher zum Upscaling des Bildes selbst.

Es ergibt intuitiv schon Sinn, dass letzteres ggf. eher von einem spielspezifischen Ansatz profitiert. Das NN für das clamping kann man ggf. eher generell trainieren.

Es bietet sicherlich auch den Vorteil, dass die Verbreitung viel schneller funktioniert. Ggf. versucht NV ja in Zukunft beide Ansätze miteinander zu verbinden.

Ein neuronales Netz zu trainieren sehe ich überhaupt nicht beim Spieleentwickler. Das ist gar nicht deren Kompetenz, das Know-How dafür baut man nicht mal eben nebenbei auf, Hardware zum Training braucht man auch noch oder muss sie mieten.
An zentralerer Stelle sehe ich das besser aufgehoben, damit nicht jeder Spieleentwickler quasi dasselbe machen muss. Vielleicht schafft man es ja irgendwann eine API dafür festzulegen und jeder IHV kann sein eigenes Netz liefern, als Fallback gibt es ein Netz von Microsoft.
Ich könnte mir vorstellen, dass AMD das NN trainiert und statt im Treiber dies dem Studio zur Verfügung stellt, damit sie es mit dem Spiel ausliefern können. Dann könnte es, im Gegensatz zu DLSS (NN im Treiber), auch potenziell GPU agnostisch funktionieren.

Noch offener könnte man es wie folgt gestalten:
1. das NN wird durch klar definierte und gut dokumentierte Schnittstellen implementiert - so kann jeder IHV oder auch jedes interessierte Studio sein eigenes NN als Alternative einbauen
2. das NN wird als open source ausgeliefert

Solange das NN nur eine Blackbox bleibt, die nicht austauschbar ist, bleibt ggf. bei den Studios und den IHVs die Befürchtung am Tropf von AMD zu hängen. Sobald das durch Punkt 1 oder 2 ausgehebelt ist, kann eine offene Lösung sich viel schneller verbreiten.

Allerdings ist das RnD für ein NN für diese Aufgabe ganz schön aufwändig und speziell. Sowas gibt man nicht gern für andere raus/frei. Deshalb hat NV das auch nicht gemacht mit DLSS. Andererseits hat AMD aufgrund der Existenz von DLSS jetzt nichts zu verlieren. Ganz im Gegenteil. Sie brauchen einen so groß wie möglichen Hebel, damit sich eine Alternative schnell durchsetzt. Ein komplett offenes und gut dokumentiertes Verfahren hat das Potenzial dieser Hebel zu sein und den Wettbewerbsvorteil von DLSS zu eliminieren. Ein weiteres proprietäres Verfahren könnte das wohl nur schwerlich.
Genau so hat es auch mit VRR und low Level APIs funktioniert.

Szudri
2021-02-10, 10:05:37
[...]
Allerdings ist das RnD für ein NN für diese Aufgabe ganz schön aufwändig und speziell. Sowas gibt man nicht gern für andere raus/frei. Deshalb hat NV das auch nicht gemacht mit DLSS.
[...]

Gibt es überhaupt irgendeine Technik von nVidia die von denen von vornherein allen offen zur Verfügung gestellt wurde?

Damit meine ich natürlich keine Sachen die im Rahmen der Vulkan oder Direkt3D Sachen in die Gremien eingeflossen sind, sondern Zusatzsachen.

mksn7
2021-02-10, 10:35:51
Ich hab ein bisschen das Gefühl, dass NVIDIA den "Neuronales Netwerk" Anteil fürs Marketing ein bisschen überhypt. Im Prinzip kann man das Tunen eines einzelnen Parameters schon als Training eines Neuronalen Netzwerks verkaufen.

Letzendlich ist in dem kleinen Zeitbudget am Ende eines Frames kein besonders großes, komplexes Neuronales Netzwerk möglich.

Bei DLSS 1.0 sieht tatsächlich ein bisschen aus wie "Deep Learning Magic wirds schon richten". Es gibt ja auch jede Menge Publikationen die da ganz erstaunliche Bilder in höherer Auflösung produzieren. Das ist aber vermutlich in wenigen ms nicht möglich. Das was in einem primitiven NN Upscaling Ansatz innerhalb des Zeitbudgets möglich ist bisher, hat halt die gemischten Ergebnisse von DLSS 1.0 erzielt. Das spielpezifische Training war dann wohl nötig um aus einem kleinen (schnell genugen) Netz möglichst viel herauszuholen.

Bei DLSS 2.0 steckt einfach mehr Cleverness im Ansatz an sich drin, und weniger Verlassen auf Deep Learning Black Box Magic. Aus den Frames vorher sind tatsächlich mehr Informationen da, da wird nicht nur etwas herbeihalluziniert durch das NN. Die Anforderungen ans Spiel sind auch höher, weil Bewegungsvektoren benötigt werden. Vermutlich lässt sich auch ohne Deep Learning so ein Ansatz konstruieren, der auch gute Ergebnisse liefert. Ich hab den Eindruck dass das Neuronale Netzwerk hier etwas zielgerichteter an den entscheidenden Stellen seinen Beitrag leistet (statt brute force wie DLSS 1)


Nachdem die Neuronalen Netze die verwendet werden nicht besonders groß und komplex sein können, ist auch das Training nicht so aufwändig wie manche sich das vorstellen. Es braucht sicher keinen Supercomputer dafür wie ihn nur NVIDIA hat. Das erzählt NVIDIA gern, weil es sich so toll anhört. Ich könnte mir vorstellen, dass in der Praxis das meiste auf einfachen Workstations mit dicken GPUs passieren kann.

Es wird interessant wie das AMD Marketing ihren Ansatz verkauft. Ob sie auch das Deep Learning Narrativ pushen (was halt so aussieht als ob NVIDIA recht hat, und Fragen nach den fehlenden Tensor Cores aufwirft) oder ob sie so tun als ob das alles recht konventionell ist.

herbert_
2021-02-10, 10:59:32
DLSS 2.0 ist einfach nur temporales AA, bei dem das neuronale Netz entscheidet, wie der letzte Frame mit dem jetzigen verrechnet wird.

Edit: Bei DLSS 3.0 kann das Spiel dann noch taggen was was ist. E.g. "das ist Wasser" damit das neuronale Netz hier keinen Mist mehr baut.

robbitop
2021-02-10, 11:29:45
Gibt es überhaupt irgendeine Technik von nVidia die von denen von vornherein allen offen zur Verfügung gestellt wurde?

Damit meine ich natürlich keine Sachen die im Rahmen der Vulkan oder Direkt3D Sachen in die Gremien eingeflossen sind, sondern Zusatzsachen.


Meine Theorie ist folgende: Jedes Unternehmen hat folgende Ziele gemein:
1. Liquidität muss immer gegeben sein
2. Gewinnmaximierung (und dessen Wachstum)

Nvidia hat sich eine andere Stellung im GPU Markt erarbeitet als AMD. Sie sind klarer Marktführer. Sie schafften es, das zu nutzen, um stark zu wachsen und gleichzeitig ihre Gewinne und ihren Ruf in der Kundschaft zu maximieren.
Das wiederum führte dazu, dass man den starken Einfluss und das starke RnD nutzen kann, um Produktmerkmale zu entwickeln und durchzusetzen, die einen weiteren Wettbewerbsvorteil erzeugen. Damit der Wettbewerbsvorteil da ist, muss es verbreitet werden und proprietär (also für andere Wettbewerber idealerweise nicht nutzbar) sein.
Das ist aus Unternehmenssicht clever. Sie nutzen ihre Stellung aus, um sich mehr Vorteile zu verschaffen. Das würde jedes exzellent geführte Unternehmen an ihrer Stelle auch tun.

AMD hingegen war bis dato immer gezwungen aus dieser Lage herauszukommen. Mit klar weniger Marktanteil und Einfluss geht das am effektivsten, wenn man es mit offenen Standards macht. Das ist keine Nächstenliebe. Das ist die bestmögliche Entscheidung aus genau dieser Situation heraus.

Wären die Rollen vertauscht, würde es mich nicht wundern, wenn das gleiche invers geschehen würde.

Und genau deshalb ist es für Endanwender eben wichtig, dass es Wettbewerb gibt. Idealerweise möglichst ausgeglichen. Und idealerweise möglichst viele Wettbewerber.

-/\-CruNcher-/\-
2021-02-10, 11:39:26
Dass die Spieleentwickler die KI mieten werden und nicht selber Manpower und Ressourcen dafür aufwenden wurde doch schon deutlich gesagt. Nvidias DLSS 2.0 wird man sich erst mal anschauen müssen. Die erzählen viel wenn der Tag lang ist. Bei KI gibt es grössere Player die auf Kundensuche sind.

Deshalb müssen wir so schnell wie möglich sehen das es eben nicht dazu kommt, so gesehen ist es für die großen publisher auch kein Problem dort zu investieren und die big players sind schon lange bei Machine Learning aktiv abseits von all den 3rd Party Playern.
Die Game Branche macht sich relativ ungern abhängig von Properitären IHV Lösungen und in inhouse solutions wird viel investiert.
Machine Learning ist nicht erst da seitdem Nvidia es angefangen hat in den Vordergrund zu schieben.
Es werden schon viel mehr ML bassierte systeme genutzt in den momentanen spielen als manch einer sich vorstellt abseits von Nvidia.
Viele aus dem Research sind direkt auch in die Spieleindustrie gewechselt das ist relativ normal und wird ja auch wie bei jedem Konzern gefördert (Nachwuchs/Universitätssupport/Kooperationen)
Das Aufbauen auch eigener Research Abteilungen ist selbstverständlich und das Headhunting nach talenten gehört genauso dazu.
Du kannst das sehr gut mit Hollywood vergleichen.


Wären die Rollen vertauscht, würde es mich nicht wundern, wenn das gleiche invers geschehen würde.
Das ist ja auch schon gewesen nur so konnte Nvidia ein riesen Ökosystem aufbauen
Allerdings muss jetzt langsam mal der Ausgleich erfolgen, das geschieht ja auch momentan zu hauf und wird Nvidia viel Geld kosten.
Nvidia versucht sich genau dagegen massiv zu wehren weil sie es genau kennen was auf sie zukommt, deswegen stellt Jensen ja auch alles extrem breit auf und schliest ja überhaupt nichts mehr aus (und das nicht erst seit gestern) ;)

4 Player 4 Systeme 2 davon werden in eine ganz andere Richtung gehen

Gratzner
2021-02-10, 14:50:43
Meine Theorie ist folgende: Jedes Unternehmen hat folgende Ziele gemein:
1. Liquidität muss immer gegeben sein
2. Gewinnmaximierung (und dessen Wachstum)


Wenn man ein negatives Menschenbild hat, dann könnte man es so sehen, aber sonst liegst Du daneben.

Jedes größere Unternehmen organisiert und arbeitet nicht, wie es sich nett anhört, sondern befolgt ganz konkrete (Qualitäts-)Managementnormen, die definieren, wie man sich organisiert, Prozesse aufstellt, etc. Diese Unternehmen müssen sich regelmäßig auch neu zertifizieren und auditieren lassen. Diese Zertifizierung sind heutzutage oft eine Voraussetzung, dass ein anderes Unternehmen mit dir überhaupt Zusammenarbeit oder von dir Sachen kauft.

Wie dem auch sei, in den ganzen Qualitätsmanagementnormen gibt es immer ein Kapitel: Kontext der Organisation (bei der ISO 9001 wäre dass das Kapitel 4). Da definiert das Unternehmen, grob gesagt, wie es sein will (um langfristig erfolgreich zu sein), was diese Ziele im konkreten bedeuten und in späteren Kapitel, wie man diese Ziele im konkreten Umsetzten will oder wie man auch garantieren will, wie diese Ziele umgesetzt werden.

Bei Nvidia auf der Website findet man einige dieser Punkte unter dem Stichpunkt 'Corporate Social Responsibility' (https://www.nvidia.com/en-us/csr/)(CSR) wieder. Da heißt es dann z.B.: "Environmental and social responsibility are integral to our continued success." Dazu gibt es im Link darunter einen Report (vor allem für Stakeholder), den jeder lesen kann, was das im konkreten bedeutet und wie Nvidia das Umsetzen will bzw. bisher umgesetzt hat. Offen gesagt, es liest sich alles andere als 'Geldgeil', wenn Nvidia beispielsweise haufen 'Kohle' für CO2 Reduktion rauswerfen.

Der Unterschied zwischen AMD und Nvidia ist nur, das AMD es sich irgend was wie "möglichst viele offene Standards" als Ziel festgelegt hat, um langfristig erfolgreich zu sein, Nvidia hat sich eben andere Ziele rausgesucht. Und es gibt für beide Seiten starke Argumente (Beispielsweise offene Standards -> einfachere Adaption durch andere Unternehmen vs. weniger offene Standards -> Know-How wird besser geschützt). Die Frage für welche Seite man sich entscheidet ist dann auch weniger die Frage nach Geld (es gibt ja für beide Seiten starke Argumente und es ist nicht vorhersehbar, welche Seite die bessere sein wird), sondern es ist eher die Frage, wie will man als Unternehmen sein. Und es hat auch weniger mit Topdog vs Underdog zu tun, beispielsweise MS fährt als Topdog seit einiger Zeit auch eine relativ aggressive open source Strategie.


Wären die Rollen vertauscht, würde es mich nicht wundern, wenn das gleiche invers geschehen würde.

Man brauch ja nur vergleichen, was die Unternehmen für ein Kontext sich geben. Und mir sieht es weniger so aus, als wäre die Situation invers bei Rollentausch.

Edit:
Wer gerne AMDs Seite zu 'Corporate Social Responsibility' lesen will, hier ein Link zu AMD (https://www.amd.com/system/files/documents/cr2020-global.pdf), wobei es AMD einfach nur 'Corporate Responsibility' (CR) nennt

robbitop
2021-02-10, 16:13:25
Nachhaltigkeit wird immer wichtiger. Das geht bei börsennotierten Unternehmen schon fast gar nicht mehr ohne CSR.
CSR bezieht sich primär darauf, dass man als Unternehmen Beiträge für die Umwelt und Gesellschaft leistet.
Umwelt, Community, Unterstützung von Minderheiten etc. Das kostet Geld. Das macht man aber nicht primär weil man es möchte, sondern weil es heuzutage unerlässlich ist. Und außerdem ist es sehr gute Publicity. Macht mein Arbeitgeber (größeres US Amerikanisches börsennotiertes Unternehmen - hat aber nichts mit Hardware zu tun) übrigens auch. :)
Unser Vorstand hatte vor einer Weile erklärt, dass es nicht mehr ohne geht und das von den Investoren erwartet wird. Sicherlich ist es schön, dass es sowas gibt. Aber aus reinem Gutmenschentum passiert das nicht. In den Boardrooms auf C-Level Ebene geht es knallhart zu, kann ich dir sagen.

Das ändert jedoch wenig an meiner Argumentation. Die Gewinnmaximierung passiert darüber hinaus im eigentlichen Geschäftsfeld. CSR ist ein Kostenpunkt, den man einkalkuliert und einkalkulieren muss. Das ist fast wie eine Steuer, die man zahlt und alle anderen auch. Darüber hinaus wird natürlich alles versucht, Gewinnspannen zu steigern und Umsätze zu erhöhen. Neue Märkte zu erschließen und den Wettbewerb zu besiegen. Mit allen Mitteln die erlaubt sind. Seine Marktmacht zu nutzen, um proprietäre Produktmerkmale nach vorn zu bringen, die einem Wettbewerbsvorteile bringen ist das normalste Spiel der Welt.

Das kann man gut oder schlecht finden. Passiert in allen Branchen jeden Tag. Als Endkunde finde ich das nicht gut - ich will ja einen ausgeglichenen Markt.
Es ist NV's Stellung, die sie dazu in die Lage gebracht hat das zu machen. Ich bin mir sicher, dass alle anderen Spitzen CEOs eine ähnliche Wahl treffen würden.

aufkrawall
2021-02-10, 16:31:15
Mit allen Mitteln die erlaubt sind. Seine Marktmacht zu nutzen, um proprietäre Produktmerkmale nach vorn zu bringen, die einem Wettbewerbsvorteile bringen ist das normalste Spiel der Welt.

"Proprietär" ist in dem Zusammenhang ein Euphemismus. Es gibt zuhauf proprietäre Standards, die verschiedene Hersteller nutzen können (HDMI, DirectX...). Bei Nvidia ist aber alles immer Nvidia-exklusiv + Blackbox-Lib + häufig NDAs über Details der Nutzung + Redundanz gegenüber anderen Standards.
Falls AMD jetzt wieder mehr Boden gutmachen wird, kannst du davon ausgehen, dass sie genau gar nichts an ihrer offenen Schiene ändern werden. Nvidia ist schlimmer als andere, deal with it.

ChaosTM
2021-02-10, 18:54:01
Genau deshalb gibt es bei mir auch einen roten Bias. Solche konsumerfeindlichen Vorgehensweisen sollte man nicht unterstützen.
Ob das alle "guten" Firmen machen oder nicht ist mir dabei herzlich egal.

Gratzner
2021-02-10, 20:11:58
Nachhaltigkeit wird immer wichtiger. Das geht bei börsennotierten Unternehmen schon fast gar nicht mehr ohne CSR.
CSR bezieht sich primär darauf, dass man als Unternehmen Beiträge für die Umwelt und Gesellschaft leistet.
Umwelt, Community, Unterstützung von Minderheiten etc. Das kostet Geld. Das macht man aber nicht primär weil man es möchte, sondern weil es heuzutage unerlässlich ist. Und außerdem ist es sehr gute Publicity. Macht mein Arbeitgeber (größeres US Amerikanisches börsennotiertes Unternehmen - hat aber nichts mit Hardware zu tun) übrigens auch. :)
Unser Vorstand hatte vor einer Weile erklärt, dass es nicht mehr ohne geht und das von den Investoren erwartet wird. Sicherlich ist es schön, dass es sowas gibt. Aber aus reinem Gutmenschentum passiert das nicht. In den Boardrooms auf C-Level Ebene geht es knallhart zu, kann ich dir sagen.

Nur mal so am Rande, das Unternehmen gehört im wesentlichen nicht den Vorstand, sondern den Investoren und Anlegern. Wenn also ein Unternehmen allgemeinnützige Ziele (CSR, etc.) auf Druck von den Investoren umsetzt, dann geht das irgendwo auf Kosten (des Gewinnes) genau dieser Investoren. Daher frage ich mal ganz provokativ: hat es doch was mit Gutmenschentum zu tun?
Seine Marktmacht zu nutzen, um proprietäre Produktmerkmale nach vorn zu bringen, die einem Wettbewerbsvorteile bringen ist das normalste Spiel der Welt.

Genau das ist so nicht korrekt, MS fährt, verglichen mit seiner früheren Politik, eine richtige Open Source initiative, Googles Geschäftsmodelle basieren oft auf Open Source und freie Nutzung, viele Normen werden von großen Unternehmen gefördert oder sind auf initiative von großen Unternehmen überhaupt erst entstanden. Und Normen sind so ziemlich das Gegenteil von Proprietär. Und AMD scheint auch teilweise auch auf diesen Zug aufgesprungen zu sein.
Klar gibt es viele Unternehmen, wie Nvidia, die für sich entscheiden, dass man möglichst wenig offen mit seinen Produkten umgeht.
Das hängt nicht nur von Gewinnmaximierung ab, sondern wie ich schon schrieb, was für ein Kontext sich die Unternehmen geben und damit wie diese sich Vorstellen zu wirtschaften. Wie von aufkrawall dargestellt, scheint Nvidia einen Kontext zu haben, der sehr wenig für offene Standards übrig hat. AMD scheint da einen etwas anderen Kontext zu haben. Wenn die Situation zwischen Nvidia und AMD invers wäre, ich glaube kaum, das plötzlich auch die Kontexte der Unternehmen invers wären

vinacis_vivids
2021-02-11, 00:15:46
Nvidia hat in den letzten 10 Jahren mindestens zwei big fails schlucken müssen:

1. Autonomes Fahren, Tesla

Nvidia Drive AGX Xavier -> fail, weil zu schwache Leistung
Nvidia Drive AGX Pegasus -> fail, weil zu hoher Verbrauch von 500W

Elon Musk lässt bei Tesla einen eigenen inhouse FSD Chip bauen.
Für das KI-Training nutzt Tesla eigene Software & Hardware (Jim Keller).

2. Konsole, Sony Playstation 4 und Microsoft XboX

https://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html

Im Jahr 2013 lief es im Kerngeschäft GPU-Verkäufe sehr gut und Nvidia verlangte zu hohe Preise für den Deal. Das Management war zu sehr verwöhnt von den hohen Preisen, die man am PC ausrufen konnte.
AMD baut APU mit GCN für die Playstation 4 (Pro) & XboX und feiert einen großen technologischen Sieg.

3. Auto + Konsole

Elon Musk lässt in seinen Autos die Konsolentechnik rein.
Ergebnis: 10 Tflop/s kommen von AMD mit Navi uArch.

Auch am PC muss Nvidia jetzt spurten, weil AMD mit Navi 2.0 uArch auf der Überholspur ist.

-/\-CruNcher-/\-
2021-02-11, 00:35:44
Dem größten Verlust dem Jensen hinterhertrauert ist Mobile allerdings gab es dort Payback, weil dieser R&D Part lebenswichtig für Nvidias Fusion geworden ist und um überhaupt relevant zu bleiben in Zukunft.
Ohne Tegra wäre AMD jetzt schon längst vorn der frühere Umstieg auf Imagination/Arm Tile Based Rendering war enorm wichtig für Nvidia.
Genauso wie der sehr frühzeitige Aufbau von CUDA aus dessen Prototyping viele Nvidia relevante Fixed Logic Hardware Bausteine entstanden sind und sehr voraussichtlich noch weiter entstehen werden.
Ich bin immer noch sehr sehr sicher wir werden einen sehr massiven Comeback Versuch von PhysX sehen, immerhin wurde es quasi überall by default verdammt.
Voraussichtlich werden Nvidia die ersten sein die versuchen werden es über Kronos, als quasi Standard als eine Säule zurück zu pushen.
Bevor AMD/Intel nachziehen.
Und man kann den Arsch darauf verwetten das Nvidia auch Tensor und RTX mit in dieses neue PhysX Comeback einbeziehen wird.
Und vor allem das Nvidias Engineers gerade fleißig am Prototyp basteln sind, während jeder noch über die RT Fortschritte philosophiert.

Zossel
2021-02-11, 07:50:36
Umwelt, Community, Unterstützung von Minderheiten etc. Das kostet Geld. Das macht man aber nicht primär weil man es möchte, sondern weil es heuzutage unerlässlich ist. Und außerdem ist es sehr gute Publicity. Macht mein Arbeitgeber (größeres US Amerikanisches börsennotiertes Unternehmen - hat aber nichts mit Hardware zu tun) übrigens auch. :)

Als Shareholder würde ich den Laden verklagen das er nicht mehr meine Kohle für Gedöns ausgibt sondern gefälligst anständiges und möglichst billiges Greenwashing betreibt.

robbitop
2021-02-11, 09:10:30
"Proprietär" ist in dem Zusammenhang ein Euphemismus. Es gibt zuhauf proprietäre Standards, die verschiedene Hersteller nutzen können (HDMI, DirectX...). Bei Nvidia ist aber alles immer Nvidia-exklusiv + Blackbox-Lib + häufig NDAs über Details der Nutzung + Redundanz gegenüber anderen Standards.
Falls AMD jetzt wieder mehr Boden gutmachen wird, kannst du davon ausgehen, dass sie genau gar nichts an ihrer offenen Schiene ändern werden. Nvidia ist schlimmer als andere, deal with it.
Mit proprietär meine ich auch exklusiv. Da habe ich mich nicht ausreichend ausgedrückt.

Wie begründest du, dass AMD sich an gleicher Stelle anders verhalten wird? Bauchgefühl? Eine Firma ist keine Person mit einem Charakter. Ich bin mir sogar sehr sicher, dass jede sehr gut geführte Firma das gleiche tun würde. Angenommen AMD würde über Nacht in NV's Rolle schlüpfen, würde das sicherlich nicht sofort passieren. Da gibt es gewisse Gradienten. Aber es geschieht sicherlich über die Zeit.

Was das Pricing angeht waren ja auch viele überrascht, dass die neusten Zens und Radeons nicht mehr wie früher verschachert werden sondern AMD auch die Margen anzieht. Naiv von den Enttäuschten zu denken, dass der Underdog, wenn er die Oberhand gewinnt weiterhin mit niedrigen Margen operiert. Das ist zwar nicht direkt mit dem fragwürdigen Verhalten von exklusiven und proprietären Technologien (oder so etwas wie dem GPP) zu vergleichen - aber der Grundmeachanismus geht in die gleiche Richtung. Gewinne steigern und sichern. Aus Investorensicht macht NV alles richtig. Und der Job des C-Levels ist es nunmal die Investoren reicher zu machen. :)

Wie gesagt: gut finden tue ich das persönlich nicht. Ist aber harte Realität.


Genau das ist so nicht korrekt, MS fährt, verglichen mit seiner früheren Politik, eine richtige Open Source initiative, Googles Geschäftsmodelle basieren oft auf Open Source und freie Nutzung, viele Normen werden von großen Unternehmen gefördert oder sind auf initiative von großen Unternehmen überhaupt erst entstanden. Und Normen sind so ziemlich das Gegenteil von Proprietär. Und AMD scheint auch teilweise auch auf diesen Zug aufgesprungen zu sein.
Klar gibt es viele Unternehmen, wie Nvidia, die für sich entscheiden, dass man möglichst wenig offen mit seinen Produkten umgeht.
Das hängt nicht nur von Gewinnmaximierung ab, sondern wie ich schon schrieb, was für ein Kontext sich die Unternehmen geben und damit wie diese sich Vorstellen zu wirtschaften. Wie von aufkrawall dargestellt, scheint Nvidia einen Kontext zu haben, der sehr wenig für offene Standards übrig hat. AMD scheint da einen etwas anderen Kontext zu haben. Wenn die Situation zwischen Nvidia und AMD invers wäre, ich glaube kaum, das plötzlich auch die Kontexte der Unternehmen invers wären
Proprietäre Technologien sind nunmal nicht in jeder Branche und jeder Situation die richtige Strategie. Für NV war sie es offenbar.
Googles und MS Geschäftsmodell ist ein völlig anderes und die Branche (HW vs SW) ist auch eine andere.
Das muss man etwas abstrakter verstehen. Zu jeder Lage gibt es eine Strategie die zum maximalen Erfolg führt. Der Faktor Ethik hat damit nicht zwangsweise eine Korrelation. Natürlich kann das in vielen Situation auch gerade gut und passend sein. So wie eben im Falle von AMD oder MS. Aber es muss es nicht. Wenn es korreliert, na dann nutzt man es auch voll aus, dass es gut zur Ethik passt und wirbt damit. Aber man sollte nicht glauben, dass der ethische Aspekt der Treibende in einer Strategie war. Er kann aber je nach Lage zur Strategie passen. Und dann wird damit geworben - das bringt ja auch ggf auch Sympathie. ;)


----------
Aber IMO ist hier genug OT. Könnten wir ja in einen anderen Thread verlagern.

fondness
2021-02-11, 09:38:42
Wie begründest du, dass AMD sich an gleicher Stelle anders verhalten wird? Bauchgefühl? Eine Firma ist keine Person mit einem Charakter. Ich bin mir sogar sehr sicher, dass jede sehr gut geführte Firma das gleiche tun würde. Angenommen AMD würde über Nacht in NV's Rolle schlüpfen, würde das sicherlich nicht sofort passieren. Da gibt es gewisse Gradienten. Aber es geschieht sicherlich über die Zeit.


Es gibt so einige Firmen mit Marktbeherrschender Stellung, die trotzdem auf offene Standards und Open-Source setzen. Dein Argument ist also ein äußerst schwaches. NV verhält sich einfach äußerst rücksichtslos, dafür gibt es dutzende Beispiele und ich sehe wirklich keinen Grund, warum man das auch noch verteidigen muss.

amdfanuwe
2021-02-11, 10:00:11
Aus Investorensicht macht NV alles richtig.
Nö. Hätten sie bei PhysX nicht AMD blockiert, könnten sie noch heute auch jedem AMD Käufer eine PhysX Karte anbieten.
Hätten sie Gsync an AMD lizensiert, könnten sie noch immer Lizenzgebühren kassieren und GSync würde als gute Nvidia Erfindung dastehen. Und da gibt es noch einige andere Dinge. CUDA wird auch zu Tode geritten bis die Konkurrenz was gleichwertiges oder besseres bringt. Warum nicht Lizensieren und damit auch zukünftig die Entwicklung in dem Markt bestimmen. Schließlich kauft man am besten das Original.
Technik kann proprietär sein. Aber wenn sie nicht Lizensierbar ist kommt die Konkurrenz und überholt.
Das ist einer der Gründe, warum ich nicht in Nvidia investiert bin.

Complicated
2021-02-11, 10:30:16
Wie begründest du, dass AMD sich an gleicher Stelle anders verhalten wird? Bauchgefühl? Eine Firma ist keine Person mit einem Charakter. Ich bin mir sogar sehr sicher, dass jede sehr gut geführte Firma das gleiche tun würde.
Derzeit sind sich eigentlich alle einig in Wirtschaftskreisen, dass die Führung von Lisa Su der Goldstandard ist - seltsames Argument.

Sunrise
2021-02-11, 10:40:16
Wenn man vor allem das Geld im Auge hat, in einer immer mehr kapitalistisch aufgestellten Gesellschaft, macht NV sehr vieles richtig. Siehe vor allem den Aktienkurs, der sich stark vom Markt entkoppelt hat. Solche Player gibt es nur wenige.

Die Methoden sind aber so ähnlich wie bei Intel, vor allem die Außenwirkung ist hier entscheidend, und die war bei NV niemals so, wie bei AMD.

Jensen selbst ist ja derjenige, der diese Firmenethik prägt und verbreitet. Da sind viele Mittel Recht und man prescht hier auch meist sehr schnell mit etwas vor, auch wenn es im Ansatz nicht neu ist.

NV hat damals alle platt gemacht, weil sie vor allem die Zeichen der Zeit erkannt haben. Dieses AI-Thema ist ja auch nicht neu, aber nur um realistische Grafik geht es schon lange nicht mehr.

AMD wurde über die Jahre leider von Führungspersonen geführt, die eben genau das nicht konnten, denn Lisa zeigt ja, wie stark der Einfluss der obersten Führungspersönlichkeit sein kann. So krass wie Lisa es vorgemacht hat, sieht man Akteure/Akteurinnen am Markt nur sehr selten.

Navi (bzw. RDNAx, um das es hier ja geht) ist seit langer langer Zeit endlich konkurrenzfähig und hat sich in fast alle Märkte eingegraben, NV gibt aber gefühlt immernoch vor, wohin die Reise geht.

robbitop
2021-02-11, 11:25:47
Es gibt so einige Firmen mit Marktbeherrschender Stellung, die trotzdem auf offene Standards und Open-Source setzen. Dein Argument ist also ein äußerst schwaches. NV verhält sich einfach äußerst rücksichtslos, dafür gibt es dutzende Beispiele und ich sehe wirklich keinen Grund, warum man das auch noch verteidigen muss.
Ggf. habe ich meine Intension nicht klar genug ausgedrückt. Ich heiße das auf keinste Weise gut und will es auf keinen Fall verteidigen. Ganz im Gegenteil. Es geht mir darum, zu verstehen (bzw aufzuzeigen) wo das her kommt. Zu vermuten, dass manche Firmen einfach gut sind und andere böse ist IMO nicht tief genug betrachtet. Ich sehe es als eine der negativen Folgen der Marktökonomie. Das ist alles. Firmen sind weder gut noch böse. Es sind keine Menschen - es sind Firmen. Und die wollen Geld verdienen - und zwar möglichst viel. Wir sehen ja bereits, dass AMD ihre Margen gesteigert hat (und somit sich die Preise ihrer Produkte erhöht hat) seit dem ihre Produkte sehr viel wettbewerbsfähiger wurden. Das hat in der Community einen großen Aufschrei gegeben. Und natürlich ist das aus ökonomischer Sicht nachvollziehbar.

Wir als Konsumenten müssen unsere Entscheidungen selbst treffen. ;)

Derzeit sind sich eigentlich alle einig in Wirtschaftskreisen, dass die Führung von Lisa Su der Goldstandard ist - seltsames Argument.
Ich sehe das zu 100% genauso. Lisa Su ist IMO einer der besten CEOs im Moment. Sicherlich auf Augenhöhe mit CEOs wie Elon Musk, Tim Cook oder Jensen Huang. Jeder macht aus seiner Lage mit seinem Unternehmen das aller Beste aus der Situation zum jeweiligen Zeitpunkt. Allerdings ist die Lage von AMD eine andere als die von NV. Entsprechend ist die Strategie, die maximalen Erfolg bringt auch eine andere. Am Beispiel von einem DLSS Konkurrenzprodukt habe ich auch aufgezeigt warum. Das gleiche gilt für offenes VRR vs G-Sync. Es war jeweils die aus der Sicht des jeweiligen Unternehmens zum jeweiligen Zeitpunkt in der jeweiligen Lage eine Entscheidung, die nachvollziehbar ist.
G-Sync und DLSS sollten als exklusive Produktmerkmale Wettbewerbsvorteile bringen und Kunden binden. Das funktioniert, wenn man Marktführer ist. Offenes VRR und offenes Super Resolution sind aus Sicht des Zweiten bei der Existenz dieser Technologien jedoch die einzig effektive Gegenstrategie. Bei VRR hat es funktioniert und entsprechend war es von NV dann die Reaktion, offenes VRR auch zu unterstützen. Ähnliches kann auch bei Super Resolution passieren.
Jede Gegenreaktion benötigt Zeit. Zeit in der man Kunden binden kann und Marktanteile vergrößern kann. Und genau das hat auch funktioniert.
Nicht schön aber effektiv. NV wird das sicherlich so lange weiter versuchen, solange sie in der Lage des Marktführers sind.

Complicated
2021-02-11, 12:14:07
Nicht schön...wie du sagst.

Am Ende entscheidet der Endanwender was er mit sich machen lässt. Niemand muss die Methoden eines Unternehmens unterstützen oder für das Geschäftsmodell Verständnis zeigen, wenn er selber dadurch Nachteile hat.

Ich bevorzuge daher AMD, auch wenn ich die kapitalistischen Gründe von Nvidia nachvollziehen kann - doch auch die Ablehnung des Endverbrauchers ist eines der regulierenden Elemente. Daher lehne ich dieses Geschäftsmodell ab und bevorzuge die gebotenen Alternativen, welche offene Standards nutzen oder Ihre Technologie nach FRAND zur Verfügung stellen. Am Ende ist der Geldbeutel das stärkste regulativ im Markt - my vote count.

Szudri
2021-02-11, 12:16:33
Ggf. habe ich meine Intension nicht klar genug ausgedrückt. Ich heiße das auf keinste Weise gut und will es auf keinen Fall verteidigen. Ganz im Gegenteil. Es geht mir darum, zu verstehen (bzw aufzuzeigen) wo das her kommt. Zu vermuten, dass manche Firmen einfach gut sind und andere böse ist IMO nicht tief genug betrachtet. Ich sehe es als eine der negativen Folgen der Marktökonomie. Das ist alles. Firmen sind weder gut noch böse. Es sind keine Menschen - es sind Firmen. Und die wollen Geld verdienen - und zwar möglichst viel. Wir sehen ja bereits, dass AMD ihre Margen gesteigert hat (und somit sich die Preise ihrer Produkte erhöht hat) seit dem ihre Produkte sehr viel wettbewerbsfähiger wurden. Das hat in der Community einen großen Aufschrei gegeben. Und natürlich ist das aus ökonomischer Sicht nachvollziehbar.

Wir als Konsumenten müssen unsere Entscheidungen selbst treffen. ;)


Ich sehe das zu 100% genauso. Lisa Su ist IMO einer der besten CEOs im Moment. Sicherlich auf Augenhöhe mit CEOs wie Elon Musk, Tim Cook oder Jensen Huang. Jeder macht aus seiner Lage mit seinem Unternehmen das aller Beste aus der Situation zum jeweiligen Zeitpunkt. Allerdings ist die Lage von AMD eine andere als die von NV. Entsprechend ist die Strategie, die maximalen Erfolg bringt auch eine andere. Am Beispiel von einem DLSS Konkurrenzprodukt habe ich auch aufgezeigt warum. Das gleiche gilt für offenes VRR vs G-Sync. Es war jeweils die aus der Sicht des jeweiligen Unternehmens zum jeweiligen Zeitpunkt in der jeweiligen Lage eine Entscheidung, die nachvollziehbar ist.
G-Sync und DLSS sollten als exklusive Produktmerkmale Wettbewerbsvorteile bringen und Kunden binden. Das funktioniert, wenn man Marktführer ist. Offenes VRR und offenes Super Resolution sind aus Sicht des Zweiten bei der Existenz dieser Technologien jedoch die einzig effektive Gegenstrategie. Bei VRR hat es funktioniert und entsprechend war es von NV dann die Reaktion, offenes VRR auch zu unterstützen. Ähnliches kann auch bei Super Resolution passieren.
Jede Gegenreaktion benötigt Zeit. Zeit in der man Kunden binden kann und Marktanteile vergrößern kann. Und genau das hat auch funktioniert.
Nicht schön aber effektiv. NV wird das sicherlich so lange weiter versuchen, solange sie in der Lage des Marktführers sind.

nVidia kann das bis in die Unendlichkeit lange machen. Denn alles was sinnvoll OpenSource von AMD gemacht und released wird, wird auch umgehend von nVidia adaptiert.

Damit hat nVidia immer das bessere Paket, weil es Blackbox Sachen gibt, die spezifische Vorteile bieten.

vinacis_vivids
2021-02-11, 12:41:45
Wie ein Parasit, der den Wirt schön aussaugt und der Wirt sich auch noch freut ;D

Fragman
2021-02-11, 14:39:36
Wir alle leben im Kapitalismus. Weltweit gibt es keine Ausnahme (egal was einige Diktaturen intern gegenteiligen behaupten moegen). Da gibt es kein "mehr" oder "weniger" da man sich dem als Unternehmen nicht entziehen kann. Die Fanboydiskussion bringt immer wieder neue Blueten hervor. 😁

Zossel
2021-02-11, 21:19:17
nVidia kann das bis in die Unendlichkeit lange machen. Denn alles was sinnvoll OpenSource von AMD gemacht und released wird, wird auch umgehend von nVidia adaptiert.

Nvidia bringt upstream Treiber für deren GPUs unter Linux? Erzähl uns mehr!

Zossel
2021-02-11, 21:40:05
Wir alle leben im Kapitalismus. Weltweit gibt es keine Ausnahme (egal was einige Diktaturen intern gegenteiligen behaupten moegen). Da gibt es kein "mehr" oder "weniger" da man sich dem als Unternehmen nicht entziehen kann. Die Fanboydiskussion bringt immer wieder neue Blueten hervor. ��

Gehören Kleptokratien bzw. Plutokratien wie die USA und Russland deiner Auffassung auch zu den kapitalistischen Staaten?
Ansonsten wird in den USA gerade der Feudalismus wieder eingeführt: https://www.heise.de/news/Nevada-will-lokale-Regierungsmacht-an-Tech-Firmen-abtreten-samt-Gericht-5048204.html

Ansonsten wird die aktuelle Spielform des Kapitalismus, der Neoliberalismus, gerade 40 Jahre alt, genauso lange wie es der real existierende Sozialismus geschafft hat.
Und die aktuellen Zweifel am Neoliberalismus ähneln den Zweifeln am real existierende Sozialismus in den 80'ern.

Fragman
2021-02-11, 22:17:19
Gehören Kleptokratien bzw. Plutokratien wie die USA und Russland deiner Auffassung auch zu den kapitalistischen Staaten?


Kapitalismus funktioniert auf vielerlei Art, also ja.
Aber Du vergleichst jetzt die beiden Unternehmen nicht mit Staatsformen, oder?
Die Diskussion ist aber eh Offtopic und nein, ich habe keine Lust das irgendwo anders hier fortzuführen. ;)

Szudri
2021-02-11, 23:20:20
Nvidia bringt upstream Treiber für deren GPUs unter Linux? Erzähl uns mehr!

Ich schrieb Sinnvoll. Wenn das für nVidia keine Option ist, warum pöbelst du mich dann an?

Complicated
2021-02-12, 23:23:07
Ich schrieb Sinnvoll. Wenn das für nVidia keine Option ist, warum pöbelst du mich dann an?
Was sinnvoll für das Unternehmen ist, das ist nicht zwingend sinnvoll für den Endkunden. Daher ist das wohl das falsche Forum, da der Thread sich nicht um Nvidias BWL-Entscheidungen dreht - Offtopic im besten Fall, nur Getrolle im schlechtesten. Ich empfehle einfach einen anderen Thread für diese Meinungsäusserung. Vor allem wenn du dich davon schon angepöbelt fühlst.

horn 12
2021-02-13, 15:42:21
Sapphire Toxic in Anmarsch!
Auch Atomic soll kommen!

https://videocardz.com/newz/sapphire-teases-radeon-rx-6000-toxic-and-atomic-series

Ghost1nTh3GPU
2021-02-13, 17:58:25
Damit nähert sich Radeon wohl auch den $2000 Listenpreisen. :ulol:

Denniss
2021-02-13, 19:46:38
Händlerpreise, nicht Listenpreise

Fragman
2021-02-13, 20:09:28
Die Listenpreise liegen aktuell auf Alpha Centauri zu Einsicht aus, wen es wirklich interessiert...

ChaosTM
2021-02-13, 20:42:53
Aber gut im Keller des Hauptverwaltungsgebäudes versteckt..

Leonidas
2021-02-18, 11:40:21
Cowcotland:
AMD Radeon RX 6700 XT will be landing 18th March
https://twitter.com/cowcotland/status/1362325300726665218

Lehdro
2021-02-18, 14:40:49
Duell der Papierkrieger vol. 2 oder was soll das dann werden? Ich hätte ja verstanden wenn man die Notebookvarianten fokussiert und den Desktopkram nach hinten schiebt...

Ghost1nTh3GPU
2021-02-18, 18:26:38
Händlerpreise, nicht Listenpreise

Sapphire wird die Karte aber wohl nicht für $999 an den Handel abgeben/vorsehen. Newegg listet für $1639:
https://www.newegg.com/sapphire-radeon-rx-6900-xt-11308-06-20g/p/N82E16814202396?item=N82E16814202396

dargo
2021-02-18, 19:32:51
Duell der Papierkrieger vol. 2 oder was soll das dann werden?
Wieso Papiertiger? Navi21 ist bei der beachtlichen Größe gar nicht mal so schlecht verfügbar. Das Problem sind nur die hohen Preise. Da N22 mit 40 CUs deutlich kleiner wird erwarte ich hier keinen Papiertiger. Natürlich wird das Teil nicht gerade billig kommen. Das ist aktuell ein allgemeines Problem.

Lehdro
2021-02-18, 22:54:24
Wieso Papiertiger? Navi21 ist bei der beachtlichen Größe gar nicht mal so schlecht verfügbar. Das Problem sind nur die hohen Preise. Da N22 mit 40 CUs deutlich kleiner wird erwarte ich hier keinen Papiertiger. Natürlich wird das Teil nicht gerade billig kommen. Das ist aktuell ein allgemeines Problem.
Deswegen Papierkrieger anstatt Tiger. Kaufen für den Preis sollte die jedenfalls keiner wenn das in dieselbe Richtung geht wie bei der 3060 mit Marktpreis = 2x Listenpreis. Dann ist das Duell zwischen den beiden halt echt lächerlich.

Sollen erstmal verfügbar & bezahlbar werden. Nur eins von beiden reicht halt nicht.

dargo
2021-02-19, 18:36:15
Sollen erstmal verfügbar & bezahlbar werden. Nur eins von beiden reicht halt nicht.
Das sehen viele anders als du, ansonsten wären die Lager rappelvoll. ;)

Lehdro
2021-02-19, 19:06:16
Das sehen viele anders als du, ansonsten wären die Lager rappelvoll. ;)
Irgendwie bezweifle ich dass die Auslieferungsmengen in irgendeiner Art besonders hoch wären. Da kann AMD sicherlich mehr Geld mit anderer Art von Waferfläche verdienen.

Linmoum
2021-02-19, 19:16:33
Also allein Mindfactory hat 4000+ N21 (davon 1500+ 6900XT) bisher verkauft. Mehr, als sie z.B. vom 5900X verkauft haben.

Es zeigt zumindest, dass die Leute auch sehr hohe Preise zahlen und es den meisten, zumindest aktuell, schlicht egal ist, ob sie einen saftigen Aufpreis zahlen. Aber solche GPUs sind auch nicht die Zielgruppe für preisbewusste Käufer.

just4FunTA
2021-02-19, 19:18:00
Das sehen viele anders als du, ansonsten wären die Lager rappelvoll. ;)

Wenn die grakahersteller nichts liefern können die Lager ja nicht voll sein. Die haben ein paar wenige Grakas geliefert und da kannst als Verkäufer verlangen was du willst. Da du über die Menge nicht gehen kannst kannste auch versuchen mit dem 2x Preis etwas reinzuholen. Viel Lagerplatz nehmen die paar wenige grakas ja eh nicht weg..

Hakim
2021-02-19, 19:26:48
Also allein Mindfactory hat 4000+ N21 (davon 1500+ 6900XT) bisher verkauft. Mehr, als sie z.B. vom 5900X verkauft haben.

Es zeigt zumindest, dass die Leute auch sehr hohe Preise zahlen und es den meisten, zumindest aktuell, schlicht egal ist, ob sie einen saftigen Aufpreis zahlen. Aber solche GPUs sind auch nicht die Zielgruppe für preisbewusste Käufer.

Komisch das die bei den Steam GPUs immer noch nicht gelistet sind. Genauso eigenartig das die 3060ti schon drin ist aber die 3070 die früher kam nicht.

Iscaran
2021-02-19, 20:11:43
Komisch das die bei den Steam GPUs immer noch nicht gelistet sind. Genauso eigenartig das die 3060ti schon drin ist aber die 3070 die früher kam nicht.

Steam braucht teilweise bis zu 6 Monate um die Hardwaredaten zu "aktualisieren"...das wurde schon oft beobachtet dass es da hinterher"laggt".

dargo
2021-02-20, 06:21:50
Wenn die grakahersteller nichts liefern können die Lager ja nicht voll sein.
MF alleine hat an die 2500-3000 (wenn nicht sogar mehr, leider sind bei MF wieder nicht alle verkauften Einheiten aufgelistet) Navi21 in ca. 3 Monaten verkauft. Das nennst du nichts? Besonders in diesem hohen Preissegment ist das bei AMD schon ungewöhnlich viel.

Also allein Mindfactory hat 4000+ N21 (davon 1500+ 6900XT) bisher verkauft. Mehr, als sie z.B. vom 5900X verkauft haben.

Gibt es dafür eine brauchbare Übersicht? Leider nimmt MF einzelne Karten wieder raus wenn sie nicht verfügbar sind.

amdfanuwe
2021-02-20, 07:45:42
https://i.imgur.com/zH5XRdu.png

Da sammelt einer die Daten auf Reddit:
Woche 7
https://www.reddit.com/r/RadeonGPUs/comments/lj5q2f/week_7_mindfactoryde_total_gaming_gpu_sales_2105/
Woche 6:
https://www.reddit.com/r/RadeonGPUs/comments/le2wf2/week_6_mindfactoryde_total_gaming_gpu_sales_2510/

Edit: Noch eine Aufstellung für 2020:
https://i.imgur.com/KTFZbmz.png

dargo
2021-02-20, 07:51:41
Das bezieht sich aber auf alle Geforces vs. Radeons oder übersehe ich was?

Oddzz
2021-02-20, 07:57:50
bitte löschen, hätte den kompletten thread lesen sollen ;)

amdfanuwe
2021-02-20, 08:10:27
Das bezieht sich aber auf alle Geforces vs. Radeons oder übersehe ich was?
Für die Zahlen der wöchentlich 5 bestverkauften GPUs von AMD und Nvidia muß man sich durch die Wöchentlichen Posts klicken.

bitte löschen, hätte den kompletten thread lesen sollen ;)
Hättste stehen lassen sollen. Die Zusammenfassung war doch gut und ergänzend.

Zossel
2021-02-20, 08:46:16
Edit: Noch eine Aufstellung für 2020:
https://i.imgur.com/KTFZbmz.png

Ein Export als cvs wäre verwertbarer als ein Screenshot.

amdfanuwe
2021-02-20, 09:57:31
Sags dem Autor

just4FunTA
2021-02-20, 17:07:17
MF alleine hat an die 2500-3000 (wenn nicht sogar mehr, leider sind bei MF wieder nicht alle verkauften Einheiten aufgelistet) Navi21 in ca. 3 Monaten verkauft. Das nennst du nichts? Besonders in diesem hohen Preissegment ist das bei AMD schon ungewöhnlich viel.


Gibt es dafür eine brauchbare Übersicht? Leider nimmt MF einzelne Karten wieder raus wenn sie nicht verfügbar sind.

Das ist ganz einfach solche wucherpreise kann man nur verlangen wenn es nicht ausreichend Grakas gibt. Da aber weder nv noch amd grakas liefern können mal von den paar Tropfen auf dem heissen Stein abgesehen können die Verkäufer verlangen was sie wollen. Wie gesagt hätte man die Grakas massenweise würden die Preise sofort fallen..

Leonidas
2021-02-21, 03:33:14
Man sieht an den Zahlen sofort: NV kann nix mehr liefern, deswegen geht der Marktanteil massiv zurück.


Gerüchteküche: Radeon RX 6700 XT angeblich auf Performance-Höhe der GeForce RTX 3060 Ti
https://www.3dcenter.org/news/geruechtekueche-radeon-rx-6700-xt-angeblich-auf-performance-hoehe-der-geforce-rtx-3060-ti

-/\-CruNcher-/\-
2021-02-21, 04:29:13
Eh es ist doch logisch das sie Raster genauso wie schon die 6800 die 3070 geschlagen hat genauso die 6700 XT mit variante A auch die 3060 TI schlagen wird.
Da brauch man keine Bahnbrechenden News und Gerüchte mehr um diesen Zusammenhang seit release von Navi 21 XL und Ampere GA104 zu verstehen.

Die 3070 TI/Super wird schon sehr bald der 6800 die vollkommene Krone wieder entziehen und die 6800 XT unter druck bringen.

Aber das Spielchen kennen wir ja schon

Leonidas
2021-02-21, 05:45:00
Das war von der Ansetzung her überhaupt nicht klar und wird IMO eine extrem knappe Kiste. RDNA2 braucht beachtbar mehr CU, um Ampere zu schlagen. In diesem Fall haben sie nur 2 mehr. Das reicht regulär nicht.

Savay
2021-02-21, 05:55:03
Häh?!

68vs72 = ~5% mehr "CUs"
38vs40 = ~5% mehr "CUs"

Kleinere Chips werden zudem meistens durchaus etwas effizienter...

Prinzenrolle
2021-02-21, 06:48:15
Man sieht an den Zahlen sofort: NV kann nix mehr liefern, deswegen geht der Marktanteil massiv zurück.


Quark!

Leonidas
2021-02-21, 08:08:31
68vs72 = ~5% mehr "CUs"

... gewinnt die 6800XT doch aber nicht, oder?



Quark!

Präzise begründet, da muß ich meine Waffen strecken.

Zur Frage: NV verkauft in 2020 pro Woche 2000-3000 Gfx, in 2021 sind es eher ~1500 Gfx. Bei AMD sind es auch weniger als 2021, aber nicht ganz so krass = steigender Anteil. Man kann steigende Marktanteile auch bei einem insgesamt kleinerem Markt erlangen.

dargo
2021-02-21, 08:28:18
Das war von der Ansetzung her überhaupt nicht klar und wird IMO eine extrem knappe Kiste. RDNA2 braucht beachtbar mehr CU, um Ampere zu schlagen.
Wieso werden bei RDNA2 vs. Ampere plötzlich die CUs vs. SM betrachtet und nicht die Shadereinheiten? ;)

Leonidas
2021-02-21, 10:25:57
Besser zu rechnen. Die verdoppelten FP32 bei Ampere sind ja nur zu ca. +35% effizient. Da rechne ich besser in SM +35%, als kompliziert mit FP32 x0.X ...

vinacis_vivids
2021-02-21, 11:07:49
Ampere ist stromhungrig, groß und mit wenig Speicher einfach überteuert für den normalen Kunden.

RTX3070 8nm 8GB ~ 392mm² ~ 220W
RTX3080 8nm 10GB ~ 628mm² ~ 320W

RX6700 7nm 12GB ~ 335mm² ~ 190W
RX6800 7nm 16GB ~ 520mm² ~ 250W

Gegenüber der RX6700 & RX6800 sieht RTX3070 & RTX3080 richtig veraltet aus.
Eine 3070Ti 16GB mit GA104 wäre noch schlimmer überteuert und trotzdem zu langsam. Die 3080Ti mit 20GB ebenfalls, dazu kommt noch die krasse Hitze, der gigantische Kühlungsaufwand und ein krasser Preis.

Ampere ist für den Gamer Markt ein krasser fail. Viele jammern schon rum wieso die Grafikkarten so teuer sind.

Leute bauen sich ein Ryzen 5 und i5 für 150-200€ in den Rechner und sollen plötzlich 1000-1500€ für ne Grafikkarte hinlegen. Das ist einfach nicht zu vermitteln und für die Masse unbezahlbar.

w0mbat
2021-02-21, 11:28:01
... gewinnt die 6800XT doch aber nicht, oder?
Bei CB ist die 6800 XT in 1080p (7%) und 1440p (4%) schneller als die 3080, in 4K ist sie langsamer (2%). Alles unter 5% ist für mich Gleichstand, d.h. nur bei 1080p ist die 6800 XT wirklich etwas schneller. Die 3080 zieht aber auch ca. 10% mehr Strom.

Nightspider
2021-02-21, 11:41:10
Theoretisch könnte AMD wirklich noch eine höher getaktete 6950 oder XTX herausbringen mit schnellerem Speicher.

Einfach als Prestige-Karte.

Aber nötig ist es natürlich nicht wirklich.

-/\-CruNcher-/\-
2021-02-21, 11:42:19
Ampere ist stromhungrig, groß und mit wenig Speicher einfach überteuert für den normalen Kunden.

RTX3070 8nm 8GB ~ 392mm² ~ 220W
RTX3080 8nm 10GB ~ 628mm² ~ 320W

RX6700 7nm 12GB ~ 335mm² ~ 190W
RX6800 7nm 16GB ~ 520mm² ~ 250W

Gegenüber der RX6700 & RX6800 sieht RTX3070 & RTX3080 richtig veraltet aus.
Eine 3070Ti 16GB mit GA104 wäre noch schlimmer überteuert und trotzdem zu langsam. Die 3080Ti mit 20GB ebenfalls, dazu kommt noch die krasse Hitze, der gigantische Kühlungsaufwand und ein krasser Preis.

Ampere ist für den Gamer Markt ein krasser fail. Viele jammern schon rum wieso die Grafikkarten so teuer sind.

Leute bauen sich ein Ryzen 5 und i5 für 150-200€ in den Rechner und sollen plötzlich 1000-1500€ für ne Grafikkarte hinlegen. Das ist einfach nicht zu vermitteln und für die Masse unbezahlbar.

Wir sprechen uns bei Lovelace nochmal über das veraltet
Du solltest das eher mal als ein sehr gewagtes experiment verstehen was es nämlich ist mit weniger kosten etwas genauso effizientes zu schaffen bassierend mit einer array von supports um seine base uArch probleme zu lösen ;)
AMD ist hier überteuert vertausch hier nicht die Tatsachen

just4FunTA
2021-02-21, 12:01:17
Ampere ist stromhungrig, groß und mit wenig Speicher einfach überteuert für den normalen Kunden.

RTX3070 8nm 8GB ~ 392mm² ~ 220W
RTX3080 8nm 10GB ~ 628mm² ~ 320W

RX6700 7nm 12GB ~ 335mm² ~ 190W
RX6800 7nm 16GB ~ 520mm² ~ 250W

Gegenüber der RX6700 & RX6800 sieht RTX3070 & RTX3080 richtig veraltet aus.
Eine 3070Ti 16GB mit GA104 wäre noch schlimmer überteuert und trotzdem zu langsam. Die 3080Ti mit 20GB ebenfalls, dazu kommt noch die krasse Hitze, der gigantische Kühlungsaufwand und ein krasser Preis.

Ampere ist für den Gamer Markt ein krasser fail. Viele jammern schon rum wieso die Grafikkarten so teuer sind.

Leute bauen sich ein Ryzen 5 und i5 für 150-200€ in den Rechner und sollen plötzlich 1000-1500€ für ne Grafikkarte hinlegen. Das ist einfach nicht zu vermitteln und für die Masse unbezahlbar.

Weder amd noch nv können liefern dann ist es doch klar das wucherpreise verlangt werden. Es muss jetzt keiner upgraden einfach abwarten bis es wieder ausreichend grakas gibt dann normalisieren sich die preise wieder.

robbitop
2021-02-21, 12:12:55
Ich bin mir relativ sicher, dass aufgrund dessen, dass bei Ampere auch das BVH Traversal in HW vorliegt, Navi 2x auch, wenn in zukünftigen Titeln besser darauf optimiert wird, nicht an Ampere herankommen wird. Je nach dem ob das relevant ist für den jeweiligen Spieler, verändert das das Bild.
Dazu kommt, dass die Packdichte (und relativ sicher auch die Performance/Power pro Transistor) bei Samsungs 8 nm nicht and TSMCs 7 nm herankommt.

Zu teuer und schlecht verfügbar ist im Moment dank der Pandemie und des Miningbooms sowieso alles an GPUs. Das muss man jetzt ,so wie 2017, einfach mal aussitzen.

RDNA3 wird sicherlich auch mehr Teile von RT in Hardware gießen. Noch weiß niemand sicher genug, was RDNA3 und Lovelace bringen werden. Würde mich nicht wundern, wenn beide relativ ähnliche Resultate liefern werden.

-/\-CruNcher-/\-
2021-02-21, 12:19:36
Jep wir werden sicherlich Parity sehen ob in allen berreichen warten wir es ab aber es läuft darauf hinaus.
Allerdings wird Nvidia den kleinen 5nm Vorteil nicht verspielen und noch mehr hin nach RT verlagern.
Aber wie gesagt erstmal kommt die 3070/TI/Super 8nm mit den 250 AMD 7nm Watt als vorgeschmack ~-80W DLSS (~170W Sparse Performance)

dargo
2021-02-21, 12:42:21
Wir sprechen uns bei Lovelace nochmal über das veraltet
Du solltest das eher mal als ein sehr gewagtes experiment verstehen was es nämlich ist mit weniger kosten etwas genauso effizientes zu schaffen bassierend mit einer array von supports um seine base uArch probleme zu lösen ;)
AMD ist hier überteuert vertausch hier nicht die Tatsachen
Wir sprechen uns nochmal bei RDNA3 mit nem Chipletdesign. :rolleyes: Schon der Aufbau von RDNA2 deutet eindeutig in diese Richtung hin.

-/\-CruNcher-/\-
2021-02-21, 13:09:14
Wie gesagt selbst wenn sie vor Nvidia stehen sie werden nur minimale Zugewinne für den Endverbraucher machen und ob wir da einen besseren Preis sehen werden oder eher weitere AMD Sanierung wie bei Intel passiert abwarten ;)
Es war ja schon immer die Geschichte wer von beiden liefert das bessere Preis Leistungsverhältnis innerhalb des Ökosystems und das sehe ich in AMDs HSA Ökosystem noch nicht das ist momentan teurer und bietet weniger vorher war es wenigstens ausgeglichen bei AMD da stimmte Preis/Leistung oder zumindestens war es sehr attraktiv vom Preis trotz der Mängel ;)

dargo
2021-02-21, 13:11:10
Was du schon alles zu wissen glaubst... :tongue:

-/\-CruNcher-/\-
2021-02-21, 13:43:56
Das einzige das ich weiss das Nvidia sich noch recht gut gegen den ganzen Konsolenvorteil am Atmen hält und mittlerweile mit der Antwort darauf schon weit fortgeschritten ist ;)

vinacis_vivids
2021-02-21, 13:48:31
RDNA 2.0 wird im mobilen Bereich noch einen größeren Impact haben als auf dem Desktop. Da kann AMD noch exponentiell wachsen und Nvidia dort richtig das Wasser abgraben. Da zählt Perf/Watt viel viel mehr weil die Limits noch härter greifen.
Bei geringen Spannungen und 100-130W ist RDNA unschlagbar. Bisher hat Nvidia ja bei den Gaming Laptops nahezu 100% Marktanteil.

Dampf
2021-02-21, 13:57:26
RDNA 2.0 wird im mobilen Bereich noch einen größeren Impact haben als auf dem Desktop. Da kann AMD noch exponentiell wachsen und Nvidia dort richtig das Wasser abgraben. Da zählt Perf/Watt viel viel mehr weil die Limits noch härter greifen.
Bei geringen Spannungen und 100-130W ist RDNA unschlagbar. Bisher hat Nvidia ja bei den Gaming Laptops nahezu 100% Marktanteil.

Gerade bei Performance Pro Watt hat Nvidia doch gerade einen weiten Vorsprung durch DLSS.

-/\-CruNcher-/\-
2021-02-21, 14:05:02
Er versteht einfach immernoch nicht das Nvidia deswegen auf 7nm nicht angewiesen ist ;)

Linmoum
2021-02-21, 14:08:32
Gerade bei Performance Pro Watt hat Nvidia doch gerade einen weiten Vorsprung durch DLSS.In 5% aller verfügbaren Spiele oder wie? Ampere hat schon für den Desktop keine Bäume ausgerissen, was Perf/Watt unter Berücksichtigung des Fertigungssprungs anbelangt. Aber Mobile macht sich das noch mal mehr in negative Richtung bemerkbar.

Dass AMD mal wieder effizientere GPUs baut als Nvidia, hätte so schnell wahrscheinlich niemand gedacht. Wobei die Diskussion für Mobile müßig ist, solange sowieso nichts verfügbar bzw. bekannt ist. Aber die Mobile-Gegebenheiten dürften RDNA2 wunderbar liegen.

-/\-CruNcher-/\-
2021-02-21, 14:13:01
Dass AMD mal wieder effizientere GPUs baut als Nvidia, hätte so schnell wahrscheinlich niemand gedacht.
Mit RDNA1 war das schon ziemlich erkennbar allen voran die 5700(XT) die Nvidia schon etwas zittern lies was da mit RDNA2 nachfolgt

Linmoum
2021-02-21, 14:16:20
Naja, nicht wirklich. RDNA war zwar massivst effizienter als Vega, aber Turing war - trotz 12nm - trotzdem noch ein gutes Stück vor. Der Sprung zu RDNA2 war für sich dann natürlich noch mal enorm, aber als man da erste Anzeichen für hatte, wusste man genauso wenig, dass Nvidia mit Ampere bei Perf/Watt ggü. Turing dann doch derart schwächeln würde. Da hat eigentlich jeder deutlich mehr erwartet, gerade bei Nvidia und allem seit Maxwell.

Lehdro
2021-02-21, 14:16:34
Gerade bei Performance Pro Watt hat Nvidia doch gerade einen weiten Vorsprung durch DLSS.
Jo, gerade in den 90% der Spiele wo das nicht unterstützt wird ist das sehr merkbar. :rolleyes:

w0mbat
2021-02-21, 14:17:19
Noch haben nicht alle games DLSS. Und AMDs Antwort kommt bestimmt.

Lehdro
2021-02-21, 14:31:15
Naja, nicht wirklich. RDNA war zwar massivst effizienter als Vega, aber Turing war - trotz 12nm - trotzdem noch ein gutes Stück vor.
So deutlich war das gar nicht, je nach Karte sogar umgekehrt (https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt). Mit "Super" wurde das bei NV ja nochmals schlechter.

-/\-CruNcher-/\-
2021-02-21, 14:32:47
Naja, nicht wirklich. RDNA war zwar massivst effizienter als Vega, aber Turing war - trotz 12nm - trotzdem noch ein gutes Stück vor. Der Sprung zu RDNA2 war für sich dann natürlich noch mal enorm, aber als man da erste Anzeichen für hatte, wusste man genauso wenig, dass Nvidia mit Ampere bei Perf/Watt ggü. Turing dann doch derart schwächeln würde. Da hat eigentlich jeder deutlich mehr erwartet, gerade bei Nvidia und allem seit Maxwell.

Nein wüsste nicht wer das nach dem Samsung announcement nicht genau so gedacht hat TSMC nur Pro Ampere und das weniger wichtiger gewordene Gamer target wird auf Samsung verlagert und vor allem nach dem verlorenen Law Case gegen Samsung waren sich Nvidia und Samsung ja sehr sehr nahe mal zu reden ;)
Dennoch konnte Jensen sie nicht davon überzeugen Ampere zu Lizensieren aber Samsung ihn davon zumindestens das Gamer target zu produzieren und mal zu schauen wie das TSMC schmeckt und wie es generel läuft mit Kosten sparen und ausbalancieren ;)

dargo
2021-02-21, 14:45:30
Gerade bei Performance Pro Watt hat Nvidia doch gerade einen weiten Vorsprung durch DLSS.
Dann ist die Spieleauswahl aber für Nvidianer extrem dünn. :freak: Hier wird ja wieder so getan als ob DLSS in jedem Spiel verfügbar wäre. *kopfschüttel*

btw.
Und der Witz dabei ist noch, dass unterhalb der RTX Karten bei Turing die grünen nichts von DLSS haben. Hoffentlich kommt AMD 2021 mit Superresolution dann ist der Drops @DLSS auch endlich gelutscht.

Daredevil
2021-02-21, 14:55:05
DLSS muss ja nicht in jedem Spiel verfügbar sein, sondern in jedem Spiel, wo die "Unspielbarkeit" ( Gemäß der GPU Klasse mit Max Settings ) sonst droht. z.B. bei Medium / Watch Dogs / Cyberpunk / Control.
Horizon Zero Dawn wäre z.B. ein Titel, wo DLSS schmerzlich fehlt, Fortnite ist es sicherlich nicht und Fall Guys ebenso wenig.

Bsp. COD @ 4K+RT avg
3090: 56,6fps
6900xt: 44,2ps
3090@DLSS: 80,6fps

Wenn AMD da ebenso die gleichen Steigerungen anbieten könnte, wären wir weit über 60fps, die minfps profitieren dafür nochmal deutlich mehr.
Das ist halt schon wichtig, in solchen Szenarien mehr rauszukitzeln, weil sonst lässt man 1. RT eben aus oder 2. Man wechselt auf WQHD. Beides nicht so optimal.

PS: Perfekt ist diese Lösung natürlich für Konsolen, da muss etwas kommen.

-/\-CruNcher-/\-
2021-02-21, 14:55:11
@Dargo
Brauch man ja auch nicht gibt genug andere solutions für ältere hardware und DLSS ohne Tensor support das bringt einfach nicht viel der Gewinn wäre extreme klein oder sogar Negativ.

dargo
2021-02-21, 15:00:12
Brauch man ja auch nicht gibt genug andere solutions für ältere hardware und DLSS ohne Tensor support das bringt einfach nicht viel der Gewinn wäre extreme klein oder sogar Negativ.
Bullshit³.

-/\-CruNcher-/\-
2021-02-21, 15:08:45
Nicht vergessen alte Nvidia hardware ist nicht so Async stark und du kämpfst da auf dem Level dann schon etwas heftiger um jede ms ;)

Leonidas
2021-02-21, 16:33:37
Bei CB ist die 6800 XT in 1080p (7%) und 1440p (4%) schneller als die 3080, in 4K ist sie langsamer (2%). Alles unter 5% ist für mich Gleichstand, d.h. nur bei 1080p ist die 6800 XT wirklich etwas schneller. Die 3080 zieht aber auch ca. 10% mehr Strom.


Gut, das sind Punkte. Aber der Index der CB ist in der gleichen Höhe, aber noch ohne SAM auch in die letzte Index-Gesamtkalkulation eingeflossen. Die Werte vom Dez sind wirklich nahezu gleich zu diesen Feb-Werten, wenn man SAM nicht beachtet.

Anders formuliert: Die anderen HW-Magazine müssen da erstmal andere Werte abbilden, vorher ist das eine Einzelstimme. Eine gewichtige, aber ich will ja nicht singulären Quellen vertrauen, sondern das mit dem Index abbilden, was breit im Netz gemessen wird. Da kommt RDNA2 bislang noch nicht so gut weg wie bei der CB.

Sprich: Gemäß den CB-Werten hast Du Recht. Gemäß dem 3DC-Index (noch?) nicht. Aber der ist ja änderbar ;)

dargo
2021-02-21, 16:42:25
@Leonidas

Ich bin leicht schockiert was du da gerade schreibst. Eigentlich ging ich davon aus dir ist klar, dass das Endergebnis zwischen IHV-A und IHV-B maßgeblich von den getesteten Spielen abhängig ist. Wenn im Spieleparcour paar ältere Schinken vorkommen dann kann es schon mal passieren, dass Ampere etwas besser abschneidet. Du tust hier gerade so als ob CB die einzigen wären. Dabei ist der Test von HU schon deutlich älter.
https://youtu.be/nxQ0-QtAtxA?t=506

y33H@
2021-02-21, 16:56:54
Ich warte noch auf den rBAR Treiber von Nvidia und mache dann alles mit nem 5950X neu.

Leonidas
2021-02-21, 17:01:52
Du tust hier gerade so als ob CB die einzigen wären. Dabei ist der Test von HU schon deutlich älter.

Richtig, das sind 2. Und es sind auch andere Ergebnisse pro RDNA2 im Gesamt-Index dabei. Aber: Es gibt auch genauso viele Ergebnisse pro Ampere. Nicht nicht einmal jedes basiert dabei zwingend auf älteren Spielen:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6900-xt/launch-analyse-amd-radeon-rx-6900-xt-seite-2

Insofern sage ich: Das Alter der Spiele ist ein gewichtiger Punkt für das Ergebnis solcher Benchmark-Serien. Vielleicht sogar der wichtigste. Aber es gibt andere gewichtige Punkte (Testaufbau, Testablauf, Testsystem, Benchmark-Sequenzen, persönliche Herangehensweise, etc). Und das alle Tester wirklich das exakt gleiche Performance-Verhältnis herausbekommen, werden wir sowieso nie erleben. Ich will es gar nicht erleben, denn in der Vielfalt liegt die Chance auf neue Erkenntnisse.

Aber der Index wiederum basiert klar auf dem, was im SCHNITT der Hardware-Tester gemessen wurde. Ich lebe dort auch mit den Fehlern und kleinen Ungereihmtheiten, die dabei passieren. Denn ich als Ausrechner will nicht den Index zu sehr selber bestimmen über eine Pro-Aktive Auswahl derjenigen Testberichte, die da einfließen. Die Kriterien sind für alle gleich: Viele Karten, alle Auflösungen, ordentliche Zahl Benchmarks. Wenn das erfüllt ist, muss ich mich eigentlich zurückhalten - ich soll den Index nicht bestimmen, die erzielten Ergebnisse sollen den Index liefern. Davon mache ich schon Konzessionen, dass ich nach bestimmten Seiten gewichtete (u.a. CB & PCGH). Aber mehr ist nicht drin - weil, wie gesagt, ich soll den Index nicht bestimmen.

w0mbat
2021-02-21, 18:14:36
Ist doch genial so, die Spiele entscheiden, wer vorne liegt. Noch letztes Jahr war klar wer vorne steht, jetzt hat man wieder eine Wahl (also praktisch nicht, da man nix kaufen kann).

Complicated
2021-02-21, 18:38:32
Gerade bei Performance Pro Watt hat Nvidia doch gerade einen weiten Vorsprung durch DLSS.
Jetzt sind Downsampling und AA schon Performance/Watt-Vorsprünge.

y33H@
2021-02-21, 18:45:09
Nvidia bewirbt DLSS tatsächlich als Effizienzmaßname im Rahmen von Max-Q.

Complicated
2021-02-21, 18:46:03
Die Kriterien sind für alle gleich: Viele Karten, alle Auflösungen, ordentliche Zahl Benchmarks. Wenn das erfüllt ist, muss ich mich eigentlich zurückhalten - ich soll den Index nicht bestimmen, die erzielten Ergebnisse sollen den Index liefern. Davon mache ich schon Konzessionen, dass ich nach bestimmten Seiten gewichtete (u.a. CB & PCGH). Aber mehr ist nicht drin - weil, wie gesagt, ich soll den Index nicht bestimmen.
Dann verstehe ich nicht das Argument, dass CB und ein weiterer Test nicht ausreichen um in den Index zu kommen, solange nicht andere ebenfalls noch Werte bringen. Sind die Kriterien nicht erfüllt, solange keine anderen Tests dazu kommen? Und ab wie viel zusätzlichen Tests sind dann diese aktuellen Tests würdig in den Index zu kommen?
Anders formuliert: Die anderen HW-Magazine müssen da erstmal andere Werte abbilden, vorher ist das eine Einzelstimme. Eine gewichtige, aber ich will ja nicht singulären Quellen vertrauen, sondern das mit dem Index abbilden, was breit im Netz gemessen wird. Da kommt RDNA2 bislang noch nicht so gut weg wie bei der CB.
:confused:
Wozu dann deinen Index?

Complicated
2021-02-21, 18:48:09
Nvidia bewirbt DLSS tatsächlich als Effizienzmaßname im Rahmen von Max-Q.
;D;D;D;D Und so wurde es wahr...verneigt euch und huldigt der Werbung.
Du möchtest doch nicht ernsthaft mit Nvidias Marketing argumentieren?

Fragman
2021-02-21, 18:52:30
;D;D;D;D Und so wurde es wahr...verneigt euch und huldigt der Werbung.
Du möchtest doch nicht ernsthaft mit Nvidias Marketing argumentieren?

Hast Du erst jetzt hinter den Begriff "Marketing" geblickt? :confused:

Complicated
2021-02-21, 18:56:39
Nein, doch hier sind wir in einem technischen Forum, und sollten die Dinge nennen wie sie sind, egal wie Nvidia das bewirbt. Downsampling als Performance/Watt-Vorteil zur Konkurrenz zu verkaufen kannst du dir ja auf anderen Seiten gerne eintrichtern lassen ;)

Vor allem als ob AMD kein Downsampling hätte....nur damit vergleicht man ja nicht wenn DLSS ins Spiel kommt, nicht wahr?

-/\-CruNcher-/\-
2021-02-21, 18:59:09
Sparsity saves Energy = Fact

Complicated
2021-02-21, 19:01:28
Ja - bei allen Herstellern. Wo ist da ein Performance/Watt-Vorteil getestet worden bei identischen Settings?
Man kann gerne dann im Anschluß einen Diskussion führen über die jeweilige Bildqualität. So war das bisher bei allen AA-Modi. Und zumeist hat es sich nichts gegeben und auch kaum Unterschiede mehr gehabt nach einigen Optimierungen. Bei DLSS auch jetzt schon nicht anders.

-/\-CruNcher-/\-
2021-02-21, 19:04:36
Ja - bei allen Herstellern. Wo ist da ein Performance/Watt-Vorteil getestet worden bei identischen Settings?
Man kann gerne dann im Anschluß einen Diskussion führen über die jeweilige Bildqualität. So war das bisher bei allen AA-Modi. Und zumeist hat es sich nichts gegeben und auch kaum Unterschiede mehr gehabt nach einigen Optimierungen. Bei DLSS auch jetzt schon nicht anders.

Entweder du bekommst mehr FPS oder du lockst die FPS und sparst energie ;)

Bis jetzt hat sich das Reverse nur Igor angeschaut und Nvidias Ergebnisse sind doch beindruckend

Wir reden hier fast von 1 Node unterschied den man in Hardware investieren müsste

Sprich man überspringt 1 Generation und das ist ja erst der Anfang von allem

Linmoum
2021-02-21, 19:07:10
Anders formuliert: Die anderen HW-Magazine müssen da erstmal andere Werte abbilden, vorher ist das eine Einzelstimme. Eine gewichtige, aber ich will ja nicht singulären Quellen vertrauen, sondern das mit dem Index abbilden, was breit im Netz gemessen wird. Da kommt RDNA2 bislang noch nicht so gut weg wie bei der CB.

Sprich: Gemäß den CB-Werten hast Du Recht. Gemäß dem 3DC-Index (noch?) nicht. Aber der ist ja änderbar ;)Das kann man aber auch wunderbar auf z.B. PCGH anhand der Launch-Analyse zur 6800XT münzen.

Gemittelte WQHD-Performance

6800XT: 100%
3080: 103,7%
3090: 113,4%

PCGH:

6800XT: 100%
3080: 110,1%
3090: 123,1%

PCGH hat also auch völlig andere Werte ermittelt, als der Rest der Welt. Nur halt in die andere Richtung. Das wird man in Zukunft immer haben, weil es gerade von der Spieleauswahl enorm abhängt. Da erwarte ich dann aber auch ausgewogenes der Redaktionen und nicht noch z.B. irgendwelche alten DX9-Schinken in aktuellen Benchmarksparcours.

aufkrawall
2021-02-21, 19:12:49
Da erwarte ich dann aber auch ausgewogenes der Redaktionen und nicht noch z.B. irgendwelche alten DX9-Schinken in aktuellen Benchmarksparcours.
Ist bei PCGH aber doch auch nur Black Mesa.
Eine Sonderbetrachtung für DX9 fände ich auch nicht verkehrt, vom kaputten Treiber-AA-Support und mieser Performance des Navi-Treibers liest man quasi nichts.

Lehdro
2021-02-21, 19:19:11
Ist bei PCGH aber doch auch nur Black Mesa.
Eine Sonderbetrachtung für DX9 fände ich auch nicht verkehrt, vom kaputten Treiber-AA-Support und mieser Performance des Navi-Treibers liest man quasi nichts.
+ das komische Wolcen bzw die Cryengine. Da muss AMD einfach besser in der Breite liefern.

dargo
2021-02-21, 19:53:09
Wir reden hier fast von 1 Node unterschied den man in Hardware investieren müsste

Sprich man überspringt 1 Generation und das ist ja erst der Anfang von allem
Oh ja... das ist bestimmt im Interesse von Nvidia. ;D ;D ;D

Complicated
2021-02-21, 20:05:54
Entweder du bekommst mehr FPS oder du lockst die FPS und sparst energie ;)
Und kannst das auf jeder AMD Karte auch ohne DLSS. Downsampling Upsampling hies das jahrelang. Da ist kein Performance/Watt-Vorteil zu finden für Nvidia. Musst halt 2 oder 3 Haken setzen im Treiber, anstatt einen.

y33H@
2021-02-21, 20:07:56
Nein, Downsampling ist OGSSAA, also eine höhere Render Auflösung als die native - DLSS hingegen rendert intern mit weniger Pixeln ... das spart bei einem Fps Limit mehr Energie als ein Fps Limit bei nativer Auflösung.

Complicated
2021-02-21, 20:08:24
Wir reden hier fast von 1 Node unterschied den man in Hardware investieren müsste
Wie bitte? Hallooooo - Downsampling Upsampling kann jeder.

Danke Marc, hatte die verwechselt ;)

Edit: Ach schau her, für Raytracing wird es wohl auch bald verfügbar sein:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Releasetermin-zum-Konkurrenten-Nvidia-DLSS-1366518/
Laut AMD soll Raytracing bei einer Auflösung von 1440p verbessert werden. Entwickler sollen den Code zur Nutzung der AMD-Lösung nur einmal schreiben müssen und diesen dann auf verschiedenen Plattformen für ihre Videospiele einsetzen können. So könnte also AMDs FSR auch den Weg auf Playstation 5 und Xbox Series X/S finden. Generell verfolgt AMD einen Open-Source-Ansatz und möchte FFSS, welches auf Fidelity FX Super Resolution und Radeon Boost basiert, plattformübergreifend anbieten. Mal wieder für alle ;)

-/\-CruNcher-/\-
2021-02-21, 20:45:01
Laut AMD soll Raytracing bei einer Auflösung von 1440p verbessert werden

Das ist nicht Nvidias Ampere Target das liegt bei 4 und 8k

Complicated
2021-02-21, 20:54:58
Träum weiter - wo ist das denn relevant bisher? Und Target ist nicht das was bisher ausgeliefert wurde. Die Masse nutzt 1440p-Auflöung oder kleiner. (schau mal Monitor-Verkaufszahlen an)

4K hat noch nicht mal die 2,1% Anteil von 1280x800 erreicht, in einem Markt der immer mehr zu Notebooks tendiert. 4k ist Konsolen-Land und es wir noch dauern, bis die Leistung in dieses Power-Envelope passt, mit der Qualität für einen 4K-TV mit 120 Hz. 60 fps ist ja nur ein Minimalziel.
https://gs.statcounter.com/screen-resolution-stats/desktop/germany