Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Cyberfries
2020-08-30, 19:20:10
Wirklich Sinn ergibt AMDs N14-Portfolio nicht.
Vier Karten mit 22CUs, aber abweichender Speicherausstattung.
Jetzt haben wir also die Wahl zwischen einer 5300XT mit altem GDDR5-Speicher, aber dafür wenigstens 4GB.
Oder eine 5300 mit nur 3GB-Speicher, aber dafür GDDR6.
Und den Handel erreicht vermutlich keine von Beiden.
Das muss aber auch bedeuten, dass GDDR6 mittlerweile recht günstig ist, wenn es sich lohnt eine GDDR5-Karte zu unterbieten.
y33H@
2020-08-30, 19:25:15
Gibt's die Radeon RX 5300 XT denn tatsächlich?
dargo
2020-08-30, 19:37:39
Gibt's die Radeon RX 5300 XT denn tatsächlich?
Offenbar nur für OEM.
https://www.hardwareinside.de/rx-5300-xt-neue-amd-grafikkarte-gesichtet-45824/
https://www.igorslab.de/amd-radeon-rx-5300-xt-mit-4-gb-gddr5-vram-gesichtet-navi-fuer-oen-desktop-pcs/
Cyberfries
2020-08-30, 19:38:49
Ich finde gerade auch nur dieses Komplettsystem - das angeblich im Oktober 2019 hätte erscheinen sollen.
y33H@
2020-08-30, 19:42:10
Heise hatte das geholt und es war eine RX 5500 OEM drin ... daher meine Frage.
https://www.heise.de/newsticker/meldung/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test-4593652.html
rentex
2020-08-30, 19:48:18
Wahrscheinlich gibt es keine Leaks zu BN, weil es nichts zu leaken gibt!
Cyberfries
2020-08-30, 19:59:09
BigNavi ist eine Erfindung der linksversifften Lügenpresse um von der Weltverschwörung der Echsen abzulenken?
Gut möglich, dass die 5300xt eingestampft wurde, wenn sie nirgends sichtbar ist.
Zurückgezogen und durch die 5300 ersetzt?
Berniyh
2020-08-30, 20:43:51
Offenbar nur für OEM.
https://www.hardwareinside.de/rx-5300-xt-neue-amd-grafikkarte-gesichtet-45824/
https://www.igorslab.de/amd-radeon-rx-5300-xt-mit-4-gb-gddr5-vram-gesichtet-navi-fuer-oen-desktop-pcs/
Und für OEM eigentlich schon seit Dezember im Portfolio?
reaperrr
2020-08-30, 23:41:02
Dass jetzt noch eine 5300 mit 22 CUs erscheint lässt aber zumindest etwas Hoffnung, dass man nach demnächst den Vollausbau als 5500XT-Refresh bringen könnte.
Ob das zu diesem Zeitpunkt noch irgendwas wert wäre, ist ne andere Frage.
Genau so ein Produkt hatte Nvidia schon 2018 als Geforce GTX 1050 3GB -> Abfall(verwertung).
MfG
Raff
Ich persönlich brauche da keinen Nvidia Killer, sondern es reicht wenn sie bis auf das 3080 niveau herankommen und das zu einem vernünftigen Preis, wobei es in dem Bereich jetzt schon keine vernünftigen Preise gibt und diese auch nicht mehr zurückkommen.
Wobei die Preise AMD doch sehr zugute kommen, NV wird als der Preistreiber wahrgenommen, AMD muss dann nur 100 unter 3080 liegen bei gleicher Spieleleistung und wirkt für viele wie die bessere Wahl, obwohl ihre Margen dann trotzdem hoffentlich ausreichend sind um endlich wieder Geld für R&D hat um an NV ranzukommen. (Immer an die normale *080 dran zu kommen ist ja irgendwie eine Generation zurück).
BigBangBacket
2020-08-31, 09:21:16
Wenn BN halbwegs was kann, müsste AMD am Mittwoch oder Donnerstag ein paar Leaks rausbringen damit die Unentschlossenen noch bis zum Release von BN warten
Complicated
2020-08-31, 09:42:20
Wer bei dem Preis kaufen will, den hält ein Gerücht zu Big Navi nicht davon ab. Wer liest denn wirklich Leaks von den potentiellen Käufern?
AMD wird erst einmal schauen ob die Preislagen angenommen werden um dann selber mehr Marge zu generieren oder dann in einem Preiskampf zu gehen.
Aber glaubt ihr wirklich, dass BN entschieden weniger braucht? Auch hier sehe ich mehr als 300W als gesetzt, um performancewise nicht allzu weit hinterher zu hinken. Okay, es gibt keine TCs, trotzdem sind es auch hier 5120SC welche gekühlt werden müssen. Hoffentlich tun sie sich den Gefallen und setzen auf HBM.
w0mbat
2020-08-31, 10:02:46
Ich denke, dass AMD schon deutlich günstiger anbieten muss, um auf dem Markt war genommen zu werden. Nvidia konnte seinen Marktanteil in den letzten 12 Monaten weiter ausbauen und das obwohl AMD mit Navi seit langem wieder eine wirklich gute GPU am Markt hatte.
Ich denke, AMD muss mit ihren GPUs das schaffen, was sie mit der Ryzen-Marke geschafft haben, ein neues image aufbauen.
Complicated
2020-08-31, 11:50:29
AMD hat die bessere Fertigung. Und ich denke genau das führt zu Nvidias höherem Verbrauch, da Sie sich nicht sicher sein können wo AMD landen wird und so sicher stellen wollen den Top Dog weiter zu stellen.
Die 3080 ist die GPU im Sweetspot.
Cyberfries
2020-08-31, 11:57:25
68CUs bei 1740mhz und 320watt soll der Sweetspot sein?
Fertigung ist bei beiden Herstellern noch unsicher, ob 7nm oder 8nm, EUV oder DUV, gibts nichts offizielles.
Die 3080 ist die GPU im Sweetspot.
Anstelle von 24Gb nur 10Gb und anstelle von 350Watt nur 320Watt...
So sehr nach "Sweetspot" sieht das irgendwie nicht aus :confused:
Sollte sie auch nur 2x8Pinn haben, ist schnell Schluss mit OC...
2x150+75=375Watt : 320Watt +20%PT=374Watt
Ich hoffe bei BN auf 16Gb bei 300Watt und ~ 3080 Leistung oder mehr :freak:
M.f.G. JVC
SKYNET
2020-08-31, 12:00:39
Ich denke, dass AMD schon deutlich günstiger anbieten muss, um auf dem Markt war genommen zu werden. Nvidia konnte seinen Marktanteil in den letzten 12 Monaten weiter ausbauen und das obwohl AMD mit Navi seit langem wieder eine wirklich gute GPU am Markt hatte.
Ich denke, AMD muss mit ihren GPUs das schaffen, was sie mit der Ryzen-Marke geschafft haben, ein neues image aufbauen.
also rohleistung ein wenig geringer als bei dem mitbewerber, dafür wenns dick kommt(= RT, DLSS pendant) auf und davon? und dann mit der nächsten gen rohleistung gleich auf, aber in allen anderen nochmals weiter in die ferne... um mit der drauf folgenden gen, dann zum alles vernichtenen schlag auszuholen? ;D
y33H@
2020-08-31, 12:00:58
Ich hoffe bei BN auf 16Gb bei 300Watt und ~ 3080 Leistung oder mehr :freak:
Du musst unbedingt sofort eine Geforce RTX 3090/3080 kaufen wegen HDMI 2.1 oder hältst du es paar Wochen länger aus nach all den Monaten voller Gejammer? :P
[MK2]Mythos
2020-08-31, 12:03:31
Die 2080Ti ist im Schnitt 30% schneller als die 5700XT. Wenn BN wirklich ein 80CU Chip wird, dann müsste dieser doch 70% über der 2080Ti rauskommen. Alleine nur weil der Chip verdoppelt wird.
Das wird für mich vorerst der Orientierungspunkt für die Amperevorstellung morgen bleiben.
Du musst unbedingt sofort eine Geforce RTX 3090/3080 kaufen wegen HDMI 2.1 oder hältst du es paar Wochen länger aus nach all den Monaten voller Gejammer? :P
Da noch immer kein 8K "Monitor"....
Und da HDMI 2.1 ja eh Alle können,
ist das kein Ausschlusskriterium mehr :wink:
Bei AMD "weis" ich es halt schon n Jahr... und bei NV auch schon etwas länger.
M.f.G. JVC
SKYNET
2020-08-31, 12:07:44
Mythos;12408430']Die 2080Ti ist im Schnitt 30% schneller als die 5700XT. Wenn BN wirklich ein 80CU Chip wird, dann müsste dieser doch 70% über der 2080Ti rauskommen. Alleine nur weil der Chip verdoppelt wird.
Das wird für mich vorerst der Orientierungspunkt für die Amperevorstellung morgen bleiben.
dazu müsste aber auch die bandbreite um 100% aufgeblasen werden, um das auf die strasse zu bringen.......
Linmoum
2020-08-31, 12:08:31
Mythos;12408430']Die 2080Ti ist im Schnitt 30% schneller als die 5700XT. Wenn BN wirklich ein 80CU Chip wird, dann müsste dieser doch 70% über der 2080Ti rauskommen. Alleine nur weil der Chip verdoppelt wird.
Das wird für mich vorerst der Orientierungspunkt für die Amperevorstellung morgen bleiben.Es sind ~50% und Shader skalieren nie 1:1 mit der Performance.
[MK2]Mythos
2020-08-31, 12:10:27
Es sind ~50% und Shader skalieren nie 1:1 mit der Performance.
Ich finde nur Ergebnisse mit maximal 35% Vorsprung, was mich selber wundert. Wenn du welche mit 50% hast, gerne her damit.
why_me
2020-08-31, 12:12:30
30% sind in FHD, ~50% sind es in 4k
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
FHD ist halt teilweise CPU Limitiert und deshalb kann sich die 2080 ti nicht so stark abheben.
dargo
2020-08-31, 12:12:34
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/2/#abschnitt_benchmarks_in_3840__2160
[MK2]Mythos
2020-08-31, 12:17:00
Danke euch, ich hatte nur 1440p Tests gesehen. FullHD sind natürlich CPU limitiert.
Gut, dann rückt das die Erwartung auch etwas zurecht. ~33% über 2080Ti wäre natürlich immer noch Knaller und dann sehr wahrscheinlich genau zwischen 3080 und 3090. Passt alles.
Es sind ~50% und Shader skalieren nie 1:1 mit der Performance.
RDNA1 ist aber nicht RDNA2.
und AMD will ja die Energieeffizienz nochmal um 50% steigern...
Bin echt gespannt was dabei raus kommt ^^
Aber ich tippe auch eher darauf, das sich BN knapp über der 3080 bei hoffentlich nur 300Watt einfinden wird.
(mit 2x8Pin = +75Watt für OC-Reserven. das passt)
M.f.G. JVC
why_me
2020-08-31, 12:24:58
Kommt drauf an, wie weit AMD BN prügelt.
Milchmädchenrechnung:
Bei 50% Perf/W:
300W = 2x 5700 XT = 2080 TI + 33%
350W = 2,3x 5700 XT = 2080 TI + 55%
400W = 2,6x 5700 XT = 2080 TI + 77%
Ja skaliert nicht 1:1 etc. Aber wir kennen die Basis für die 50% Perf/Watt nicht.
Ravenhearth
2020-08-31, 12:28:31
Wobei die Preise AMD doch sehr zugute kommen, NV wird als der Preistreiber wahrgenommen, AMD muss dann nur 100 unter 3080 liegen bei gleicher Spieleleistung und wirkt für viele wie die bessere Wahl, obwohl ihre Margen dann trotzdem hoffentlich ausreichend sind um endlich wieder Geld für R&D hat um an NV ranzukommen. (Immer an die normale *080 dran zu kommen ist ja irgendwie eine Generation zurück).
Ja, Big Navi mit 3080-Leistung, 16GB und 300W für $699 würd ich kaufen. Es sei denn man orientiert sich an der 3080 mit 20GB ($999?) und verlangt $899.
68CUs bei 1740mhz und 320watt soll der Sweetspot sein?
Fertigung ist bei beiden Herstellern noch unsicher, ob 7nm oder 8nm, EUV oder DUV, gibts nichts offizielles.
Zumindest die 7nm sind bei AMD sicher.
Mythos;12408430']Die 2080Ti ist im Schnitt 30% schneller als die 5700XT. Wenn BN wirklich ein 80CU Chip wird, dann müsste dieser doch 70% über der 2080Ti rauskommen. Alleine nur weil der Chip verdoppelt wird.
Das wird für mich vorerst der Orientierungspunkt für die Amperevorstellung morgen bleiben.
Zum einen wäre Big Navi bei 30% Unterschied zwischen 5700XT und 2080 Ti keine 70% schneller, sondern 200/130=1,54, also 54%. Da die 2080 Ti aber eher 50% schneller ist als die 5700XT, verkürzt sich der Vorsprung von Big Navi bei doppelter XT-Performance auf 200/150=1,33, also 33% ;)
Edit: Ok, hast du schon selber geschrieben :redface:
Cyberfries
2020-08-31, 12:42:23
Zumindest die 7nm sind bei AMD sicher.
Jo, aber wir können nicht mit einem sicheren Fertigungsvorsprung für AMD argumentieren,
wenn AMD 7nm DUV vs. nVidia 7nm EUV immer noch nicht sicher vom Tisch ist.
Sunrise
2020-08-31, 13:19:58
Jo, aber wir können nicht mit einem sicheren Fertigungsvorsprung für AMD argumentieren,
wenn AMD 7nm DUV vs. nVidia 7nm EUV immer noch nicht sicher vom Tisch ist.
NV hat zumindest erneut einen sehr großen Chip trotz Node-Sprung, und zusätzlich fast das doppelte an Transistoren laut Leaks. Da hier von einem sehr deutlich kleineren Chip bei AMD ausgegangen wird, bei “nur” der doppelten Anzahl an RDNA2-CUs, werden es wohl ähnliche 50-75% durch die Bank bei AMD, je nach Auslastung der Einheiten. Wenn tatsächlich 100% durch die Bank herauskommen, bei noch gangbaren Verbrauch (max. NV-Level) wäre das ein Geniestreich von AMD.
Ich würde aber trotz hoher Erwartungen nicht damit rechnen...das ist IMHO zuviel gehype. Natürlich nur unter der Bedingung, dass die 80CUs stimmen, der Takt aufgrund der TDP begrenzt wird und AMD da keine Secret Sauce eingebaut hat...
IMHO ist die Fertigung ähnlich genug, dass das nicht stark relevant wird, AMD benötigt die verbesserte Fertigung auch, weil weiterhin 7nm und um die TDP nicht zu sprengen.
basix
2020-08-31, 13:37:41
Ich gehe momentan von einem leichten bis mittleren Vorteil pro Nvidia aus. Abhängig vom Betrag dieses Vorteils sehen wir dann, wie konkurrenzfähig AMD sein wird. Sollte AMD aber fast gleichauf liegen oder gar schneller sein, wäre das wirklich ein Geniestreich.
Ravenhearth
2020-08-31, 13:44:29
50-75% fände ich eine ziemlich miese Skalierung, das ist ja GCN-Niveau. Da müssen schon >80% bei rumkommen, zumindest in 4K. Da RDNA2 auch auf höhere Taktraten ausgelegt ist, schafft man damit im Endeffekt vielleicht auch 100% mehr Leistung. Das wäre so ziemlich das Optimum.
Dino-Fossil
2020-08-31, 13:54:53
Ich vermute ungefähr folgendes:
AMD bietet Leistung knapp unter oder auf Höhe der 3080 beim TopDog/BigNavi, bei ähnlichem Verbrauch. RDNA2 könnte effizienter sein, aber man wird den Chip wieder prügeln, um die Performance zu erreichen.
nVidia behält die Leistungskrone, da die großen Chips und hohen Transistorcounts + hoher TDP sicherlich nicht ohne Wirkung bleiben und AMD vermutlich eh nicht gegen die 3090 antritt.
In Punkto RT bietet AMD genug für die wichtigen "Basics", nVidia wird hier vermutlich spürbar mehr Performance haben, aber dank Konsolen und allgemein noch geringer Adaption wird das vermutlich vorerst keine so große Rolle spielen.
Ein großer Vorteil pro-nVidia werden die Software-Features (DLSS3.0?) sein, wobei ich mir vorstellen könnte, dass AMD uns hier im Dezember wieder die eine oder andere schöne Sache mit der nächsten größeren Treiberversion bieten wird.
Preislich werden sich beide nicht zu viel nehmen, da sie ganz zufrieden mit den höheren Margen sind und ähnlich wie bei der aktuellen Gen keinen Preiskampf vom Zaun brechen wollen.
Mythos;12408430']Die 2080Ti ist im Schnitt 30% schneller als die 5700XT. Das ist bei 1080p, aber bei 4k sind es >60% (siehe dargos computerbase link, hab ich leider gerade nicht zur Hand).
Wenn du dann die 70% nimmst (damit rechne ich in etwa auch), wäre BN knapp vor 2080Ti (in dem Einsatzbereich von big chips).
... Das sehe ich ziemlich genau so. Damit fahren beide gut.
Etwas schade für uns, ohne Preiskampf wird es weiter steil teurer.
BoMbY
2020-08-31, 14:33:57
+70% im Schnitt ist Banane wenn man von +50% Performance pro Watt (gemessen in The Division 2) und bis zu +66% Watt ausgeht.
+70% im Schnitt ist Banane wenn man von +50% Performance pro Watt (gemessen in The Division 2) und bis zu +66% Watt ausgeht.
Ich gehe von 300W aus, was schon stattlich ist für eine Karte. Das sind 33% mehr als die 225W der 5700XT.
Mangel76
2020-08-31, 16:40:07
Ich vermute ungefähr folgendes:
AMD bietet Leistung knapp unter oder auf Höhe der 3080 beim TopDog/BigNavi, bei ähnlichem Verbrauch. RDNA2 könnte effizienter sein, aber man wird den Chip wieder prügeln, um die Performance zu erreichen.
nVidia behält die Leistungskrone, da die großen Chips und hohen Transistorcounts + hoher TDP sicherlich nicht ohne Wirkung bleiben und AMD vermutlich eh nicht gegen die 3090 antritt.
Also so ganz kann ich diese Rechnung nicht nachvollziehen. RDNA hat was Leistung pro CU angeht mit Turing nahezu gleichgezogen. Jetzt soll RDNA2 mit 80 CU aber nur noch mit Ampere mit 68 SM mithalten? Das sind ja wieder Verhältnisse wie bei GCN, wo AMD den deutlich breiteren Chip brauchte für die gleiche Leistung. Ja, RT bleibt noch ein großes Fragezeichen und DLSS haben sie eventuell auch nicht. Aber grundsätzlich kann ich mir nicht vorstellen, dass man sich jetzt wieder dermaßen abhängen lässt. Und auch was Leistung pro Watt betrifft, hat man anscheinend gut gearbeitet, wenn man sich Größe und Takt der Konsolen-SOCs anschaut, die bei überschaubarem Verbrauch auf recht beachtliche Einheitenzahl/Takt kommen. Mich würde es sehr wundern, wenn sie die 3090 erreichen, aber nur 3080-Niveau erscheint mir dann doch zu gering.
unl34shed
2020-08-31, 16:50:58
Hey immerhin 3080, laut manchen Spezies packt AMD ja nicht mal die 3070 mit ca. 48SMs. :upicard:
Also so ganz kann ich diese Rechnung nicht nachvollziehen. RDNA hat was Leistung pro CU angeht mit Turing nahezu gleichgezogen. Jetzt soll RDNA2 mit 80 CU aber nur noch mit Ampere mit 68 SM mithalten? Das sind ja wieder Verhältnisse wie bei GCN, wo AMD den deutlich breiteren Chip brauchte für die gleiche Leistung. wieviel CUs verbaut werden ist nicht sonderlich wichtig, wir könnten uns genau so über den Takt alleine unterhalten.
Worauf es ankommt ist doch wieviel mehr Watt die BN verbrauchen können wird und wieviel effizienter sie wird als RDNA1. Schon kannst du abschätzen wie sie landet.
AMD sagte die Effizienz wird 1.5x sein. Die 5700xt darf 225W ziehen. Bei 4k ist die 2080Ti im Schnitt 60% vor dieser und Gerüchte sagen die 3080 wird schneller sein.
Gibt es eine Information die fehlt? Bei was kommst du bei BN renchnerisch raus?
why_me
2020-08-31, 17:04:11
Von welcher Leistung gehst du bei einer 3080 aus? Im Nachbarthread sind manche froh, wenn die 3090 +35% zur 2080 TI schafft.
Piefkee
2020-08-31, 17:11:47
https://twitter.com/kopite7kimi/status/1300440732642148354?s=21
[Kopite7Kimi] -> „ BIG NAVI will be very strong.😁“
dargo
2020-08-31, 17:14:25
https://twitter.com/kopite7kimi/status/1300440732642148354?s=21
[Kopite7Kimi] -> „ BIG NAVI will be very strong.😁“
:uup:
Ist das schon Voodoo 6000 *2 oder *3? ;D
Du vergleichst doch nicht etwa eine Legende mit einer ... nun ja, Grafikkarte? ;)
MfG
Raff
Du vergleichst doch nicht etwa eine Legende mit einer ... nun ja, Grafikkarte? ;)
MfG
Raff
Ist du Antwort auf Jensens Backofen-Aktion
dargo
2020-08-31, 17:36:40
Du vergleichst doch nicht etwa eine Legende mit einer ... nun ja, Grafikkarte? ;)
Für mich ist das alles nur Elektronikschrott. ;)
Mangel76
2020-08-31, 17:52:05
wieviel CUs verbaut werden ist nicht sonderlich wichtig, wir könnten uns genau so über den Takt alleine unterhalten.
Worauf es ankommt ist doch wieviel mehr Watt die BN verbrauchen können wird und wieviel effizienter sie wird als RDNA1. Schon kannst du abschätzen wie sie landet.
AMD sagte die Effizienz wird 1.5x sein. Die 5700xt darf 225W ziehen. Bei 4k ist die 2080Ti im Schnitt 60% vor dieser und Gerüchte sagen die 3080 wird schneller sein.
Gibt es eine Information die fehlt? Bei was kommst du bei BN renchnerisch raus?
Das ist doch genauso an den Haaren herbeigezogen. Da der Verbrauch nicht linear mit dem Takt steigt, kannst du verschiedene Kombinationen aus Takt und Einheitenzahl mit gleicher Leistung zu unterschiedlichem Verbrauch designen. Wie stellst du dir das vor? Soll eine GPU mit RDNA2 in N10-Größe mit 300W betrieben wird? Oder hast du 50% mehr Einheiten oder 100% bei 300W? Man könnte auch N10 verdreifachen und den Takt ein Stück weit senken. Je größer die GPU, desto effizienter kann man die betreiben bei einem festen Performanceziel.
Natürlich sagt die reine CPU-Anzahl nicht alles, wie GCN ja gezeigt hat. Aber da müsste Ampere schon wahnsinnig in der IPC zulegen (und AMD geschlafen haben), wenn sie mit ähnlicher Einheitenzahl bei wohl ähnlichem Takt so deutlich vorne liegen wollen. Damit wäre der alte GCN-Abstand wieder hergestellt. Nur ist RDNA deutlich besser als GCN und taktet auch noch deutlich höher. Beides spricht dafür, dass wir solche Abstände nicht wieder sehen werden.
Raff ne Legende sieht so aus: https://m.thomann.de/de/mesa_boogie_dual_rectifier.htm?glp=1&gclid=Cj0KCQjwv7L6BRDxARIsAGj-34qbygmo28VMaL_TQYwOmFwrV48iVmg_XexVcxJ4NgyEkGvyBnYHDckaAgAvEALw_wcB
https://twitter.com/kopite7kimi/status/1300440732642148354?s=21
[Kopite7Kimi] -> „ BIG NAVI will be very strong.😁“
Aber vielleicht hat der Krempel doch ne Bedeutung: 5x20CUs? Wie sieht denn so ne 20CU-Karte seitens AMD aus, bzw. gibts so etwas überhaupt?
Linmoum
2020-08-31, 18:27:53
https://twitter.com/kopite7kimi/status/1300440732642148354?s=21
[Kopite7Kimi] -> „ BIG NAVI will be very strong.😁“Dazu noch nachfolgend zu dem tweet:
"Thanks, I'll try to describe it, GA104 cannot beat BIG NAVI."
"And GA102 will also pay a huge price. Wait for November."
Dino-Fossil
2020-08-31, 18:27:58
Welcher Krempel?
Das Bild mit Lisa und der Karte? Würde in solche Meme-Bildchen nicht viel reininterpretieren.
Na, es sind 5x5300 GPU a je 22CUs. Vollausbau 110CUs? Geht das in 505mm^2 rein?
why_me
2020-08-31, 18:35:51
https://twitter.com/kopite7kimi/status/1300468908017680395
so better wait for amd? possible for them to deliver 3080 performance with more vram, less power and cheaper?
[Kopite7Kimi] -> I don't want to make a tendentious speech. Everything is according to your needs. If you are not particularly urgent, you can wait.
Bestätigt er da gerade schneller, günstiger, mehr VRAM und weniger Verbrauch?
Wäre schön, wenn es so kommt. Aber grundlos geht Nvidia sicherlich nicht mit dem Verbrauch hoch...
E: Na, es sind 5x5300 GPU a je 22CUs. Vollausbau 110CUs? Geht das in 505mm^2 rein?
Wie stellst du dir das vor? 5-Way Crossfire? Oder alles in einem Chip? Welche Speicher Konfiguration?
dildo4u
2020-08-31, 18:38:23
AMD passt die Preise an Nvidia an dort steht noch nix fest, AMD kann bis jetzt die Performance der Konkurrenz nicht bewerten also auch keine Preise setzen.
Linmoum
2020-08-31, 18:42:01
AMD passt die Preise an Nvidia an dort steht noch nix fest, AMD kann bis jetzt die Performance der Konkurrenz nicht bewerten also auch keine Preise setzen.Ich denke, dass derjenige, der die Preise anpassen müssen wird, nicht AMD ist.
dildo4u
2020-08-31, 18:43:03
Abwarten wird Eng wenn AMD mit 16 vs 10GB antritt.
Abwarten wird Eng wenn AMD mit 16 vs 10GB antritt.
Ich denke AMD tritt mit 16 gegen 24 GB an
dildo4u
2020-08-31, 18:46:30
Ich dachte sie bleiben unter 300 Watt.
why_me
2020-08-31, 18:47:55
Wo hast du das her?
Dino-Fossil
2020-08-31, 18:50:00
Wir werden's schon noch erfahren... :D
Aber der zweite Tweet klingt in etwa, wie meine Wahrsagerei Prognose von heute morgen - ca 3080 Performance.
Ich glaube auch AMD geht all in. Es wäre auch wichtig gewesen die Performance einer Ti in MC @ 4K im Vergleich zur XBOX zu sehen. Dann könnte man vielleicht Rückschlüsse ziehen. Zudem - wenn NV nen hohen Preis für gleiche Performance zahlen muss, dann heißt dies für mich, die 350W reichen nicht aus für BN
dildo4u
2020-08-31, 18:52:05
Wo hast du das her?
https://youtu.be/onZqz0JYtMQ?t=1495
Wobei man das natürlich so interpretieren kann wie man will.
why_me
2020-08-31, 18:55:50
Wir werden's schon noch erfahren... :D
Aber der zweite Tweet klingt in etwa, wie meine Wahrsagerei Prognose von heute morgen - ca 3080 Performance.
Falls du den Tweet meinst, den ich zitiert habe, dass muss sich nicht auf den Vollausbau beziehen. Gut möglich, dass damit auch ein Salvage gemeint ist.
80 CUs vs 68 SMs sollen gleich schnell sein, da glaube ich nicht wirklich dran...
Na, es sind 5x5300 GPU a je 22CUs. Vollausbau 110CUs? Geht das in 505mm^2 rein?
Ich glaube das wurde vor ein Paar Seiten mal durchgerechnet und 100-120 CUs + 4096 HBM2 wären theoretisch möglich.
Cyberfries
2020-08-31, 18:57:54
Thanks, I'll try to describe it, GA104 cannot beat BIG NAVI.
Na, alles andere wäre eine Überraschung.
Selbst Salvage (72CU) ist das immer noch ein 50% Einheitenvorsprung auf GA104 (48SM) (wenn sich die Gerüchte bestätigen).
And GA102 will also pay a huge price. Wait for November.
Das ist das interessantere. Anspielung auf Stromverbrauch? RTX-Ausrichtung? Oder nur Anschaffungskosten?
I don't want to make a tendentious speech. Everything is according to your needs. If you are not particularly urgent, you can wait.
Teilweises zurückrudern.
Das klingt nicht nach einer Überkarte. Eher nach dem einem 3080-Konkurrenten.
Solange man nicht völlig High ist und über den Wolken schwebt also wie erwartet.
Dino-Fossil
2020-08-31, 19:03:08
Falls du den Tweet meinst, den ich zitiert habe, dass muss sich nicht auf den Vollausbau beziehen.
Meinte das, was Linmoum geschrieben hat.
GA104 wird klar geschlagen, GA102 kommt zumindest in Bedrängnis.
Natürlich könnte das theoretisch auch bedeuten, dass sie an die 3090 rankommen, aber ich würde den Hypetrain doch eher im Depot lassen.
Und letztlich wissen wir nichts darüber, wie effektiv die jeweiligen Einheiten geworden sind. Ampere scheint jedenfalls massiv mehr Transistoren zu haben, das wird sich sicherlich auswirken.
Das teilweise zurückrudern, wie du es nennst, klingt für mich noch nach ein paar Unbekannten
why_me
2020-08-31, 19:07:39
Das Zurückrudern ist aus dem Kontext gerissen.
Da ging es explizit um einen 3080 Konkurrenten, dass muss nicht zwingend der Vollausbau sein. Klar kann das möglich sein, aber das wären 80 CUs vs 68 SMs, das wäre schon bitter. Es ist denke ich Wahrscheinlicher, dass dabei ein Salvage gemeint ist.
Meinte das, was Linmoum geschrieben hat.
GA104 wird klar geschlagen, GA102 kommt zumindest in Bedrängnis.
Natürlich könnte das theoretisch auch bedeuten, dass sie an die 3090 rankommen, aber ich würde den Hypetrain doch eher im Depot lassen.
Und letztlich wissen wir nichts darüber, wie effektiv die jeweiligen Einheiten geworden sind. Ampere scheint jedenfalls massiv mehr Transistoren zu haben, das wird sich sicherlich auswirken.
Ohne RT bei mehr CUs sehe ich BN als absoluten Gegner ner 3090. Mit RT und DLSS chancenlos und irgendwo zwischen 3070 und 3080, mit Tendenz zur ersterer
Sunrise
2020-08-31, 19:19:43
Dazu noch nachfolgend zu dem tweet:
"Thanks, I'll try to describe it, GA104 cannot beat BIG NAVI."
"And GA102 will also pay a huge price. Wait for November."
Dass GA104 für Big Navi keine Konkurrenz ist, war eigentlich klar, da hätte ja etwas ordentlich in die Hose gehen müssen.
Die zweite Aussage "GA102 will also pay a huge price" lässt für mich nur folgende Schlüsse zu:
1. AMD ist tatsächlich deutlich kleiner (Die size) und NV muss relativ zu AMD deutlich mehr für den gigantischen ~628mm2 Die, die komplexe Platine, 24GB GDDR6X und das komplexe PCB draufzahlen und Big Navi ist sprichwörtlich viel viel billiger zu produzieren und kann aggressiver gepreist werden. Mit einem 512bit SI hat man Erfahrung genug gesammelt, HBM2 wäre natürlich eine Bombe sondergleichen... vor allem was den Verbrauch angeht (siehe 2).
2. Aufgrund der Tatsache, dass NV bei GA102 All-In beim Verbrauch gegangen ist, vor allem bei der fast doppelten Menge an Transistoren inkl. GDDR6X mit 24GB, wird AMD hier deutlich (er sagt "huge price") weniger verbrauchen, dennoch ähnlich schnell sein (ohne DLSS).
AMD tritt mit min. 16GB an, mit der VRAM-Menge kann es alleine also nichts zu tun haben.
Zu 2 Full ack! Bezüglich RT-Performance kann auch AMD imo nicht zaubern und es verbleibt für den Moment lediglich bei 2080Ti Performance.
Da RT für mich (!) allerdings keine Rolle spielt, sieht es für RDNA2 gut aus. Ich meine es ist the same situation like every Generation: Zu wenig HDR-Performance, grottige Scores in Heaven usw.
Ravenhearth
2020-08-31, 19:39:03
Das Zurückrudern ist aus dem Kontext gerissen.
Da ging es explizit um einen 3080 Konkurrenten, dass muss nicht zwingend der Vollausbau sein. Klar kann das möglich sein, aber das wären 80 CUs vs 68 SMs, das wäre schon bitter. Es ist denke ich Wahrscheinlicher, dass dabei ein Salvage gemeint ist.
Naja, Nvidia hat in den SMs separate INT-Einheiten und Tensor-Kerne, also deutlich mehr Ressourcen. Wenn sie bspw. die Tensor-Kerne nun auch für Spiele nutzbar machen (siehe Ampere-Thread) etc., könnte Ampere pro SM tatsächlich stärker ausfallen als RDNA2, was für AMD keine Schande wäre.
genervt
2020-08-31, 19:52:26
...
Teilweises zurückrudern.
Das klingt nicht nach einer Überkarte. Eher nach dem einem 3080-Konkurrenten.
Solange man nicht völlig High ist und über den Wolken schwebt also wie erwartet.
Und das reicht vollkommen. Dazu noch eine sinnvoller Preis und man ist konkurrenzfähig. Wenn Nvidia die Preise weiter erhöht, kann AMD selbst mit einer deutlich günstigeren Karte Höhe Margen fahren.
fondness
2020-08-31, 20:03:37
Bei der die size, den Transistoren, dem Verbrauch und den 24gb gddr6x die nv aufbietet wäre es schon eine top Leistung, wenn man mit dem salvage mithalten kann. Nv ist hier im wahrsten Sinne des Wortes all in gegangen. Big Navi ist da nach allen aktuell bekannten Daten minimum eine Nummer kleiner.
Da der Verbrauch nicht linear mit dem Takt steigt, kannst du verschiedene Kombinationen aus Takt und Einheitenzahl mit gleicher Leistung zu unterschiedlichem Verbrauch designen.
Da hast du vollkommen Recht. Deswegen klammer ich allerlei mögliche Designs aus, indem ich annehme, dass es einfach das Design wird, was AMD mit 1.5x Effizienz gegen RDNA1 angab.
Wie stellst du dir das vor? Soll eine GPU mit RDNA2 in N10-Größe mit 300W betrieben wird? Oder hast du 50% mehr Einheiten oder 100% bei 300W?
Wenn du eine 300W RDNA2 GPU designen musst, dann wirst du genau errechnen, wie du die Maximale Leistung bekommst.
Der Punkt ist, dass du das Optimale aus den 300W ziehen wirst, nicht das Optimale aus einer bestimmten CU-Anzahl oder einem Wunschtakt, denn die sind nur Mittel zum zweck.
Man könnte auch N10 verdreifachen und den Takt ein Stück weit senken. Je größer die GPU, desto effizienter kann man die betreiben bei einem festen Performanceziel.
Größere GPUs werden energieeffizienter, aber nicht insgesammt effizienter, denn du bekommst Probleme sie gut auszulasten.
Natürlich sagt die reine CPU-Anzahl nicht alles, wie GCN ja gezeigt hat. Aber da müsste Ampere schon wahnsinnig in der IPC zulegen (und AMD geschlafen haben), wenn sie mit ähnlicher Einheitenzahl bei wohl ähnlichem Takt so deutlich vorne liegen wollen. Damit wäre der alte GCN-Abstand wieder hergestellt. Nur ist RDNA deutlich besser als GCN und taktet auch noch deutlich höher. Beides spricht dafür, dass wir solche Abstände nicht wieder sehen werden.
Ich verstehe, dass du gerne willst dass RDNA2 so gut wird wie Ampere, und vielleicht sind meine Prognosen am ende totaller Quatsch gewesen. Ich versuche mich aber sachlich an das zu halten was AMD gesagt hat. Denn bei RDNA1 gegen GCN stimmte es, bei den Zen angaben stellte sich das auch als wahr heraus. Ich glaube AMD jetzt schlicht, dass RDNA2 1.5x gegen RDNA1 an Effizienz zulegt, ganz egal welcher Takt bzw. Anzahl an CUs dafür nötig sind.
Der_Korken
2020-08-31, 20:10:25
Warum soll eine 3080 mit 68SMs nicht so schnell wie eine 80CU-RDNA(2)-Karte sein können? Es schaut ja momentan so aus, als hätte Nvidia die Transistoren pro SMs massivst erhöht, wenn die >30Mrd. Transistoren stimmen. Zudem hat, wie ich im Ampere-Thread bereits schrieb, Turing schon deutlich mehr Rohleistung als auf den ersten Blick sichtbar. Eine RDNA-CU hat 64x(FP oder INT), ein Turing-SM hat 64xFP UND 64xINT. Auf einer Slide zum Turing-Release sagte Nvidia, dass auf 100FP-Ops ca. 36 INT-Ops kommen. Dadurch hat Turing bereits das Potenzial 36% mehr Durchsatz pro SM zu erreichen als Pascal, auch wenn man davon bisher nicht viel gesehen hat. Eigentlich ist die Leistung von RDNA1 bezogen auf die theoretische Rohleistung schon erstaunlich gut.
Wenn Nvidia jetzt so massiv Transitoren in den Chip gebuttert hat, kann man davon ausgehen, dass einiges davon in den Durchsatz pro SM geflossen ist. Zudem haben Turing und Ampere den Vorteil bei BVH-Berechnungen nicht auf die Shader zurückgreifen zu müssen wie AMD. Das muss nicht zwingend effizienter sein, aber es entlastet die Shader, d.h. die potenziell mächtigeren Ampere-SMs müssen zusätzlich noch weniger Arbeit erbringen als die RDNA2-CUs.
Die ominösen Andeutungen auf Twitter interpretiere ich ebenfalls so, dass Big Navi sich mit der 3080 anlegen wird, aber nicht mit der 3090. Über die Effizienz kann man noch nichts sagen, nicht auszuschließen, dass auch Big Navi für die Leistung >300W braucht. Und bei 505mm², die sich einige so sehnlichst wünschen, wird auch der Kostenvorteil gegenüber GA102 dahin sein.
Und das reicht vollkommen. Dazu noch eine sinnvoller Preis und man ist konkurrenzfähig. Wenn Nvidia die Preise weiter erhöht, kann AMD selbst mit einer deutlich günstigeren Karte Höhe Margen fahren.
Finde ich leider nicht! Die TCs sind doch nur Deep-Learning Cores. Brauchst nicht zwingend mit 12_2. Wenn es wieder so nen Kompromiss irgendwo Ti-Performance rauskommt für 700€, dann verliere ich den Glauben und Lisa sollte ihrer Grafikabteilung den Marsch blasen. Ich meine RDNA1 ist mit Wakü super unterwegs und dann mit nem CU-Count von min 12 zur 80 bei wohl besserem Prozess, dann muss ne 80 ohne RT in sämtliche Einzelteile zerlegt werden. Zudem: Warum hat ne 3080 im Vergleich zur 90 trotzdem ne TDP von 320W?
Warum soll eine 3080 mit 68SMs nicht so schnell wie eine 80CU-RDNA(2)-Karte sein können? Es schaut ja momentan so aus, als hätte Nvidia die Transistoren pro SMs massivst erhöht, wenn die >30Mrd. Transistoren stimmen. Das ist auch ein sehr guter Punkt. Transistoren machen eher Sinn als Effizienzvergleich als CUs gegen SMs.
Wenn am Ende eine 300W RDNA2 gegen eine 300W Ampere kämpft, muss kein AMD Fan traurig sein. Die 3090 Spielt dann in einer anderen (Power-)Liga.
crux2005
2020-08-31, 20:25:25
Warum soll eine 3080 mit 68SMs nicht so schnell wie eine 80CU-RDNA(2)-Karte sein können? Es schaut ja momentan so aus, als hätte Nvidia die Transistoren pro SMs massivst erhöht, wenn die >30Mrd. Transistoren stimmen. Zudem hat, wie ich im Ampere-Thread bereits schrieb, Turing schon deutlich mehr Rohleistung als auf den ersten Blick sichtbar. Eine RDNA-CU hat 64x(FP oder INT), ein Turing-SM hat 64xFP UND 64xINT. Auf einer Slide zum Turing-Release sagte Nvidia, dass auf 100FP-Ops ca. 36 INT-Ops kommen. Dadurch hat Turing bereits das Potenzial 36% mehr Durchsatz pro SM zu erreichen als Pascal, auch wenn man davon bisher nicht viel gesehen hat.
Kann gleich oder auch schneller sein. Hängt vom Spiel ab und ob RTX; DLSS genutzt werden oder nicht. z.B. die INT Einheiten bei Turing haben bis jetzt nur in wenigen Spielen mehr Leistung gebracht. Kosten aber immer Fläche und Transistoren.
Und in was NV die Transistoren beim GA102 investiert hat muss sich erst zeigen. Schon alleine die mehr Caches, RT und Tensor Cores werden nicht billig sein.
AMD geht mMn. den effektiveren Weg. Sie erhöhen die Rasterizer Leistung deutlich. Das wird sich in den meisten Spielen in mehr Leistung widerspiegeln. RT und ML werden unterstützt aber Checkbox artig. Die Entwickler müssen selber deutlich mehr Arbeit Leisten und die Leistung mit RT wird viel mehr einbrechen als bei Ampere.
Finde ich leider nicht! Die TCs sind doch nur Deep-Learning Cores. Brauchst nicht zwingend mit 12_2.
Die TCs sollten auch denoising machen. Nur benutzt keine Spieleengine sie dafür, weil es dafür keine standardisierte API gibt.
Gibt's schon, nur halt keine von Microsoft. ;)
MfG
Raff
Mangel76
2020-08-31, 20:32:14
Finde ich leider nicht! Die TCs sind doch nur Deep-Learning Cores. Brauchst nicht zwingend mit 12_2. Wenn es wieder so nen Kompromiss irgendwo Ti-Performance rauskommt für 700€, dann verliere ich den Glauben und Lisa sollte ihrer Grafikabteilung den Marsch blasen. Ich meine RDNA1 ist mit Wakü super unterwegs und dann mit nem CU-Count von min 12 zur 80 bei wohl besserem Prozess, dann muss ne 80 ohne RT in sämtliche Einzelteile zerlegt werden. Zudem: Warum hat ne 3080 im Vergleich zur 90 trotzdem ne TDP von 320W?
So würde ich das auch interpretieren: die 3090 ist durchaus schneller als BN, aber zahlt dafür einen Preis in Form des deutlich höheren Verbrauchs. Sonst könnte ich mir nur den fehlenden Sprung zu TU102 als Grund denken. Die werfen doch nicht aus lauter Übermut mal die angestammten Watt-Grenzen über den Haufen!
crux2005
2020-08-31, 20:32:21
Gibt's schon, nur halt keine von Microsoft. ;)
MfG
Raff
Vulkan auch nur dank Extensions die von NV geliefert werden.
Nazar
2020-08-31, 20:51:34
Ich glaube AMD jetzt schlicht, dass RDNA2 1.5x gegen RDNA1 an Effizienz zulegt, ganz egal welcher Takt bzw. Anzahl an CUs dafür nötig sind.
Das würde der besseren 50% Pro Watt Effizienz widersprechen. Ich glaube du unterschlägst hier diesen Umstand.
Es widerspricht somit auch vollkommen deiner Theorie der Unabhängigkeit von Takt und Anzahl der CUs.
Wir wissen Anhand von RDNA1, dass sich die vorherige Aussage klar auf dieselben Umstände bezog, genauso wie auch bei Zen2.
AMD würde sich -sollten sie wirklich ein "Wortspiel" betrieben haben- selber beim Release als Scharlatan outen. Das wäre vollkommen idiotisch, für den Verkauf und das Ansehen. :freak:
Aber wir werden es sehr wahrscheinlich spätestens nach den ersten Benchmarks von Ampere wissen. AMD wird mit Sicherheit schon die potentiellen Käufer vom Kauf abhalten und selber offiziell ein paar Benches "leaken". :wink:
Mangel76
2020-08-31, 21:03:32
Wenn du eine 300W RDNA2 GPU designen musst, dann wirst du genau errechnen, wie du die Maximale Leistung bekommst.
Der Punkt ist, dass du das Optimale aus den 300W ziehen wirst, nicht das Optimale aus einer bestimmten CU-Anzahl oder einem Wunschtakt, denn die sind nur Mittel zum zweck.
Da vernachlässigst du aber völlig die Kosten! Es ist halt in der Regel nicht so, dass man in der Entwicklung nur Leistung als Ziel hat. Vielmehr muss unter verschiedenen Zielsetzungen optimiert werden. Das da sehr unterschiedliche Strategien gefahren werden können sehen wir bei den neuen Konsolen. Die eine eher klein mit hohem Takt, die andere breiter mit etwas geringerem Takt. Die kleine hat etwas weniger Leistung, ist dafür aber auch günstiger herzustellen. Eine 300W-GPU für 800 Zielpreis wird anders aussehen als eine 300W-GPU für 2000 Zielpreis.
robbitop
2020-08-31, 23:13:19
Wenn sie bspw. die Tensor-Kerne nun auch für Spiele nutzbar machen (siehe Ampere-Thread) etc., könnte Ampere pro SM tatsächlich stärker ausfallen als RDNA2, was für AMD keine Schande wäre.
Spiele nutzen keine Matrixoperationen für 3D Code. Das ist für Inferencing Anwendungen (in Spielen bis dato dlss und potenziell denoising). Das ist keine Limitation, die man entfernen kann. :)
Die INT Einheiten werden bei neueren Spielen aber ein wenig mehr genutzt. Insbesondere fürs post processing.
Screemer
2020-08-31, 23:36:44
Es sollen fp32 Operation auf den Tensorkernen laufen können. So das Gerücht und deshalb der Hinweis auf den Amperethread.
Ravenhearth
2020-08-31, 23:54:54
Spiele nutzen keine Matrixoperationen für 3D Code. Das ist für Inferencing Anwendungen (in Spielen bis dato dlss und potenziell denoising). Das ist keine Limitation, die man entfernen kann. :)
Nicht?
nahezu jede geometrieoperation (perspektive, verschieben, rotieren, animationen, etc.) ist eine matrixoperation und im prinzip genau das was die vertexshader-units vor den unified shadern gemacht haben.
horn 12
2020-08-31, 23:59:15
Würde mich nicht wundern wenn Big Salvage 16GB um die 5% hinter einer RTX 3080 ist für "schlappe" 649 Dollar und die Big Navi Karte dann zwischen 3080 und 3090, eher näher zur 90-er Karte für dennoch stolze 899 Dollar.
basix
2020-09-01, 00:01:46
Spiele nutzen keine Matrixoperationen für 3D Code.
Laut Tesseract und anderen werden z.B. 4x4 Matrizen für Geometrie verwendet. Und es gibt noch andere Beispiele, auch Shader. Siehe Ampere Thread. Ein konkrete Umsetzung ist vermutlich aber nicht so einfach. Pixeljetstream erwähnte dabei z.B. das Datenlayout und wie effizient die Tensor Cores mit Operanden gefüllt werden können.
Edit:
Ravenhearth hat es schon zitiert ;)
Digidi
2020-09-01, 00:22:46
Ja das ist aber Geometrie. Im welchen Format kommen den Beleuchtungs und Partikeleffekte in die GPU? Dachte das wären alles Matrix Operationen?
pixeljetstream
2020-09-01, 00:23:52
tensor
resultat = matrix * matrix + matrix
wald und wiesen operation in grafik:
resultat = matrix * vektor
und manchmal auch
resultat = matrix * matrix
der rest ist meist vektor operationen, kreuz-produkt, skalieren, addieren etc.
hier gibt es ein Projekt von google was so bissl educational ist
https://github.com/google/filament/tree/main/shaders/src
Dazu noch das mit dem layout ueber n threads. Das ist schon noch nen unterschied zwischen den beiden, wenn es sich so leicht nutzen ließe wäre es in Turing schon beworben worden. Tensor core ist halt mehr oder weniger one-trick pony, aber halt ein sehr schnelles pony :)
N0Thing
2020-09-01, 01:07:50
Ich denke, dass derjenige, der die Preise anpassen müssen wird, nicht AMD ist.
:confused:
Wenn AMD erst nach Nvidia ihre Produkte auf den Markt bringen wird und erst nach Nvidias Preisangaben ihre eigenen heraus bringen wird, dann ist es natürlich AMD, die ihre Preise anhand der Leistung und des Preises der Nvidia Grafikkarten anpassen wird.
SKYNET
2020-09-01, 01:21:53
:confused:
Wenn AMD erst nach Nvidia ihre Produkte auf den Markt bringen wird und erst nach Nvidias Preisangaben ihre eigenen heraus bringen wird, dann ist es natürlich AMD, die ihre Preise anhand der Leistung und des Preises der Nvidia Grafikkarten anpassen wird.
nö, die passen nix an, da der preis von anfang an steht bei veröffentlichung... aber NV wird dann korrigieren müssen = preisanpassung
Ich glaube nicht, dass die Karten von AMD ein Schnäppchen werden. Die werden im Preis haarscharf an die jeweilige Leistungsfähigkeit des Konkurrenzproduktes angepasst werden.
Ich hab mir bereits abgeschminkt dieses Jahr eine neue Grafikkarte zu erwerben, um meine 1080Ti, oder die 5700XT zu ersetzen. Mein Limit ist coronabedingt max 750€, welches ich mir felsenfest gesetzt hab.
SKYNET
2020-09-01, 01:29:14
Ich glaube nicht, dass die Karten von AMD ein Schnäppchen werden. Die werden im Preis haarscharf an die jeweilige Leistungsfähigkeit des Konkurrenzproduktes angepasst werden.
Ich hab mir bereits abgeschminkt dieses Jahr eine neue Grafikkarte zu erwerben, um meine 1080Ti, oder die 5700XT zu ersetzen. Mein Limit ist coronabedingt max 750€, welches ich mir felsenfest gesetzt hab.
naja, für die 1080Ti bekommst ja auch noch 300 taler... sind wir bei 1050... ;)
N0Thing
2020-09-01, 01:30:50
nö, die passen nix an, da der preis von anfang an steht bei veröffentlichung... aber NV wird dann korrigieren müssen = preisanpassung
Das ist meiner Meinung nach eine ziemlich naive Vorstellung. Auch Nvidia wird erst kurz vor der Vorstellung ihre Preise festgelegt haben, bei AMD wird da zur Zeit noch gar nichts fix sein. Die werden die Launch und die Ankündigung von Nvidia abwarten und dann ihre Preise festlegen. Sollte AMD es auf einen Preiskampf abgesehen haben, was wohl niemand erwartet, dann muss Nvidia ggfs. ihre Preise nochmal anpassen. Aber das wird ziemlich sicher nicht passieren.
Linmoum
2020-09-01, 01:32:06
:confused:
Wenn AMD erst nach Nvidia ihre Produkte auf den Markt bringen wird und erst nach Nvidias Preisangaben ihre eigenen heraus bringen wird, dann ist es natürlich AMD, die ihre Preise anhand der Leistung und des Preises der Nvidia Grafikkarten anpassen wird.Was ja erstmal impliziert, dass AMD von dem (aktuellen) internen +- Preisziel abweichen wird bzw. muss. Es gibt natürlich keinen festen Preis, aber AMD, genauso wie NV, haben schon weit im Voraus grobe Vorstellungen, wo sie ihre Produkte preislich platzieren wollen. Wie eigentlich jedes andere Unternehmen auch. "Anpassen" dürfte AMD den Preis wenn überhaupt auch nur nach oben, wenn es wie mit Turing weitergeht.
Ist aber auch zweitrangig. Wenn AMD launcht, wird Nvidia die Preise anpassen müssen. Dabei bleibe ich.
Was ja erstmal impliziert, dass AMD von dem (aktuellen) internen +- Preisziel abweichen wird bzw. muss. Es gibt natürlich keinen festen Preis, aber AMD, genauso wie NV, haben schon weit im Voraus grobe Vorstellungen, wo sie ihre Produkte preislich platzieren wollen. Wie eigentlich jedes andere Unternehmen auch.
Ist aber auch zweitrangig. Wenn AMD launcht, wird Nvidia die Preise anpassen müssen. Dabei bleibe ich.Aber nur wenn die Produkte von AMD überragend werden, dann wird Nvidia anpassen. Ich wünsch es den roten, damit die Preise runter kommen, glaub selbst aber ned dran.
Platos
2020-09-01, 02:46:40
Ich wäre da auch eher vorsichtig. Mehr als wilde Spekulationen gibt es nicht. Es sieht danach aus, dass nvidia die Preise erhöht und AMD wird sicherlich mitgehen. Es ist auch klüger aus Unternehmersicht, erstmal "mitzumachen" um das Budget wieder etwas aufzustocken. Die Taktit, alles zu verramschen funktioniert einfach nicht.
Aber ich irre mich gerne und kaufe mir eine 16GB Karte, die unter 500 Kostet :D
crux2005
2020-09-01, 02:48:02
Aber ich irre mich gerne und kaufe mir eine 16GB Karte, die unter 500 Kostet :D
Kannst du auch jetzt schon. Eine benutze Radeon VII. :P
Platos
2020-09-01, 02:50:20
Kannst du auch jetzt schon. Eine benutze Radeon VII. :P
Die hat mir zu wenig Leistung. Und natürlich rede ich von Neupreis und nicht vom Gebrauchtmarkt. RTX 3070 Perfomance mit 16GB unter 500 mit leisem Luftkühler meinte ich. Und eine 3070 sollte irgendwo zwischen 2080 und (näher) 2080 Ti sein.
Edit: Das wäre das, was ich als berechtigten Nachfolger ansehen würde. Aber es ist klar, dass sowas nicht passieren wird.
Edit2: Brauchbare Modelle der RTX 2070 kosteten damals so ~ 570-600. Die beschissenen dann ~520-550. (So als Vergleich).
tensor
resultat = matrix * matrix + matrix
wald und wiesen operation in grafik:
resultat = matrix * vektor
und manchmal auch
resultat = matrix * matrix
der rest ist meist vektor operationen, kreuz-produkt, skalieren, addieren etc.
hier gibt es ein Projekt von google was so bissl educational ist
https://github.com/google/filament/tree/main/shaders/src
Dazu noch das mit dem layout ueber n threads. Das ist schon noch nen unterschied zwischen den beiden, wenn es sich so leicht nutzen ließe wäre es in Turing schon beworben worden. Tensor core ist halt mehr oder weniger one-trick pony, aber halt ein sehr schnelles pony :)
mit 0er und einheitsmatrix gibts dann ja quasi matrix+matrix und matrix*matrix
ob sich das dann lohnt ist noch ne andere frage
und matrix*vector ist auch nix anderes als matrix*matrix
und matrix*vector ist auch nix anderes als matrix*matrix
Wir sprechen über Hardware, nicht über die reine Mathematik.
Es macht schon einen Unterschied wenn du Spezialhardware für matrix*matrix verbaust, denn wenn du nur matrix*vector brauchst, liegt diese vielleicht brach, bzw. bringt nicht mehr als wenn stattdessen mehr generische CUs verbaut werden.
LasterCluster
2020-09-01, 11:01:55
Wir sprechen über Hardware, nicht über die reine Mathematik.
Es macht schon einen Unterschied wenn du Spezialhardware für matrix*matrix verbaust, denn wenn du nur matrix*vector brauchst, liegt diese vielleicht brach, bzw. bringt nicht mehr als wenn stattdessen mehr generische CUs verbaut werden.
WAs verbaut wird steht halt schon fest. Ist dann die Frage wie man die TC noch irgendwie nutzen kann für Standardoperationen. Und du kannst halt aus ner Matrix auch n Vektor machen wie z.b.
[ v_1 v_2 v_3 ; 0 0 0 ; 0 0 0]
Wird dann halt ordentlich Leistung der TC verschwendet. Das ist aber immer noch mehr als sie vollkommen brachliegen zu lassen.
Aber wie schon erwähnt wurde: Falls es wirklich simple Möglichketen gegeben hätte die TC mitzubenutzen, hätten wir das schon bei Turing gesehen.
Wir sprechen über Hardware, nicht über die reine Mathematik.
Es macht schon einen Unterschied wenn du Spezialhardware für matrix*matrix verbaust, denn wenn du nur matrix*vector brauchst, liegt diese vielleicht brach, bzw. bringt nicht mehr als wenn stattdessen mehr generische CUs verbaut werden.
Ich dachte es ging darum Raytracing Special Einheiten die eh da sind, noch irgendwie sinnvoll nutzen zu können, falls nicht für Raytracing gebraucht.
Berniyh
2020-09-01, 12:05:46
Zumal das hier der Navi Thread ist. Nur mal so als Anmerkung … ;)
mironicus
2020-09-01, 12:20:20
Wann gibt es denn endlich mal Leaks zu Big Navi? Nur einen kleinen Brocken auf den man sich stürzen kann, man verhungert ja geradezu...! :D
Sunrise
2020-09-01, 12:24:11
Wann gibt es denn endlich mal Leaks zu Big Navi? Nur einen kleinen Brocken auf den man sich stürzen kann, man verhungert ja geradezu...! :D
Ist ja jetzt September und Jensen haut die Infos heute Abend raus. Zusammen mit den Preisen kann denke ich AMD dann auch bald mal teasern...
Zumal das hier der Navi Thread ist. Nur mal so als Anmerkung … ;)
Ich dachte es ging um die Hypothese ob matrix*matrix Einheiten bei der Geometrietransofrmation helfen würden, und da denke ich die Transistoren kann AMD lieber in mehr CUs investieren. :idea:
Wann gibt es denn endlich mal Leaks zu Big Navi? Nur einen kleinen Brocken auf den man sich stürzen kann, man verhungert ja geradezu...! :D
Kennt man den Twitter User "kopite7kimi"? Er hat ja in der Vergangenheit schon einige Details von Ampere richtig genannt, aber ob das von ihm kam, kann ich nicht beurteilen.
Zumindest spricht er in einem weiteren Thread davon, dass Big Navi 45% vor der 2080ti liegt - im Durchschnitt.
Keine Ahnung wie gut die "+45% zur 2080Ti" passen.
Könnte auch nur ein falsches/richtig geratenes Gerücht sein...
M.f.G. JVC
Edit:
Hab gerade gesehen, dass die 45% nicht von ihm kam. Damit wohl unglaubwürdig.
...und schon hat sich das erledigt ^^
mboeller
2020-09-01, 12:34:58
Wann gibt es denn endlich mal Leaks zu Big Navi? Nur einen kleinen Brocken auf den man sich stürzen kann, man verhungert ja geradezu...! :D
ich würde nicht darauf hoffen, dass da bald was kommt.
Virales Marketing macht jetzt Intel und nicht mehr AMD, nachdem die ganzen Marketing-Leute die Firma gewechselt haben.
Ich erwarte eigentlich, dass erst bei der ZEN3 Vorstellung was kommt. Das sollte, wenn der Zeitplan noch so stimmt Ende Sept. sein. Da war die verschobene Computex geplant gewesen und AFAIR wollte AMD angeblich da was vorstellen.
Dino-Fossil
2020-09-01, 12:37:32
Die eine oder andere neue Info könnte ich mir schon vorstellen, in den nächsten Wochen. Aber wenn man mal sieht wie lange es bei Ampere gedauert hat, bis die Sache richtig losging...
r3ptil3
2020-09-01, 14:52:45
So - 1-2 Stunden vor der Nvidia-Präsentation gibt's dann einen fetten Big Navi Performance Leak. :D
ChaosTM
2020-09-01, 15:01:20
Erst nachher wenn der Preis feststeht..
Elite_Warrior
2020-09-01, 15:29:11
Wenn überhaupt dann wohl vor dem Verkaufsstart der Ampere-Karten. Vlt. Ein Teaser oder sowas nur um Aufmerksamkeit zu bekommen.
Hakim
2020-09-01, 15:34:15
Denke wenn BN Ampere Paroli bieten kann, würde man mit einem Leak schon etwas bewirken und evt einige zum warten bewegen, dem gegenüber würde die Füße Still halten andeuten das es BN evt schwer hat.
rentex
2020-09-01, 15:35:27
So - 1-2 Stunden vor der Nvidia-Präsentation gibt's dann einen fetten Big Navi Performance Leak. :D
Dann wirds langsam Zeit...:wink:
Nazar
2020-09-01, 15:47:08
Denke wenn BN Ampere Paroli bieten kann, würde man mit einem Leak schon etwas bewirken und evt einige zum warten bewegen, dem gegenüber würde die Füße Still halten andeuten das es BN evt schwer hat.
Sehe ich ähnlich. Spätestens, wenn die nV Karten kurz vor der Auslieferung stehen, muss AMD Leaken, wenn sie wirklich nV in einigen Bereichen Paroli bieten können. Tun sie das nicht, dann glaube ich nicht, das BN der große Wurf geworden ist.
Es wäre vollkommen gehirnamputiert nVidia den Zeitvorsprung ohne Gegenwehr zu überlassen, wenn man die richtigen Pfeile im Köcher hat, die man aber erst später verschießen kann.
ChaosTM
2020-09-01, 15:57:01
Leaks sollten ziemlich bald nach der Präsentation kommen - bin gespannt ..
Nightspider
2020-09-01, 16:21:46
Wie wahrscheinlich ist es eigentlich das wir in 1-2 Jahren Grafikkarten auf Basis von Chiplets bekommen?
Es ist wahrscheinlich mehr Wunschdenken aber wenn AMD 2021 irgendwann 5nm GPU Chiplets auf Grafikkarten packt, dann könnte man mit Leichtigkeit ein besseres P/L-Verhältnis und mehr Leistung als Nvidia erreichen.
Theoretisch: 4 Chiplets in 5nm und ~100mm² würden schon mind. 50% mehr Leistung als Big Navi mit einer einzigen Karte ermöglichen, bei hohem Yield und noch besserer Effizienz und man könnte damit locker jede 3090 Titan deklassieren.
Cyberfries
2020-09-01, 16:31:08
Die Wahrscheinlichkeit für Chiplet-Grafikkarten ist hoch - aber bei beiden Herstellern.
Aller Voraussicht nach kommt das zuerst bei einem CDNA-Ableger, bzw. dem nVidia-Gegenstück.
Für Raytracing wäre das eine Top Sache. Natürlich gibt es ein wenig Reibung, durch Post-Processing usw. Aber wenn wir annehmen dass Raytracing 90% der Zeit frisst, wird die Skalierung entsprechend gut mit Chiplets, ohne dass da wirklich viel Hardware rein muss um die GPU-Teile implizit zu synchronisieren.
Brillus
2020-09-01, 18:08:51
Zuallererst kann ich es mir in Compute-Chips vorstellen (und da auch zeitnah, also mich würde weder CDNA1 noch CDNA2 wundern).
Bei Regulären Grafikkarten sehe ich erstmal nur Aufteilung in Rechen und IO-Teil eventuell auch stacked. (Wobei wir da schon ganz nah an aktiven Interposer sind). Wenn man nun sieht das IO schlecht skaliert und wie ich es verstanden habe bei 3nm 400mm² max ist will man da wohl Die-Space frei machen.
Edit: Für Rastergrafik hat bis jetzt noch keiner eine gute Idee wie Compute auf mehrere Chiplets aufzuteilen sind. Wenn Raytracing stark wird kann sich das ändern.
Also irgendwas stimmt an unseren Vermutungen nicht ;). AMD soll 512Bit GDDR6 anbinden und hätte damit fett mehr Bandbreite als die 3090, aber nur 64 Shader pro CU (Ampere hat ja 128 pro SM und doppelte RT-Kerne), was ja auch bei den Konsolen bestätigt ist. Wie stark ist Konsolen-RT zu Ampere jetzt? Lässt sich schwer vergleichen :freak:. Sehr strange das Ganze. Aber um mit 64 Shader pro CU auf RTX3080-Leistung zu kommen müsste AMD schon 2,5GHz prügeln, 400W incoming :freak:.
Ravenhearth
2020-09-01, 19:41:35
Also zum einen könnte Big Navi auch bei 14Gbps bleiben und mit 896GB/s kommen, das wäre weniger als bei der 3090. Zum anderen scheinen die verdoppelten Shader pro SM bei Ampere nur teilweise durchzuschlagen: Die 3080 hat doppelt so viele CUDA Cores wie die 2080 Ti, ist aber laut Nvidia "nur" 40% schneller. Damit ist Ampere bei gleicher Rohleistung 30% hinter RDNA1 (wenn sie vorher gleichauf lagen), hat aber halt viel Rohleistung. AMD bräuchte rein rechnerisch 21 TFLOPs für 3080-Leistung. Das wären knapp 2,05 GHz.
Hm, wenn man mal darüber nachdenkt ist das auch kein Wunder. Viele neuere Games scheinen ja auch von Integer-Performance zu profitieren, Ampere scheint ja in erster Linie die TOPs durch TFLOPs zu ersetzen, Turing hatte ja 32Bit int und 32Bit FP pro SM. Das kann also gar nicht doppelt so stark durchschlagen.
Ravenhearth
2020-09-01, 20:04:59
Guter Punkt. Was die Energieeffizienz angeht, ist Ampere beim tatsächlichen Verbrauch übrigens nur rund 35% effizienter als Turing, die 1.9x gelten nur wenn man die 3080 auf die FPS der 2080 limitiert. Da mache ich mir bei RDNA2 mit den +50% also gar keine Sorgen. Wenn AMD mit RDNA1 bei der Perf/W noch minimal hinten ist, hat sich das spätestens mit RDNA2 erledigt.
Na das bleibt also spannender als es erst den Anschein hatte ;).
Bleibt nur noch die RT-Frage.
Linmoum
2020-09-01, 20:29:53
https://i.gyazo.com/e70e661d09ed136f467c2ed305838d54.png
https://twitter.com/jeremy_soller/status/1300837302541877249
;D ;D
SKYNET
2020-09-01, 20:31:40
Guter Punkt. Was die Energieeffizienz angeht, ist Ampere beim tatsächlichen Verbrauch übrigens nur rund 35% effizienter als Turing, die 1.9x gelten nur wenn man die 3080 auf die FPS der 2080 limitiert. Da mache ich mir bei RDNA2 mit den +50% also gar keine Sorgen. Wenn AMD mit RDNA1 bei der Perf/W noch minimal hinten ist, hat sich das spätestens mit RDNA2 erledigt.
RDNA1 ist effezienter als turing... gab auch irgendwo nen YT video wo 5700XT vs. 2070S angetreten ist, beide karten mit dem gleichen PT --> navi hat turing durch die bank versenkt.
und würd mich nicht wundern, wenn zufällig in 3dmark in den kommenden paar tagen unbekannte AMD karten auftauchen, die ordentlich rocken :D
Ravenhearth
2020-09-01, 20:34:40
RDNA1 ist effezienter als turing... gab auch irgendwo nen YT video wo 5700XT vs. 2070S angetreten ist, beide karten mit dem gleichen PT --> navi hat turing durch die bank versenkt.
Habe mich an Leo orientiert:
https://www.3dcenter.org/dateien/abbildungen/Grafikkarten-UltraHD-Performance-Verbrauch-Index-Maerz-2020.png
https://i.gyazo.com/e70e661d09ed136f467c2ed305838d54.png
https://twitter.com/jeremy_soller/status/1300837302541877249
;D ;D
Höhö, ja, sehr spannnend das Ganze.
ChaosTM
2020-09-01, 20:52:02
https://twitter.com/shen/status/1300773131750174720/photo/1
passend zur großen ^
Linmoum
2020-09-01, 21:04:14
https://i.gyazo.com/e70e661d09ed136f467c2ed305838d54.png
https://twitter.com/jeremy_soller/status/1300837302541877249
;D ;D
David Wang will surprise you.https://twitter.com/kopite7kimi/status/1300845839003205633
Und bae Su demnächst dann so:
ExaAYIKsDBI
basix
2020-09-01, 21:24:04
Das war ein richtiger Badass Moment bei der Playstation :D
Ich denke RDNA2 wird bei herkömmlichen Spielen auf Augenhöhe mit Ampere mitspielen können, evtl. nicht ganz an die 3090 rankommen. Das Züglein an der Waage wird aber Raytracing und DLSS 2.0 sein. Bei letzterem wird AMD aber vermutlich was eigens bringen.
fondness
2020-09-01, 21:46:41
https://i.gyazo.com/e70e661d09ed136f467c2ed305838d54.png
https://twitter.com/jeremy_soller/status/1300837302541877249
;D ;D
Solche Andeutungen macht man zumindest nicht, wenn man chancenlos ist. Allerdings ist get close natürlich ein wager Begriff. Das sie nahe dran sind glaube ich gerne, für mehr hätte es aber wohl eine größere gpu benötigt.
basix
2020-09-01, 22:24:48
Solche Andeutungen macht man zumindest nicht, wenn man chancenlos ist. Allerdings ist get close natürlich ein wager Begriff. Das sie nahe dran sind glaube ich gerne, für mehr hätte es aber wohl eine größere gpu benötigt.
Wenn du dir die momentan bekannten Daten anschaust, ist Ampere gerade mal +20..30% energieeffizienter wie Turing. Ein 300W BigNavi, welcher nicht zu stark nach oben geprügelt wird (ergo die +50% Perf/Watt werden erreicht), wird irgendwo auf 3080 Niveau liegen (RT noch unbekannt, DLSS aussen vor). Das weiss auch Nvidia, deswegen haben die Karten auch einigermassen vernünftige Preispunkte.
[MK2]Mythos
2020-09-01, 22:27:43
Wenn du dir die Daten anschaust, ist Ampere gerade mal +20..30% energieeffizienter wie Turing. Ein 300W BigNavi, welcher nicht zu stark nach oben geprügelt wird (ergo die +50% Perf/Watt werden erreicht), wird irgendwo auf 3080 Niveau liegen (RT noch unbekannt, DLSS aussen vor). Das weiss auch Nvidia, deswegen haben die Karten auch einigermassen vernünftige Preispunkte.
Simple as that. Trotzdem scheinen einige NV Jünger ja zu denken, dass die moderaten Preise ein Geschenk NVidias an die Fans sind, weil man die niedrigen Preise bei Samsung gerne 1:1 an den Endkunden weitergeben möchte. :freak:
y33H@
2020-09-01, 22:28:40
RDNA1 ist effezienter als turing... gab auch irgendwo nen YT video wo 5700XT vs. 2070S angetreten ist, beide karten mit dem gleichen PT --> navi hat turing durch die bank versenkt.
Der Freund des Bruders meines Onkels seiner Schwester ist auch Youtuber.
Linmoum
2020-09-01, 22:29:40
Wenn du dir die momentan bekannten Daten anschaust, ist Ampere gerade mal +20..30% energieeffizienter wie Turing. Ein 300W BigNavi, welcher nicht zu stark nach oben geprügelt wird (ergo die +50% Perf/Watt werden erreicht), wird irgendwo auf 3080 Niveau liegen (RT noch unbekannt, DLSS aussen vor). Das weiss auch Nvidia, deswegen haben die Karten auch einigermassen vernünftige Preispunkte.
Das weiß Nvidia vor allem deswegen, weil nur die 3090 in dem Line-Up nach selbstbewusster Preispolitik riecht und der Rest irgendwie... joa, müssen wa jetzt halt noch den Leuten verkaufen, später klappt das nicht mehr so.
dargo
2020-09-01, 22:37:38
Das weiß Nvidia vor allem deswegen, weil nur die 3090 in dem Line-Up nach selbstbewusster Preispolitik riecht und der Rest irgendwie... joa, müssen wa jetzt halt noch den Leuten verkaufen, später klappt das nicht mehr so.
So sehe ich das auch. Der Preis der 3090 ist ziemlich unverschämt im Vergleich zur 3080 beim gleichen Chip. Selbst wenn die 3080 mit 20GB und 899€ kommen sollte.
TheGood
2020-09-01, 22:49:41
So sehe ich das auch. Der Preis der 3090 ist ziemlich unverschämt im Vergleich zur 3080 beim gleichen Chip. Selbst wenn die 3080 mit 20GB und 899€ kommen sollte.
Sagen wir mal so, das passt nicht so gut zusammen und hat ein sehr komisches Verhältnis. Vor allem auch deswegen, da die 3080 auf dem gleich teuren Design wie die 3090 basiert, nur beim kühler bin ich mir da nicht sicher.
Big Navi wird von daher maximal an die 3080 rankommen. Ist für mich aber auch OK, denn das ist imho schnell genug.
Complicated
2020-09-01, 22:53:40
Über den Preis regelt man die Nachfrage. Es bedeutet am ehesten, dass derzeit einfach wenig Chips für den Vollausbau in 8nm bei Samsung vom Band laufen. Das kann in 6 Monaten anders aussehen, wenn die Yields besser werden.
SKYNET
2020-09-01, 22:55:56
So sehe ich das auch. Der Preis der 3090 ist ziemlich unverschämt im Vergleich zur 3080 beim gleichen Chip. Selbst wenn die 3080 mit 20GB und 899€ kommen sollte.
spricht eigentlich alles dafür, das BN die 3080 fressen wird, die 3090 die schnellste käuflich erwerbbare gamer karte sein wird(darum der exorbitante aufpreis zur 3080)... darum ist das teil so billig...
[MK2]Mythos
2020-09-01, 23:01:27
Naja, fressen nicht. Aber AMD hat jetzt vielleicht noch Zeit, ein bisschen am Takt/Verbrauch zu spielen und die Karten auf Ampere anzupassen. Reicht doch wenn sie dann quasi gleichauf sind, mehr VRAM bieten und vielleicht ein bisschen günstiger sind. Wobei ich mir bei den NV Preisen kaum vorstellen kann, dass AMD die unterbietet.
Sunrise
2020-09-01, 23:04:53
Über den Preis regelt man die Nachfrage. Es bedeutet am ehesten, dass derzeit einfach wenig Chips für den Vollausbau in 8nm bei Samsung vom Band laufen. Das kann in 6 Monaten anders aussehen, wenn die Yields besser werden.
Korrekt, es gibt schlichtweg niemanden, der solch einen Chip in dieser Größe bei Samsung fertigt. Selbst der Power10 von IBM wird kleiner ausfallen (allerdings auf 7nm). IMHO bei dieser Chipgröße und den anderen Kostentreibern (u.a. 24GB GDDR6X) eine klare Angelegenheit.
horn 12
2020-09-01, 23:08:13
Nun, wie bereits einer hier geschrieben.
Etwas mehr SU und 20 GB des G6X Speichers und man hat eine kolportierte RTX 3080 Super/ TI und kann somit zielführend als Navi Konter für 849 bis 899 Euro gebracht werden.
Dann wird sich aber die RTX 3090 kaum mehr verkaufen lassen... und dies schreckt Nvidia sicherlich jetzt schon gewaltig ab.
basix
2020-09-01, 23:27:14
...die 3090 die schnellste käuflich erwerbbare gamer karte sein wird(darum der exorbitante aufpreis zur 3080)
Wenn AMD mit >300W rumspielt und/oder allenfalls noch HBM2 dazu käme, wäre ich mir da gar nicht so sicher. Es liegen nur 20% zwischen 3080 und 3090 ;)
Ampere scheint ca. +25-30% IPC zugelegt zu haben, wenn man 2x FP32 Einheiten als eine einzelne SM zählt. Den Gerüchten zufolge hat BN +20% Takt (2.05 vs. 1.70 GHz) bei -2.5% CUs beim Vollausbau. Macht RDNA2 +10% IPC, kommt man auf die selbe Performance wie eine 3090.
Ich will damit ja keinen Hype Train lostreten, aber so weit weg wird BN vermutlich nicht sein. Und wie gesagt, RT und DLSS spielen auch noch eine Rolle.
SKYNET
2020-09-02, 00:37:00
Wenn AMD mit >300W rumspielt und/oder allenfalls noch HBM2 dazu käme, wäre ich mir da gar nicht so sicher. Es liegen nur 20% zwischen 3080 und 3090 ;)
Ampere scheint ca. +25-30% IPC zugelegt zu haben, wenn man 2x FP32 Einheiten als eine einzelne SM zählt. Den Gerüchten zufolge hat BN +20% Takt (2.05 vs. 1.70 GHz) bei -2.5% CUs beim Vollausbau. Macht RDNA2 +10% IPC, kommt man auf die selbe Performance wie eine 3090.
Ich will damit ja keinen Hype Train lostreten, aber so weit weg wird BN vermutlich nicht sein. Und wie gesagt, RT und DLSS spielen auch noch eine Rolle.
das einzige das ne rolle spielt ist RT... DLSS ist für leute die keine ahnung von BQ haben... wenn ich mir die vergleichsbilder anschaue, bekomme ich immer augenkrebs... und das sagt der grafiker in mir. :smile:
Dampf
2020-09-02, 00:50:00
das einzige das ne rolle spielt ist RT... DLSS ist für leute die keine ahnung von BQ haben... wenn ich mir die vergleichsbilder anschaue, bekomme ich immer augenkrebs... und das sagt der grafiker in mir. :smile:
Trollt er?
Ravenhearth
2020-09-02, 00:53:06
Wurde das eigentlich schon diskutiert?
Jene scheint AMD mit ebenfalls drei Navi-21-basierten Grafikkarten kontern zu wollen, wobei eine Version im Vollausbau des Grafikchips mit 80 Shader-Clustern antritt und zwei hingegen als Salvage-Lösungen mit jeweils 72 Shader-Clustern daherkommen. Da es bei AMD kaum eine auf nur 8 GB halbierte Speichermenge geben dürfte, könnte als Unterscheidungsmerkmal der zweiten 72-CU-Ausführung eine Reduzierung des Speicherinterfaces auf 384 Bit anstehen – wie jene teilweise schon als extra 12-GB-Ausführung des Navi-21-Chips genannt wurde. Das Navi-21-Portfolio würde somit möglicherweise aus den Lösungen 80CU/512-bit/16G, 72CU/512-bit/16G und 72CU/384-bit/12G bestehen.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-31-august-2020
Könnte mir folgende Einordnung vorstellen:
699€: RTX 3080 10GB vs. 80CU 16GB -> AMD hat ähnliche Leistung, aber mehr Speicher
599€: RTX 3070 16GB vs. 72CU 16GB -> AMD hat mehr Leistung, aber gleich viel Speicher
499€: RTX 3070 8GB vs. 72CU 12GB -> AMD hat ähnliche Leistung, aber mehr Speicher
So hätte AMD auf jedem Preispunkt einen Vorteil, Nvidia hat dagegen DLSS und co
dargo
2020-09-02, 07:21:04
spricht eigentlich alles dafür, das BN die 3080 fressen wird, die 3090 die schnellste käuflich erwerbbare gamer karte sein wird(darum der exorbitante aufpreis zur 3080)... darum ist das teil so billig...
Kannst du mal bitte langsam mit deinen Superlativen aufhören? Der Abstand zwischen 3080 und 3090 ist performancemäßig so klein, dass selbst wenn BigNavi sich zwischen 3080 und 3090 positioniert weiß ich nicht wo du da "fressen" siehst. :rolleyes: Bei +/-10% ist in meiner Welt auf Augenhöhe.
Über den Preis regelt man die Nachfrage. Es bedeutet am ehesten, dass derzeit einfach wenig Chips für den Vollausbau in 8nm bei Samsung vom Band laufen.
Naja... aber ein "kaputter" 3080 sollte NV bei Samsung genauso viel kosten wie ein 3090. Schließlich ist das der selbe Chip.
DrFreaK666
2020-09-02, 08:19:03
...
Naja... aber ein "kaputter" 3080 sollte NV bei Samsung genauso viel kosten wie ein 3090. Schließlich ist das der selbe Chip.
Ich denke nicht dass NV für teildefekte Chips bereit ist den vollen Preis zu zahlen
Screemer
2020-09-02, 08:24:40
Alle Chips kosten das selbe. Da pro Wafer und nicht pro Chip bezahlt wird.
basix
2020-09-02, 08:37:44
Alle Chips kosten das selbe. Da pro Wafer und nicht pro Chip bezahlt wird.
Es gibt das Gerücht, dass Nvidia nur funktionierende Chips bezahlen muss.
das einzige das ne rolle spielt ist RT... DLSS ist für leute die keine ahnung von BQ haben... wenn ich mir die vergleichsbilder anschaue, bekomme ich immer augenkrebs... und das sagt der grafiker in mir. :smile:
Ohne auf deine DLSS Bewertung einzugehen: DLSS wird definitiv das Kaufverhalten beeinflussen. Dich vielleicht nicht, aber viele andere. Deswegen spielt es neben RT auch eine Rolle ;)
Screemer
2020-09-02, 08:45:13
Es gibt das Gerücht, dass Nvidia nur funktionierende Chips bezahlen muss.
Ein Gerücht auf das ich gar nichts geben würde. So ließe sich nämlich am Prozessfortschritt nichts verdienen.
Ich frag mich ganz ehrlich warum es in einem and thread seit mehreren Seiten rein um nv geht?
Complicated
2020-09-02, 08:47:33
Naja... aber ein "kaputter" 3080 sollte NV bei Samsung genauso viel kosten wie ein 3090. Schließlich ist das der selbe Chip.Was hat das damit zu tun, dass der Endkundenpreis die Nachfrage bestimmt?
Wenn du nicht genug Chips im Vollausbau hast, dann solltest du nicht gerade Kampfpreise fahren, da du nicht genug liefern kannst. Also muss der Preis so hoch, dass nur wenige das kaufen wollen - so lange bis die Produktion der Stückzahlen verbessert wird. Da ist es egal ob ein teildefekter Chip das selbe kostet in der Produktion.
Redneck
2020-09-02, 09:42:42
Kannst du mal bitte langsam mit deinen Superlativen aufhören? Der Abstand zwischen 3080 und 3090 ist performancemäßig so klein, dass selbst wenn BigNavi sich zwischen 3080 und 3090 positioniert weiß ich nicht wo du da "fressen" siehst. :rolleyes: Bei +/-10% ist in meiner Welt auf Augenhöhe.
Naja... aber ein "kaputter" 3080 sollte NV bei Samsung genauso viel kosten wie ein 3090. Schließlich ist das der selbe Chip.
Ich gehe auch davon aus das ein 80CU RDNA2 performancetechnisch zwischen RTX 3080 und 3090 liegen wird aber aufgrund besserer Effizienz auf der TDP von RDNA1 bleibt.. ergo irgendwo zwischen 225-250 Watt vs 320 Watt bei RTX 3080. Wäre für mich ein mit ausschlaggebender Punkt (habe "nur" ein Seasonic 550 Netzteil und wäre nicht bereit mit ein neues für eine RTX zu kaufen). Mal echte Tests dazu abwarten, was das Teil wirklich verbrät.
dargo
2020-09-02, 09:48:05
Was hat das damit zu tun, dass der Endkundenpreis die Nachfrage bestimmt?
Wenn du nicht genug Chips im Vollausbau hast, dann solltest du nicht gerade Kampfpreise fahren, da du nicht genug liefern kannst. Also muss der Preis so hoch, dass nur wenige das kaufen wollen - so lange bis die Produktion der Stückzahlen verbessert wird. Da ist es egal ob ein teildefekter Chip das selbe kostet in der Produktion.
Das ist reine Spekulation. Wenn bei der 3080 die Nachfrage die Produktion übersteigt muss NV den 3090-er Chip als 3080 verkaufen. Ich glaube kaum, dass dies im Interesse von NV ist (Verzicht auf Marge). Natürlich nur unter der Voraussetzung, dass die Ausbeute bei GA102 allgemein zufriedenstellend ist. Ansonsten wird es schnell schwierig sein an eine 3080 zu kommen.
Complicated
2020-09-02, 10:31:55
Es ist keine Spekulation, dass eine GPU für 1.400,- € sich weniger verkauft als für 999,-. Egal wie schnell sie ist. Wenn die Nachfrage der 3080 höher als das Angebot ist, steigt der Preis. Wenn eine Fertigung eingefahren ist und die Yields steigen, ist es völlig normal, dass irgendwann voll funktionsfähige Chips als kleinere Varianten verkauft werden.
https://www.tomshardware.com/news/amd-big_navi-rdna2-all-we-know?utm_source=twitter&utm_medium=social&utm_campaign=dlvr.it#xenforo-comments-3588646
Cyberfries
2020-09-02, 12:48:37
Ich hab den Link jetzt nur überflogen, aber dabei ist mir schon soviel Blödsinn aufgefallen.
Angefangen damit, dass man einen Artikel schreibt, am Tag nach der Ampere-Vorstellung,
in dem Ampere in 7nm bei TSMC gefertigt werden soll und ein Release-Datum als unbekannt gilt?
Klar, das ist BS. Der wird definitiv über 2,23GHz rauskommen.
https://www.tomshardware.com/news/amd-big_navi-rdna2-all-we-know?utm_source=twitter&utm_medium=social&utm_campaign=dlvr.it#xenforo-comments-3588646
"Der einzige wirkliche Rat, den wir jetzt geben können, ist abzuwarten und zu sehen."
Mehr kann ich dem Artikel nicht abgewinnen...
M.f.G. JVC
Bin gespannt ob sich Lisa zu einem Kommentar hinreißen lässt
Gibt es für RDNA2 irgendeinen Zeitplan der bekannt ist? Bzw. Gerüchte?
Navi 2x soll noch vor den Konsolen kommen, welche wohl Mitte November aufschlagen. Mehr gibt es noch nicht wirklich.
Keine Ahnung ob AMD auf Nvidia gewartet hat und demnächst was vorstellt oder einfach in ihrem Zeitplan bleibt aber ich denke in spätestens sechs Wochen wissen wir mehr.
Dino-Fossil
2020-09-02, 13:34:25
Noch in diesem Jahr, also dann wohl Q4. Aber viel mehr nicht, glaube ich.
Hat doch mal geheißen, das "Big-Navi" vor den Konsolen kommt...
(glaube aber eher etwas später)
M.f.G. JVC
Navi 2x soll noch vor den Konsolen kommen, welche wohl Mitte November aufschlagen. Mehr gibt es noch nicht wirklich.
Nice, das wird dann ja quasi mit den 3070 von NV kommen. Ich freue mich auf die Benchmarkschlachten wie lange nicht mehr :smile:
Ich habe etwas vom 7.10. gehört
Ich habe etwas vom 7.10. gehört
Bissl mehr als ein Monat. Dann kommt vielleicht bald AMDs Count Down :ucatch::ucatch::ucatch:
N0Thing
2020-09-02, 14:32:36
Bei Ampere hat man ca. 2 Monate zuvor die ersten detaillierteren Leaks zu den Grafikkarten (Kühler, Speicher, Leistungsaufnahme, Performance, Stromanschluss) gehabt, die am Ende auch richtig waren.
Solange man über RDNA2-Karten nichts hört, dürfte AMD auch noch nichts an Partner und Hersteller weitergegeben haben, oder AMD hat die Leaks dieses Mal deutlich besser im Griff. Bei Navi war das ja noch ganz anders.
Daredevil
2020-09-02, 14:33:56
Ich glaube wir gehen nicht mehr von 999$ und 16GB HBM2 aus, da sind wir uns einig, oder? :D
nairune
2020-09-02, 14:35:53
Sehe ich auch so, rechne daher mit Anfang November.
Sprich Dezember hat sich alles konsolidiert und ich schau mir mal an ob sich ein Upgrade lohnt. Habe nur keinen Bock auf 300W+...
Auf Twitter laufen so Fernseher wo verschiedene Zahlen auftauchen: 2, 3, 10, 14, 19, 20 in Bezug auf BN.
@Daredevil
Jetzt erst recht ;(
Bei 699.- klingelt es bei mir grad irgendwie im Ohr :usweet:
Für die "XTX" wohlgemerkt.
Könnte aber auch mein Tinnitus sein :biggrin:
M.f.G. JVC
unl34shed
2020-09-02, 14:43:07
Auf Twitter laufen so Fernseher wo verschiedene Zahlen auftauchen: 2, 3, 10, 14, 20 in Bezug auf BN.
Hast du ein Link?
Auf Videocardz gibts ne gif
https://s12.directupload.net/images/200902/ovcytphq.jpg (https://www.directupload.net)
BiZiNiZz
2020-09-02, 14:59:03
Was jetzt Twitter oder Videocardz.....
Was ist an einem Link so schwer? Man diese Unsitte nichts mehr zu verlinken/belegen.....
https://twitter.com/reaktor_field/status/1300887161844056064?s=21
Sorry
Lawmachine79
2020-09-02, 15:18:31
Wer hat den AMD-Leuten denn den Floh ins Ohr gesetzt, BN wird so schnell wie eine 3080?! BN wird bestenfalls leicht oberhalb einer 2080TI/3070 landen. Immerhin sind es dann nur noch knapp 18 Monate Rückstand. Hat BN eigentlich irgendwas wie Raytracing oder DLSS im Gepäck? Irgendwas im Featureset was die Karten interessant machen könnte?
why_me
2020-09-02, 15:18:42
https://twitter.com/reaktor_field/status/1300887161844056064?s=21
Sorry
Dir ist schon klar, dass das nichts mit BN zu tun hat? Und nur eine frage nach richtigen Zahlen und nicht nur Floskeln wie "BN wir gut" ist....
Es kam bei Kimi unter dem Tweed dass David Wang alle überraschen wird. Von daher sah ich da ne Korrelation
@ Law
RT sicher, DLSS in der Art sicher nicht, Upsampler mit Schärfefilter sicher
Zudem: Release der Xbone am 7.10, da passt der 2. oder 3.10. doch perfekt.
BiZiNiZz
2020-09-02, 15:27:31
Die Szene aus dem Gif kommt wenn mich nicht alles täuscht aus einem älteren COD, was das jetzt mit AMD oder Leaks zu tun haben soll erschließt sich mir nicht.
BN wird bestenfalls leicht oberhalb einer 2080TI/3070 landen.
Das halte ich für ziemlichen Blödsinn.
Hat BN eigentlich irgendwas wie Raytracing oder DLSS im Gepäck?
Irgendwas im Featureset was die Karten interessant machen könnte?
Jap. Mehr oder weniger alles was die neuen Konsolen können...
Und es werden ja schon die allermeisten Spiele mit Rücksicht auf die Konsolen entwickelt :wink:
M.f.G. JVC
basix
2020-09-02, 15:30:46
Wer hat den AMD-Leuten denn den Floh ins Ohr gesetzt, BN wird so schnell wie eine 3080?! BN wird bestenfalls leicht oberhalb einer 2080TI/3070 landen.
BN vs. 3080 --> 72-80 CUs, 384-512bit, 12-16 GByte, 2.0 GHz ||| 68 SMs, 320bit, 10 GByte, 1.7 GHz
BN vs. 3070 --> 72-80 CUs, 384-512bit, 12-16 GByte, 2.0 GHz ||| 46 SMs, 256bit, 8 GByte, 1.7 GHz
Was denkst du, welches von beiden realistischerweise näher beieinander liegen würde? ;)
Oder anders rum gefragt: Wenn eine 3080 1.8x so schnell wie eine 2080 ist, wieso sollte eine doppelte 5700XT nicht ebenfalls 1.8x schneller sein?
Hat BN eigentlich irgendwas wie Raytracing oder DLSS im Gepäck? Irgendwas im Featureset was die Karten interessant machen könnte?
Raytracing ist dabei. Wie schnell im Vergleich zu Nvidia weiss noch keiner. DLSS gibt es noch nicht, aber man darf davon ausgehen, dass AMD auch hier mit irgendwas kommen wird. Auch hier: Vergleich mit Nvidias DLSS unbekannt.
Wer hat den AMD-Leuten denn den Floh ins Ohr gesetzt, BN wird so schnell wie eine 3080?! BN wird bestenfalls leicht oberhalb einer 2080TI/3070 landen.
Das wird kein 250mm² Chip mehr, das sollte man nicht unterschätzen.
Hat BN eigentlich irgendwas wie Raytracing
Raytracing sicher ... ist da das Zugpferd der neuen Konsolen. Sollte mich hier auch nicht wundern wenn man hier zumindest beim Raytracing mit der AMD Lösung was Effektivität anbelangt Kreise um RTX zieht.
Dino-Fossil
2020-09-02, 16:33:35
Bin mir noch unsicher was ich von Cheat-Technologie wie DLSS halten soll.
Gut umgesetzt wirkt es schon verlockend - mehr Performance fast für lau, bei geringer (oder sogar keiner sichtbaren) Einbuse der Bildqualität.
Allerdings kann auch ein NN nicht zaubern, sondern faked eben die Darstellung, wenn auch potentiell sehr gut.
Auf jeden Fall verschiebt es die Bewertung der Leistungsdaten von GPUs ein gutes Stück von der Hard- auf die Softwareseite.
Mittelfristig wird AMD was vergleichbares anbieten müssen, denn so mancher wird die Vorteile von DLSS gerne mitnehmen, während ihn die Nachteile kaum stören dürften.
Potentiell hilfreich wäre eine solche Technologie ja auch für die Konsolen.
Auf jeden Fall bin ich gespannt, was da so kommt - vielleicht ja schon mit RDNA2 oder dem neuen Treiber im Dezember?
aufkrawall
2020-09-02, 16:42:31
Mittelfristig wird AMD was vergleichbares anbieten müssen, denn so mancher wird die Vorteile von DLSS gerne mitnehmen, während ihn die Nachteile kaum stören dürften.
Ich würde sogar sagen kurzfristig, will man den Imageschaden nicht noch größer werden lassen. Ich glaubs aber nicht, bei der Historie von peinlichen Quatsch-Features wie Chill oder Boost.
Lehdro
2020-09-02, 16:50:30
Ich würde sogar sagen kurzfristig, will man den Imageschaden nicht noch größer werden lassen. Ich glaubs aber nicht, bei der Historie von peinlichen Quatsch-Features wie Chill oder Boost.
Radeon Chill hat schon durchaus seine Berechtigung, allerdings gehört das eher ins Mobile Segment - dort hat AMD aber nicht wirklich die passende Hardware zur Software, oder verbaut dort schon jemand Navi?
Dino-Fossil
2020-09-02, 17:00:07
Mein Eindruck zu Chill war v.a., dass es eigentlich FreeSync benötigt um sinnvoll nutzbar zu sein.
Die Idee ist prinzipiell schon in Ordnung, aber der Einsatzbereich schon dadurch zu limitiert.
Zum anderen ist Chill (wie auch Boost, glaube ich?) zu simpel auf die Bewegung der Maus ausgelegt - da wäre eine Weitereintwicklung hinsichtlich z.B. echter Bewegungs/Inhaltserkennung im Bild hilfreich.
WedgeAntilles
2020-09-02, 17:01:27
Ich würde sogar sagen kurzfristig, will man den Imageschaden nicht noch größer werden lassen. Ich glaubs aber nicht, bei der Historie von peinlichen Quatsch-Features wie Chill oder Boost.
Ich gehe sogar noch einen Schritt weiter:
Falls ein neutraler Käufer zwischen Ampere und BigNavi entscheidet - warum sollte er zu BigNavi greifen?
- Größerer Speicher evt? - wird durch die 16/20GB Versionen von Ampere nicht mehr stimmen
- Leistung? Klar, kennt man nicht, aber BigNavi wird Ampere sicherlich nicht abhängen, so dass es da diverse Kategorien gibt die ähnlich sind.
- Stromverbrauch? Ist kein echter Kaufgrund und auch da wird sich BigNavi / Ampere wohl nicht viel nehmen.
Wenn die technischen Daten relativ ähnlich sind gibt es nur noch zwei echte Unterscheidungen:
- Preis
- Features
Und bei Features könnte DLSS ein ganz gewichtiger Grund sein - potentiell 50% mehr Frames aufwärts? Wieso sollte man das nicht mitnehmen?
BigNavi bietet kein interessantes Feature.
Ampere hat ein interessantes Feature (und IMO wird auch RT bei Ampere besser sein), bei dem es BigNavi voraus ist.
Für den neutralen Käufer gibt es dann nur noch den Preis weswegen er BigNavi kaufen könnte.
Aber der muss schon merklich günstiger sein, um auf das Potential von DLSS zu verzichten.
20 Euro reichen da nicht.
Nur: Will AMD tatsächlich nur über Preis verkaufen können?
Quasi das "schlechtere" Gesamtpaket anbieten, das man über den Preis verkaufen muss?
Ja, noch ist DLSS nicht wirklich relevant - bedeutet aber nicht, dass sich das nicht ändert in Zukunft. Und auch nicht, dass es für Käufer irrelevant ist. (Es wird ja durchaus ordentlich getrommelt dafür - und schlussendlich ist es völlig egal, ob etwas wirklich wichtig ist. Es genügt, dass viele Käufer GLAUBEN, dass es wichtig ist.)
Kann sich AMD ernsthaft darauf verlassen, dass DLSS nie ein großes Ding wird und es die Käufer nicht interessieren wird?
w0mbat
2020-09-02, 17:09:34
DLSS ist doch aktuell noch Bauernfängerei. Wieso sollte ich ne teure GPU kaufen und dann mit upsampling spielen?
N0Thing
2020-09-02, 17:13:19
Als zusätzliches Feature bei ähnlichem Preis und ähnlicher Performance, ist es eben ein Pluspunkt, von dem man bei Gelegenheit profitieren kann, wenn man denn möchte.
WedgeAntilles
2020-09-02, 17:14:14
DLSS ist doch aktuell noch Bauernfängerei. Wieso sollte ich ne teure GPU kaufen und dann mit upsampling spielen?
Ich zitiere mich mal selber:
"Ja, noch ist DLSS nicht wirklich relevant - bedeutet aber nicht, dass sich das nicht ändert in Zukunft. Und auch nicht, dass es für Käufer irrelevant ist. (Es wird ja durchaus ordentlich getrommelt dafür - und schlussendlich ist es völlig egal, ob etwas wirklich wichtig ist. Es genügt, dass viele Käufer GLAUBEN, dass es wichtig ist.)
Kann sich AMD ernsthaft darauf verlassen, dass DLSS nie ein großes Ding wird und es die Käufer nicht interessieren wird?"
Deine Antwort ist also:
Ja, AMD kann sich darauf verlassen, dass DLSS irrelevant ist und bei sehr wenigen Käufern Einfluss haben wird.
Klar, wissen werden wir es nie genau, aber ich sehe diese Einstellung als ziemlich risikoreich an.
aufkrawall
2020-09-02, 17:20:12
Es ist auf jeden Fall aus PR-Sicht deutlich wirksamer als GameWürgs oder PhysX, und vermutlich kommt dann noch die bessere RT-Performance hinzu.
Ich halte einen Big Navi mit guter Performance und etwaiger besserer Effizienz für möglich, aber wegen dieser Malusse wird er nicht voll durchschlagen.
w0mbat
2020-09-02, 17:26:36
Schwer zu sagen, vielleicht haut DLSS bald voll durch, vielleicht versickert es.
aufkrawall
2020-09-02, 17:28:07
Wird es nicht. Jedes neue Spiel damit wird mit Lob in den entsprechenden Medien breitgetreten. Jedes Mal viel super PR für Nvidia und indirekt ein Schaden für AMD.
Ich sehe AMD in gar nicht mal so einer schlechten Lage. Die RTX 3070 fährt mit 8 GB mit angezogener Handbremse. Der Aufpreis zu 16 GB dürfte sie unattraktiv im Vergleich zur RTX 3080 machen.
Wenn Big Navi mit 3080 konkurriert und preislich etwas besser ist, gräbt sie nicht nur an der 3080 Kundschaft, sondern niveliert nebenbei die 3070.
Wenn ich raten darf: Nvidia weiß um die Schwäche und will mit der 3070 vor dem Big Navi Launch den Markt abgrasen. Ohne Big Navi wäre sie mit höherer RAM Bestückung und höherem Preis gekommen.
Grendizer
2020-09-02, 17:29:00
Ich glaube, dass nVidia BigNavi durch die Preisgestaltung für Ampere ein wenig die Luft zum atmen genommen hat. Ich vermute, das AMD hier schon auf eine Preis um die 800 Euro spekuliert hat. Bis gestern auch eine vernünftige Einstellung. Jetzt wäre es spannend, wo BigNavi leistungstechnisch liegt. Gleichauf/Oberhalb der 3080 mit 16Gb Speicher, dann wäre der Preis gerechtfertigt. Sobald die Leistung aber unterhalb der 3080 liegen sollte, dann wird ein Preis über 699 trotz der 16 Gb schwierig.
Da findet dann evtl. eine Featureabwägung statt. Und da scheint nVidia mit Broadcast, Reflex (allerdings nur mit neuen Monitor) und DLSS irgendwie mehr zu bieten als man von AMD im Moment erwartet.
Und ich denke auch das ein DLSS ähnliches Verfahren sehr wichtig für AMD wäre.
Flusher
2020-09-02, 17:30:32
Ich habe DLSS bisher noch nie Live in Aktion gesehen, aber wenn es stimmt was ich dazu lese, dann nehme ich das Feature sehr gerne mit, und würde bei vergleichbarer Hardware / Performance zwischen AMD und NV aus diesem Grund NV den Vorzug geben. Denn selbst wenn ich Heute es vielleicht nicht brauche aufgrund ausreichender Rohleistung, so kann ich die Nutzung meiner Grafikkarte damit verlängern, selbst wenn ich bspw. in zwei Jahren entscheiden sollte auf 4k @ 144 Hz zu wechseln.
w0mbat
2020-09-02, 17:34:11
Traue lieber nicht dem Text den du liest, sondern schau dir auch die Bilder an. DLSS sieht oft deutlich schlechter aus und ist voller Unschärfe und Artifakte. Aktuell leider immer noch sehr gut mit upsampling + Schärfefilter vergleichbar, wenn auch nicht mehr schlechter als die Kombo, wie es noch mit DLSS 1.0 war.
Complicated
2020-09-02, 17:40:46
Sorry, aber Reflex ist doch ein alter Hut bei AMD:
https://www.amd.com/de/technologies/radeon-software-anti-lag
https://www.amd.com/system/files/2019-07/244945-Radeon-anti-lag-infographic-1260x582.jpg
Ganz ohne speziellen Monitor.
Und was Nvidia Broadcast macht, habe ich in meiner Logicam seit Jahren verbaut (Auto Tracking), ganz ohne KI. Noise Cancelation hat mein Mikro in Hardware und Hintergründe sind ebenfalls ein alter Hut. Zumal auch mit AMD Link:
https://www.amd.com/de/technologies/radeon-software-amdlink
Nvidia hat da eher mal nachgezogen.
Ich gehe sogar noch einen Schritt weiter:
Falls ein neutraler Käufer zwischen Ampere und BigNavi entscheidet - warum sollte er zu BigNavi greifen?
- Größerer Speicher evt? - wird durch die 16/20GB Versionen von Ampere nicht mehr stimmen
- Leistung? Klar, kennt man nicht, aber BigNavi wird Ampere sicherlich nicht abhängen, so dass es da diverse Kategorien gibt die ähnlich sind.
- Stromverbrauch? Ist kein echter Kaufgrund und auch da wird sich BigNavi / Ampere wohl nicht viel nehmen.
Wenn die technischen Daten relativ ähnlich sind gibt es nur noch zwei echte Unterscheidungen:
- Preis
- Features
Und bei Features könnte DLSS ein ganz gewichtiger Grund sein - potentiell 50% mehr Frames aufwärts? Wieso sollte man das nicht mitnehmen?
BigNavi bietet kein interessantes Feature.
Ampere hat ein interessantes Feature (und IMO wird auch RT bei Ampere besser sein), bei dem es BigNavi voraus ist.
Für den neutralen Käufer gibt es dann nur noch den Preis weswegen er BigNavi kaufen könnte.
Aber der muss schon merklich günstiger sein, um auf das Potential von DLSS zu verzichten.
20 Euro reichen da nicht.
Nur: Will AMD tatsächlich nur über Preis verkaufen können?
Quasi das "schlechtere" Gesamtpaket anbieten, das man über den Preis verkaufen muss?
Ja, noch ist DLSS nicht wirklich relevant - bedeutet aber nicht, dass sich das nicht ändert in Zukunft. Und auch nicht, dass es für Käufer irrelevant ist. (Es wird ja durchaus ordentlich getrommelt dafür - und schlussendlich ist es völlig egal, ob etwas wirklich wichtig ist. Es genügt, dass viele Käufer GLAUBEN, dass es wichtig ist.)
Kann sich AMD ernsthaft darauf verlassen, dass DLSS nie ein großes Ding wird und es die Käufer nicht interessieren wird?
Kein Schwein weiß wie dick die ALUs bei RDNA2 sind. Vielleicht kommt was absolut vergleichbares, nur halt anders gelöst. Anschließend lachen alle Gamer über die TCs, weil es ebend auch billiger geht.
Der Preis von Ampere ist natürlich der Hammer, bin sicher Lisa mußte da nicht nur 2x schlucken. 2080Ti Performance für 499$ - Respekt.
Ansonsten bleibt eh nur abwarten. Persönlich abturnen tun mich lediglich die 10GB der 3080, sonst hätte ich sie mir gekauft. Top-Leistung für 699$.
Dino-Fossil
2020-09-02, 17:43:46
DLSS (oder eine potentiell ähnliche AMD Technik) ist mMn v.a. für Raytracing in Kombination mit 4K oder dann 8K interessant. Also eigentlich genau das, was jemand möchte, der eine 3080/90 kauft.
Und wenn es dem Käufer einer 3060/70 ebenfalls ermöglicht mehr Auflösung/Einstellungen zu fahren kommt das dort natürlich auch gut an.
Kann sein, dass es an Bedeutung verliert, wenn die Hardware die nötige Leistung auch ohne solche Tricks liefern kann, aber in den nächsten Jahren sehe ich da schwarz.
Von daher kann man nur hoffen, dass AMD ähnliche Techniken anbieten wird, sonst kann ihre Hardware unter Umständen noch so gut sein - der nVidia-Bias bei Gamern dürfte nur noch größer werden, liefert Team Grün doch potentiell deutlich höhere FPS bei (meist) vergleichbarer sichtbarer Qualität - zumindest in Bewegung.
Allerdings ist die zugundeliegende Technologie nun auch kein Hexenwerk. Geforscht wird daran im Prinzip seit Jahren massiv. nVidia hat halt (noch?) einen Vorsprung was den Gaming-Einsatz angeht.
Mit Sony oder Microsoft im Hintergrund (oder sogar alleine, wer weiß) könnte aber AMD da durchaus "schnell" aufholen, zumindest soweit, dass man zufriedenstellende Resultate abliefert.
aufkrawall
2020-09-02, 17:47:44
Nvidia hat da eher mal nachgezogen.
Nvidia hat da mit der Ultra-Einstellung des ULL-Modus schon lange nachgezogen, die btw. viel besser funktioniert als Radeon A-L.
Beide Features funktionieren aber nicht mit expl. API. Insofern darf man gespannt sein, was da nun von NV kommt.
Daredevil
2020-09-02, 17:50:07
Und was Nvidia Broadcast macht, habe ich in meiner Logicam seit Jahren verbaut (Auto Tracking), ganz ohne KI. Noise Cancelation hat mein Mikro in Hardware und Hintergründe sind ebenfalls ein alter Hut.
Hahaha. :D
Dann zeig uns doch mal, wie gut das funktioniert mit dieser wunderbaren Logitech Software. ( Habe ich ebenfalls )
Aber ja, tatsächlich das das die Aufgabe der Sound/Cam Hersteller, solche Dinge zu machen und nicht Aufgabe der Grafikkarte.
Apropos, wenn das Streaming sehr gut funktioniert, dann sollte doch v.a. der FS2020 besser laufen. AMD sollte langsam leaken, damit ich weiß ob meine Kohle in den roten oder grünen Kessel wandert
stinki
2020-09-02, 18:08:45
Wenn man sich die angebliche Performance von 3070 zu 2080Ti anschaut dann braucht Amper ungefähr 33% mehr FP32 Power um auf die gleiche Performance wie Turing zu kommen.
Wenn man davon ausgeht, dass Navi2x ungefähr die gleiche Peformance pro FP32 wie Turing hat dann würden 80CUs mit ca. 2,2GHz reichen um 3080 Performance zu erreichen.
Das halte ich jetzt für nicht so unerreichbar, oder wenigstens knapp dran (ohne RT und DLSS).
Und das würde für einen 72CU Chip mit leicht niedrigerem Takt auch für 3070/3070Ti passen.
Complicated
2020-09-02, 18:12:51
Nvidia hat da mit der Ultra-Einstellung des ULL-Modus schon lange nachgezogen, die btw. viel besser funktioniert als Radeon A-L.
Beide Features funktionieren aber nicht mit expl. API. Insofern darf man gespannt sein, was da nun von NV kommt.
Na dann siehst du mal - noch nicht mal bei Nvidia ist es neu. Nur haben Sie es jetzt in das Gsync-Modul gepackt, so dass es nicht auf jedem Monitor funktioniert. Eher der Versuch den Dongle im Monitor wiederzubeleben über Featuresets, die aus der GPU in das Modul wandern.
Das nenne ich Feature-Rückschritt ehrlich gesagt:
https://www.nvidia.com/de-de/geforce/technologies/reflex/
Der NVIDIA Reflex Latency Analyzer, der in neuen NVIDIA G-Sync-Displays* integriert ist, erfasst die Ende-zu-Ende-Systemlatenz und liefert genaue Messwerte über die Leistung deines PCs. Mit GeForce RTX-Grafikprozessoren und NVIDIA Reflex Latency Analyzer-kompatiblen Displays und -Mäusen kannst du zuversichtlich in die Schlacht ziehen, denn du weißt, dass dein PC auf Spitzenniveau arbeitet.
* Nicht auf jedem Monitor oder Display verfügbar. Welche Funktionen unterstützt werden, ist den technischen Daten des Herstellers zu entnehmen
Verdonglen der Peripherie, dritter Anlauf. Na klasse.
unl34shed
2020-09-02, 18:16:47
Wenn man sich die angebliche Performance von 3070 zu 2080Ti anschaut dann braucht Amper ungefähr 33% mehr FP32 Power um auf die gleiche Performance wie Turing zu kommen.
Ja, das passt zu der Annahme, dass Ampere die Int32 ALUs durch FP32 erstzt hat. Die sollen ja im Schnitt 36% mehr Leistung gebracht haben.
Wenn man davon ausgeht, dass Navi2x ungefähr die gleiche Peformance pro FP32 wie Turing hat dann würden 80CUs mit ca. 2,2GHz reichen um 3080 Performance zu erreichen.
Dürfte sogar weniger Takt brauchen, denn eins der Ziele für RDNA2 sind weitere IPC improvements.
aufkrawall
2020-09-02, 18:24:48
Na dann siehst du mal - noch nicht mal bei Nvidia ist es neu. Nur haben Sie es jetzt in das Gsync-Modul gepackt, so dass es nicht auf jedem Monitor funktioniert. Eher der Versuch den Dongle im Monitor wiederzubeleben über Featuresets, die aus der GPU in das Modul wandern.
Das klingt nach deiner Darstellung so, als ob Treiber-Features gestrichen würden. Das ist natürlich Unsinn.
Verdonglen der Peripherie, dritter Anlauf. Na klasse.
Unschön. Trotzdem bleibt abzuwarten, was es bringt, oder ob es auch ohne Dongle irgendeine neue Funktionalität geben wird.
Der Input Lag geht mir bei vielen expl. API-Titeln mächtig auf den Sack, da muss sich mal etwas tun. Proprietärer Scheiß ist immer noch das kleinere Übel vs. gar nichts.
Complicated
2020-09-02, 18:31:27
Nur ist die Alternative eben nicht "gar nichts", sondern eine AMD GPU, wo das Feature nicht vom Monitor und der Maus abhängt. Bisher war es ja auch bei Nvidia ohne Abhängigkeit (ich schreibe nirgendwo es sei gestrichen worden). Neu bei Reflex ist lediglich die Verdongelung.
aufkrawall
2020-09-02, 18:47:55
Wow, sich ein einer Zeile gleich mehrfach selbst zu widersprechen: Not bad!
Es ist jedenfalls reichlich dumm nicht auf AMD zu warten und zu schauen was diese bieten werden. Und sei es nur, um dann vielleicht doch eine 3070ti oder 3080ti zu nehmen. Die kommen zu 100% mit doppelt soviel Speicher, aber eben später. Alle Leaks deuten darauf hin und auch die Preisgestaltung lässt mehr als genug Platz.
AMD macht auf CPU Seite seit vier Jahren alles richtig. RDNA1 war ein guter Schritt nach vorne. Klar hat Nvidia ein viel höheres R+D Budget, die müssen aber Marge machen, um ihren Aktienkurs zu halten. Und haben sich diesmal mit ihrer TSMC Kneifzange selbst die Kniescheibe raus gehauen. Die Leistung ist gut, aber hätte besser sein können. Im schlimmsten Fall kommen nächstes Jahr TSMC Ableger der Ampere Chips mit mehr RAM und alle jetzigen Käufer sind richtig gearscht.
Nun gibt es aber noch Sony und Microsoft, welche seit Jahren mit AMD an der neuen Generation arbeiten. Das sollte man nicht unterschätzen. Ich glaube nach wie vor das die RDNA2 Architektur richtig effizient und leistungsstark wird. Kein unnötiger Belast, ein richtiger Gaming Chip.
Leistung wird auf ähnlichem Niveau sein, mit mehr Speicher und weniger Stromverbrauch. Für mich wäre das ein wichtiges Argument, die 3080 will ein 750W Netzteil. Ich habe ein gutes 650W, aber nochmal 120+ Euro für ein Netzteil? Nein danke. Alleine dafür nehme ich 10% weniger Leistung in Kauf.
AMD hält die Füße still, die haben ihren Plan und werden den auch durch ziehen. Die werden etwas konkurrenzfähiges liefern, da bin ich mir ziemlich sicher. Oder nennt es Mitfiebern mit dem Underdog.
Nvidia hat jetzt gute Preise, zum einen weil AMD etwas bieten wird, zum anderen weil sich Turing scheisse verkauft hat und sie die Pascalbesitzer endlich abgreifen wollen.
Für jetzt und heute alles schön und gut, Features hin und her, spätestens in zwei Jahren blasen die kommenden Generationen alles aus dem Wasser was bis dahin gibt. Das wird wahrscheinlich der größte Sprung werden, den es je gebeben hat.
Na dann siehst du mal - noch nicht mal bei Nvidia ist es neu. Nur haben Sie es jetzt in das Gsync-Modul gepackt, so dass es nicht auf jedem Monitor funktioniert. Eher der Versuch den Dongle im Monitor wiederzubeleben über Featuresets, die aus der GPU in das Modul wandern.
Das nenne ich Feature-Rückschritt ehrlich gesagt:
https://www.nvidia.com/de-de/geforce/technologies/reflex/
Verdonglen der Peripherie, dritter Anlauf. Na klasse.
Danke für den Link;) Wieder ein Grund NV außen vor zu lassen,
Brillus
2020-09-02, 19:51:25
Ich gehe sogar noch einen Schritt weiter:
Falls ein neutraler Käufer zwischen Ampere und BigNavi entscheidet - warum sollte er zu BigNavi greifen?
- Größerer Speicher evt? - wird durch die 16/20GB Versionen von Ampere nicht mehr stimmen
- Leistung? Klar, kennt man nicht, aber BigNavi wird Ampere sicherlich nicht abhängen, so dass es da diverse Kategorien gibt die ähnlich sind.
- Stromverbrauch? Ist kein echter Kaufgrund und auch da wird sich BigNavi / Ampere wohl nicht viel nehmen.
Wenn die technischen Daten relativ ähnlich sind gibt es nur noch zwei echte Unterscheidungen:
- Preis
- Features
Und bei Features könnte DLSS ein ganz gewichtiger Grund sein - potentiell 50% mehr Frames aufwärts? Wieso sollte man das nicht mitnehmen?
BigNavi bietet kein interessantes Feature.
Ampere hat ein interessantes Feature (und IMO wird auch RT bei Ampere besser sein), bei dem es BigNavi voraus ist.
Für den neutralen Käufer gibt es dann nur noch den Preis weswegen er BigNavi kaufen könnte.
Aber der muss schon merklich günstiger sein, um auf das Potential von DLSS zu verzichten.
20 Euro reichen da nicht.
Nur: Will AMD tatsächlich nur über Preis verkaufen können?
Quasi das "schlechtere" Gesamtpaket anbieten, das man über den Preis verkaufen muss?
Ja, noch ist DLSS nicht wirklich relevant - bedeutet aber nicht, dass sich das nicht ändert in Zukunft. Und auch nicht, dass es für Käufer irrelevant ist. (Es wird ja durchaus ordentlich getrommelt dafür - und schlussendlich ist es völlig egal, ob etwas wirklich wichtig ist. Es genügt, dass viele Käufer GLAUBEN, dass es wichtig ist.)
Kann sich AMD ernsthaft darauf verlassen, dass DLSS nie ein großes Ding wird und es die Käufer nicht interessieren wird?
DLSS wird stark auf die Reviewer ankommen, der 08/15 Käufer schaut wenn nur auf Balken und wenn ohne DLSS gebencht wird bekommt das so ein Käufer nicht mit.
Dural
2020-09-02, 19:54:51
Wenn man davon ausgeht, dass Navi2x ungefähr die gleiche Peformance pro FP32 wie Turing hat dann würden 80CUs mit ca. 2,2GHz reichen um 3080 Performance zu erreichen.
Das halte ich jetzt für nicht so unerreichbar, oder wenigstens knapp dran (ohne RT und DLSS).
Und das würde für einen 72CU Chip mit leicht niedrigerem Takt auch für 3070/3070Ti passen.
Problem dürfte einfach sein das keiner eine 400watt karte haben will und das wird ein 80cu @ 2,2ghz haben. 2ghz sind bei einem so grossen chip realistischer, aber selbst das wird bei rund 300watt eher sportlich.
Mein tipp, amd wird jetzt schnell eine wakü edition zusammen basteln.
Linmoum
2020-09-02, 19:57:37
Warum wollen Leute eine 350W+ GPU haben, aber keine 400W? Ergibt Null Sinn.
Ganz davon ab, dass das nicht so kommen wird. Ist schlicht nicht notwendig. Dass die Effizienzkrone so schnell wechseln wird. Nunja, ewig ist es ja nicht mehr hin.
horn 12
2020-09-02, 20:02:55
AMD liegt derzeit bei ca., 225 bis 265 Watt
Man munkelt eine 300+ Watt und nun gar HBM² zu releasen um besser bestehen zu können.
Aber ob dies schlau ist sei dahingestellt...
649 bis 749 Euro nicht die HBM Variante...
dargo
2020-09-02, 20:03:23
Problem dürfte einfach sein das keiner eine 400watt karte haben will und das wird ein 80cu @ 2,2ghz haben. 2ghz sind bei einem so grossen chip realistischer, aber selbst das wird bei rund 300watt eher sportlich.
350 grüne Watt sind ok, aber 400 rote nicht? Logik? :freak: Beides ist bescheuert, außer vielleicht für Wakü. Und was ist bei dir großer Chip? BigNavi wird kleiner als GA102.
Edit:
Lol... die ersten 400 grünen Watt sind schon angekündigt. ;D
https://www.thefpsreview.com/2020/09/02/asus-rog-strix-geforce-rtx-3090-to-feature-increased-tdp-and-third-power-connector/
Dural
2020-09-02, 20:13:42
Es geht auch nicht um den verbrauch für sich, sondern um das was alles damit zusammen hängt: kosten, kühler, lautstärke etc.
why_me
2020-09-02, 20:19:59
Es geht auch nicht um den verbrauch für sich, sondern um das was alles damit zusammen hängt: kosten, kühler, lautstärke etc.
Warum meckerst du dann nicht über die 3080 und 3090? Die haben die TDP auch deutlich zum Vorgänger angehoben, da ist komischerweise alles in Ordnung... Diese Doppelmoral kotzt nur noch an.
Es geht auch nicht um den verbrauch für sich, sondern um das was alles damit zusammen hängt: kosten, kühler, lautstärke etc.
Ich habe hier eine 5700xt die mit 1900 MHz unter 150W verbraucht. RDNA2 soll 50% Perf/W bringen. Mit Undervolting geht da sicher noch mehr. Hohe Kosten für Kühler, PCB etc. sehen wir doch gerade bei Ampere.
https://www.extremetech.com/wp-content/uploads/2020/07/AMD-RDNA2-Slide.jpg
aufkrawall
2020-09-02, 21:17:17
Dann halt nicht.
Nur ist die Alternative eben nicht "gar nichts", sondern eine AMD GPU, wo das Feature nicht vom Monitor und der Maus abhängt.
Wie kommst du denn auf den Unsinn? Der Input Lag bei expl. API (und "impl." API mit vergleichbaren Einstellungen) wird bei AMD und Nvidia ~genau gleich hoch sein. Es gibt "das Feature" schlicht gar nicht bei AMD (wenn der neue Nvidia-Kram tatsächlich auch expl. API hilft und nicht nur PR-Geblubber ist).
Und für "impl." API kannst du weiterhin ULL auf ultra im Treiber stellen, mit btw. deutlich besseren Frametimes als bei AMD. *shrug*
Bisher war es ja auch bei Nvidia ohne Abhängigkeit (ich schreibe nirgendwo es sei gestrichen worden). Neu bei Reflex ist lediglich die Verdongelung.
Nur ändert dieser HW-Dongle rein gar nichts am "bisher", das ist rein zusätzlich. Irgendwie scheinst du zwanghaft einen gegenteiligen Eindruck erwecken zu wollen. Nennt man auch "lügen".
herbert_
2020-09-02, 21:47:44
Ich sehe AMD noch nicht auf verlorenem Posten. Tensor Core Berechnungen und die BVH traversal kosten Fläche, laufen nicht immer und können von ALUs auch gerechnet werden. AMD scheint mir die ray intersection sehr Platz sparend implementiert zu haben. Wenn sie die ALUs um Deep Learning Instructions erweitert haben, sind sie vermutlich immer noch nicht so effizient wie Ampere, aber für jeden nicht verbauten "Tensor Core" und die fehlende BVH logik können sie einfach mehr ALUs verbauen die alles können. Im Summe könnte das dann ungefähr auf das Gleiche raus laufen.
Hauwech
2020-09-02, 22:05:28
Das wird kein 250mm² Chip mehr, das sollte man nicht unterschätzen.
Raytracing sicher ... ist da das Zugpferd der neuen Konsolen. Sollte mich hier auch nicht wundern wenn man hier zumindest beim Raytracing mit der AMD Lösung was Effektivität anbelangt Kreise um RTX zieht.
Kreise sehen anders aus. :D
Nvidia hat da mit der Ultra-Einstellung des ULL-Modus schon lange nachgezogen, die btw. viel besser funktioniert als Radeon A-L.
Beide Features funktionieren aber nicht mit expl. API. Insofern darf man gespannt sein, was da nun von NV kommt.
...
Und für "impl." API kannst du weiterhin ULL auf ultra im Treiber stellen, mit btw. deutlich besseren Frametimes als bei AMD. *shrug*
...
Magst du zu den Behauptungen mal Tests verlinken?
aufkrawall
2020-09-02, 22:30:01
Mir ist gar kein Frametime-Test zu den Features bekannt, außer meine eigenen, wie z.B.:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12207597&postcount=10161
Ich seh es hier mit Polaris direkt spikiger werden in TW3 oder Talos Principle, mit der 1070 war das in ausnahmslos keinem Spiel der Fall (bzw. das Gegenteil, manche Spikes werden gar weggebügelt).
Linmoum
2020-09-02, 22:51:54
https://i.gyazo.com/6967da957f7f069f80af048b873834e7.png
https://mobile.twitter.com/_rogame/status/1301251483283980293
Das beides möglich ist, ist ja schon länger offensichtlich. Devinder sprach damals nicht nur so von "halo product". Und HBM2(e) sorgt natürlich noch mal bei der GPU selbst für ein gutes Stück an mehr Spielraum.
Daredevil
2020-09-02, 23:20:40
HBM2 für den MacPro? (:
Mach mal schnelleren HBM2 drauf wie auf der VII und ich kaufe 8 Stück davon, der Server freut sich, die VII müssen raus.
Digidi
2020-09-02, 23:54:12
https://i.gyazo.com/6967da957f7f069f80af048b873834e7.png
https://mobile.twitter.com/_rogame/status/1301251483283980293
Das beides möglich ist, ist ja schon länger offensichtlich. Devinder sprach damals nicht nur so von "halo product". Und HBM2(e) sorgt natürlich noch mal bei der GPU selbst für ein gutes Stück an mehr Spielraum.
Das gäbe nur sinn wenn es zwei Chips gibt. HBM und GDDR6 für 1 Chip! No way! Die Fläche die man für das Interface verbrät ist einfach zu teuer.
Daredevil
2020-09-02, 23:55:58
Das gäbe nur sinn wenn es zwei Chips gibt. HBM und GDDR6 für 1 Chip! No way! Die Fläche die man für das Interface verbrät ist einfach zu teuer.
Navi gibt es auch schon mit GDDR6 und HBM ?
Warum sollte es auch nur einen RDNA2 Chip geben?
N0Thing
2020-09-03, 02:59:18
Navi gibt es auch schon mit GDDR6 und HBM ?
Ja, aber nicht in einem Chip und die HBM-Variante ist exklusiv für Apple. Wird eine Semi-semi-custom-Lösung gewesen sein, die man sich wohl kaum für den Desktop mit dem harten Wettbewerb gönnen wird.
Entweder gibt es Big Navi mit HBM-Interface, oder mit GDDR6. Die Entscheidung darüber ist schon vor langer Zeit gefallen und auf gut Glück ein doppeltes Interface beim Flaggschiff einzubauen, das kann ich mir bei AMDs Situation nicht wirklich vorstellen.
Denniss
2020-09-03, 03:30:21
Beide Interfaces in einem chip ist sowieso unsinnig - die sind zu grundverschieden im aufbau. Und wenn dann noch Cache an den Controller(n) direkt dranhängt dann ist das noch viel mehr totes material im chip.
Besser ein paar Millionen für separate Entwicklung ausgeben als später viele Millionen in der Herstellung zu verpulvern
dargo
2020-09-03, 06:40:20
https://i.gyazo.com/6967da957f7f069f80af048b873834e7.png
https://mobile.twitter.com/_rogame/status/1301251483283980293
Das beides möglich ist, ist ja schon länger offensichtlich. Devinder sprach damals nicht nur so von "halo product". Und HBM2(e) sorgt natürlich noch mal bei der GPU selbst für ein gutes Stück an mehr Spielraum.
Interessant... also 80CU RDNA 2 mit HBM2 und alles drunter mit GDDR6?
Warum sollte es auch nur einen RDNA2 Chip geben?
Kapiere ich auch nicht, AMD stellt doch das gesamte Portfolio auf RDNA 2 um. Nicht alles natürlich in 2020.
@Linmoum
Phu, HBM2(e) wäre natürlich geil :D
Da würde ich wahrscheinlich sogar über 999 gehen ^^
Vielleicht überrascht AMD ja doch noch :)
M.f.G. JVC
Berniyh
2020-09-03, 08:09:03
Interessant... also 80CU RDNA 2 mit HBM2 und alles drunter mit GDDR6?
Bestimmt nicht. Das würde bedeuten, dass man Navi 21 nur im Vollausbau verkauft, was die Rendite von dem Chip ins Nirvana treiben würde (wg Ausschuss).
Wenn die schnellste Karte mit HBM2 kommt, dann auch deren Salvage Lösungen.
Diese Aussage kann eigentlich nur bedeuten, dass Big-Navi HBM hat. Anders ergibt das keinen Sinn.
N21 -> 2 Stacks HBM2e (kann 24GB werden)
N22 -> 384Bit GDDR6 (12/24GB)
N23 -> 256Bit GDDR6 (8/16GB)
N24 -> 128Bit GDDR6 (8GB)
Berniyh
2020-09-03, 08:22:41
Diese Aussage kann eigentlich nur bedeuten, dass Big-Navi HBM hat. Anders ergibt das keinen Sinn.
N21 -> 2 Stacks HBM2e (kann 24GB werden)
N22 -> 384Bit GDDR6 (12/24GB)
N23 -> 256Bit GDDR6 (8/16GB)
N24 -> 128Bit GDDR6 (8GB)
Richtig, wobei man nicht ausschließen sollte, dass evtl. Navi 24 doch noch irgendein Apple-exclusive ist, aber ist auch noch sehr lange hin bis wir den Chip wirklich sehen werden.
Abgesehen davon: man beachte den Konjunktiv in dem Tweet. ;)
Zergra
2020-09-03, 08:33:42
Abgesehen davon: man beachte den Konjunktiv in dem Tweet. ;)
Eben, am Ende sagt das nix aus....
dargo
2020-09-03, 08:35:37
Bestimmt nicht. Das würde bedeuten, dass man Navi 21 nur im Vollausbau verkauft, was die Rendite von dem Chip ins Nirvana treiben würde (wg Ausschuss).
Wenn die schnellste Karte mit HBM2 kommt, dann auch deren Salvage Lösungen.
:freak:
Es ist doch wohl klar, dass ich damit BigNavi inkl. Salvage meine. Also höchstwahrscheinlich 80CU/72CU.
N21 -> 2 Stacks HBM2e (kann 24GB werden)
Wie soll das mit 2 Stacks gehen? Wenn schon dann 16GB.
Richtig, wobei man nicht ausschließen sollte, dass evtl. Navi 24 doch noch irgendein Apple-exclusive ist, aber ist auch noch sehr lange hin bis wir den Chip wirklich sehen werden.
Abgesehen davon: man beachte den Konjunktiv in dem Tweet. ;)
Ihr mit eurem Scheiss Apple immer, so ein Schwachfug. Das ist vorbei.
mironicus
2020-09-03, 08:39:46
Das mit Apple ist noch nicht vorbei. Die haben sicherlich noch Verträge.
Das mit Apple ist noch nicht vorbei. Die haben sicherlich noch Verträge.
Wobei, aus Apples sicht, wenn Sie eh auf eigene Proukte umsteigen wollen, macht es nur Sinn, dass sie dabei bleiben was sie haben, mit nur kleinen Updates um die Produkte frisch zu halten.
Beim Umstieg auf ihre eigenen sachen werden sie sich ja an den Vorgängermodellen messen müssen. Da sind GCN Chips doch netter als RDNA2.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.