Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Käsetoast
2020-10-28, 18:20:23
Die Präsi war im übrigen erste Sahne, kurz und präzise auf den Punkt, keine stundenlangen langweiligen Geschichten von Lederjacke. AMD hat auch Marketingtechnisch eine menge gelernt.
Die Stage war wirklich richtig gut - insbesondere bei dem Kameraschwenk wo im Hintergrund die angesprochenen Spiele mit Logo und Grafik zu sehen waren...
Fand ich um Welten ansprechender als die NVIDIA Präsi aus der Küche heraus, auch wenn die Überraschung aus dem Backofen fast schon Stil hatte... :wink:
robbitop
2020-10-28, 18:20:57
Der L2 bei RDNA1 ist doch auch schon an die MCs gekoppelt?
Der Infinity Cache ist doch einfach der Marketingname für viel mehr L2, oder irre ich mich da? Also architekturmässig eigentlich ein triviales Feature.
Dass sich aber derartige Cache-Mengen nun bei GPUs lohnen finde ich schon einigermassen erstaunlich - da sind von den 26 Mrd Transistoren schon über 6 Mrd L2, klar der ist dicht gepackt aber dürfte doch einiges an Fläche kosten (mehr als zusätzliche 2 64bit MC - na gut AMD behauptet ja auch die effektive Bandbreite sei höher).
Naja Crystalwell hat es ja nicht ohne Grund gegeben - auch wenn eine iGPU natürlich nur schwer vergleichbar ist. Das Ding hat damals IIRC das Bandbreitenlimit entfernt.
Blediator16
2020-10-28, 18:21:34
Die Stage war wirklich richtig gut - insbesondere bei dem Kameraschwenk wo im Hintergrund die angesprochenen Spiele mit Logo und Grafik zu sehen waren...
Fand ich um Welten ansprechender als die NVIDIA Präsi aus der Küche heraus, auch wenn die Überraschung aus dem Backofen fast schon Stil hatte... :wink:
Die 3090 aus dem Backofen war halt ein Wink mit dem Zaunpfahl :tongue:
Cubitus
2020-10-28, 18:22:28
Mythos;12477050']WTF?
Unglaublich wie gut Jensens Gehirnwäsche bei manchen funktioniert. ;D
Können uns gerne mit ner Feature Liste Liste auseinandersetzen.. :wink:
Und zwar von Dingen welche wirklich out of the Box funktionieren, nicht iwie mit iwelchen Hacks und Patches gerade so laufen...
Wie gesagt ich gönne AMD wirklich Erfolg!
Aber es sind noch andere Dinge welche gerade bei Gleichstand entscheidend sind..
Und das ist nun mal jetzt das Wesentliche was AMD gelingen muss..
Nur mal ein Beispiel, Game Ready Treiber.
Wie lange braucht AMD dafür? Wie lange Nvidia?
Welches (GPU) Hersteller Label ist auf den Top-AAA Titeln meistens zu sehen?
Welche Features (DLSS, RTX_ON) werden denn aggressiver beworben?
Wo bekommst du über sämtliche neue Features im Treiber gute und nachvollziehbare Erklärungen, als nur in irgendwelchen nerd Foren?
Das hat nix mit Gehirnwäsche zu tun, dass sind einfach Fakten wo AMD aufholen muss.
Marketing muss besser werden
Treiber Team muss besser werden --> Innovationen müssen folgen und diese auch gut beworben werden..
und Kontakte in die Branche müssen besser werden..
Wie gesagt es reicht nicht nur eine gute HW zu haben, dafür ist Nvidia zu stark bzw. Nvidia ist auch nicht so langsam und träge wie Intel ;)
AlterSack
2020-10-28, 18:22:42
Welcome back, AMD.
Auch wenn ich im Moment keine Neuanschaffung plane bin ich von der Entwicklung begeistert. Die nächste Zeit dürfen Intel und nVidia sich gerne mit AMD im Wettstreit messen, da hoffe ich auf bessere Preise und einen flotteren Fortschritt damit ich viel Leistung fürs Geld bekomme wenn ich in 2-3 Jahren mir wieder ein neues System zulege.
Echt beindruckend wie konsequent AMD zuerst Intel und jetzt zusätzlich nVidia Paroli bietet. Persönlich hatte ich zwar auf einen derartigen Konter gehofft aber echt nicht erwartet, da steckt wohl noch zu viel Entäuschung über Vega in meinem Rechner. :freak:
Ich "liebe" meine Vega56. :heart::love:
dargo
2020-10-28, 18:23:09
Ich würd sofort eine 3080 kaufen wenn ich eine bekommen würde.
Dann bist du in diesem Thread völlig falsch. Ich wünsche dir viel Glück bei der Suche nach deiner RTX 3080. :)
BoMbY
2020-10-28, 18:24:02
Ich schätze dann mal mit den aktuellen Umrechnungskursen und der gesenkten Märchensteuer wird aus $649 eine UVP von 649,- Euro werden.
arcanum
2020-10-28, 18:24:23
Bleibt die 6900XT mit aktiviertem Rage Mode in den 300 Watt ?
rage mode = 1 click overclocking
amd schreibt bei den rage mode folien auch keine watt zahlen dazu, also wahrscheinlich eher deutlich drüber und im besten fall gleichauf mit nvidia. mehr fps resultieren immer in mehr verbrauch, egal wie diese zustande kommen.
Tesseract
2020-10-28, 18:24:52
Die Präsi war im übrigen erste Sahne, kurz und präzise auf den Punkt
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
ChaosTM
2020-10-28, 18:26:01
Ich hab eine, könnte sie für ~ 620 EUR Netto verkaufen und weiß nicht was ich machen soll ehrlich gesagt.
Behalten. Außer du brauchst die letzten paar FPS für 4k/60
Nazar
2020-10-28, 18:26:48
Das ist klar, NV hätte die 3080 ohne AMD niemals zu dem Preis gebracht, das bestreitet aber eh niemand.
Wann warst du zuletzt im Ampere Thread?
Selbst von den Reviewern wird ständig der Preispunkt bei Vergleichen herangezogen, so als ob ohne AMDs Vorstellung eine 3080 auch 700$ gekostet hätte.
"Ja, die 3080 hat nur 10GB VRAM aber dafür bekommt man für 700$ mehr Leistung als von einer 2080Ti die mal 1200$ gekostet hatte."
Und wenn die Presse schon an Realitätsverweigerung krankt, dann muss man diesen Umstand immer und immer wieder erwähnen. :wink:
Was viele in der Diskussion gerne vergessen, die Preisgestaltung seitens nV ist ein auch ein "Nachtreten" seitens nV.
nV hat mit Absicht so einen Paperlaunch und eine so extrem niedrige Preisgestaltung hingelegt.
Man wollte AMD unbedingt einen Mitgeben.
Den Paperlaunch mussten sie hinlegen, um möglichst viele Karten verkaufen zu können, da es an ausreichend Rt Titeln für das "Volk" fehlt und es den meisten Käufern wirklich immer noch egal ist, ob RT on oder off ist (viele sehen den Unterschied nicht).
Die Preisgestaltung hat aber einen besonderen Geschmack und hat AMD auch geschmerzt, zumindest deutlich mehr als nV.
Auch wenn ich es nicht gerne zugebe aber in diesem Fall bin ich nV wirklich dankbar, obwohl das nV sicherlich nicht gemacht hat, um den Spielern einen Gefallen zu tun. :wink:
Blediator16
2020-10-28, 18:26:56
Wie gesagt es reicht nicht nur eine gute HW zu haben, dafür ist Nvidia zu stark bzw. Nvidia ist auch nicht so langsam und träge wie Intel ;)
8nm Geizhals Prozess lässt grüßen. Abwarten. Wie man sieht, mussten bei NV doch die ein oder andere Überstunde gekloppt werden.
AMD ist nicht mehr so durchsichtig wie vor einigen Jahren, als Mitarbeiter gegangen sind und Firmengeheimnisse mitgenommen wurden. Kann aber auch alles nur Zufall sein.
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache oder radeon boost in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
ja, so habe ich es auch wahrgenommen - aber ich erwarte nichts anderes bei einer Erstvorstellung. Es war halt keine Veranstaltung für Nerds, sondern für potentielle Neukäufer und Geschäftspartner. (Es gab ja auch keine FPS-Anzeigen bei NVidia-Balken)
fondness
2020-10-28, 18:27:39
Der L2 bei RDNA1 ist doch auch schon an die MCs gekoppelt?
Der Infinity Cache ist doch einfach der Marketingname für viel mehr L2, oder irre ich mich da? Also architekturmässig eigentlich ein triviales Feature.
Dass sich aber derartige Cache-Mengen nun bei GPUs lohnen finde ich schon einigermassen erstaunlich - da sind von den 26 Mrd Transistoren schon über 6 Mrd L2, klar der ist dicht gepackt aber dürfte doch einiges an Fläche kosten (mehr als zusätzliche 2 64bit MC - na gut AMD behauptet ja auch die effektive Bandbreite sei höher).
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Blediator16
2020-10-28, 18:28:03
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
Natürlich haben sie grob erklärt wofür IF Cache da ist :confused:
Cubitus
2020-10-28, 18:29:00
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Wie gesagt das scheint ziemlich kewl zu sein :)
robbitop
2020-10-28, 18:30:24
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
Sehe ich auch so.
Entweder erklärt man all das und erweitert die Länge oder man simplifiziert es und reduziert die Länge.
IMO haben sie sich mit dem RT Snippet von WoW keinen Gefallen gemacht. Ohne RT: Kartoffelgrafik. Mit RT: Kartoffelgrafik.
Wozu eine ganze Menge Features erwähnen, wenn man nicht darauf eingeht?
IMO kann AMD noch ein ganzes Stück in dieser Hinsicht lernen.
Grundsätzlich wirkt Navi 2x sehr sehr gut. Für AMD war das schon ein riesen Schritt. Plötzlich ist man bei GPUs wettbewerbsfähig und hat auch endlich ein Top Tog Produkt.
Natürlich haben sie grob erklärt wofür IF Cache da ist :confused:
Sie haben aber auch einiges überhaupt nicht erklärt. Super Resolution. Smart Access Memory.
Und alles was sie erklärt haben war maximal angerissen.
dargo
2020-10-28, 18:31:14
Nochmal zum direkten Vergleich
https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526
Danke für den Link.
So langsam verstehe ich wohl den Preis der RX 6800. Das Ding wird das neue OC-"Wunder" und kommt mit OC verdammt nah an die RX 6800XT dran. Alle Karten haben den vollen Infinity Cache und 512GB/s mit 16Gbps GDDR6. Also bleiben für die RX 6800XT offenbar nur reine +20% CUs übrig. Da kommen bei gleicher Frequenz aber niemals +20% Performance raus. Eher +10-13% würde ich jetzt grob schätzen.
fondness
2020-10-28, 18:32:31
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
Details gibts zum Launch das ist ja nun wirklich nichts neues. Es gab eine Info über die wesentlichen Neuerungen und einen Leistungsvergleich zu den Konkurrenzprodukten plus Preis und Launchzeitpunkt. Das ist für mich kurz und präzise die wichtigsten Infos auf den Punkte. Warum jetzt für dich genau DL, RT entscheidend ist sei mal dahin gestellt.
Yggdrasill
2020-10-28, 18:32:41
Ich hatte tatsächlich seit Jahren gehofft, es gäbe mal eine wirklich messbare Zusammenarbeit bei Nutzung von AMD CPU und GPU ... ich glaube sogar, es gab mal sowas, aber vermutlich irre ich mich :confused:
Keine Ahnung ob es so was schon gab, mir wäre da nichts bekannt. So lange diese Zusammenarbeit nicht so gestaltet wird das andere Kombinationen gezielt benachteiligt werden, werde ich gespannt die weitere Entwicklung beobachten. Diese Technik verbessert und ausgereift hat durchaus das Potential dass AMD auf lange Sicht nVidia und Intel die Rücklichter zeigen kann. Warum sollte man sich ein Intel/nVidia-System holen wenn die AMD-Teile zwar in der gleichen Leistungsklasse spielen aber zusammen noch mal eine Schippe drauf legen?
Die viel beschworenen Synergieeffekte, hier sind sie endlich mal sichtbar. Ich kann es trotzdem einfach nicht glauben.
Troyan
2020-10-28, 18:33:17
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Solange Daten im Cache liegen. Was passiert, wenn Daten pro Frame dauernd gelesen werden müssen? Was machst du bei Mesh-Shading mit Milliarden von Dreiecken, bei Raytracing mit BVH etc?
Außerdem muss der Treiber dafür sorgen, dass immer die notwendigsten Daten im Cache sind. Jeder Off-Chip Zugriff führt zu deutlich weniger Leistung.
Nazar
2020-10-28, 18:33:58
IF says immer noch "DLSS = Bildverschlechterung" THEN Troll confirmed ;D
Nebenbei: Man muss kein NERD sein um von CUDA zu profitieren. :facepalm:
Whoot?
Du behauptest also ernshaft, dass DLSS 2.x in jedem Fall keine Texturen verfälscht?
Really?
Ganz, ganz wirklich?
So ernsthaft, ohne Scheiß?
Mal Control mit DLSS gespielt? Wie sieht es mit DLSS in Death Stranding aus?
Mastermind Frage: Was passiert, wenn DLSS auf Texture Mods trifft? Ich meine ja nur.... :freak:
Hmm... um es mit dem alten Schüttelspeer zu sagen:"Troll oder nicht Troll, dies ist hier mit Sicherheit !!keine!! Frage!" :wink:
Berniyh
2020-10-28, 18:34:08
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Naja, der Vergleich basiert auf der theoretischen(!) Bandbreite von Infinity Fabric, von der derzeit keiner wirklich einschätzen kann, ob sie auch realistisch ist oder nicht.
Bei GDDR6 kann man das hingegen halbwegs gut abschätzen.
dargo
2020-10-28, 18:34:16
AMDs Marketing und die Treiber-Entwicklung muss besser werden...
Wie oft willst du dieses Märchen von besseren Nvidia-Treibern hier noch kundtun?
Nvidia ist aber noch auf anderen Ebenen gut.
Der Treiber von Nvidia bietet viele schöne Dinge, wie Sharpening unter allen Apis oder das Auflösungs-Scaling..
Tue dir besser einen Gefallen bevor du dich hier weiter lächerlich machst und informiere dich mal über AMDs Treiberfeatures.
Screemer
2020-10-28, 18:35:34
Wird sicher noch einen Technologie deep dive geben. Das war heute nicht dafür gedacht.
blaidd
2020-10-28, 18:36:41
Wir werden wohl bald mitbekommen, ob AMD das Marketing verbessern wird - bis zum Launch ist es noch eine Weile hin und es fehlen immer noch eine Reihe Details (z.B. die Raytracing-Performane - die ja einige hier schon zu kennen wissen scheinen, obwohl so ziemlich jeder hier AMD schon bei der reinen Grafikkartenleistung unterschätzt hat - inklusive mir). Das wäre jetzt ein guter Moment für Häppchenfütterung, um die potenziellen Kunden so richtig zappelig zu machen und den Hype heiß zu halten (z.B. so ähnlich wie Nvidia es mit der RTX 3090 und Digital Foundry abgezogen haben).
Ich bin mal gespannt, ob sie das bewerkstelligen können...
DrFreaK666
2020-10-28, 18:36:47
auf pcgh gibt es zwei slides. 1x ohne oc und smart access gleichauf mit 3080 und 1x im schnitt ~5% schneller mit beiden features aktiviert.
Na gut, dann schaut man sich eben den Slide ohne die Features an
robbitop
2020-10-28, 18:37:21
Solange Daten im Cache liegen. Was passiert, wenn Daten pro Frame dauernd gelesen werden müssen? Was machst du bei Mesh-Shading mit Milliarden von Dreiecken, bei Raytracing mit BVH etc?
Außerdem muss der Treiber dafür sorgen, dass immer die notwendigsten Daten im Cache sind. Jeder Off-Chip Zugriff führt führt deutlich weniger Leistung.
So funktioniert ein Cache nicht. Das ist Hardware die transparent zur Anwendung läuft. Wahrscheinlich direkt an den IMC angeschlossen. 3D Grafik hat eben auch eine ganze Menge Kram der hoch fragmentiert gelesen und geschrieben wird. Scheint über die breite Auswahl von Spielen ja offenbar zu funktionieren.
Wenn das glitchy wäre, hätte man das in der HW Simulation sicherlich festgestellt und sowas nicht gebaut. Die Zeiten von exotischer teilfunktionaler Harware sind einfach vorbei in dem Markt.
Was der Cache explizit mit BVH, Meshshading und RT zu tun haben soll, musst du mal ausführen.
mczak
2020-10-28, 18:37:53
Der L2 ist glaube nicht per IF angebunden, also denke ich, dass der Infinity Cache zusätzlich ist.
Bei den Blockschaltbildchen zu rdna1 ist der L2 verdächtig nahe bei den MCs (4 L2 Segmente pro 64bit MC), wenn auch nicht wirklich direkt Teil davon (bei den stylisierten Die-Shots sieht man den hingegen überhaupt nicht, wobei der auch schlicht zu klein ist um bedeutend Fläche einzunehmen). Aber auf jeden Fall ausserhalb der Shader Engines. Daher meine Vermutung dass der Infinity Cache gar nicht wirklich ein neuer Cache ist.
Eher ein L3 oder (wie AMD es im Code wohl bezeichnet) "Last Level Cache".
Kann natürlich auch sein. Da muss man wohl auf nähere Informationen warten...
AlterSack
2020-10-28, 18:37:54
Das wäre echt blöd denn eigentlich würde mir die RX 6800 als Upgrade reichen. Aber wegen 70€ wirds dann wohl doch die RX 6800XT werden.
Naja, aufgrund der 16Gb und der Leistung vs. 3070 ist das nicht soviel überteuert.
Ich persönlich spiele eh in FHD, da bin ich mit meiner Vega glücklich.
So schlecht ist die garnicht. Du bist ja Undervolting-Spezi, weisst das eh.
Bei F1-2020 den V-sync. rein (ohne UV) und es läuft alles rund bei 140-170 Watt
Gesamtaufnahme mit R5-1600. :smile:
Birdman
2020-10-28, 18:38:21
Bzgl. Intel Plattformen habe ich weniger bedenken.
AMD hat ja - WENN, dann immer mit rage mode + Smart Access gemessen.
rage mode geht aber überall und Smart Access halte ich für ein HBCC 2.0 und wird daher kaum oder nur in Spezialsituationen was bringen. Der dargestellte Performanceuplift kam sicher zum grössten Teil vom simplen Overclocking durch den rage mode.
Smart Access wurde imho als Feature in dieser Präsentation "überverkauft"
DrFreaK666
2020-10-28, 18:38:26
Sicher nicht. Ich hab schlicht im letzten Jahr kaum gespielt. Will eigentlich schon seit gut zwei um mind. +100% upgraden. Das war bisher aber kaum in einem interessanten Preisbereich möglich.
Dürfte jetzt mit der 3070 möglich sein, oder eben nächsten Monat mit der 6800
fondness
2020-10-28, 18:39:36
Solange Daten im Cache liegen. Was passiert, wenn Daten pro Frame dauernd gelesen werden müssen? Was machst du bei Mesh-Shading mit Milliarden von Dreiecken, bei Raytracing mit BVH etc?
Außerdem muss der Treiber dafür sorgen, dass immer die notwendigsten Daten im Cache sind. Jeder Off-Chip Zugriff führt zu deutlich weniger Leistung.
Für keinen Cache der Welt brauchst du einen Treiber. Der buffert einfach die zuletzte verwendeten Daten, dadurch muss nur einmalig vom Bus gelesen werden und nicht dauernd. Und sie erreichen dadurch laut eigene Aussagen eine 58%iger Hitrate, also spart man sich mehr als die Hälfte der Speicherzugriffe und mehr als verdoppelt damit effektiv die Bandbreite.
AtTheDriveIn
2020-10-28, 18:39:47
Die viel beschworenen Synergieeffekte, hier sind sie endlich mal sichtbar. Ich kann es trotzdem einfach nicht glauben.
Ich schlage 3DNow! also Marketingbegriff vor
Nightspider
2020-10-28, 18:39:59
""Big Navi wird vielleicht knapp unterhalb der 3080 landen""
""Big Navi wird höchstens an Ampere rankommen, wird aber nicht schneller sein""
""AMD wird bei der Effizienz nicht zu Nvidia mit einer Generation aufholen können.""
Lustig, wie sich die Religion und der Glaube von manchen hier mal wieder als Müll herausgestellt hat.
Die Custom Karten werden die 3090 platt machen.
Cyberfries
2020-10-28, 18:40:19
Das Ding wird das neue OC-"Wunder" und kommt mit OC verdammt nah an die RX 6800XT dran.
Die 6800 ist für mich der klare Verlierer, da nur 3 Shader-Engines. Die 6800xt hätte eine 6900 werden sollen.
Ich hab während der Vorstellung das ganze mal grob hochgerechnet im 3dc-4k-Index:
291% für 6800 (2080ti: 247%)
325% für 6800xt (wie 3080) -> +12%
358% für 6900xt (3090: 364%) -> +10%
Sehr enge Abstände, der Sprung von der 6800xt zur 6900xt lohnt kaum.
Auch zwischen den 6800ern ist es eng, ich denke da machen die SEs den Unterschied.
Die Präsi war im übrigen erste Sahne, kurz und präzise auf den Punkt,
Kurz und präzise war sie, doch von nVidia kann AMD dennoch noch eine Menge lernen.
Zu spröde und technisch. Bei nVidia wollte ich danach zuschlagen, da war nicht nur der Kopf überzeugt.
edit:
Eher ein L3 oder (wie AMD es im Code wohl bezeichnet) "Last Level Cache".
Ist da nicht sogar irgendein Satz bezüglich "L3" gefallen?
Käsetoast
2020-10-28, 18:41:45
IMO haben sie sich mit dem RT Snippet von WoW keinen Gefallen gemacht. Ohne RT: Kartoffelgrafik. Mit RT: Kartoffelgrafik.
Naja - WoW ist halt schon eine große Marke und was den Vorher-/Nachhereffekt angeht: Meistens bringt RT momentan halt noch nicht mehr als irgendwelche Kleinigkeiten an der Beleuchtung oder irgendwas spiegelt sich physikalisch ganz toll korrekt.
Wozu eine ganze Menge Features erwähnen, wenn man nicht darauf eingeht?
IMO kann AMD noch ein ganzes Stück in dieser Hinsicht lernen.
Ich fand es so eigentlich top - das mit den Features hätte man vielleicht noch ein Bisschen besser herausarbeiten können mit kurzen Vergleichvideos wo mit und ohne Feature X was gezeigt wird. Aber das im Detail erklären? Ich finde da hat man bei den Konsolen gesehen, dass das eher nach hinten losgeht. Ich habe lieber so eine kurze und knackige Präsentation von AMD wo es für den Käufer einfach mal ums Wesentliche geht. Die Passagen aus den Konsolenpräsis, wo minutenlang etwa über SSD und wie das jetzt funktioniert und so schnell ist gelabert wird, fand ich im Rahmen der jeweiligen Präsentation eher ermüdend und hat das Momentum völlig zerstört. SSD = schnelle Ladezeiten, schnelles Streaming in-game - bumm, bäng, fertig. Die ganzen "Technikalitäten" kann man in eine eigene Veranstaltung wie es das bei den Konsolen glaube ich für die GDC gab reinpacken...
Ein wenig mehr hätte AMD sicher bringen können, aber ein 5-Minuten-Exkurs wie "AMDLSS" aka Super Resolution nun funktioniert hätte nicht sein müssen. In meinen Augen könnte man aber durchaus noch einen Release-Event machen wenn die Karten erscheinen und dann auf solche Dinge mehr im Detail eingehen. Hier war der Fokus ja eher einen Mic-Drop zu machen hinsichtlich Preis und Performance und diesbezüglich ein wenig puristisch zu sein war da nicht unbedingt schlecht weil - wie man hier im Forum ja auch sieht - die Geschichte nämlich schon ordentlich eingeschlagen ist... :wink:
dargo
2020-10-28, 18:41:47
Naja ... außer den Karten gibt es halt auch noch nichts ...
Was hast du denn erwartet? Sollte Lisa noch Radeon Kühlschränke vorstellen? :freak:
Sardaukar.nsn
2020-10-28, 18:41:59
Habe soeben meine seit vier Wochen laufende Bestellung bei Cyberport für die Asus 3080 Strix (non-oc) und den passenden Alphacool Wasserblock storniert. Alle Uhren zurück auf Null. :freak:
Am interessantesten wäre eine starke custom (Asus Strix?) 6800XT mit besserer Stromversorgung und mehr OC Potential.
Zur Not muss für Cyberpunk noch meine good-old 1080ti herhalten.
Screemer
2020-10-28, 18:42:13
Die Custom Karten werden die 3090 platt machen.
Bisschen weniger Träumerei wäre schön. Da sind vielleicht noch 5-10% Luft nach oben und das dann mit der power-brechstange. Von platt kann da keine Rede sein.
Zergra
2020-10-28, 18:42:39
""Big Navi wird vielleicht knapp unterhalb der 3080 landen""
""Big Navi wird höchstens an Ampere rankommen, wird aber nicht schneller sein""
""AMD wird bei der Effizienz nicht zu Nvidia mit einer Generation aufholen können.""
Lustig, wie sich die Religion und der Glaube von manchen hier mal wieder als Müll herausgestellt hat.
Die Custom Karten werden die 3090 platt machen.
Und du bist mit deiner Aussage kein Stück besser... wenn die 5% auf die 6900 drauflegen ist das bestimmt kein Platt machen.
Und nein, ich warte erstmal die 3080TI ab und entscheide dann das ich mir kaufe, stand jetzt wohl eine 6800XT. Mal sehen was die Benchmarks zeigen.
Nazar
2020-10-28, 18:42:46
in welcher welt war das bitte präzise und auf den punkt? die werfen buzzwords wie infinity cache in den raum, erklären nicht was das überhaupt macht und haben über entscheidende punkte (DL, RT) kein einziges wort verloren.
Bei aller Freude für AMd, das muss wirklich gesagt werden. Die Vorstellung der 6XXX Radeon war bei weitem nicht so präzise wie die des Ryzen3 und das Wglassen solcher "angeblich" so wichtigen Themen wie RT und DLSS, hinterlässt doch einen gewaltigen Geschmack.
Allerdings, wer "schmückt" sich schon gerne bei einer Präzi mit seinen Niederlagen? :wink:
Behalten. Außer du brauchst die letzten paar FPS für 4k/60
Absurde Situation. Das Teil ist in IT Zeitleisten Alteisen aber im 600 EUR Bereich der beste Deal aktuell.
Oddzz
2020-10-28, 18:44:00
Ein paar weitere Details zur 6000er Serie (Lautstärke, Maße, usw.)
8KAnebwCAaA
Yggdrasill
2020-10-28, 18:44:49
Ich "liebe" meine Vega56. :heart::love:
Meine bekommt trotz der Navi2x Vorstellung (und den schon guten absehbaren Resultaten von Navi2x in den letzten Tagen) noch ein Update auf Custom-Wakü. Damit reicht die mir bis zum nächsten Upgrade in 2-3 Jahren, die meisten Titel zocke ich eh nicht zur Neuerscheinung.
Ich findes es halt immer noch schade das AMD da schon Potential hatte aber das irgendwie nicht richtig auf die Straße gebracht hat.
robbitop
2020-10-28, 18:45:03
Naja - WoW ist halt schon eine große Marke und was den Vorher-/Nachhereffekt angeht: Meistens bringt RT momentan halt noch nicht mehr als irgendwelche Kleinigkeiten an der Beleuchtung oder irgendwas spiegelt sich physikalisch ganz toll korrekt.
Mag sein. Ist aber in keinem Fall sinnvolle Werbung für RT. Da hätte man ganz andere Titel nehmen können/müssen. RT ist mit Eyecandy mit bleeding edge Grafik bei fast allen assozieert. Ob grafisch korrekt oder nicht - dieses Kartoffelgrafikbeispiel war einfach völlig kontraintuitiv für diesen Einsatzzweck.
Ich fand es so eigentlich top - das mit den Features hätte man vielleicht noch ein Bisschen besser herausarbeiten können mit kurzen Vergleichvideos wo mit und ohne Feature X was gezeigt wird. Aber das im Detail erklären? Ich finde da hat man bei den Konsolen gesehen, dass das eher nach hinten losgeht. Ich habe lieber so eine kurze und knackige Präsentation von AMD wo es für den Käufer einfach mal ums Wesentliche geht. Die Passagen aus den Konsolenpräsis, wo minutenlang etwa über SSD und wie das jetzt funktioniert und so schnell ist gelabert wird, fand ich im Rahmen der jeweiligen Präsentation eher ermüdend und hat das Momentum völlig zerstört. SSD = schnelle Ladezeiten, schnelles Streaming in-game - bumm, bäng, fertig. Die ganzen "Technikalitäten" kann man in eine eigene Veranstaltung wie es das bei den Konsolen glaube ich für die GDC gab reinpacken...
Ein wenig mehr hätte AMD sicher bringen können, aber einen 5-Minuten-Exkurs wie "AMDLSS" aka Super Resolution nun funktioniert hätte nicht sein müssen. In meinen Augen könnte man aber durchaus noch einen Release-Event machen wenn die Karten erscheinen und dann auf solche Dinge mehr im Detail eingehen. Hier war der Fokus ja eher einen Mic-Drop zu machen hinsichtlich Preis und Performance und diesbezüglich ein wenig puristisch zu sein war da nicht unbedingt schlecht weil - wie man hier im Forum ja auch sieht - die Geschichte nämlich schon ordentlich eingeschlagen ist... :wink:
Ich finde es war eine komische Zwischenlösung zwischen viel Infos und wenig Zeit. Auch hat Herkelman es wirklich heruntergerasselt. IMO: wenn es kurz sein muss. Dann auch konsequent kürzen.
Die Frage ist: warum muss es das sein? NV's Launch Event war schon deutlich besser.
Spielt am Ende wahrscheinlich kaum eine Rolle - aber man kann noch was verbessern.
Screemer
2020-10-28, 18:47:09
Was mich auch wundert ist, dass es keine Zahlen zu 3dmark gegeben hat. Gab's glaub ich auch schon lange nicht mehr.
erlgrey
2020-10-28, 18:47:26
ja, sie hätten wenigstens minecraft rtx herzeigen können!!!1
Sunrise
2020-10-28, 18:47:53
Kurz und präzise war sie, doch von nVidia kann AMD dennoch noch eine Menge lernen.
Zu spröde und technisch. Bei nVidia wollte ich danach zuschlagen, da war nicht nur der Kopf überzeugt.
Bei NV hast du eben sehr viel RT-Marketing drin und zusätzlich war der niedrige Preis eine extreme Überraschung, da hatten viele teilweise sogar mit noch höheren Preisen als bei Turing gerechnet.
NVs GPUs sind nicht schlecht, aber dass die so an der Kotzgrenze laufen und kaum lieferbar sind, da bringt dir jetzt auch die tolle NV-Präsentation recht wenig als Spieler. Vor allem diese unverschämten Preise...
Man will wohl nicht alles spoilern und einiges bewusst noch offen lassen.
Cubitus
2020-10-28, 18:48:03
Wie oft willst du dieses Märchen von besseren Nvidia-Treibern hier noch kundtun?
Das kommt ganz auf den Standpunkt an, was will ich und was bekomme ich..
Wie gesagt die Features was Nvidia bietet, sind nicht von der Hand zu weisen..
Beispiel Red Dead Redamption, unter Vulkan mit netten Frametimes...
Ich würde aber gerne nachschärfen, bei Nvidia geht das mit der Tastenkombi Alt-F3, schärfe Filter setzten und nach Belieben einstellen.
Dazu noch die Beleuchtung bzw. sämtliche post Rendering Effekte..
Und wenn das GFE nicht läuft oder es man nicht nutzen möchte kannst du bei jedem Spielprofil Schärfe im Treiber nachjustieren
Beispiel 2:
Spiel X verlangt hohe Leistung, meine Native Auflösung bietet aber genug Schärfe und ich möchte nicht mit Details runter... Also was tun? Nvidia GPU-Scaling aktivieren und mit einer Auflösung darunter spielen.. durch das Scaling hast du fast native Bild-Qualität und du musst nicht mal auf DLSS zurückgreifen,
dass wenn es ordentlich funktioniert für sich allein schon auch ein eigroßes Plus ist...
Beispiel 3:
Wie gesagt Game-Ready Treiber, teilweise 1 Woche vor Release und dazu noch der Tuning Guide für jedes AAA Spiel wo du den einzelnen Impact für jede Grafische Option nachlesen kannst..
Man lernt nach Jahren eben diese Features zu schätzen.. Um einen Nvidia Käufer zu überzeugen muss das drum herum auch passen..
Wie gesagt ich gönne AMD Erfolg, aber es bleibt noch viel zu tun!
Benutzername
2020-10-28, 18:48:59
Warum hat AMD eigentlich nicht die neuen Ryzen mit bignavi synchronisert?
Ryzen6000 + Radeon 6000. einfach zu merken und passt dann auch zum smart memory access, damit man weiss was man dafür braucht. Die Boardchips dann auch entprechen B650/X670 nennen.
han_solo
2020-10-28, 18:49:34
Smart Shift klingt ja irgendwie interessant. Wenn ich es richtig verstanden habe (und mein Englisch ist schlecht), dann kann man auch auf einem normalen Desktop ein Power-Budget festlegen und die Software sorgt automatisch dafür, dass es zwischen CPU und GPU so gut wie möglich verteilt wird.
Sprich wenn man nur eine kleine CPU drin hat, rennt die GPU nicht wie blöde und säuft unnötig Strom.
Richtig verstanden oder nicht?
Nazar
2020-10-28, 18:49:37
Danke für den Link.
So langsam verstehe ich wohl den Preis der RX 6800. Das Ding wird das neue OC-"Wunder" und kommt mit OC verdammt nah an die RX 6800XT dran. Alle Karten haben den vollen Infinity Cache und 512GB/s mit 16Gbps GDDR6. Also bleiben für die RX 6800XT offenbar nur reine +20% CUs übrig. Da kommen bei gleicher Frequenz aber niemals +20% Performance raus. Eher +10-13% würde ich jetzt grob schätzen.
Man darf aber nicht vergessen, dass das auch für die 6800XT gilt, wie die Leaks bisher gezeigt haben.
So gesehen egalisiert sich das OC sehr wahrscheinlich.
Ich vermute weiterhin, dass der Prozess einfach viel zu gut ist und man nun vor dem Dilemma steht, dass man gute Chips "verschleudern" muss. :freak:
robbitop
2020-10-28, 18:50:23
ja, sie hätten wenigstens minecraft rtx herzeigen können!!!1
Ich vermute, dass sie absichtlich wenig RT gezeigt haben. Die Gerüchte besagen, dass Ampere beim Einsatz von RT weniger stark einbricht. Das ergibt auch Sinn, da RDNA2 nicht im gleichen Maße HW FF Beschleunigungsstrukturen bietet.
dr.denton
2020-10-28, 18:50:57
Mag sein. Ist aber in keinem Fall sinnvolle Werbung für RT. Da hätte man ganz andere Titel nehmen können/müssen. RT ist mit Eyecandy mit bleeding edge Grafik bei fast allen assozieert. Ob grafisch korrekt oder nicht - dieses Kartoffelgrafikbeispiel war einfach völlig kontraintuitiv für diesen Einsatzzweck.
Verstehe, was du meinst, aber ich fand das Beispiel WoW sogar noch einigermaßen prägnant, weil das Spiel ansonsten ja nicht vor Effekten platzt. So war zwischen RT und reinem RZ wenigstens ein wirklicher Unterschied zu sehen, im Gegensatz zu so vielen AAA Titeln, wo eh schon alles auf Hochglanz ist.
BoMbY
2020-10-28, 18:51:05
https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526
<---- vollen Technischen Daten 128 rops 320 TMU2, 28,2 Millarden transistoren
Vor allem interessant die Unterscheidung zwischen "Compute Units" und "Ray Accelerators", welche aktuell gleich sind, aber das könnte heißen eventuell gibt es da irgendwann Unterschiede.
dildo4u
2020-10-28, 18:51:18
Nochmal zum direkten Vergleich
https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526
Das kann nicht sein oder kein HDMI 2.1?Kann mal jemand bei AMD Anfragen was das soll?
Langlay
2020-10-28, 18:52:59
Bisschen weniger Träumerei wäre schön. Da sind vielleicht noch 5-10% Luft nach oben und das dann mit der power-brechstange. Von platt kann da keine Rede sein.
Denke ich auch. OC vs. OC wird die 6900XT hier und da einen Sieg einfahren, Dirt5 ich schau auf dich. Aber ich glaube overall wird die 3090 OC doch leicht schneller sein, dafür aber wohl auch mehr Strom verballern.
robbitop
2020-10-28, 18:54:14
Verstehe, was du meinst, aber ich fand das Beispiel WoW sogar noch einigermaßen prägnant, weil das Spiel ansonsten ja nicht vor Effekten platzt. So war zwischen RT und reinem RZ wenigstens ein wirklicher Unterschied zu sehen, im Gegensatz zu so vielen AAA Titeln, wo eh schon alles auf Hochglanz ist.
Der Unterschied war aber trotzdem nicht wirklich beeindruckend. Der Schatten sah nach 20 Jahre alter Grafik aus. IMO zieht sowas eher potenziell negative Eindrücke beim Zuschauer nach sich.
Es ist nicht repräsentativ für das wofür RT steht. Zumindest nach Masseneindruck.
dargo
2020-10-28, 18:54:42
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Echt heftig... mehr als doppelt so viel effektive Bandbreite als 384Bit SI und dennoch effizienter. :freak:
btw.
Effektiv sind das 1.666GB/s Bandbreite. :eek:
AintCoolName
2020-10-28, 18:54:59
Keine Sorge HDMi 2.1 ist dabei
Expanding Display Capabilities
HDMI® 2.1 VRR
AMD Radeon™ 6000 Series graphics cards expand tear-free gaming experiences to all HDMI 2.1 enabled displays. Get the bandwidth needed to power up to 8K HDR experiences.
USB Type-C®
Power head-mounted displays with just one cable for a modern VR experience.
Mehr gibts hier:
https://www.amd.com/en/technologies/rdna-2
https://www.amd.com/en/graphics/amd-radeon-rx-6000-series
BoMbY
2020-10-28, 18:55:05
https://pbs.twimg.com/media/ElbqSMNW0AAbYLD?format=jpg&name=4096x4096
https://twitter.com/VideoCardz/status/1321501220171898883
Benutzername
2020-10-28, 18:55:23
Man darf aber nicht vergessen, dass das auch für die 6800XT gilt, wie die Leaks bisher gezeigt haben.
So gesehen egalisiert sich das OC sehr wahrscheinlich.
Ich vermute weiterhin, dass der Prozess einfach viel zu gut ist und man nun vor dem Dilemma steht, dass man gute Chips "verschleudern" muss. :freak:
Ich hoffe ja jetzt ein wenig, daß man wie in guten alten Zeiten bei AMD abgeschaltete Kerne wieder anschalten. :cool:
Brillus
2020-10-28, 18:55:28
Gerade mal in die Fußnoten geschaut: Rage Mode und Smart Memory Access waren bei einem Bench aktiv, aber das wird wohl der gewesen sein, wo die Gains der beiden Sachen angezeigt wurden. Der Kopf-an-Kopf-Vergleich vorher zwischen 6800XT und 3080 waren dann logischerweise ohne diese Features. Das ist schon mal gut, dass da keine Secret Sauce eingerechnet wurde, die auf Intel-System so nicht nutzbar ist.
Außerdem steht da noch, dass die effektive Bandbreite von 256bit+Infinity Cache hochgerechnet wurden, ausgehend von 58% Cache Hitrate, die man in 4K im Labor gemessen hat. Das finde ich schon krass viel. Theoretisch würde man da selbst mit 192bit@16Gbps auf effektive 914GB/s kommen (384GB/s *1/0,42), also doppelt so viel wie die 5700XT.
Fragt sich nur ob und wie viel Cache die 6700XT haben wird. Ich würde jetzt ins blaue tippen, dass die genau halb so viel Cache hat, welcher dann weniger als 58% Hitrate hat. Deswegen "reichen" 128bit im Vergleich zu N21 dann nicht aus. Was aber ganz gut ist, denn sonst hätte man wie Nvidia nur 8GB bzw. müsste direkt 16GB verbauen, was für den Preis in dem Segment zu sehr treibt und eigentlich auch gar nicht nötig ist.
Gab es Gerüchte, ob N22 dieses Jahr auch noch kommt?
3090 vs 5900 war es aktive, stand auch auf der Folie.
kleeBa
2020-10-28, 18:55:44
Ich frage mich bei solchen Streiterei immer welch kleiner Prozentsatz sich denn tatsächlich intensiv mit beiden Welten auseinandergesetzt hat.
Immer lustig, wenn mir Leute mit ihren aus Foren zusammengelesenem Halbwissen, die seit 10 Jahren keine Nvidia Karte mehr gesehen haben, erklären wollen wie überflüssig oder schlecht Dinge wie DLSS, GeForce Experience, G-Sync, RT oder das InGame Overlay mit Echtzeitvorschau sind.
Gilt natürlich auch in die andere Richtung.
Cubitus
2020-10-28, 18:55:59
Ich vermute, dass sie absichtlich wenig RT gezeigt haben. Die Gerüchte besagen, dass Ampere beim Einsatz von RT weniger stark einbricht. Das ergibt auch Sinn, da RDNA2 nicht im gleichen Maße HW FF Beschleunigungsstrukturen bietet.
Joa, vermutlich ist das so...
Man packt nur das aus wo man glänzt..
Nvidia wird genau in diese Kerbe schlagen und schauen das die Branche fleißig RTX_On implementieren wird..
Die Frage ist aber braucht man RTX jetzt wirklich!?
Im SP okay aber kompetitiv eher nicht, hier liegt auch eine Chance für AMD...
Quasi: AMD just gaming :D
Ich frage mich bei solchen Streiterei immer welch kleiner Prozentsatz sich denn tatsächlich intensiv mit beiden Welten auseinandergesetzt hat.
Immer lustig, wenn mir Leute mit ihren aus Foren zusammengelesenem Halbwissen, die seit 10 Jahren keine Nvidia Karte mehr gesehen haben, erklären wollen wie überflüssig oder schlecht Dinge wie DLSS, GeForce Experience, G-Sync, RT oder das InGame Overlay mit Echtzeitvorschau sind.
Gilt natürlich auch in die andere Richtung.
Oh Gsync habe ganz vergessen xD ...
Aber kann dir nur zustimmen :)
Ex3cut3r
2020-10-28, 18:56:12
Das Konsolen RT reicht doch auch erstmal. Nvidias DxR Ansatz frisst momentan siehe neues WD welches selbst auf einer 3090 viel zu viel Leistung. Bei Nvidia will man halt Kunden durch VRAM Mangel oder durch zu wenig RT Leistung alle 2 Jahre zum Neukauf zwingen IMO.
Ich bin gespannt, was mit AM5, Zen4 und RDNA3 und dem Smart Cache Access passiert... das könnte verdammt spannend werden :D
Aber dieses Thema hatten wir ja schon vor mehr als 6 Jahren gehabt.
AlterSack
2020-10-28, 18:56:57
Meine bekommt trotz der Navi2x Vorstellung (und den schon guten absehbaren Resultaten von Navi2x in den letzten Tagen) noch ein Update auf Custom-Wakü. Damit reicht die mir bis zum nächsten Upgrade in 2-3 Jahren, die meisten Titel zocke ich eh nicht zur Neuerscheinung.
Ich findes es halt immer noch schade das AMD da schon Potential hatte aber das irgendwie nicht richtig auf die Straße gebracht hat.
Meine bleibt auch noch ein Weilchen drin.
Bekommt einen neuen Unterbau mit B550 (Msi Mortar)
und voraussichtlich Ryzen 5600X.
Benutzername
2020-10-28, 18:58:09
Verstehe, was du meinst, aber ich fand das Beispiel WoW sogar noch einigermaßen prägnant, weil das Spiel ansonsten ja nicht vor Effekten platzt. So war zwischen RT und reinem RZ wenigstens ein wirklicher Unterschied zu sehen, im Gegensatz zu so vielen AAA Titeln, wo eh schon alles auf Hochglanz ist.
Oder man muss es übertreiben wie bei Battlefield V damit man einen Unterschied erkennt. die Spiegelungen in den Pfützen sehen ein bisschen albern und übertrieben aus.
Für Raytracingdemo fand Ich bisher Quake2 und Minecraft auch besser. da sieht man das schneller. Von daher past da wow ja auch rein.
robbitop
2020-10-28, 19:00:47
Das Konsolen RT reicht doch auch erstmal. Nvidias DxR Ansatz frisst momentan siehe neues WD welches selbst auf einer 3090 viel zu viel Leistung. Bei Nvidia will man halt Kunden durch VRAM Mangel oder durch zu wenig RT Leistung alle 2 Jahre zum Neukauf zwingen IMO.
IMO hat das nichts mit NV zu tun. RT kostet nunmal ordentlich Compute und Bandbreite. Und das wird sich auch nicht ändern. Man schaue sich den relativen Einbruch Turing vs Ampere an. Praktisch fast keine Verbesserung.
Ich vergleiche das gern mit Pixelshadern. Kostet ggü statischer Beleuchtung, DX7 Level je nach Komplexität auch enorm fps. Aber es war eben der logische nächste Schritt in der Evolution der 3D Echtzeitgrafik.
RT ist ein sehr ähnlicher nächster Schritt. Es wird sich immer mehr verbreiten und die Leistung wird weiter steigen. Bis man es nicht mehr abschalten können wird, weil Engine und Content darauf ausgelegt sein wird. In 5-10 Jahren will kein Mensch mehr zurück.
Und zum Glück ist RT nun in allen 3D APIs nicht propertär. Eine GPU die das Featureset gem Spec hat, kann es umsetzen.
bloodflash
2020-10-28, 19:02:36
6800xt nur gleich schnell wie 3080? das reicht nicht.
+) 16GB
-) kein DLSS
-) kein CUDA
-) offensichtlich schwache RT Performance
Also, DLSS, CUDA und RT sind Dir eigentlich egal, wenn die Performance ansonsten stimmt, bzw. deutlich besser ist.
Die drei Features scheinen Dich also gar nicht wirklich zu interessieren...
dargo
2020-10-28, 19:02:42
Ich hoffe ja jetzt ein wenig, daß man wie in guten alten Zeiten bei AMD abgeschaltete Kerne wieder anschalten. :cool:
Dann verabschiede dich davon gleich wieder schnell.
Hakim
2020-10-28, 19:02:48
Die 6800 ist preislich zu nah am 6800xt, glaub den kleinen Aufpreis werden viele eingehen. vermutlich wird dann die GA102 in der 3070ti als 6800 Gegenspieler aufgestellt für um die 599€. Ich hoffe die Tester werden sich den Cache ordentlich vornehmen und durchleuchten, zumindest bei CB hört sich gut an diesbezüglich.
Inwiefern der Cache in jedem Anwendungsfall das vergleichsweise schmale Interface zum GDDR6 kompensieren kann, dürfte ein spannender Aspekt in den anstehenden Tests sein.
Jupiter
2020-10-28, 19:03:14
Zu den Produkten hätte ich gern mehr Tests gesehen. Die Päsentation an sich war aber sehr hohl und für ein einfaches Massenpublikum. Das Interssante soll aber eh noch kommen.
""Big Navi wird vielleicht knapp unterhalb der 3080 landen""
""Big Navi wird höchstens an Ampere rankommen, wird aber nicht schneller sein""
""AMD wird bei der Effizienz nicht zu Nvidia mit einer Generation aufholen können.""
Lustig, wie sich die Religion und der Glaube von manchen hier mal wieder als Müll herausgestellt hat.
Die Custom Karten werden die 3090 platt machen.
Wir wrden sehen, wie Spiele mit Raytracing abschneiden werden. Ohne Raytracing oder ohne erheblich mehr Speicher gibt es keine neue Grafik. Sondern nur das Gleiche, aber eben schneller. Weitreichende volumetrische Effekte brauchen mehr als die 16 GB. Mit Raytracing gibt es auch ohne viel mehr Speicher wenigstens Grafik der nächsten Generation. Langsames Raytracing wäre in 2021 einfach uninteressant.
Mortalvision
2020-10-28, 19:03:22
Sh...
Habe soeben meine seit vier Wochen laufende Bestellung bei Cyberport für die Asus 3080 Strix (non-oc) und den passenden Alphacool Wasserblock storniert. Alle Uhren zurück auf Null. :freak:
Am interessantesten wäre eine starke custom (Asus Strix?) 6800XT mit besserer Stromversorgung und mehr OC Potential.
Zur Not muss für Cyberpunk noch meine good-old 1080ti herhalten.Die 3080 Strix hätte ich auch so gerne gehabt, war aber für 750€ ned zu kriegen und dann eh nirgends lieferbar. Mittlerweile bin ich froh, keine abgekriegt zu haben. :redface:
Ich spekuliere auf die 6800XT. Wenn die zu dem angekündigten Preis verfügbar sein wird, bleibt mir sogar bissel was vom Ersparten übrig. Mal abwarten was kommt, der Markt wird's schon richten... :wink:
Nix gegen die Blink-Blink-Technik, aber mir ist Raytracing im Moment noch vollkommen egal bzw. schnuppe, in ~ 2 Jahren wird sich das wohl ändern, aber dann gibt's auch wieder bessere Hardware und mehr Games, die das unterstützen. ;)
Der_Korken
2020-10-28, 19:04:00
Ein paar weitere Details zur 6000er Serie (Lautstärke, Maße, usw.)
https://youtu.be/8KAnebwCAaA
Bei der Slide mit "wir haben die Karte kleiner gebaut, damit sie Standardgrße hat" musste ich ein wenig lachen, weil das so klingt wie "Die Konkurrenz hat einen unerwartet großen und wertigen Kühler gebracht, der besser ist als unserer, aber dafür ist unser halt kleiner". Aber wenn das mit den 37dB stimmt, ist das ja schonmal ganz gut. Das heißt, eine Nitro unterbietet das bei gleicher Leistung :D.
Aber was genau ist jetzt das besondere an dem Smart Memory Access? Die CPU kann nun den ganzen VRAM adressieren statt nur 256MB. OK. Warum bringt das so "viel" Performance? Und warum ist das Ryzen 5000 exklusiv? Ist das nicht eine Treibersache oder braucht man dafür CPU-seitige HW-Unterstützung? Und falls ja, ist das ein offener Standard, den Intel oder Nvidia auch implementieren können?
Smart Shift klingt ja irgendwie interessant. Wenn ich es richtig verstanden habe (und mein Englisch ist schlecht), dann kann man auch auf einem normalen Desktop ein Power-Budget festlegen und die Software sorgt automatisch dafür, dass es zwischen CPU und GPU so gut wie möglich verteilt wird.
Sprich wenn man nur eine kleine CPU drin hat, rennt die GPU nicht wie blöde und säuft unnötig Strom.
Richtig verstanden oder nicht?
Im Prinzip richtig, aber das gab es schon vorher und ist eine exklusive Notebook-Technologie. Im Desktop macht das keinen Sinn, weil CPU und GPU nicht am selben Kühler hängen und so stark thermisch limitiert sind wie im Notebook. Was neu ist, ist Smart Memory Access (s.o.)
3090 vs 5900 war es aktive, stand auch auf der Folie.
Ja hab ich schon eine Seite weiter berichtigt, weils mir beim Durchgucken der Slides auf CB 3 Minuten später auch aufgefallen ist. Hier rauscht nur momentan alles so durch, deswegen verschwinden meine Posts einfach irgendwo :D
mr coffee
2020-10-28, 19:06:14
Die Karten haben alle HDMI 2.1?
Monsta
2020-10-28, 19:06:54
IMO hat das nichts mit NV zu tun. RT kostet nunmal ordentlich Compute und Bandbreite. Und das wird sich auch nicht ändern. Man schaue sich den relativen Einbruch Turing vs Ampere an. Praktisch fast keine Verbesserung.
Ich vergleiche das gern mit Pixelshadern. Kostet ggü statischer Beleuchtung, DX7 Level je nach Komplexität auch enorm fps. Aber es war eben der logische nächste Schritt in der Evolution der 3D Echtzeitgrafik.
RT ist ein sehr ähnlicher nächster Schritt. Es wird sich immer mehr verbreiten und die Leistung wird weiter steigen. Bis man es nicht mehr abschalten können wird, weil Engine und Content darauf ausgelegt sein wird. In 5-10 Jahren will kein Mensch mehr zurück.
Und zum Glück ist RT nun in allen 3D APIs nicht propertär. Eine GPU die das Featureset gem Spec hat, kann es umsetzen.
Bei den Screenshots zu Pixelshadern musste man aber nicht dranschreiben was on oder off ist.
Das wollte keiner freiwillig abschalten.
Bei Rt muss es dranstehen. Weil es sonst keine Sau erkennt.
In bewegen Videos mit viel Aktion geht das voll unter.
Würde mal gerne wissen wieviel Promill das in online Spielen nutzt.
horn 12
2020-10-28, 19:07:34
37 dba
laut dem Neuesten Video
Dies wäre alles andere als schlecht!
Undertaker
2020-10-28, 19:07:46
Echt heftig... mehr als doppelt so viel effektive Bandbreite als 384Bit SI und dennoch effizienter. :freak:
btw.
Effektiv sind das 1.666GB/s Bandbreite. :eek:
Das die Bandbreite eines ggü. dem VRAM vergleichsweise kleinen on-Die Caches deutlich höher ausfällt, ist eigentlich logisch. Bzw. muss er das zwingend sein, wenn man davon Faktor 100 weniger als VRAM hat. :wink: Die Kunst - und große Frage für die kommenden Reviews - ist eher, wie sich der Cache im Vergleich zu einem schnelleren VRAM in verschiedenen Praxisszenarien schlägt. Ergo: Ist die Skalierung mit steigender Auflösung mindestens genauso gut? Schlägt der Cache in jedem Spiel gut an? Sind die Frametimes konkurrenzfähig? Reicht die Kapazität auch mit Features wie Raytracing etc.?
Das muss nun untersucht werden. :)
Brillus
2020-10-28, 19:08:32
Nochmal zum direkten Vergleich
https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526
Oh alle 16 Gbps Speicher, das hätte ich jetzt nicht erwartet, zumindest beim 6800 hätte ich auch auf 14 Gbps getipt.
Daredevil
2020-10-28, 19:09:24
btw.
Effektiv sind das 1.666GB/s Bandbreite. :eek:
https://cryptonewsreview.com/wp-content/uploads/2018/11/gigawatt.jpg
:D
Nach dem Reinfall bei Ampere im Mining könnte das der Stern am Himmel sein.
HarryHirsch
2020-10-28, 19:10:36
wie sieht es eigentlich mit der taktbarkeit bei gpus bezüglich des caches aus?
ist das so wie bei cpus wo sich cpus mit weniger cache besser takten lassen? siehe i7 3960x vs i7 3930k
robbitop
2020-10-28, 19:11:50
Bei den Screenshots zu Pixelshadern musste man aber nicht dranschreiben was on oder off ist.
Das wollte keiner freiwillig abschalten.
Bei Rt muss es dranstehen. Weil es sonst keine Sau erkennt.
In bewegen Videos mit viel Aktion geht das voll unter.
Würde mal gerne wissen wieviel Promill das in online Spielen nutzt.
Das ist das Gesetz des sinkenden Grenzertrags. Jeder Fortschritt kostet immer mehr Aufwand.
Pixelshader waren in den Anfangszeiten auch super aufgesetzt. Richtig gut und weniger auffällig wurde es erst Jahre später.
Raytracing ist da eigentlich ähnlich.
Richtig gutes Raytracing soll nicht auffällig sein - es soll Grafik korrekt darstellen. Korrekte Reflexionen, korrekte Beleuchtung, korrekte Schatten. Das sieht schon nochmal ein gutes Stück besser aus.
Allerdings ist es aufgrund der Leistung auch noch relativ limitiert. IMO wird das deutlich gradueller implementiert werden als damals die PS. Einfach aus Gründen der Leistungsressourcen.
dargo
2020-10-28, 19:11:52
Bisschen weniger Träumerei wäre schön. Da sind vielleicht noch 5-10% Luft nach oben und das dann mit der power-brechstange. Von platt kann da keine Rede sein.
Wo ist der Unterschied zu der Brechstange bei der 3090? :confused:
Lawmachine79
2020-10-28, 19:12:41
Die AMD-Karten sind besser als erwartet; in neutralen Reviews erwarte ich aber, dass die 3090 vorne und Top Dog bleibt. Die Raytracingperformance bleibt bescheiden, in neuen Spielen kann man es quasi immer nutzen, deshalb ist das ein realer Nachteil. Die half-assed Ankündigung dass man "grad an sowas wie DLSS arbeitet" heisst, dass da nicht gleichwertiges kommen wird.
Insgesamt ist AMD jetzt aber konkurrenzfähig, das P/L-Verhältnis ist besser als bei NV (was mir egal ist, Top Dog oder nix) und ich hoffe, dass möglichst viele Leute jetzt ihre Ampere-Bestellungen stornieren, so dass ich da endlich zum Zuge komme - denn für einen Wechsel reicht es für mich - wahrscheinlich - nicht, weil die 3090 selbst in AMD-Benchmarks (mit einer übertakteten Karte in Non-Raytracing-Benchmarks) gleichauf - und in neutraler daher leicht drüber - liegt und weil ich im Spielealltag nutzbares Raytracing und DLSS möchte.
Ach und außerdem sind 16 GB Speicher (LoL, VRAM-Krüppel) nicht zukunftsfähig, man braucht mindestens 20 GB ;).
Brillus
2020-10-28, 19:13:04
Der L2 ist glaube nicht per IF angebunden, also denke ich, dass der Infinity Cache zusätzlich ist.
Eher ein L3 oder (wie AMD es im Code wohl bezeichnet) "Last Level Cache".
Ich hab das deshalb gesagt, da es ja durchaus auch sein könnte, dass es komplett separat von der Speicheranbindung ist, aber dass es gerade 16 Links sind (also genauso viele wie Speicherkanäle) ist schon verdächtig.
Ich bin der Meinung das ich explizt gehört habe das der Infinite Cache als L3 bezeichnet wurden
@horn
optimiert für 37db...sind das dann 37db? Keine Ahnung.
Bandbreite wären 972 GByte/s für den Infinity Cache, bei 16-GT/s-GDDR6 1,11TB, mit dem 256bit Speicherinterface 1,664 GB/s - voll krass :-)
Custom Karten könnten ja noch etwas drüber liegen, insgesamt finde ich die Leistung super! Leider fehlt mir Navi22.
Linmoum
2020-10-28, 19:15:07
https://pbs.twimg.com/media/Elbwm9sXUAAOXwL?format=jpg&name=900x900
https://mobile.twitter.com/hms1193/status/1321508119797780480
Marodeur
2020-10-28, 19:16:47
https://cryptonewsreview.com/wp-content/uploads/2018/11/gigawatt.jpg
:D
Nach dem Reinfall bei Ampere im Mining könnte das der Stern am Himmel sein.
Wenn das der neue feuchte Traum der Miner wird ist das mit der Verfügbarkeit eh gleich Geschichte. Vom Preis erst gar nicht zu sprechen.
Daredevil
2020-10-28, 19:19:09
Wenn die Bandbreite tatsächlich so hoch ist, dann wird die Karte die neue Radeon VII für Miner, diese kann man aktuell so für 700-800€ bei Ebay verkaufen.
Wenn Miner wirklich auf den Zug aufspringen und die Karte noch effizienter ist, werden dafür auch sicherlich über 1000€ gezahlt.
Brillus
2020-10-28, 19:19:19
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Bin ich eigentlich der einzige der die Folie als extrem billig empfindet?
Ich denke Nvidia wird jetzt mit einer 3070 u. 3080 mit mehr Speicher zu kontern versuchen, wobei der Preis wohl das entscheidende Zipfelchen sein wird. Viel höher werden sie den aktuellen Preis der "alten" Karten nicht überbieten können, was in meinen Augen wiederum einem Arschtritt für die 3080-Käufer der 1. Stunde gleichkommt. :devil:
Käsetoast
2020-10-28, 19:20:04
https://cryptonewsreview.com/wp-content/uploads/2018/11/gigawatt.jpg
:D
Nach dem Reinfall bei Ampere im Mining könnte das der Stern am Himmel sein.
https://media.tenor.com/images/e5bf544495097eb77a3e9cc3b04b6071/tenor.gif
:wink:
patrickschur
2020-10-28, 19:20:19
Vergesst nicht, die laut AMD 30 % Improvement was die Taktraten angeht. Morgen sollen angeblich Custom Cards vorgestellt werden. :)
Custom designs for RX 6000 series will be presented tomorrow. So we can focus on AMD today
https://twitter.com/aschilling/status/1321479269839720449
mr coffee
2020-10-28, 19:21:07
Ist schon klar wann die kaufbar sein werden?
Zergra
2020-10-28, 19:21:56
Vergesst nicht, die laut AMD 30 % Improvement was die Taktraten angeht. Morgen sollen angeblich Custom Cards vorgestellt werden. :)
https://twitter.com/aschilling/status/1321479269839720449
Mit 350 Watt ?
Die 30% beziehen sich ja schon auf die Karten die jetzt vorgestellt werden.
Da wird nicht mehr viel kommen. ca 5% mit etwas Glück.
Nur weil in irgendwelchen Power Tables 2500Mhz stehen, Takten die Karten nicht so hoch.
mczak
2020-10-28, 19:21:59
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
https://i.postimg.cc/GtcFkW4G/Capture.png (https://postimg.cc/VrV0wHBk)
Ich bin mir nicht sicher wie redlich da der Wert (2.17 fache effektive Bandbreite) wirklich ist. Das sieht für mich so aus dass man da vergleicht mit einer theoretischen GPU ganz ohne Cache, was natürlich praxisfern ist. Vor allem wenn meine Vermutung zutrifft (und ich gebe zu das ist reine Spekulation) dass der Infinity Cache gar nicht neu ist sondern einfach ein grösserer bisher schon existierender L2. Da wäre es dann aussagekräftiger wenn man das vergleicht gegenüber breiterem Interface + kleinem L2...
So wahnsinnig klar dürfte der Vorteil in der Praxis jedenfalls nicht sein. Es ist ja nicht so dass die Idee eines grossen Cache zur Performancesteigerung einen gewaltigen Geistesblitz erfordert - wären die Vorteile derart gross würde Nvidia das auch machen. Aber es kann natürlich sein dass man nun halt den Punkt erreicht hat wo sich das endlich auch bei GPUs auszahlt (tendenziell werden ja Datentransfers im Verhältnis immer teurer was die Effizienz betrifft), es ist natürlich auch möglich dass es sich mit dem 8nm Samsung Prozess eben noch nicht lohnt.
Logan
2020-10-28, 19:23:00
Geile karten :up:
Damit ist für mich die 3070 geschichte, lol 8gb ;D Meine letzte non NV karte war die ATI 9700 pro, in zukunft könnte wieder eine rote in meinem rechner ihr werk tun :D
fondness
2020-10-28, 19:23:24
Vergesst nicht, die laut AMD 30 % Improvement was die Taktraten angeht. Morgen sollen angeblich Custom Cards vorgestellt werden. :)
https://twitter.com/aschilling/status/1321479269839720449
Richtig, da werden dann auch die 2,5Ghz fallen. Da hat das CPU-Team um Suzanne Plummer ganze Arbeit geleistet.
blaidd
2020-10-28, 19:23:30
Ich habe da bislang keinen Ein- und erst Recht keinen Durchblick, aber Smart Memory Access klingt in meinen Ohren ein wenig wie hUMA, was AMD in den APUs ein(ge)setzt (hat) - (Ich gebe zu, APUs sind nicht direkt im Fokus meines Interesses)
patrickschur
2020-10-28, 19:23:55
@Zergra Wenn du 30 % auf die Taktraten von Navi 1 rechnest, kommst du sicherlich nicht bei den heute vorgestellten Taktraten heraus. Die 300 W waren außerdem TBP und USB-C dürfte auch darin enthalten sein. Die Custom Cards gehen aber bis 289 W TGP.
dargo
2020-10-28, 19:24:39
Ein paar weitere Details zur 6000er Serie (Lautstärke, Maße, usw.)
https://youtu.be/8KAnebwCAaA
Netter Vergleich. :D
https://abload.de/img/vergleichk5k57.jpg
fondness
2020-10-28, 19:24:42
Ich bin mir nicht sicher wie redlich da der Wert (2.17 fache effektive Bandbreite) wirklich ist. Das sieht für mich so aus dass man da vergleicht mit einer theoretischen GPU ganz ohne Cache, was natürlich praxisfern ist. Vor allem wenn meine Vermutung zutrifft (und ich gebe zu das ist reine Spekulation) dass der Infinity Cache gar nicht neu ist sondern einfach ein grösserer bisher schon existierender L2. Da wäre es dann aussagekräftiger wenn man das vergleicht gegenüber breiterem Interface + kleinem L2...
So wahnsinnig klar dürfte der Vorteil in der Praxis jedenfalls nicht sein. Es ist ja nicht so dass die Idee eines grossen Cache zur Performancesteigerung einen gewaltigen Geistesblitz erfordert - wären die Vorteile derart gross würde Nvidia das auch machen. Aber es kann natürlich sein dass man nun halt den Punkt erreicht hat wo sich das endlich auch bei GPUs auszahlt (tendenziell werden ja Datentransfers im Verhältnis immer teurer was die Effizienz betrifft), es ist natürlich auch möglich dass es sich mit dem 8nm Samsung Prozess eben noch nicht lohnt.
Naja ich sage mal so, wenn der Cache nicht erheblich was bringen würde, könnte man mit einem 256bit Bus und nur 16Gpbs GDDR6 niemals diese Leistung erreichen.
Außerdem ist der Vergleich schon eindeutig, sie vergleichen einen 256bit Bus, einen 384 bit Bus und einen 256 bit Bus mit Infinity Cache.
Berniyh
2020-10-28, 19:25:36
Nvidia wird genau in diese Kerbe schlagen und schauen das die Branche fleißig RTX_On implementieren wird..
Naja, haben sie ja bislang auch und da hat es doch eher mäßig funktioniert.
Digidi
2020-10-28, 19:26:07
Gibt es den Infos wieiviel Rasterizer die Karte nun hat? Laut den Bildern tatächlich nur 4?
Brillus
2020-10-28, 19:27:15
Was hast du denn erwartet? Sollte Lisa noch Radeon Kühlschränke vorstellen? :freak:
Bitte nicht, nach dem Fahrrad Debakel.
Loeschzwerg
2020-10-28, 19:27:44
Passt schon, das vorgestellte Lineup. Es gibt endlich wieder einen Konkurrenzkampf im Highend und das ist gut für den Markt.
Sonst haut mich da persönlich aber nichts aus den Latschen. 16GB bis runter zur kleinsten Karte sind freilich super, der Infinity Cache und Smart Access Memory spannende Techniken.
Generell Preisbrecher sind die Karten aber keine und es fehlen doch einige Features welche die Konkurrenz bietet.
Sardaukar.nsn
2020-10-28, 19:28:51
Die 3080 Strix hätte ich auch so gerne gehabt, war aber für 750€ ned zu kriegen und dann eh nirgends lieferbar. Mittlerweile bin ich froh, keine abgekriegt zu haben. :redface:
Ich spekuliere auf die 6800XT. Wenn die zu dem angekündigten Preis verfügbar sein wird, bleibt mir sogar bissel was vom Ersparten übrig. Mal abwarten was kommt, der Markt wird's schon richten... :wink:
Nix gegen die Blink-Blink-Technik, aber mir ist Raytracing im Moment noch vollkommen egal bzw. schnuppe, in ~ 2 Jahren wird sich das wohl ändern, aber dann gibt's auch wieder bessere Hardware und mehr Games, die das unterstützen. ;)
Ja, die 3080 wäre von der Rohleistung ein prima Upgrade (+80-100%) zur 1080ti gewesen. Aber leider die schlechte Verfügbarkeit, Mondpreise und Konkurrenz seit heute. Aus Kundensicht aber nur gut, man muss halt etwas flexibel sein. Wobei ich auch schon fürchte das wir von guten BigNavi Custom Designs und Wasserblöcken noch sehr weit entfernt sind.
https://cryptonewsreview.com/wp-content/uploads/2018/11/gigawatt.jpg
:D
Nach dem Reinfall bei Ampere im Mining könnte das der Stern am Himmel sein.
Da mach ich mir im Moment wenig Sorgen, so einen Park auf aktuelle Hardware umzustellen, kostet Unsummen. Da wäre der erwirtschaftete Ertrag direkt beim Teufel. Da wird sukzessíve umgestellt und nicht von heut auf morgen.
Igor schreibt zum höheren Verbrauch seiner Karte:
"Ich hatte die Daten der Asus Strix und nicht der Referenzkarte. Das passt schon. Die geht mit etwas Optimismus noch ganz woanders hin"
Was auch immer das heißen mag:-)
Digidi
2020-10-28, 19:30:47
Ich bin etwas entäuscht von AMD das man nicht mal die grobe Skizze der Architektur mitgeliefert hat.... Das geht ja mal gar nicht!
Brillus
2020-10-28, 19:31:20
Smart Shift klingt ja irgendwie interessant. Wenn ich es richtig verstanden habe (und mein Englisch ist schlecht), dann kann man auch auf einem normalen Desktop ein Power-Budget festlegen und die Software sorgt automatisch dafür, dass es zwischen CPU und GPU so gut wie möglich verteilt wird.
Sprich wenn man nur eine kleine CPU drin hat, rennt die GPU nicht wie blöde und säuft unnötig Strom.
Richtig verstanden oder nicht?
Ne gibts nicht für Desktop, schon allein weil die 2 getrennte Kühler haben. Auch im Laptop muss das im Bios vorgesehen sein und man braucht eine gemeinsame Kühlung(Heatpipe).
Linmoum
2020-10-28, 19:32:19
Ich bin etwas entäuscht von AMD das man nicht mal die grobe Skizze der Architektur mitgeliefert hat.... Das geht ja mal gar nicht!Architektur-NDA gibt's gesondert.
Brillus
2020-10-28, 19:32:34
Verstehe, was du meinst, aber ich fand das Beispiel WoW sogar noch einigermaßen prägnant, weil das Spiel ansonsten ja nicht vor Effekten platzt. So war zwischen RT und reinem RZ wenigstens ein wirklicher Unterschied zu sehen, im Gegensatz zu so vielen AAA Titeln, wo eh schon alles auf Hochglanz ist.
Mir gings genau anders ich habe da nicht wirklich irgendwas gesehen, schon garnicht besser.
dargo
2020-10-28, 19:33:38
Man darf aber nicht vergessen, dass das auch für die 6800XT gilt, wie die Leaks bisher gezeigt haben.
So gesehen egalisiert sich das OC sehr wahrscheinlich.
Ich vermute weiterhin, dass der Prozess einfach viel zu gut ist und man nun vor dem Dilemma steht, dass man gute Chips "verschleudern" muss. :freak:
Da egalisiert sich gar nichts. Sowohl 6800 als auch 6800XT haben die selbe Taktmauer.
Mit 350 Watt ?
Die 30% beziehen sich ja schon auf die Karten die jetzt vorgestellt werden.
Da wird nicht mehr viel kommen. ca 5% mit etwas Glück.
Nur weil in irgendwelchen Power Tables 2500Mhz stehen, Takten die Karten nicht so hoch.
Die Strix soll 2.4G im Schnitt machen -> ~ 10-20% mehr als ne normale XT. Reicht ohne OC bereits für ne 6900 und 3090. Igors und helmms Wundertool noch gar nicht mit einberechnet. Was bleibt ist das, was mit einer 3080 nicht möglich ist: Die Topdogs ad absurdum dastehen zu lassen.
Nakai
2020-10-28, 19:34:29
Igor schreibt zum höheren Verbrauch seiner Karte:
"Ich hatte die Daten der Asus Strix und nicht der Referenzkarte. Das passt schon. Die geht mit etwas Optimismus noch ganz woanders hin"
Was auch immer das heißen mag:-)
2,5 Ghz Boost oder eventuell noch mehr...
Der Vorteil beim IF-Cache ist auch, dass die DIE-Size größer wird. Moment, wieso ist das ein Vorteil?!
W/mm2 wird geringer. ~600mm² ist ziemlich viel.
Und wenn Patrick Schur das hier schon ankündigt...*hust*.
Troyan
2020-10-28, 19:35:50
Stehen die 600mm^2 schon fest? Computerbase spekuliert von ca. 510mm^2.
mczak
2020-10-28, 19:35:55
Naja ich sage mal so, wenn der Cache nicht erheblich was bringen würde, könnte man mit einem 256bit Bus und nur 16Gpbs GDDR6 niemals diese Leistung erreichen.
Natürlich hilft der erheblich, das bezweifle ich nicht.
Außerdem ist der Vergleich schon eindeutig, sie vergleichen einen 256bit Bus, einen 384 bit Bus und einen 256 bit Bus mit Infinity Cache.
Klar, nur hätte man die bisherigen Karten ja dann auch bewerben können mit "dank der 4MB L2 erreichen wir die doppelte (oder so) effektive Bandbreite mit 256bit GDDR6 wie wenn wir keinen Cache hätten mit denselben 256bit GDDR6".
Ex3cut3r
2020-10-28, 19:36:24
Der ueber Witz ist ja für mich. Ok Ok Ok, Nvidia mag in RT schneller sein, aber....wie will man denn RT mit 8GB und 10GB einbauen, ohne das man Schatten oder Auflösung bzw. Texturen heftig runterstellen muss? Das ist mit der VRAM Menge einfach ein totaler Widerspruch in sich. DLSS ist da auch kein Heilbringer, weil der VRAM Verbrauch mit DLSS sogar steigen kann. ;D
Beispiel Avengers. Max Settings.
DLSS OFF: 3440x1440 Nativ
https://abload.de/img/avengers_2020_10_23_29kka9.jpg
DLSS ON Quality:
https://abload.de/img/avengers_2020_10_23_2uqjp5.jpg
KA was Nvidia 2 Jahre gemacht, oder hat AMD Sie diesmal total überrascht? 8GB zum dritten mal in einer 70er Karte ist einfach total Facepalm würdig.
dargo
2020-10-28, 19:36:27
https://pbs.twimg.com/media/ElbqSMNW0AAbYLD?format=jpg&name=4096x4096
https://twitter.com/VideoCardz/status/1321501220171898883
Kann einer aus diesem Bild die Die-Size ausrechnen? :)
Nakai
2020-10-28, 19:36:59
Stehen die 600mm^2 schon fest? Computerbase spekuliert von ca. 510mm^2.
Ich dachte es wären 589mm² gewesen.
€: Bemerke aber gerade, dass AMD da nichts genannt hat. War wohl ein "Gerücht" auf Twitter dann.
Schnoesel
2020-10-28, 19:37:00
Yes
https://i.postimg.cc/cLMM4vTT/1.png
Da haben sie diesmal wirklich an alles gedacht. 08.12. wars?!
herbert_
2020-10-28, 19:38:46
#Speku
Der Cache ist nicht ein L2 sondern ein L3. Das ist einfach ein Zwischenschritt zu einem Chiplet-Design. RDNA3 hat dann ein Rechen-Chiplet mit dem Cache und ein Memory-Chiplet das über das Inf. Fabric angeschlossen ist.
Dann kann je nach Speichertyp einfach das Memory-Chiplet ausgetauscht werden. Offensichtlich gibt es dann auch die gleichen Vorteile wie es sie seit Zen2 gibt. Rechen-Chiplet im High End Prozess, Memory-Chiplet im günstigen Ghetto Prozess.
RDNA 4 könnte dann mehrere Rechen-Chiplets mit einem Memory-Chiplet kombinieren. Wenn jedes Rechen-Chiplet einen Cache hat, reicht evtl. auch die Inf. Fabric Bandbreite dafür aus. Vielleicht kommt das schon mit RDNA 3.
Für Server, Datacenter und HPC gibt es dann Kunden spezifische Lösungen, bei denen Memory-Chiplet(s) mit CPU-Chiplet(s) inkl. Cache, Compute-Chiplet(s) inkl. Cache und FPGA-Chiplets(s) inkl. Cache flexibel kombiniert werden können.
Lawmachine79
2020-10-28, 19:39:04
Der ueber Witz ist ja für mich. Ok Ok Ok, Nvidia mag in RT schneller sein, aber....wie will man denn RT mit 8GB und 10GB einbauen, ohne das man Schatten oder Auflösung bzw. Texturen heftig runterstellen muss? Das ist mit der VRAM Menge einfach ein totaler Widerspruch in sich. DLSS ist da auch kein Heilbringer, weil der VRAM Verbrauch mit DLSS sogar steigen kann. ;D
Beispiel Avengers. Max Settings.
DLSS OFF: 3440x1440 Nativ
https://abload.de/img/avengers_2020_10_23_29kka9.jpg
DLSS ON Quality:
https://abload.de/img/avengers_2020_10_23_2uqjp5.jpg
Richtig, sobald der Speicher voll ist, saugt NV in RT. AMD saugt aber immer mit RT.
Ex3cut3r
2020-10-28, 19:39:53
Richtig, sobald der Speicher voll ist, saugt NV in RT. AMD saugt aber immer mit RT.
Wie AMD in RT abschneidet wissen wir doch gar nicht. Das Nvida aber ein VRAM Problem hat, sieht man schon heute. :wink:
Wie AMD in RT abschneidet wissen wir doch gar nicht.
Man hat es bei der Produktvorstellung ignoriert. Wir wissen können also stark annehmen, dass es das Bild des Launches getrübt hätte, wenn man es erwähnt hätte.
Gouvernator
2020-10-28, 19:42:05
So wahnsinnig klar dürfte der Vorteil in der Praxis jedenfalls nicht sein. Es ist ja nicht so dass die Idee eines grossen Cache zur Performancesteigerung einen gewaltigen Geistesblitz erfordert - wären die Vorteile derart gross würde Nvidia das auch machen.
Naja es gab früher die GTX970 mit dem langsamen Speicher hinten dran. Ich verstehe nicht wieso sich jetzt keiner mehr dran erinnert. AMD hat es doch schon angedeutet - kein Wort über 8K verloren und stattdessen 1440p Gucklöcher angepriesen.
Ex3cut3r
2020-10-28, 19:42:58
;D ;D ;D Jetzt wird lustig Mr. 8K aka Gouvernator ist da.
Linmoum
2020-10-28, 19:43:15
Krüppel-Ampere bei OC ist ja auch schon bekannt. Wenn da morgen dann schon Customs mit Game Clock nahe der 2300MHz oder darüber vorgestellt werden, frisst Ampere bei OC nur Staub.
Dampf
2020-10-28, 19:43:42
Muss langsam eingestehen, dass 10 GB VRAM zu wenig sind, zumindest in der Cross Gen Phase. Man sieht es hier in Watch Dogs: https://www.youtube.com/watch?v=Ux6Wa0rZFa8&start=1437
Klar ist ein weiterer schlecht optimierter Titel aber die Liste häuft sich langsam. Und bis Sampler Feedback und DirectStorage kommen wird es scheinbar noch einige Zeit lang dauern.
Also entweder Nvidia hat ein Ass im Ärmel ala Tensor Core Videospeicherkompression oder sie werden am VRAM zu knabbern haben.
ChaosTM
2020-10-28, 19:43:53
Naja es gab früher die GTX970 mit dem langsamen Speicher hinten dran. Ich verstehe nicht wieso sich jetzt keiner mehr dran erinnert. AMD hat es doch schon angedeutet - kein Wort über 8K verloren und stattdessen 1440p Gucklöcher angepriesen.
Für 8K fehlt der Karte der Speicher...
edit.: und möglicherweise bricht auch die Leistung ein. Alles kann InfiniCache nicht kompensieren..
fondness
2020-10-28, 19:44:48
Krüppel-Ampere bei OC ist ja auch schon bekannt. Wenn da morgen dann schon Customs mit Game Clock nahe der 2300MHz oder darüber vorgestellt werden, frisst Ampere bei OC nur Staub.
Richtig, NV ist an die Kotzgrenze gegangen, AMD hat noch Spielraum gelassen für Customs und ist nicht über 300W gegangen.
Tesseract
2020-10-28, 19:44:51
Wie AMD in RT abschneidet wissen wir doch gar nicht.
die heutige präsentation macht das ziemlich offensichtlich.
dargo
2020-10-28, 19:45:18
Nur weil in irgendwelchen Power Tables 2500Mhz stehen, Takten die Karten nicht so hoch.
In der PP-Table stehen 2800Mhz. :P
Sardaukar.nsn
2020-10-28, 19:46:32
Die Strix soll 2.4G im Schnitt machen -> ~ 10-20% mehr als ne normale XT. Reicht ohne OC bereits für ne 6900 und 3090. Igors und helmms Wundertool noch gar nicht mit einberechnet. Was bleibt ist das, was mit einer 3080 nicht möglich ist: Die Topdogs ad absurdum dastehen zu lassen.
Wäre genau meine Baustelle.
Wann sollen die ersten Custom Design noch mal vorstellt werden?
patrickschur
2020-10-28, 19:47:06
Nur weil in irgendwelchen Power Tables 2500Mhz stehen, Takten die Karten nicht so hoch.
@Zergra Die ganzen Logs und die VBIOSe die ich habe sind also alle gefälscht? *Kopfschüttel*
basix
2020-10-28, 19:47:59
Gibt es den Infos wieiviel Rasterizer die Karte nun hat? Laut den Bildern tatächlich nur 4?
Sind 4 SE, also ja.
Ich bin der Meinung das ich explizt gehört habe das der Infinite Cache als L3 bezeichnet wurden
Echt heftig... mehr als doppelt so viel effektive Bandbreite als 384Bit SI und dennoch effizienter. :freak:
btw.
Effektiv sind das 1.666GB/s Bandbreite. :eek:
Sie haben den L3$ von Zen als Basis genommen, deswegen L3$. Aber er wird wohl effektiv auch ein L3$ sein. Zudem wohl auch ein Victim Cache, welcher parallel zum GDDR6 Interface läuft:
16*64B*2.0 GHz = 2.0 TB/s
0.58x Hit Rate * 2.0 TB/s = 1152 GB/s
1152 GB/s + 512 GB/s = 1664 GB/s
1.5 (256b vs. 384b) * 2.17 = 3.26
3.26 * 512 GB/s = 1666 GB/s --> Passt :D
Ausserdem schreibt AMD von "up to 512 GB/s" --> dynamisches Clocking des Speichers, solange man genug mit dem IF$ anfangen kann?
die heutige präsentation macht das ziemlich offensichtlich.
AMD hat zuletzt oft überrascht. Erwarten würde ich nicht zu viel, den Teufel an die Wand malen aber auch nicht ;)
=============================================================================
Ich habe aber folgende Fragen zu RDNA2:
Ist dort auf der einen kurzen Seite des Chips ein HBM Interface? :D
Da der IF$ >2.0 TB/s Bandbreite bietet: Compute und RT Leistung massiv beschleunigt?
Super Resolution: Nur mit RT? Zusammen mit Cyberpunk am 10. Dezember und "in your face Nvidia"?
Hammer des Thor
2020-10-28, 19:48:10
Tja, tolle Grakas, wenn da nicht der hohe Stromverbrauch wäre. Wollte eig. die 6800 non XT nehmen, die ist aber zu teuer im Vergleich zur XT-Version. Frage: Gibt es die Möglichkeit auch bei Grakas das Powerlimit zu begrenzen? Ich meine die 6900XT hat auch nur 300 Watt bei gleichem Takt, eine mögliche Begrenzung der 6800XT auf 250 Watt sollte also nicht sehr viel Leistung einbüssen so dass die immer noch knapp so hoch taktet wie die non XT dann?
Linmoum
2020-10-28, 19:48:13
@Zergra Die ganzen Logs und die VBIOSe die ich habe sind also alle gefälscht?Manche hier denken scheinbar, dass Referenz auch Referenz ist und weil die nur knapp über 2GHz hat mehr nicht drin ist. Aber naja, spätestens morgen hat man das auch offiziell wenn die Customs vorgestellt werden.
nordic_pegasus
2020-10-28, 19:49:22
Richtig, sobald der Speicher voll ist, saugt NV in RT. AMD saugt aber immer mit RT.
für viele Gamer ist RT immernoch ein Gimmick, welches von ein paar Spielen in der jeweiligen Bibliothek unterstützt wird. Ist für mich bis heute nicht das Killer-Feature, zu welchem es Lederjacke stilisieren will. Da wird auch Cyperpunk nichts dran ändern, wobei ich hier nach der letzten Last-Minute Verschiebung sowieso eher skeptisch zu dem Spiel stehe.
Naja es gab früher die GTX970 mit dem langsamen Speicher hinten dran. Ich verstehe nicht wieso sich jetzt keiner mehr dran erinnert. AMD hat es doch schon angedeutet - kein Wort über 8K verloren und stattdessen 1440p Gucklöcher angepriesen.
selbst 4K spielen am PC nur die wenigsten bzw. haben entsprechende Monitore. 8K ist reiner Marketing-BS. Welcher Prozentsatz an Spielern hat einen Monitor/TV mit dieser Auflösung?
AMD liefert endlich die Karte, welche Turing hätte sein müssen. Mehr Performance, akzeptabler Verbrauch, in Relation zu Nvidia gute Preise. Endlich hat man eine Alternative auch in High-End. Ist ja weiterhin niemand gezwungen AMD zu kaufen, nach man kann es auch endlich wieder. Darum einfach nur Daumen hoch.
Wettbewerb ist immer gut für den Kunden.
fondness
2020-10-28, 19:49:40
Für 8K fehlt der Karte der Speicher...
edit.: und möglicherweise bricht auch die Leistung ein. Alles kann InfiniCache nicht kompensieren..
Also sollte die Karte ein Problem haben bei 8K, wäre das wohl das geringste Problem. :-)
ChaosTM
2020-10-28, 19:50:23
Tja, tolle Grakas, wenn da nicht der hohe Stromverbrauch wäre. Wollte eig. die 6800 non XT nehmen, die ist aber zu teuer im Vergleich zur XT-Version. Frage: Gibt es die Möglichkeit auch bei Grakas das Powerlimit zu begrenzen? Ich meine die 6900XT hat auch nur 300 Watt bei gleichem Takt, eine mögliche Begrenzung der 6800XT auf 250 Watt sollte also nicht sehr viel Leistung einbüssen so dass die immer noch knapp so hoch taktet wie die non XT dann?
Das sollte funktionieren..
Dschounz
2020-10-28, 19:51:06
Naja es gab früher die GTX970 mit dem langsamen Speicher hinten dran. Ich verstehe nicht wieso sich jetzt keiner mehr dran erinnert. AMD hat es doch schon angedeutet - kein Wort über 8K verloren und stattdessen 1440p Gucklöcher angepriesen.
8K :freak:
In 30FPS (RTX 3090) auf 3.000,- Monitoren oder TV....da sind 5 Sekunden zuviel, darüber in einer Präsi zu reden....das interessiert wohl eine max. zweistellige Anzahl von Zuschauern.
dargo
2020-10-28, 19:52:09
Man hat es bei der Produktvorstellung ignoriert. Wir wissen können also stark annehmen, dass es das Bild des Launches getrübt hätte, wenn man es erwähnt hätte.
Du meinst so wie Lisa Nvidia mit den Benchmarks von RDNA2 bei der Zen3 Vorstellung mit dem kleinen Teaser getrollt hat? Vielleicht sehen wir davon eine Wiederholung? ;D
die heutige präsentation macht das ziemlich offensichtlich.
Ach... der nächste. Du meinst so wie es offensichtlich war, dass der 80 CU RDNA2 unter der RTX 3080 landet? ;D
ChaosTM
2020-10-28, 19:53:06
Mit 8K hat die Lederjacke versucht die 1.5k schön-zureden..
Hat bis zu einem gewissen Grad auch funktioniert.
dargo
2020-10-28, 19:54:15
Muss langsam eingestehen, dass 10 GB VRAM zu wenig sind, zumindest in der Cross Gen Phase. Man sieht es hier in Watch Dogs: https://www.youtube.com/watch?v=Ux6Wa0rZFa8&start=1437
Jetzt fehlt nur noch der Frametime-Graphen. ;)
maximus_hertus
2020-10-28, 19:54:49
Für 8K fehlt der Karte der Speicher...
edit.: und möglicherweise bricht auch die Leistung ein. Alles kann InfiniCache nicht kompensieren..
Vielleicht, aber vor dem Speicher fehlt viel GPU-Leistung. Diese "8K" Benchmarks haben doch mit 8K nicht viel zu tun. Klar, mit DLSS kann man da vieles schaffen und auch optisch sieht es dann nett aus. Aber es ist halt kein "echtes" 8K.
Bei 4K erwartet man ja auch native 2160p und kein hochskaliertes 1080p.
Ansonsten ein netter Launch / Keynote.
999 für die 6900XT
649 für die 6800XT
Passt!
579 für die 6800? Gefühlt ein Platzhalter wie bei der 5700, als man am Launchtag den Preis gesenkt hat. 549 sind "nur" 30 weniger, fühlen sich aber viel besser an. Bei 70 Differenz macht die 6800er doch kaum Sinn.
Warten wir mal die "freien" Benchmarks ab und vor allem die Verfügbarkeit ^^
BvB123
2020-10-28, 19:55:38
Tja, tolle Grakas, wenn da nicht der hohe Stromverbrauch wäre. Wollte eig. die 6800 non XT nehmen, die ist aber zu teuer im Vergleich zur XT-Version. Frage: Gibt es die Möglichkeit auch bei Grakas das Powerlimit zu begrenzen? Ich meine die 6900XT hat auch nur 300 Watt bei gleichem Takt, eine mögliche Begrenzung der 6800XT auf 250 Watt sollte also nicht sehr viel Leistung einbüssen so dass die immer noch knapp so hoch taktet wie die non XT dann?
Gar kein Problem, uv geht immer
Gouvernator
2020-10-28, 19:55:43
Für 8K fehlt der Karte der Speicher...
edit.: und möglicherweise bricht auch die Leistung ein. Alles kann InfiniCache nicht kompensieren..
Es wird wahrscheinlich wieder lustig rauszufinden sein ab welchem Füllstand von 16Gb die Leistung einbricht. Die haben nicht ein einziges 8K Benchmark gezeigt obwohl es eigentlich reichlich Games gibt die das mit 16Gb packen.
Du meinst so wie Lisa Nvidia mit den Benchmarks von RDNA2 bei der Zen3 Vorstellung mit dem kleinen Teaser getrollt hat? Vielleicht sehen wir davon eine Wiederholung? ;D
Keine Ahnung. Die habe ich nicht gesehen.
Ich persönlich finde das was man präsentiert hat erstaunlich genug und bin etwas skeptisch von da ausgehend noch mehr zu erwarten. Die Gesamtpakete sind so auf Augenhöhe und der Kunde muss (kann!) entscheiden, worauf er Wert legt.
Mit ordentlichem RT wäre AMD an nVidia vorbeigezogen.
Dann wäre jedenfalls clever den Eindruck zu vermeiden dass dem nicht so sei und potentielle 3070/3080 Käufer endgültig zu überzeugen.
Denn aufgrund dieser Daten fallen heute Kaufentscheidungen. Andererseits können die ja eh überdenken, bis was geliefert wird :lol:
Daredevil
2020-10-28, 19:57:08
Muss langsam eingestehen, dass 10 GB VRAM zu wenig sind, zumindest in der Cross Gen Phase. Man sieht es hier in Watch Dogs: https://www.youtube.com/watch?v=Ux6Wa0rZFa8&start=1437
Klar ist ein weiterer schlecht optimierter Titel aber die Liste häuft sich langsam. Und bis Sampler Feedback und DirectStorage kommen wird es scheinbar noch einige Zeit lang dauern.
Also entweder Nvidia hat ein Ass im Ärmel ala Tensor Core Videospeicherkompression oder sie werden am VRAM zu knabbern haben.
Bei 40fps hast du sicherlich andere Probleme als den RAM. :X
Mit 4K übernimmt man sich einfach, egal ob mit der Karte, oder halt dem RAM.
ChaosTM
2020-10-28, 19:57:12
Die 8K Spiele die ich bisher sah haben zwischen 17 und 22GB gefuttert..
dildo4u
2020-10-28, 19:57:24
579 für die 6800? Gefühlt ein Platzhalter wie bei der 5700, als man am Launchtag den Preis gesenkt hat. 549 sind "nur" 30 weniger, fühlen sich aber viel besser an. Bei 70 Differenz macht die 6800er doch kaum Sinn.
Warten wir mal die "freien" Benchmarks ab und vor allem die Verfügbarkeit ^^
AMD bekommt dem V-Ram nicht umsonst beim dem ganzen Nvidia Vram Gebashe fällt z.b die 5600XT immer unter den Tisch AMD will genau so Geld machen.
Flusher
2020-10-28, 19:58:09
Meine aktuelle Einschätzung:
Rasterizer Performance: absolut Konkurrenzfähig
RT Performance: unterirdisch
Rage: ja gut ganz nett, gibts bei NVIDIA auch als OC Scanner
Full Access Memory: an den Performance Boost glaub ich erst, wenn es unabhängig vermessen worden ist - Vega@HBCC anyone?
Preis: Konkurrenzfähig so lange man 4K Raster-Games spielt. In anderen Szernarien - not so much. (@WQHD interessieren 16 GB VRAM kein Schwanz)
Linmoum
2020-10-28, 19:58:20
Bei 40fps hast du sicherlich andere Probleme als den RAM. :X
Für Singleplayer mit VRR gibt's schlimmeres.
dargo
2020-10-28, 19:58:25
Frage: Gibt es die Möglichkeit auch bei Grakas das Powerlimit zu begrenzen?
Ist die Frage ernst gemeint? :freak: Falls ja... schon ewig.
Gouvernator
2020-10-28, 19:59:49
Die 8K Spiele die ich bisher sah haben zwischen 17 und 22GB gefuttert..
17 Gb ist eigentlich schon viel. Habe ich nicht so oft gesehen. Forza 4 ist eigentlich ein Kandidat. Ich tippe Big Navi sieht es einfach nicht gern wenn 15 von 16Gb belegt sind.
Ex3cut3r
2020-10-28, 20:02:00
Muss langsam eingestehen, dass 10 GB VRAM zu wenig sind, zumindest in der Cross Gen Phase. Man sieht es hier in Watch Dogs: https://www.youtube.com/watch?v=Ux6Wa0rZFa8&start=1437
lol. Das ist heftig. Der Framedrop dort :eek: Und 9,9GB VRAM Belegung. Aber ey, 3080 ist die RT Karte schlecht hin....ja wenn der Speicher nicht vorher alle geht. :biggrin:
Das hatte übrigens haargenau so, mit der 770 2GB 2014 und Watch Dogs 1. ^^
Nightspider
2020-10-28, 20:02:41
Denke ich auch. OC vs. OC wird die 6900XT hier und da einen Sieg einfahren, Dirt5 ich schau auf dich. Aber ich glaube overall wird die 3090 OC doch leicht schneller sein, dafür aber wohl auch mehr Strom verballern.
Hast du dir die Benchmarks angeschaut?
https://pbs.twimg.com/media/ElbfRbQXIAINpn7?format=jpg&name=large
Selbst ohne Rage liegen beide Karten schon genau auf dem gleichen Niveau und die Customs scheinen teils 10% mehr Takt zu haben als das Referenz-Model.
10%! Das ist der Unterschied zwischen 3080 und 3090.
Und da kann man per Hand vielleicht auch nochmal das eine oder andere Prozent herausholen.
Mit Wasserkühlung sowieso.
https://twitter.com/patrickschur_/status/1321522404800299009
Von daher....geht AMD auf jeden Fall in Führung bei Übertaktern.
dargo
2020-10-28, 20:03:01
Meine aktuelle Einschätzung:
Rasterizer Performance: absolut Konkurrenzfähig
RT Performance: unterirdisch
Rage: ja gut ganz nett, gibts bei NVIDIA auch als OC Scanner
Full Access Memory: an den Performance Boost glaub ich erst, wenn es unabhängig vermessen worden ist - Vega@HBCC anyone?
Preis: Konkurrenzfähig so lange man 4K Raster-Games spielt. In anderen Szernarien - not so much. (@WQHD interessieren 16 GB VRAM kein Schwanz)
Aha... dann spiel mal Marvel's Avengers mit ultra Texturen. Möchte zu gern dein Gesicht dabei sehen. :D
Ex3cut3r
2020-10-28, 20:04:54
Aha... dann spiel mal Marvel's Avengers mit ultra Texturen. Möchte zu gern dein Gesicht dabei sehen. :D
Also manche. Sind einfach nur....lol...??!! WTF?!!! :biggrin:
Brillus
2020-10-28, 20:05:27
Die Preisgestaltung sieht ja so aus als wollte man die Kunden zur 5800XT treiben. Schätze das einfach ein großer Teil(>80%) der Chips 1-2 kaputte CUs hat also keine 5900xt mehr werden kann aber für 5800 zu schade ist.
Selbst ohne Rage liegen beide Karten schon genau auf dem gleichen Niveau
Hast du mal Benchmarks ohne Rage?
Daredevil
2020-10-28, 20:07:25
Für Singleplayer mit VRR gibt's schlimmeres.
Mir gehts da gar nicht ums visuelle, aber der Input Lag ist halt Gummiband artig, so kann man doch kein Auto steuern ^^
dargo
2020-10-28, 20:07:51
Die Preisgestaltung sieht ja so aus als wollte man die Kunden zur 5800XT treiben. Schätze das einfach ein großer Teil(>80%) der Chips 1-2 kaputte CUs hat also keine 5900xt mehr werden kann aber für 5800 zu schade ist.
Check mal bitte nochmal deinen Post. :tongue:
Flusher
2020-10-28, 20:08:34
Aha... dann spiel mal Marvel's Avengers mit ultra Texturen. Möchte zu gern dein Gesicht dabei sehen. :D
https://youtu.be/FUSmv_ZITp4?t=261
Eh ja und jetzt? >100 FPS zu wenig?
Linmoum
2020-10-28, 20:09:12
Mir gehts da gar nicht ums visuelle, aber der Input Lag ist halt Gummiband artig, so kann man doch kein Auto steuern ^^Kann man so nicht sagen. Wie gesagt, mit VRR kann das auch geschmeidig laufen, gerade bei SP-Spielen. Probier mal z.B. Witcher 3 mit 40fps aber dafür in Verbindung mit VRR. ;)
patrickschur
2020-10-28, 20:09:47
Hier mal eine kleine Rechnung von mir wenn man von 30 % höheren Taktraten ausgeht auf Basis von RDNA.
Eine Gigabyte Radeon RX 5700 XT Gaming OC 8G hat folgende Taktraten.
Game Clock: 1650 MHz
Boost: 1795-1905 MHz
Wenn wir nun von 30 % ausgehen landen wir bei
Game Clock: 2145 MHz
Boost: 2333-2477 MHz
und das ist für eine 5700 XT noch niedrig. Eine Sapphire Nitro+ taktet noch einmal höher.
Game Clock: 1770 MHz
Boost: 1905-2010 MHz
das wären mit 30 % plus dann
Game Clock: 2301 MHz
Boost: 2477-2613 MHz
Die Zahlen decken sich also ziemlich gut mit den derzeitigen Leaks.
basix
2020-10-28, 20:09:49
Was ist das auf der Seite von N21? HBM Interfaces? Oder eher doch IFOP PHY?
Loeschzwerg
2020-10-28, 20:10:14
Aha... dann spiel mal Marvel's Avengers mit ultra Texturen. Möchte zu gern dein Gesicht dabei sehen. :D
Bei dem schlechten Spiel wäre ein leidiger Gesichtsausdruck so oder so nicht verwunderlich ^^
Nightspider
2020-10-28, 20:11:10
Ohne Raytracing oder ohne erheblich mehr Speicher gibt es keine neue Grafik.
Raytracing ist noch immer nicht von starker Relevanz.
Bis das soweit ist gibts schon wieder 1-2 neue Generationen.
Und solange in der Playstation 5 und Xbox SX eben genau diese Architetur drin steckt wird es eben auch "angemessene" Raytracing Effekte geben.
So einfach ist das.
dargo
2020-10-28, 20:12:24
Bei dem schlechten Spiel wäre ein leidiger Gesichtsausdruck so oder so nicht verwunderlich ^^
Ist klar... wenn Nvidia versagt ist das Game schuld. ;D
btw.
Für 1440p Gamer wie ich es bin nicht ganz uninteressant.
https://abload.de/img/1440pssk94.jpg
Bei den Frameraten wird mir gerade etwas schwindelig. ;D
Loeschzwerg
2020-10-28, 20:14:21
Ist klar... wenn Nvidia versagt ist das Game schuld. ;D
Willst dir den Spiegel nicht selber vorhalten ;)
dargo
2020-10-28, 20:16:41
https://youtu.be/FUSmv_ZITp4?t=261
Eh ja und jetzt? >100 FPS zu wenig?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472726&postcount=91
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81
:rolleyes:
Schnoesel
2020-10-28, 20:18:14
Ich kann ja nur von mir sprechen und wenn man mich vor nem guten Monat gefragt hätte welche Karte in meinem PC landen wird dann wäre es 100% eine Ampere gewesen.
Je mehr Zeit vergangen ist und je mehr man von der einen oder anderen Seite erfahren hat, ist die Tendenz immer weiter Richtung AMD gerückt aber bis heute hab ich selbst nicht dran geglaubt.
Jetzt ist die Sache für mich klar. Bei ca. gleicher Leistung (wegen 10%+ oder - scheiß ich aber auch nicht rum) hat mich die AMD überzeugt vor allem die 16GB VRAM. Ist für mich einfach die rundere Karte und die Performance in BFV ist dabei die Kirsche auf der Torte.
Bitte Bitte noch lieferbar und recht zeitig einen Fullcover und 5900X + 6900XT ich komme.
Das trotz eines Gsync Monitor.
PS: DLSS odr RT interessieren mich hüben wie drüben nicht und spielen bei meiner Entscheidung keine Rolle.
So muss eben jeder für sich entscheiden, was ihm wichtiger ist.
Was haltet ihr eigentlich davon, dass Rage nix anderes ist, als die P-Table nach oben zu setzen und den Lüftermodus aggressiver zu gestalten?
Igor sprach davon, dass dem MPT noch manche Dinge hinzugefügt werden und ich glaube es könnte sich hierbei u.a. um so etwas handeln. Sprich Selbstbau-Lüftermodusrpm in Relation zur Leistung. So etwas wird es dann wohl auch im WM geben.
Meine Vermutung ist, dass die TDP durch Rage unberührt bleibt.
Linmoum
2020-10-28, 20:19:59
Ich kann ja nur von mir sprechen und wenn man mich vor nem guten Monat gefragt hätte welche Karte in meinem PC landen wird dann wäre es 100% eine Ampere gewesen.Mit mindestens 12GiB hätte ich es damals auch bei der 3080 versucht. Aber mittlerweile bin ich froh, dass sie doch nicht mehr hat und es nichts geworden ist.
Gerade, da ich mit Wasser kühle und Ampere dahingehend fast schon belanglos ist. Das wird sich mit RDNA2 zum Glück ändern.
Locuza
2020-10-28, 20:21:52
Was ist das auf der Seite von N21? HBM Interfaces? Oder eher doch IFOP PHY?
XGMI/Infinity Link, was von Anfang an von den offenen Linuxtreiber erwähnt worden ist.
https://pbs.twimg.com/media/ElcCvdEXEAAOToK?format=jpg&name=large
Vega20 mit zwei Links (links) zum Vergleich:
https://www.flickr.com/photos/130561288@N04/48243282516/
PS: Ich möchte jedes mal erwähnen, dass die Fantasy-Bilder von AMD zwar nahe an den grundlegenden Aufbau kommen, aber nicht völlig genau genommen werden sollten.
PPS: Laut dem Bild hat Navi21 nur 8x PCIe Lanes.
Nazar
2020-10-28, 20:23:09
Ich frage mich bei solchen Streiterei immer welch kleiner Prozentsatz sich denn tatsächlich intensiv mit beiden Welten auseinandergesetzt hat.
Immer lustig, wenn mir Leute mit ihren aus Foren zusammengelesenem Halbwissen, die seit 10 Jahren keine Nvidia Karte mehr gesehen haben, erklären wollen wie überflüssig oder schlecht Dinge wie DLSS, GeForce Experience, G-Sync, RT oder das InGame Overlay mit Echtzeitvorschau sind.
Gilt natürlich auch in die andere Richtung.
Für mich ist immer wieder erschreckend wie stark die Fähigkeit abnimmt, das Gelesene verstehen zu wollen, und um dann das Thema in eine "gefühlte" Richtung zu schieben.
Respekt einfordern durch vorangehende Beleidigung des Gegenübers (angelesenes Halbwissen)? Ist das die Art wie heutzutage Diskutiert wird?
Eine sachbezogen Meinung, die begründet wurde, pauschal als aus der Luft gegriffen zu deklassieren und mehr über den Geisteszustand des Gegenübers zu fabulieren als über das Thema selbst, ist das "das neue Pink"?
Ja, jeder darf seine Meinung haben, nur ist eine Meinung alleine über Personen keine gute Grundlage für eine Diskussion, vor allen Dingen dann nicht, wenn das gesagte oder geschriebene des Gegenübers überhaupt nicht aufgenommen wird, sondern generell als "erlogen und erstunken" hervorgehoben wird.
Besonders "gut" kommen bei einer Einleitung zu einer Erwiderungen, Dinge wie "angelesenes Halbwissen" und andere Unterstellungen als pauschalen Abgesang auf Personen mit anderer Meinung zu äußern. Nicht!
Das Thema selber bleibt leider auch hier vollkommene Nebensache. Die eigene Mutmaßung über das Wissen des anderen dominiert das komplette Thema und man stellt sich selber -konträr zur eigenen Aussage- als weltoffen dar.
Dann aber kurze Zeit später eine Art Respekt einzufordern, erscheint in diesem Zusammenhang unfreiwillig komisch, bestenfalls.
Ja, und auch das gilt natürliche für alle Seiten.
Ich habe da einen ganz verrückten Vorschlag!
Nicht persönlich werden und immer versuchen das Gesagte des anderen auf einer sachlichen Ebene zu widerlegen oder aber dessen Argumente zu akzeptieren.
Pauschalisierungen wie "angelesenes Halbwissen" habe in keiner Diskussion und zu keinem Zeitpunkt etwas zu suchen!
Kann man das nicht, sollte man sich von der Diskussion fernhalten oder zumindest so fair sein und es nicht persönlich werden lassen.
Deal? :wink:
Ich persönlich halte DLSS, RT, G-Sync und alle andere proprietären Entwicklungen für falsch und schädlich für den Spieler.
Man kann mich gerne widerlegen und mir erklären wie durch starken Zwang und Einschränkung Freiheit, Gemeinsamkeit, Weiterentwicklung und Fortschritt entstehen soll.
Als Kern für meine Aussage bringe ich Intel und nV ins Spiel.
Als Diskussionsgrundlage: DLSS, PhysX, Freesync - G-Sync, Zwang auf Herausgabe von Nutzerdaten, um die Fähigkeiten einer Hardware in Gänze nutzen zu dürfen.
Hammer des Thor
2020-10-28, 20:24:46
579 für die 6800? Gefühlt ein Platzhalter wie bei der 5700, als man am Launchtag den Preis gesenkt hat. 549 sind "nur" 30 weniger, fühlen sich aber viel besser an. Bei 70 Differenz macht die 6800er doch kaum Sinn.
Warten wir mal die "freien" Benchmarks ab und vor allem die Verfügbarkeit ^^
Das denke ich auch wären da nicht die 300 Watt, wenn ich aber nen Powerlimit einstellen kann wäre das dann egal!
Dio Eraclea
2020-10-28, 20:24:53
[..]Für 1440p Gamer wie ich es bin nicht ganz uninteressant.[..]
Ich glaube das wird der Ersatz für meine Fury :cool:
Lehdro
2020-10-28, 20:25:55
ein HBCC 2.0 und wird daher kaum oder nur in Spezialsituationen was bringen. Der dargestellte Performanceuplift kam sicher zum grössten Teil vom simplen Overclocking durch den rage mode.
Smart Access wurde imho als Feature in dieser Präsentation "überverkauft"
Stimmt nicht:
https://abload.de/img/sam67kl2.jpg
Quelle (https://www.youtube.com/watch?v=8KAnebwCAaA)
basix
2020-10-28, 20:26:33
Ich habe mal versucht anhand der GDDR6 PHY die Die Size auszumessen. Ich komme auf 495mm2 :D
DrFreaK666
2020-10-28, 20:26:55
die heutige präsentation macht das ziemlich offensichtlich.
Wahrscheinlich wird es aussehen
https://www.igorslab.de/wp-content/uploads/2020/10/01-Percent.png
fondness
2020-10-28, 20:27:03
Stimmt nicht:
https://abload.de/img/sam67kl2.jpg
Quelle (https://www.youtube.com/watch?v=8KAnebwCAaA)
Im Schnitt 7% mehr Performance nur durch den "richtigen" Prozessor finde ich schon cool. Für 7% mehr Leistung durch OCing sind manche bereit beträchtliche Aufwände zu betreiben :D
Der_Korken
2020-10-28, 20:27:14
Ich bin mir nicht sicher wie redlich da der Wert (2.17 fache effektive Bandbreite) wirklich ist. Das sieht für mich so aus dass man da vergleicht mit einer theoretischen GPU ganz ohne Cache, was natürlich praxisfern ist.
[...]
Aber es kann natürlich sein dass man nun halt den Punkt erreicht hat wo sich das endlich auch bei GPUs auszahlt (tendenziell werden ja Datentransfers im Verhältnis immer teurer was die Effizienz betrifft), es ist natürlich auch möglich dass es sich mit dem 8nm Samsung Prozess eben noch nicht lohnt.
Der Einwand mit dem bisherigen L2$ ist durchaus berechtigt. Es ist ja nicht so, dass man heute mit dem 4MB L2$ (oder 8MB, wenn man den mitskaliert hätte) auf 0% Hitrate kommt. Eine 5700XT hat somit eigetlich auch mehr Bandbreite als 448GB/s, selbst wenn es nur 10% sind.
Was die Entscheidung an sich angeht: Ich glaube auch, dass es sich zu lange nicht gelohnt hat, aber jetzt kommen zwei Sachen zusammen: Die SRAM-Packdichte von 7nm ist einfach brutal und der Verbrauch externer Interfaces mittlerweile auch - und zwar sowohl flächen- als auch verbrauchsmäßig. Man sieht ja wieviel Anteil am Die das 256bit-Interface bei N10 hat und wie aufwändig es ist, den Durchsatz pro Lane zu erhöhen (GDDR6X). Neu ist die Idee sicher nicht, aber offensichtlich geht die Rechnung diesmal zugunsten des Caches auf.
Überrascht hat es mich aber am Ende auch, dass AMD das wirklich durchgezogen hat.
Was ist das auf der Seite von N21? HBM Interfaces? Oder eher doch IFOP PHY?
Gute Frage. GDDR6 PHYs sind es nicht, denn davon sieht man schon acht Stück am Rand. Für HBM PHYs kommen dir aber etwas zu klein vor, denn 1024bit HBM die sind sicherlich nicht kleiner als 32bit GDDR6.
@L2 vs L3: Weiß jemand was die 2x4 gelben länglichen Blöcke in der Mitte um den CP herum sind? Also die vom CP aus Richtung Speicher angeordnet sind. Die gab es bei N10 auch schon. Ist das nicht vielleicht der L2 und Infinity Cache ist außen rum nochmal zusätzlich L3? Theoretisch könnte AMD den L2 ja auch bei 4MB belassen haben.
Windi
2020-10-28, 20:30:02
An AMDs Stelle kann ich die Preise für die 6800 gut verstehen.
Chips die nicht hundert prozentig in Ordnung sind, kann man problemlos als 6800XT verkaufen.
Und Chips auf denen noch viel mehr CUs defekt sind, aber ansonsten alles perfekt ist, sollten kaum vorkommen.
Also entweder hat man nur ein paar defekte CUs oder es ist noch viel mehr defekt und der Chip ist Ausschuss.
Für den 6800 muss AMD also wahrscheinlich funktionierende Chips kastrieren. Da ist es dann verständlich dass man daraus keinen Preis/Leistungssieger macht. Der wurde preislich wahrscheinlich absichtlich so platziert, das die 6800 XT wie der "bessere Deal" aussieht.
why_me
2020-10-28, 20:30:05
Was ist das auf der Seite von N21? HBM Interfaces? Oder eher doch IFOP PHY?
xGMI? Soll N21 doch laut Linux Treiber haben
aufkrawall
2020-10-28, 20:30:34
11% in Forza "für umme" wären schon beachtlich.
Gegen Big Navi scheint es nichts einzuwenden zu geben (nur dieses allgemeine Preisniveau des gesamten Marktes...), so weit bisher feststellbar. Allerdings war das erneute Herumreiten auf Anti-Lag für DX11 und Boost doch ziemlich lame, kein Wort zu DX12/Vulkan. Ich mein, Reflex ist bisher mit der geringen Anzahl an Titeln auch meh, aber irgendwas für Entwickler wär schon nett gewesen...
basix
2020-10-28, 20:30:50
@L2 vs L3: Weiß jemand was die 2x4 gelben länglichen Blöcke in der Mitte um den CP herum sind? Also die vom CP aus Richtung Speicher angeordnet sind. Die gab es bei N10 auch schon. Ist das nicht vielleicht der L2 und Infinity Cache ist außen rum nochmal zusätzlich L3? Theoretisch könnte AMD den L2 ja auch bei 4MB belassen haben.
Das sollte der L2$ sein, war zumindest bei N10 schon so. Wie gesagt, der IF$ wird vermutlich eine Art L3$ sein (Victim und Parallel zu GDDR6 SI: Mein Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12477305#post12477305)). Die GPU arbeitet wie bei RDNA1 aus den L1 und L2 Caches und fordert sonst Daten von "aussen" an
Flusher
2020-10-28, 20:33:42
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472726&postcount=91
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81
:rolleyes:
;D
Wenn du meinst, das ist auf den VRAM zurückzuführen, dann muss es ja so sein.
dargo
2020-10-28, 20:34:23
Stimmt nicht:
https://abload.de/img/sam67kl2.jpg
Quelle (https://www.youtube.com/watch?v=8KAnebwCAaA)
Ich verstehe das mit dem Small Access Memory immer noch nicht ganz. Bekommt man diesen kleinen Uplift jetzt mit jedem Ryzen-System oder nur mit Zen3?
;D
Wenn du meinst, das ist auf den VRAM zurückzuführen, dann muss es ja so sein.
Ich meine es nicht , ich weiß es! Du kannst mich gerne vom Gegenteil überzeugen. Hast du das Spiel überhaupt schon gespielt?
fondness
2020-10-28, 20:34:55
Nur Zen3, dafür ist extra HW auch in der CPU erforderlich.
Loeschzwerg
2020-10-28, 20:35:04
Nur mit ZEN3.
Zergra
2020-10-28, 20:35:32
Hier mal eine kleine Rechnung von mir wenn man von 30 % höheren Taktraten ausgeht auf Basis von RDNA.
Eine Gigabyte Radeon RX 5700 XT Gaming OC 8G hat folgende Taktraten.
Wenn wir nun von 30 % ausgehen landen wir bei
und das ist für eine 5700 XT noch niedrig. Eine Sapphire Nitro+ taktet noch einmal höher.
das wären mit 30 % plus dann
Die Zahlen decken sich also ziemlich gut mit den derzeitigen Leaks.
Du verdrehst die Zahlen, RDNA2 taktet 30% höher als RDNA bei gleichem Verbrauch, aber nicht grundsätzlich 30% höher.
DeadMeat
2020-10-28, 20:35:59
Nur mit ZEN3.
sowie 5xx Mainboard Serie, wurde zumindest dort gesagt.
Noebbie
2020-10-28, 20:36:36
Nur mit ZEN3.
Auch auf B450/X470 oder nur mit den 500er?
WedgeAntilles
2020-10-28, 20:36:58
Sehr interessante Karten, die AMD da vorgestellt hat.
Positiv überrascht bin ich vom Preis der 6800XT - 650 Euro sind klasse.
Falls RT halbwegs ordentlich ist, ist die 6800XT das klar bessere Produkt als die 3080.
Die 6800 ist die für mich eigentlich "bessere" Karte, da ich als FullHD Spieler so viel Leistung wie die 6800XT bietet nicht brauche.
Da ist mir ein niedrigerer Stromverbrauch (und damit geringerer Lautstärke + Wärme) eigentlich wichtiger.
Schade, dass die 6800 mit 580 Euro quasi gar nicht billiger als die 6800XT ist.
70 Euro Preisunterschied, das lohnt ja fast nicht.
Unter Umständen also zur 6800XT greifen und bisschen untertakten? (Falls das auch ein Idiot wie ich hinbekommt...)
Für viele User könnte die 3070 vielleicht sogar das Produkt bleiben, das gekauft wird. Einfach da "Nvidia" und sogar 70 Euro günstiger.
Ich sage nicht, dass der Aufpreis gegenüber der 3070 nicht gerechtfertigt ist - man hat ja 8GB mehr Ram und man hat auch etwas mehr Leistung.
Dafür allerdings auch 250W statt 220W (wobei das in diesem Watt-Bereich eigentlich ziemlcih egal ist. Das bekommt man ja locker gekühlt und auch leise.)
Hier wäre ein etwas günstigerer Preis vielleicht strategisch sinnvoller gewesen. Dafür dürfte der Preis der 6800XT auch höher sein.
Das man die 6800XT unter dem Nvidia-Produkt platziert, die 6800 aber merklich darüber ist verwunderlich.
580 + 650 bei AMD vs 500 + 700 bei Nvidia
530 + 700 vs 500 + 700 hätte ich da nachvollziehbarer gefunden.
Das Verknüpfen von CPU + GPU klingt spannend - was man da realistisch erwarten kann, keine Ahnung. Aber auch wenn das nur ein paar Prozent sind - ein paar Prozent "geschenkte" Performance? Gern, wo kann ich unterschreiben?
Ich bin auf unabhängige Tests gespannt, besonders auf die RT Performance.
Das ist auch der einzige Punkt, der mich etwas in Sorge lässt - kein Wert zur RT Performance?
Und gespannt bin ich natürlich auf den tatsächlichen Stromverbrauch.
Und dann natürlich auf die Cyberpunk Vergleiche.
Das will ich mit Max Details und RT On spielen.
Wobei ich keine 100 Frames brauche. Wenn mir die Radeon 6800 da bei FullHD 60 Frames aufwärts bietet genügt mir das. (Bitte nicht steinigen, falls das unrealistisch ist!)
Aktuell tendiere ich im Februar / März klar zur 6800/6800XT in Verbindung mit einem - dann hoffentlich etwas günstigeren - 8 Kerner der Zen 3 Generation.
Könnte dann ein wirklich guter Zeitpunkt sein, meinen dann 6 Jahre alten Rechner in Rente zu schicken :)
Berniyh
2020-10-28, 20:37:21
Was ist das auf der Seite von N21? HBM Interfaces? Oder eher doch IFOP PHY?
xGMI?
Edit: Locuza war schneller …
ChaosTM
2020-10-28, 20:37:23
Verwendet Navi eigentlich dedizierte RT Kerne oder rennt das über die "normalen" Shader ?
dargo
2020-10-28, 20:37:34
Nur Zen3, dafür ist extra HW auch in der CPU erforderlich.
Das würde natürlich den Wechsel auf Zen3 für mich erleichtern. :uponder: Wollte eigentlich erst bei Zen4 wechseln. :freak:
sowie 5xx Mainboard Serie, wurde zumindest dort gesagt.
Ich müsste mein X370 Brett eh aufgeben, kleinstes Problem insofern hier. :)
Linmoum
2020-10-28, 20:38:04
Du verdrehst die Zahlen, RDNA2 taktet 30% höher als RDNA bei gleichem Verbrauch, aber nicht grundsätzlich 30% höher.Kommt auf den Vergleich an. +30% vom Game Clock der 5700XT sind keine 2300MHz, das scheinen Customs offensichtlich problemlos zu packen. Der Boost an sich liegt ja zudem bei teils >2500MHz.
Daredevil
2020-10-28, 20:38:16
del
Loeschzwerg
2020-10-28, 20:38:45
sowie 5xx Mainboard Serie, wurde zumindest dort gesagt.
Auch auf B450/X470 oder nur mit den 500er?
500er Board wird benötigt.
Hier die offizielle Seite von AMD inkl. Anforderungen:
https://www.amd.com/en/technologies/smart-access-memory
Marodeur
2020-10-28, 20:40:01
Der Unterschied von 4 Jahren. Damals Launch der 1070 für 449 $ und man konnte sie für 400 - 420 € von Boardpartnern kaufen.
Jetzt launch einer 3070 für 499 $ und Boardpartnerkarten ab ca. 580 € was man so findet.
AMD kleinste 6er für 579$ und Preise der Boardpartner dann auch wieder um einiges höher wie man hier mutmaßt.
Irgendwie geht das für mich in die falsche Richtung... :/
dildo4u
2020-10-28, 20:41:29
Der Unterschied von 4 Jahren. Damals Launch der 1070 für 449 $ und man konnte sie für 400 - 420 € von Boardpartnern kaufen.
Jetzt launch einer 3070 für 499 $ und Boardpartnerkarten ab ca. 580 € was man so findet.
AMD kleinste 6er für 579$ und Preise der Boardpartner dann auch wieder um einiges höher wie man hier mutmaßt.
Irgendwie geht das für mich in die falsche Richtung... :/
AMD wird was unter 500€ haben mit weniger Vram.
Digidi
2020-10-28, 20:44:07
https://pbs.twimg.com/media/ElcCvdEXEAAOToK?format=jpg&name=large
Komisch ist das es beim Rasterizer den breiteren Rechteckigen Block nun 4 mal gibt im gegensatz zu Navi 10. Der Schmale Rechteckige block aber gleich geblieben ist, nämlich auch 4 mal.
Heißt das das es jetzt nur Rasterizer gibt dafür jeder Rasterizer nun 2 Prime Units hat?
Berniyh
2020-10-28, 20:44:16
Im Schnitt 7% mehr Performance nur durch den "richtigen" Prozessor finde ich schon cool. Für 7% mehr Leistung durch OCing sind manche bereit beträchtliche Aufwände zu betreiben :D
Zumal man – wenn ich die Erklärungen im zweiten Video richtig verstanden habe – das weniger als einen Boost der GPU als mehr als einen Boost der CPU verstehen sollte.
Also nicht viel anders als wenn man bisher eine hochgeprügelte Intel CPU verwendet hat um die letzten paar Prozente rauszuquetschen.
Jetzt muss man das halt nicht mehr bzw. gewinnt sogar noch ein bisschen mehr (da die Zen 3 ja eh schneller sind als die Intel CPUs).
Sunrise
2020-10-28, 20:45:45
Der Unterschied von 4 Jahren. Damals Launch der 1070 für 449 $ und man konnte sie für 400 - 420 € von Boardpartnern kaufen.
Jetzt launch einer 3070 für 499 $ und Boardpartnerkarten ab ca. 580 € was man so findet.
AMD kleinste 6er für 579$ und Preise der Boardpartner dann auch wieder um einiges höher wie man hier mutmaßt.
Irgendwie geht das für mich in die falsche Richtung... :/
Du sagst es ja schon selbst, das ist AMDs “kleinste”...jedenfalls im Moment, denn die 3070 ist kein High-End/Enthusiast Die, die Aufgabe übernimmt N22.
TheAntitheist
2020-10-28, 20:47:36
Verwendet Navi eigentlich dedizierte RT Kerne oder rennt das über die "normalen" Shader ?
läuft über die TMUs, also entweder wird texturiert oder RT, beides geht nicht.
Ich bin mal auf die kleineren Karten gespannt. Das ist ja auch das Segment wo AMD mit Polaris und Navi randaliert hat:cool:
Berniyh
2020-10-28, 20:50:37
Was die Entscheidung an sich angeht: Ich glaube auch, dass es sich zu lange nicht gelohnt hat, aber jetzt kommen zwei Sachen zusammen: Die SRAM-Packdichte von 7nm ist einfach brutal und der Verbrauch externer Interfaces mittlerweile auch - und zwar sowohl flächen- als auch verbrauchsmäßig. Man sieht ja wieviel Anteil am Die das 256bit-Interface bei N10 hat und wie aufwändig es ist, den Durchsatz pro Lane zu erhöhen (GDDR6X). Neu ist die Idee sicher nicht, aber offensichtlich geht die Rechnung diesmal zugunsten des Caches auf.
Es dürfte noch viel wichtiger sein, dass AMD viel darin investiert hat wie der Cache organisiert wird und was wie wo wann abgelegt wird.
Ähnlich zu dem Video das hier neulich durch den Thread ging.
Da ging es zwar um etwas anderes, aber genau solche Dinge dürften es ermöglichen, dass so ein Cache jetzt so eine positive Auswirkung hat.
Und dazu auch noch, dass AMD inzwischen extrem viel in Interface/Verbindungstechnologie investiert und da sehr weit ist.
Überrascht hat es mich aber am Ende auch, dass AMD das wirklich durchgezogen hat.
Damit hat AMD sicher alle überrascht. Nicht zuletzt wohl sogar Nvidia und das dürfte in dem Geschäft schon sehr selten vorkommen.
btw … Arcturus hat ja auch 16 TCCS, d.h. so viel wie Navi 21.
Ehrlich gesagt gehe ich jetzt davon aus, dass Arcturus mit seinen 128 CUs tatsächlich "nur" ein 2048 Bit HBM2 Interface hat und dafür eben auch einen IC.
Zergra
2020-10-28, 20:51:44
Kommt auf den Vergleich an. +30% vom Game Clock der 5700XT sind keine 2300MHz, das scheinen Customs offensichtlich problemlos zu packen. Der Boost an sich liegt ja zudem bei teils >2500MHz.
Die 30% beziehen sich aber eben nicht auf irgendeine Custom, sondern eben auf das Ref. Design.
patrickschur
2020-10-28, 20:53:22
@Zergra Mir ist schon klar das RDNA 2 nicht exakt 30 % höher taktet, aber ungefähr. Die Taktraten kommen nahe an den von mir veröffentlichten dran.
Avg: 2291 MHz
Median: 2373 MHz
Max: 2556 MHz
≥ 2500 MHz (10.28 %)
2400 ≤ x < 2500 MHz (24.46 %)
2300 ≤ x < 2400 MHz (50.49 %)
2200 ≤ x < 2300 MHz (3.64 %)
2100 ≤ x < 2200 MHz (1.38 %)
< 2100 MHz (9.75 %)
Edit: Ich habe doch extra zwei Modelle aufgelistet und das Gigabyte Modell kommt ziemlich nah an das Referenz Design dran.
Basierend auf dem Referenz Deisng hättest du schließlich immer noch einen Base Clock von 2087 MHz, Game Clock von 2282 MHz und einen Boost von 2477 MHz.
Quelle: https://www.amd.com/de/products/graphics/amd-radeon-rx-5700-xt
Edgecrusher86
2020-10-28, 20:56:23
Ein bisschen Bildmaterial aus dem Web:
https://s12.directupload.net/images/201028/b2u2niun.jpg
Stolz, den Kürzeren zu ziehen. :D
https://s12.directupload.net/images/201028/73en5kzr.png
Mal zusammen gebastelt - ganz grob [Linkes Paar = RX 6900XT + RTX 3090; rechts je RX 6800XT + RTX 3080] - jetzt müsste man nur wissen, was der Rage-Mode bringt.
Vermutlich höchstens 5% oder weniger...vielleicht Lüfter auf laut und PT maximiert plus etwas mehr Boost.
IdR sind es grob 8 - 16% Vorsprung für die RX 6900XT zur RX 6800 XT (ohne Rage-Mode) - FH bildet mit 22,5% eine Ausnahme.
Mehr Slides:
https://s12.directupload.net/images/201028/cjhbbwar.jpg
https://s12.directupload.net/images/201028/3r4cgay2.jpg
Anscheinend mal ein anständiges Ref-Design zwecks Kühler
https://s12.directupload.net/images/201028/kw8qoffd.jpg
https://s12.directupload.net/images/201028/cyudnabg.png
Schade, dass man keine RT-Benchmarks gezeigt hat - hier könnte vielleicht doch eher die RTX 3070 der Gegner für N21 sein - man wird sehen.
Siehst du hier den klaren Sieger bei der 3090? Also ich nicht.
https://abload.de/img/rx6900xtldks0.jpg
Man muss natürlich dann auch beide bei 350W messen.
btw.
Ich bin sogar sehr überrascht wie gut RDNA2 in Gears5 performt. Die UE4 ist nicht gerade die Stärke von Radeon.
Naja "Rage Mode" Auto Overclock etc. - das mal mit betrachtet muss sich 6900XT schon leicht geschlagen geben. Beim Raytracing siehts wahrscheinlich dann sehr deutlich aus.
dargo
2020-10-28, 20:57:22
Ich muss gerade über einige Posts hier echt schmunzeln von wegen AMD muss noch am Marketing arbeiten. ;D Als echter Enthusiast muss man jetzt praktisch Zen3 sowie ein 500-er Brett kaufen und Navi21 um maximale Performance zu bekommen. Am besten noch auf Wakü umbauen und los gehts. Also wenn das kein gutes Marketing ist dann weiß ich auch nicht mehr. ;)
Marodeur
2020-10-28, 20:57:22
Du sagst es ja schon selbst, das ist AMDs “kleinste”...jedenfalls im Moment, denn die 3070 ist kein High-End/Enthusiast Die, die Aufgabe übernimmt N22.
Mir gehts vor allem auch um den Unterschied das jetzt scheinbar die Herstellerkarten das untere Limit beim Preis darstellen und man Boardpartnerkarten nur für einiges mehr bekommt.
Hatte gehofft wenn Karten für 500 € kommen das man dann eben ein paar Wochen drauf welche für 400-450 € von Partnern kaufen kann. Im Falle von AMD dann vielleicht wenigstens unter 500 €.
Die Hoffnung ist jetzt irgendwie völlig dahin
horn 12
2020-10-28, 20:57:28
Nun, wenn man bedenkt doch 16 GB für 6800 und die 499 Euro für RTX 3070 mit halbierten 8GB, Customs wohlgemerkt 529 bis 549 Euro
--- > Dann kommt einem eine 6800 XL nicht mehr so extrem überteuert vor bei doppeltem Speicher und womöglich passt AMD die Preise zum Release nochmals an, so wie bei 5700/ 5700XT und wollte etwas hochstapeln...
Linmoum
2020-10-28, 21:00:55
das mal mit betrachtet muss sich 6900XT schon leicht geschlagen geben.Und wenn man OC betrachtet landet selbst eine 6800XT womöglich auf/vor 3090-Niveau.
Die 3090 läuft an der Kotzgrenze, die Referenz 6800XT/6900XT mit nur (ok, bei Ampere wäre es beachtlich ;D) ~2GHz. Und Customs legen bei der 6800XT augenscheinlich teils 10-15% zu. Mit manuellem OC und Mem OC... Wird übel.
Leonidas
2020-10-28, 21:01:27
[immy;12476877']So, damit sollten die Taktratenspekulationen von unrealistischen 2,4GHz wohl mal der Vergangenheit angehören.
Die Herstellerkarten werden es wohl können.
Die 6800 ist zu Teuer, hatte ich mich doch geirrt
Setzt AMD zu niedrig an, verführt man NV zum Preiskrieg -> schlecht für beide. Wobei ich die 6800 selber lieber bei $529 gesehen hätte.
Mythos;12476936']8. Dezember. Mein Geburtstag. Zufall? Ich glaube nicht. ;)
Das müssen nur die diejenigen dezent gesteckt bekommen, von den Geschenke zu erwarten sind ;)
Nochmal zum direkten Vergleich
https://www.amd.com/en/products/specifications/compare/graphics/10516%2C10521%2C10526
16 Gbps bei allen Karten damit bestätigt (sofern AMD keine C&P-Fehler gemacht hat).
Wo bleiben die 400€ = 2080TI Karten?
GeForce RTX 3060 Ti -> Mitte November
Navi 22 -> mutmaßlich Januar 2021
Also wenn das nur annähernd stimmt dann wäre ein 384-bit Bus die erheblich schlechtere Alternative gewesen:
Ergibt vor allem ungünstige Speichermengen: 12 GB (zu knapp) oder 24 GB (zu viel).
Hier mal eine kleine Rechnung von mir wenn man von 30 % höheren Taktraten ausgeht auf Basis von RDNA.
Man beachten bei diesen Taktraten-Spielereien, dass zuletzt nur eher selten die Karten gut mit ihren Taktraten skalierten.
mczak
2020-10-28, 21:01:44
Der Einwand mit dem bisherigen L2$ ist durchaus berechtigt. Es ist ja nicht so, dass man heute mit dem 4MB L2$ (oder 8MB, wenn man den mitskaliert hätte) auf 0% Hitrate kommt. Eine 5700XT hat somit eigetlich auch mehr Bandbreite als 448GB/s, selbst wenn es nur 10% sind.
Was die Entscheidung an sich angeht: Ich glaube auch, dass es sich zu lange nicht gelohnt hat, aber jetzt kommen zwei Sachen zusammen: Die SRAM-Packdichte von 7nm ist einfach brutal und der Verbrauch externer Interfaces mittlerweile auch - und zwar sowohl flächen- als auch verbrauchsmäßig. Man sieht ja wieviel Anteil am Die das 256bit-Interface bei N10 hat und wie aufwändig es ist, den Durchsatz pro Lane zu erhöhen (GDDR6X). Neu ist die Idee sicher nicht, aber offensichtlich geht die Rechnung diesmal zugunsten des Caches auf.
Also wenn man den illustrierten Bildern glaubt ist der Flächenbedarf des Cache schon nicht gerade klein - da hätte man mit derselben Fläche auch ein 768bit gddr6 Interface einbauen können :biggrin:. Sind dann wohl so an die 20% der Chipfläche? Aber klar, so viel Strom sollte der nicht brauchen (ist wohl sogar günstig in Bezug auf die Kühlung).
@L2 vs L3: Weiß jemand was die 2x4 gelben länglichen Blöcke in der Mitte um den CP herum sind? Also die vom CP aus Richtung Speicher angeordnet sind. Die gab es bei N10 auch schon. Ist das nicht vielleicht der L2 und Infinity Cache ist außen rum nochmal zusätzlich L3? Theoretisch könnte AMD den L2 ja auch bei 4MB belassen haben.
Also wenn die Blöcke in der Mitte tatsächlich der L2 sind, ist der Infinity Cache tatsächlich eine neue Cache Ebene (L3). Dann kann es auch sein dass sich AMD's Angaben der effektiven Bandbreite nur darauf beziehen, der L3 wäre dann tatsächlich ziemlich gut. Ganz allgemein gesprochen ist eine Cache Hitrate von 58% eigentlich sehr mies, aber genau das ist ja der Grund dass man eben keine grossen Caches bei GPUs verbaut hat, weil die eben trotzdem nicht wirklich eine hohe Trefferquote liefern und somit nicht sonderlich effektiv sind (und eben, rein vom Flächenbedarf des Chips her scheint sich das immer noch nicht zu lohnen).
DrFreaK666
2020-10-28, 21:02:43
https://youtu.be/FUSmv_ZITp4?t=261
Eh ja und jetzt? >100 FPS zu wenig?
Ging es um FPS oder um VRAM-Verbrauch?
sapito
2020-10-28, 21:02:51
Ich verstehe das mit dem Small Access Memory immer noch nicht ganz. Bekommt man diesen kleinen Uplift jetzt mit jedem Ryzen-System oder nur mit Zen3?
Ich meine es nicht , ich weiß es! Du kannst mich gerne vom Gegenteil überzeugen. Hast du das Spiel überhaupt schon gespielt?
a) ryzen 5000 + 500er board
https://www.amd.com/de/technologies/smart-access-memory
Hardware
AMD 500 Series Motherboards
AMD Ryzen™ 5000 Series Processors
AMD Radeon™ RX 6000 Series Graphics*
IMHO B550 + X570
ohne SAM
> native PCIE junks are 256MiB
>> wenn ich nur 1MiB brauche benötige ich 256MiB VRAM
> mit SAM
>> benötige ich 1MiB belege ich 1MiB VRAM (oder etwas mehr)
damit "könnte" sich allocated VRAM dem real verbrauchten ziemlich annähern (benötigt logisch bestätigung)
RAGE bringt laut AMD 1-2% mehr > der biggest push kommt durch SAM
##############
gerade hat team rot team grün thermo nuklear vernichtet
ich bekomme die leistung(eher besser) einer 3090 zu 2/3 des preises bei DEUTLICH geringeren verbrauchskosten
für die 500€ ist für leute wie mich auch noch ein Freesync Monitor drin (habe "nur" g-sysc monitor) > wo dann der g-syc als 2. monitor ausgemustert wird
ein upgrade auf amd 5000 würde ehh kommen XD
Akkarin
2020-10-28, 21:05:23
Gibt es angaben/spekulationen zur größe des Chips ?
Berniyh
2020-10-28, 21:06:06
Setzt AMD zu niedrig an, verführt man NV zum Preiskrieg -> schlecht für beide. Wobei ich die 6800 selber lieber bei $529 gesehen hätte.
Nicht nur das. Der Chip scheint ja auch nicht gerade klein zu sein und da wird man den nicht zu günstig verkaufen wollen.
Käufer die nicht so viel ausgeben wollen sollen wohl in Richtung Navi 22 getrieben werden, der ja deutlich kleiner ausfallen sollte mit nur 20 CU.
Marodeur
2020-10-28, 21:07:08
Wie wahrscheinlich ist es das Spieleprogrammierer sowas wie SAM ausnutzen werden um mehr raus zu holen wenn man nur mit diesem spezifischen Setup davon profitiert?
Emil_i_Lönneberga
2020-10-28, 21:08:24
PCB
https://cdn.videocardz.com/1/2020/10/AMD-Radeon-RX-PCB.jpg
Berniyh
2020-10-28, 21:08:29
Wie wahrscheinlich ist es das Spieleprogrammierer sowas wie SAM ausnutzen werden um mehr raus zu holen wenn man nur mit diesem spezifischen Setup davon profitiert?
Kommt darauf an wie groß der Aufwand ist und ob es Nachteile für andere Setups mit sich bringt.
Beides sind Randbedingungen die wir derzeit nicht kennen.
fondness
2020-10-28, 21:08:42
Man beachten bei diesen Taktraten-Spielereien, dass zuletzt nur eher selten die Karten gut mit ihren Taktraten skalierten.
Du meinst wohl Einheiten? Takt skaliert immer linear.
sapito
2020-10-28, 21:09:05
Wie wahrscheinlich ist es das Spieleprogrammierer sowas wie SAM ausnutzen werden um mehr raus zu holen wenn man nur mit diesem spezifischen Setup davon profitiert?
der witz ist > es fkt ganz OHNE den entwickler frei haus
++
da beide NG KOnsolen AMD RDN2 enthalten...
Daredevil
2020-10-28, 21:09:50
PCB
https://cdn.videocardz.com/1/2020/10/AMD-Radeon-RX-PCB.jpg
DA IST EIN LOCH ZWISCHEN DEN RAM MODULEN!!!!elf
Samma, kann AMD das jetzt einfach wahnwitzig hochskalieren, wenn die nun alles mit diesem Cache verbinden?
Sieht ja auf manchen Bildern echt aus wie zwei Chiplets bzw. Module.
Wie wahrscheinlich ist es das Spieleprogrammierer sowas wie SAM ausnutzen werden um mehr raus zu holen wenn man nur mit diesem spezifischen Setup davon profitiert?
Anbetracht dessen, dass in den Konsolen ähnliche HW steckt für Crossplatform-Titel jedenfalls nicht abwegig.
Leonidas
2020-10-28, 21:11:04
Du meinst wohl Einheiten? Takt skaliert immer linear.
Nein, ich meinte die Taktraten-Skalierung. Und jene funktioniert nur unter unlimitierten und thermisch problemlosen System gut. Also nicht bei heutiger HW. Da gibt es viele Fälle von +10% Taktrate = +4% Mehrperformance.
fondness
2020-10-28, 21:14:47
Nein, ich meinte die Taktraten-Skalierung. Und jene funktioniert nur unter unlimitierten und thermisch problemlosen System gut. Also nicht bei heutiger HW. Da gibt es viele Fälle von +10% Taktrate = +4% Mehrperformance.
Das liegt aber dann daran, dass der reale Takt aufgrund von Powerlimit/Templimit etc. nur 4% höher ist oder die Bandbreite limitiert. Ansonsten skaliert Takt immer linear.
Marodeur
2020-10-28, 21:16:57
Anbetracht dessen, dass in den Konsolen ähnliche HW steckt für Crossplatform-Titel jedenfalls nicht abwegig.
Das ist eben die Frage ob in den Konsolen das Feature auch genutzt wird. Dann wärs eindeutig.
aufkrawall
2020-10-28, 21:17:01
Ansonsten skaliert Takt immer linear.
In der Realität gibts dann schon noch den Einfluss von Bandbreite und Timings/Latenz.
Sunrise
2020-10-28, 21:18:13
Die Bandbreite sollte in diesem Fall auch nicht limitieren. Ich hätte gerne ein paar Details über den Cache, ich verstehe die Funktionsweise nämlich überhaupt nicht und warum man plötzlich mit Cache soviel effektive Bandbreite “generieren” kann.
Für mich fühlt sich das an, als hat AMD die Büchse der Pandora geöffnet. IMHO ziemlich wegweisend, da vor allem Transistordichte zunimmt, aber Power usw. nicht in selbem Maße verbessert werden können.
DrFreaK666
2020-10-28, 21:18:16
Das ist eben die Frage ob in den Konsolen das Feature auch genutzt wird. Dann wärs eindeutig.
Da die Konsolen "nur" Zen 2 CPUs haben, gehe ich davon nicht aus
dargo
2020-10-28, 21:19:43
In der Realität gibts dann schon noch den Einfluss von Bandbreite und Timings/Latenz.
Die Bandbreite dürfte hier beim höheren GPU-Takt mit dem Infinity Cache mitskalieren. Würde ich zumindest davon ausgehen.
sapito
2020-10-28, 21:20:33
Da die Konsolen "nur" Zen 2 CPUs haben, gehe ich davon nicht aus
jein > sie haben "angepasste" zen2 CPUs
Zergra
2020-10-28, 21:20:48
Das liegt aber dann daran, dass der reale Takt aufgrund von Powerlimit/Templimit etc. nur 4% höher ist oder die Bandbreite limitiert. Ansonsten skaliert Takt immer linear.
Ja also skaliert Takt eben nicht linear, weil was anderes limitiert. So ist das aber immer, weil irgendwas immer limitiert.
@partrick, ist natürlich auch irgendwo klar, trotzdem bezieht sich die Aussage von AMD auf den gleichen Verbrauch. Daher lassen die 30% nicht so viele Rückschlüsse auf den echten Takt. Das Problem dürfte auch bei den Customs die Temperatur sein, der wird dann doch relativ schnell geringer takten.
Bei der 6800 steht beim BoostClock "Up to", bei der 6800XT steht das nicht.
Entweder sind die Chips am Ende deutlich schlechter, oder die TBP limitiert.
basix
2020-10-28, 21:21:42
PCB
https://cdn.videocardz.com/1/2020/10/AMD-Radeon-RX-PCB.jpg
Da kann man ja den Die ausmessen anhand der PCIe Slot Abmasse. Ich komme auf 580mm2...
Flusher
2020-10-28, 21:21:43
Ging es um FPS oder um VRAM-Verbrauch?
Laut dargo würde ich ein Gesicht ziehen. Laut dem Video seh ich keine Probleme, weder bei AVG noch Min FPS. Laut Dargos eigenen Videos soll wohl das Ultra-Setting zum Stottern führen, er diagnostiziert dass der VRAM seiner 5700 XT wohl nicht ausreichend ist und es daher kommen muss.
Ich behaupte: kann sein, muss es aber nicht. Solange es nicht reproduzierbar ist mit anderen 8 GB Karten auf anderen Systemen, solange behaupte ich, liegt es an einem Buggy Spiel mit bspw. verbuggten Texture streaming
Digidi
2020-10-28, 21:23:15
Der Rasterizer ist komisch. Von den Orangenen blöcken gibt es jetzt 4 von den Roten bleibt es aber bei 4. Heißt das jetzt das Navi21 immer noch 4 Rasterizer hat dafür dann aber 2 PrimUnits pro Rasterizer????
DrFreaK666
2020-10-28, 21:24:15
Laut dargo würde ich ein Gesicht ziehen. Laut dem Video seh ich keine Probleme, weder bei AVG noch Min FPS. Laut Dargos eigenen Videos soll wohl das Ultra-Setting zum Stottern führen, er diagnostiziert dass der VRAM seiner 5700 XT wohl nicht ausreichend ist und es daher kommen muss.
Ich behaupte: kann sein, muss es aber nicht. Solange es nicht reproduzierbar ist mit anderen 8 GB Karten auf anderen Systemen, solange behaupte ich, liegt es an einem Buggy Spiel mit bspw. verbuggten Texture streaming
In deinem Video möchte das Spiel auch gerne mal mehr als 9GB. Da sieht man spätestens mit der 3070 alt aus und muss Textur-Details herunterregeln
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.