PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 [69] 70 71 72 73 74 75 76 77 78 79 80 81

ChaosTM
2020-10-30, 12:33:54
Wenn SAM wirklich nur mit Zen3 funktioniert, dann fände ich das echt sch.... ! Kommend von nem 3950x wüßte ich nicht, warum ich Zen 3 kaufen sollte


Das dürfte eine Software Lösung sein. Leute installieren auch Spiele auf ihre 24GB Grafikkarten. ^^

Ich nehmn an das wird über kurz oder lang auf allen Systemen laufen..

dargo
2020-10-30, 12:34:54
das war die letzten generationen eher genau anders rum. die die gleich gekauft haben haben zumindest den uvp bekommen. monate danach war da nichts für zu holen. wird diesmal nicht anders laufen und die nicht lieferbarkeit von ampere verschärft die situation noch.
Haben wir wieder einen Mining-Boom? Noch sehe ich davon nichts. Und der Vergleich zu Nvidia mit Samsung ist lächerlich.

btw.
Meine Pulse hatte ich unter 400€ bekommen. Lager waren auch voll. :rolleyes:

Wenn SAM wirklich nur mit Zen3 funktioniert, dann fände ich das echt sch.... ! Kommend von nem 3950x wüßte ich nicht, warum ich Zen 3 kaufen sollte
Wer zwingt dich dazu?

Screemer
2020-10-30, 12:37:16
aha lächerlich. es geht um die nichtverfügbarkeit von ampere und die damit massiv höhere nachfrage nach navi 2. ersteres wird sich noch monate hinziehen und resultiert dann auch in dauerhaft hoher nachfrage für navi2. was da mit den preisen passiert kann sich jeder selber ausrechnen. die situation wie jetzt gab es in den letzten generation niemals.

dargo
2020-10-30, 12:40:37
aha lächerlich. es geht um die nichtverfügbarkeit von ampere und die damit massiv höhere nachfrage nach navi 2.
Dann gibts wenigstens einen der sich freut... AMD.

ChaosTM
2020-10-30, 12:40:51
Lisa und die Jacke sitzen gerade zusammen und schlürfen Schampus - die künstliche Verknappung hat geklappt - jetzt rollt der Rubel eine Weile :D

dargo
2020-10-30, 12:42:03
Lisa und die Jacke sitzen gerade zusammen und schlürfen Schampus - die künstliche Verknappung hat geklappt - jetzt rollt der Rubel eine Weile :D
Blöd nur, dass Lisa und Jäckchen von den saftigen Aufpreisen nichts haben.

nairune
2020-10-30, 12:43:10
Wir sprechen hier von 700€ Grafikkarten... da werden trotz des wahrscheinlich guten Produkts andere Stückzahlen über die Ladentheke gehen als wenn AMD (oder besser noch NVidia) gerade die 300€-Überkarte herausbringen würde.
Warum sollte es nicht möglich sein, eine ausreichende Verfügbarkeit herzustellen? Wenn die Mining-Affen wegbleiben, ging das in der Vergangenheit doch auch oft.

Screemer
2020-10-30, 12:43:15
Dann gibts wenigstens einen der sich freut... AMD.

Das steht doch gar nicht zur Diskussion. Der Ausgangspunkt der Diskussion war "Deppenaufschlag" und ein anschließendes "lächerlich". Imho wird sich der Preis über uvp einpendeln. So war das anfangs auch bei Zen2. Vor März/April nächsten Jahres wurde ich da nicht viel Bewegung erwarten. Tendenziell eher noch später.

ChaosTM
2020-10-30, 12:44:15
Dazu haben sie zu wenig bis keine Karten bisher, jo ..

Grendizer
2020-10-30, 12:44:15
Wäre cool, wenn man bei Mindfactory oder Alternate "vorbestellen" könnte.

Zergra
2020-10-30, 12:47:11
Ne sowas wäre nicht gut, nur das anbieten was da ist. Vorbestellen weckt doch nur Hoffnung.

ChaosTM
2020-10-30, 12:48:35
Wenn AMD wirklich ausreichend 6900er hat zum Lauch, zahlt sich das sicher gut aus. "Unter" 1000 gegenüber 1500 wird viele überzeugen.

add.: angeblich war schon um 14:05 alles gelaufen..

Grendizer
2020-10-30, 12:51:21
Ne sowas wäre nicht gut, nur das anbieten was da ist. Vorbestellen weckt doch nur Hoffnung.

Ja .. aber wenn dann wieder um 14 Uhr die Angebote kommen und um 14:15 alles aus ist doch auch niemanden geholfen. Vor allem wenn man arbeiten muss.

Zergra
2020-10-30, 12:53:19
Ja .. aber wenn dann wieder um 14 Uhr die Angebote kommen und um 14:15 alles aus ist doch auch niemanden geholfen. Vor allem wenn man arbeiten muss.
Sobald die Vorbestellungen aber Online kommen, ist das doch effektiv das gleiche... Du bist wenn du nicht schnell bist, so weit am Ende der Liste das es keine Rolle spielt.

Daredevil
2020-10-30, 12:56:37
Haben wir wieder einen Mining-Boom? Noch sehe ich davon nichts.
Ehehehe, wenn die Karte 1.6TB/s schaufelt, dann haben wir sicherlich einen.

Nochmal als Vergleich.
Aktuell zahlen Menschen bei Ebay 700€+ für eine gebrauchte VII, aufgrund des Speichers, des Speeds oder weil es die schnellste MacPro Karte ist, die Apple selbst nicht anbietet.
Eine RDNA2 Karte mit soviel Speicher und soviel Speed in allen Belangen wird den Wert und somit den Preis einer VII deutlich übersteigen, da sind Preise von 1000€ nicht auszuschließen, selbst für die kleinste Karte.

Und das weiß AMD ganz genau, sonst würden sie nicht so eine Karte auf den Markt werfen. ;)

Schnoesel
2020-10-30, 13:00:53
Auf der AMD Seite kann man sehen welches Spiel mit welcher API und welchem System getestet wurde:

https://www.amd.com/de/gaming/graphics-gaming-benchmarks

Daredevil
2020-10-30, 13:11:38
RDNA hat immer noch nicht so wirklich Bock auf hohe Auflösungen.

gedi
2020-10-30, 13:16:24
RDNA hat immer noch nicht so wirklich Bock auf hohe Auflösungen.

4k?

Daredevil
2020-10-30, 13:19:19
Na im Link von Schnoesel, da bricht RDNA immer noch überproportional ein, das war bei der 5700XT und der VII ja ebenso zu beobachten. Ist ja nicht schlimm, weil es dafür halt effizienter von statten geht, nur wenn man viele Pixel schubsen will, will der Kram anscheinend noch nicht so richtig. ( Also bedeutet, er bricht marginal ein, aber nicht bis zur Unspielbarkeit, nech )

ChaosTM
2020-10-30, 13:21:38
Ist momentan noch schwer zu sagen. Wir brauchen 5k+ Benchmarks um das zu beantworten..

gedi
2020-10-30, 13:23:32
Ich glaube, dass dies weniger an der Auflösung, sondern mehr am IF-Cache liegt. Vielleicht greift hier kein CPU-Bottleneck

ChaosTM
2020-10-30, 13:28:23
Die Tests werden uns schon Aufschluss geben, wo die Achilles-Ferse von Infinity Cache (falls vorhanden) liegt.. Igor ist sicher schon an der Arbeit ^^

Redneck
2020-10-30, 13:28:36
Na im Link von Schnoesel, da bricht RDNA immer noch überproportional ein, das war bei der 5700XT und der VII ja ebenso zu beobachten. Ist ja nicht schlimm, weil es dafür halt effizienter von statten geht, nur wenn man viele Pixel schubsen will, will der Kram anscheinend noch nicht so richtig. ( Also bedeutet, er bricht marginal ein, aber nicht bis zur Unspielbarkeit, nech )

kann man so lesen.. aber auch anders.. z.B. so
von 10 Spielen liegt die 6800XT bei 4 Spielen noch vor der 3090 .. in 4K
und bei etlichen sehr nah dran (wohlgemerkt an der 3090..)

Der_Korken
2020-10-30, 13:29:25
Sicher? Ich dachte die brauchen nur Bandbreite, Speichermenge und TFLOPs sind da doch eher Zweitrangig und da könnte N21 mit dem Cache stark profitieren.

Menge und Bandbreite hat N21 aber eigentlich nicht, denn die 1,6TB/s stehen nur in einem 128MB großen Fenster zur Verfügung. Ich dachte aber, dass Mining-Algorithmen, die noch auf der GPU betrieben werden, sehr viel Random Access über einen mehrere GB großen Bereich haben und man es deswegen nicht vernünftig auf einen ASIC auslagern kann. Sobald es aus dem Cache rausgeht, fällt die Bandbreite auf 1/2 der R7 zusammen. Oder anders gesagt: Wenn ein 128MB großer Cache so krass wäre, hätten die Miner schon längst die Threadripper aufgekauft.

RDNA hat immer noch nicht so wirklich Bock auf hohe Auflösungen.

Was heißt "Bock"? Ich glaube, dass RDNA einfach die alte Frontend-Schwäche von GCN ausgemerzt hat und es nun auch in kleinen Auflösungen gut rennt. Dass Ampere bei 4K so aufholt, liegt einfach an der brachialen ALU-Power, die in kleinen Auflösungen nicht auf die Straße gebracht wird. Also im Prinzip so wie Fiji.

WedgeAntilles
2020-10-30, 13:29:45
Auf der AMD Seite kann man sehen welches Spiel mit welcher API und welchem System getestet wurde:

https://www.amd.com/de/gaming/graphics-gaming-benchmarks

Interessant finde ich:
Speicher
16GB DDR4-3200MHz

Das spielt ja vermutlich keine Rolle für den Vergleich bei der GraKa, aber mich wundert es etwas, dass hier nicht 32GB verwendet werden. CPUs + GPUs im Bereich 500-1000 Euro und dann 16GB Ram?
Und hieß es nicht, dass 3600er Ram Performancetechnisch auch was ausmacht?
Laienfrage: Bei einigen Spielen ist man sicherlich (vor allem bei weniger als 4K) im CPU Limit - hätte man dieses "Problem" mit 3600er Ram nicht etwas reduzieren könnnen?

Screemer
2020-10-30, 13:33:22
mich wundert eher, dass sie nicht die 4000mhz, die zen3 beim speicher machen soll und damit 2ghz infinity-clock hat, genutzt haben. das gibt bei sam bestimmt auch noch mal nen boost.

ja ist oc aber da war sich intel bisher für benches auch z.b. auch nicht zu schade ;)

Zergra
2020-10-30, 13:34:51
Kommen die Tests den am 18.11 ? habe das jetzt gerade nicht im Kopf. Sonst ist es halt wieder:

Tests lesen vs Karte bekommen :D
Am besten erst kaufen und dann lesen.

kabe
2020-10-30, 13:37:21
RDNA hat immer noch nicht so wirklich Bock auf hohe Auflösungen.

Wird nicht gemutmaßt, dass Ampere aufgrund der Architektur eher Probleme in kleineren Auflösungen hat? Wird so nicht ein Schuh draus? :confused:

ChaosTM
2020-10-30, 13:38:29
Interessant finde ich:
Speicher
16GB DDR4-3200MHz

Das spielt ja vermutlich keine Rolle für den Vergleich bei der GraKa, aber mich wundert es etwas, dass hier nicht 32GB verwendet werden. CPUs + GPUs im Bereich 500-1000 Euro und dann 16GB Ram?
Und hieß es nicht, dass 3600er Ram Performancetechnisch auch was ausmacht?
Laienfrage: Bei einigen Spielen ist man sicherlich (vor allem bei weniger als 4K) im CPU Limit - hätte man dieses "Problem" mit 3600er Ram nicht etwas reduzieren könnnen?


Das interessiert mich auch. Ich überlege für den 3er auf 4000er zu wechseln von 3200

Zergra
2020-10-30, 13:41:39
Wird nicht gemutmaßt, dass Ampere aufgrund der Architektur eher Probleme in kleineren Auflösungen hat? Wird so nicht ein Schuh draus? :confused:
Nö das ist ja ganz normal, du rennst bei kleinen Auflösungen eh ins CPU Limit und bekommst die GPU nicht mehr ausgelastet.

TwoBeers
2020-10-30, 13:42:31
Kommen die Tests den am 18.11 ? habe das jetzt gerade nicht im Kopf. Sonst ist es halt wieder:

Tests lesen vs Karte bekommen :D
Am besten erst kaufen und dann lesen.

Das geht mir so ähnlich. Also Tests brauch ich keine mehr, die 6800XT wird es wohl.
Nur welche? Gleich die AMD Referenz (die vom Aufbau her ja so schlecht nicht aussieht, ähnlich Red Devil oder Nitro) oder auf eine Custom mit AiO warten (die dann vielleicht ewig nicht lieferbar sind)?
Was denkt ihr wie teuer eine AiO wird? 799,-?

Poekel
2020-10-30, 13:42:51
Das spielt ja vermutlich keine Rolle für den Vergleich bei der GraKa, aber mich wundert es etwas, dass hier nicht 32GB verwendet werden. CPUs + GPUs im Bereich 500-1000 Euro und dann 16GB Ram?
Wozu mehr RAM, wenn nicht mehr RAM benötigt wird? Die haben Spiele vorgestellt, nicht die neuesten Video- und Bildbearbeitungstool und die Spiele, die mehr als 16 GB RAM nutzen, müsste man doch immer noch an einer Hand aufzählen können.

Linmoum
2020-10-30, 13:43:50
Das ist nicht ganz normal, da Ampere augenscheinlich in niedrigeren Auflösung bzw. hier in WQHD mehr Performance einbüßt, als RDNA2. AMD kann davon aus der Vergangenheit ein Lied singen.

Zergra
2020-10-30, 13:46:37
Das geht mir so ähnlich. Also Tests brauch ich keine mehr, die 6800XT wird es wohl.
Nur welche? Gleich die AMD Referenz (die vom Aufbau her ja so schlecht nicht aussieht, ähnlich Red Devil oder Nitro) oder auf eine Custom mit AiO warten (die dann vielleicht ewig nicht lieferbar sind)?
Was denkt ihr wie teuer eine AiO wird? 799,-?
799€ kannst du bestimmt dafür ansetzten, die meisten Customs werden sich wohl erstmal über 700€ ansiedeln.

Die Referenz ist für eine Custom Wasserkühlung die beste Wahl. So teuer ist das am Ende auch nicht ;)

ChaosTM
2020-10-30, 13:49:36
Wozu mehr RAM, wenn nicht mehr RAM benötigt wird? Die haben Spiele vorgestellt, nicht die neuesten Video- und Bildbearbeitungstool und die Spiele, die mehr als 16 GB RAM nutzen, müsste man doch immer noch an einer Hand aufzählen können.


Für ein reines Spiele Benchmark System reichen 16GB. Alle anderen greifen heutzutage lieber zu 32. Man will ja nicht immer alles andere abschalten..

Schnoesel
2020-10-30, 13:50:26
Interessant finde ich:
Speicher
16GB DDR4-3200MHz



Wichtig auch zu beachten, dass hier alle Karten mit AMD Smart Access Memory enabled gebencht wurden. Hier gibt es im Gegensatz zur Präsentation einige kleine Unterschiede. Manchmal auch gar keinen. Außerdem gibts nun 1440p Benches für alle Karten auf der Seite . z.B.

Für BFV

https://i.postimg.cc/hvJjK4xs/1.png

Da ich hauptsächlich BF spiele :love4:

Daredevil
2020-10-30, 13:50:44
Wird nicht gemutmaßt, dass Ampere aufgrund der Architektur eher Probleme in kleineren Auflösungen hat? Wird so nicht ein Schuh draus? :confused:
Das kann man andersrum natürlich auch sehen, aber im Vergleich zu Turing sinkt die Leistung von RDNA2 ja auch ab.
Aber versteht mich nicht falsch, ich präferiere lieber eine Architektur, die schnell und Effizient in WQHD-UHD arbeitet als eine, die bis UHD ineffizient ist und in 5k,6k oder 8k vorne liegt, aber unterm Schnitt unspielbar ist in den meisten Fällen.

RDNA ist eine Gaming Architektur und die hat natürlich nicht die Wurzeln aus den Vega oder GCN Zeiten, wo viel Compute Leistung vorhanden war und wo viel Pixel hin und herschubsten weniger Probleme macht.
Es ist wichtig und richtig, diese Schwänze abzuschneiden, damit man sich auf das wesentliche fokussiert, das macht RDNA ja ganz offensichtlich und anscheinend mit Erfolg.
Das ich persönlich Bock habe auf 4K+ und mir deswegen dieser Aspekt wichtig ist, ist meine eigene winzige Bubble. :D

PS: Kirschpflücken, der Vergleich Division2 in WQHD und UHD sieht halt übel aus. Turing sollte nicht an die 6800 kommen.
https://abload.de/img/unbenanntbyki4.png

Savay
2020-10-30, 13:54:05
Also im Prinzip so wie Fiji.

Merke:
Alles was an Fiji und Vega "schlecht" war, ist an Ampere jetzt "gut".
Ist ja schließlich von nV und nicht von AMD! Dann wird halt auch gleich mal ne 4K Schwäche draus gebastelt die "übel" aussieht obwohl alles in eben genau der Auflösung mit mindestens 60FPS lief und genauso schnell wie die quasi Gegenparts mit der doch eher etwas dürftigen VRAM Ausstattung für eben diese Auflösung. :rolleyes:

BTW. Ich kann als "4K" Zielgruppe mit ausschließlich "4K" Panels noch kein wirkliches Problem erkennen bei der sich bislang abzeichnenden Rasterperformance!

basix
2020-10-30, 13:56:22
Mir kam noch eine Idee zu AMDs Super Resolution, welches laut Herkelman nur(?) für RT Games kommen soll:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12479933#post12479933

Ich habe das mal am Beispiel von Control durchgespielt, da hier RT heftig auf die Performance drückt:

Performance 1440p @ RT = 60% 1440p ohne RT -> -40%
RT Auflösung 1080p vs. 1440p -> + 50...60% Performance Uplift -> ~1.5x
-40% / 1.5 = -27%
100% - 27% = 73%
73% / 60% = ~1.2x mehr RT Performance verglichen zu Nvidia -> "RT Schwäche" egalisiert

Wäre aus meiner Sicht etwas, was AMD tun sollte ;) Offene Frage bleibt, wie viel Performance Super Resolution kostet. DLSS 2.0 ist ja nicht gratis. Da AMDs letzte FidelityFX Effekte wie CAS auf möglichst Null Performance Hit optimiert waren, z.B. über die Ausnutzung von Async Compute, könnte es relativ effizient sein (und es soll ja auch auf Konsolen gut laufen).

Schnoesel
2020-10-30, 13:56:32
1440p Benches sehen halt nochmal besser aus als die 4K Benches. Da hat sich AMD noch vornehm zurückgehalten bei der Präsentation und tatsächlich hauptsächlich 4k Benches gezeigt obwohl sie in 1440p stärker performen. Das wird auch für viele die Zielauflösung sein.

Daredevil
2020-10-30, 13:58:56
Gut, ganz offensichtlich könnte diese SAM Geschichte da auch rein greifen, indem es CPU Performance pusht, deswegen die echt guten WQHD Werte.
Mal sehen, wie es ohne diesen Gedöns ausschaut. :)

Zergra
2020-10-30, 13:59:50
AMD präsentiert die Karte ja auch als 4K Karte, 1440p Benches schau ich mir eh nicht mehr an.

Iscaran
2020-10-30, 14:01:04
Auf der AMD Seite kann man sehen welches Spiel mit welcher API und welchem System getestet wurde:

https://www.amd.com/de/gaming/graphics-gaming-benchmarks
Holy Shit, AMD hat die Benchmarks nun detailliert veröffentlicht...
die 6800 XT mit SAM ist praktisch auf RTX 3090 Niveau in den Tests.

die 6900 XT mit SAM ist praktisch fast immer 10% schneller. Und die 6900 XT ist ja "noch" mit TBP = 300 W vs 350 W bei der 3090.

Und beim RAM ist auch noch Luft nach oben :-)

Außerdem sieht man dass in 2560 @6900XT in Battlefield ins "CPU"/Engine-Limit läuft

Schnoesel
2020-10-30, 14:02:37
Gut, ganz offensichtlich könnte diese SAM Geschichte da auch rein greifen, indem es CPU Performance pusht, deswegen die echt guten WQHD Werte.
Mal sehen, wie es ohne diesen Gedöns ausschaut. :)


Musst ja nur vergleichen. Bei der Präsentation wars in 1440p bei der 6800XT noch aus.

https://i.postimg.cc/Nf93k2Bb/1.png

Manchmal gibts keine Unterschiede.

BigBangBacket
2020-10-30, 14:03:50
€ Habs selber herausgefunden

Screemer
2020-10-30, 14:11:45
Mir kam noch eine Idee zu AMDs Super Resolution, welches laut Herkelman nur(?) für RT Games kommen soll:

Er hat zwar erwähnt, dass sr vor allem bei RT Games einen boost geben soll. Daraus aber abzuleiten, dass es nur für RT kommen soll halte ich für sehr gewagt. Grad weil RT Effekte selbst gar nicht von ai upscaling in der jetzigen Form profitieren. Der Raster-Part aber schon.

basix
2020-10-30, 14:15:27
Er hat zwar erwähnt, dass sr vor allem bei RT Games einen boost geben soll. Daraus aber abzuleiten, dass es nur für RT kommen soll halte ich für sehr gewagt. Grad weil RT Effekte selbst gar nicht von ai upscaling in der jetzigen Form profitieren. Der Raster-Part aber schon.

Spielt ja keine Rolle ob nur oder hauptsächlich: Die Grundidee ist einfach, dass bei Einsatz von Super Resolution die RT Effekte stärker nach unten skaliert werden als der Rest, damit der Anteil der RT Last geringer wird. Und dass AMD ebengenau auf diesen Fall optimieren könnte. DLSS 2.0 ist hier viel genereller aufgestellt, ohne solche spezifische Optimierung.

Dalai-lamer
2020-10-30, 14:20:59
Holy Shit, AMD hat die Benchmarks nun detailliert veröffentlicht...
die 6800 XT mit SAM ist praktisch auf RTX 3090 Niveau in den Tests.

die 6900 XT mit SAM ist praktisch fast immer 10% schneller. Und die 6900 XT ist ja "noch" mit TBP = 300 W vs 350 W bei der 3090.

Und beim RAM ist auch noch Luft nach oben :-)

Außerdem sieht man dass in 2560 @6900XT in Battlefield ins "CPU"/Engine-Limit läuft

Wo sind die Werte mit SAM?

dargo
2020-10-30, 14:21:36
RDNA hat immer noch nicht so wirklich Bock auf hohe Auflösungen.
Aus besserer Leistung mit weniger Pixeln wird jetzt schlechte Leistung mit vielen Pixeln? :freak:

Zossel
2020-10-30, 14:27:35
Die Schatten sind schärfer und satter.
Für Gesamtbild macht das schon einen Unterschied - auch wenn es in der Detailbetrachtung nicht nach viel aussieht.

Und bei anderen Demos wird gemäkelt das die RT-Effekte viel zu überzogen sind.

Selbst beim Übergang von Mono zu Stereo Aufnahmen hat es ein paar Jahre gedauert bis die man das Abmischen in Stereo richtig drauf hatte. Kein Mensch mischt heute das Stereobild so ab wie zum Beispiel auf den ersten Platten von Jimi Hendrix.

Schnoesel
2020-10-30, 14:28:54
Ist eben die Frage: Hat Ampere eine Schwäche bei niedrigeren Auflösungen als 4K, hat BN eine Schwäche bei höheren Auflösung ab 4K(+), hat Ampere eine Stärke bei höheren Auflösung ab 4K(+), hat BN eine Stärke bei niedrigeren Auflösungen als 4K.

da darf sich jetzt jeder raussuchen was ihm gefällt.

dargo
2020-10-30, 14:34:44
Auf der AMD Seite kann man sehen welches Spiel mit welcher API und welchem System getestet wurde:

https://www.amd.com/de/gaming/graphics-gaming-benchmarks
Echt witzig. In BFV und FH4 @1440p macht selbst die RX6800 die RTX 3090 noch nass. :tongue: Finale Treiber scheinen das ja auch noch nicht zu sein.

Savay
2020-10-30, 14:35:20
Und bald finden wir bestimmt auch wieder raus das unterschiedliche Architekturen mit unterschiedlichen Lasten aka Games einfach doch gerne auch mal recht unterschiedlich skalieren. :whistle:

Wenn ich mir da BFV auf der AMD Seite cherrypi...äh angucke...oh weh, oh weh, oh weh. :|

Ravenhearth
2020-10-30, 14:37:28
Auf der AMD Seite kann man sehen welches Spiel mit welcher API und welchem System getestet wurde:

https://www.amd.com/de/gaming/graphics-gaming-benchmarks
Da kann man auch FPS/$ einstellen und die 6800XT liefert immer mehr als die 6800 uff. Letztere ist eindeutig etwas zu teuer. Für einen ungefähren Gleichstand müsste sie $549 kosten.

Ist eben die Frage: Hat Ampere eine Schwäche bei niedrigeren Auflösungen als 4K, hat BN eine Schwäche bei höheren Auflösung ab 4K(+), hat Ampere eine Stärke bei höheren Auflösung ab 4K(+), hat BN eine Stärke bei niedrigeren Auflösungen als 4K.

da darf sich jetzt jeder raussuchen was ihm gefällt.
Ampere hat eine Schwäche bei niedrigeren Auflösungen, auch im Vergleich zu Turing: https://www.youtube.com/watch?v=c7npXXyXJzI

Savay
2020-10-30, 14:39:06
Glaube die hat theoretisch einfach etwas preislichen Spielraum eingebaut für einen etwaigen GA104 mit 16GiB.
Nach unten korrigieren geht ggf. immer noch wenn der erste Ansturm sich erstmal gelegt hat und man die ganzen Early Adopter abgegriffen hat.

Noebbie
2020-10-30, 14:39:44
Da kann man auch FPS/$ einstellen und die 6800XT liefert immer mehr als die 6800 uff. Letztere ist eindeutig etwas zu teuer. Für einen ungefähren Gleichstand müsste sie $549 kosten.

Das wäre kurz vor meiner Schmerzgrenze. Bei 499 wäre ich vielleicht dabei! :crazy:

dargo
2020-10-30, 14:40:27
Ist eben die Frage: Hat Ampere eine Schwäche bei niedrigeren Auflösungen als 4K, hat BN eine Schwäche bei höheren Auflösung ab 4K(+), hat Ampere eine Stärke bei höheren Auflösung ab 4K(+), hat BN eine Stärke bei niedrigeren Auflösungen als 4K.

da darf sich jetzt jeder raussuchen was ihm gefällt.
Ich finde die Argumente einfach putzig. :tongue: Vor paar Jahren kamen die AMD-Karten in 1080p-1440p eher schlechter gegenüber der Konkurrenz weg weil sie hohe Pixellast brauchten um einigermaßen ausgelastet zu werden. Jetzt soll AMD eine Schwäche bei hohen Auflösungen haben weil sie in niedrigeren Auflösungen sehr gut performen. :usweet:

Nazar
2020-10-30, 14:44:08
Gut, ganz offensichtlich könnte diese SAM Geschichte da auch rein greifen, indem es CPU Performance pusht, deswegen die echt guten WQHD Werte.
Mal sehen, wie es ohne diesen Gedöns ausschaut. :)

Ok, kannst du deine Selbstgespräche in irgend eine Form bringen, dass andere im Forum davon partizipieren können? :freak:
Schau dir bitte die Benchmarks an und sage dann, mit Beispielen, worauf du hinaus willst.
So wie du das bisher abziehst, kann man sich nicht verkneifen, dass das hier wirkt wie "Da "heult" jemand, weil ein anderer ein besseres Spielzeug bekommen hat und nun seines, mit dem er vorher so angegeben hat, irgendwie billig wirkt."
Bitte einfach nachvollziehbare Kritik üben, ansonsten wirkt das alles sehr verzweifelt (selbst wenn es das gar nicht sein muss ;)).

@Thema
Beim Dirt Video mit den RT Effekten musste ich auf Standbilder zurückgreifen, ähnlich wie schon in anderen Spielen, um einen Unterschied erkennen zu können. Ja, er ist dann sichtbar (besonders am Nummernschild) aber eben nicht ein "omg... was für eine krasse Verbesserung.", sondern eher ein "Oh, ja, jetzt wo du es sagst, sehe ich es auch." Effekt. Eigentlich wie gehabt.
Man kann sehr gut sehen, dass diese Form von RT selbst nächstes Jahr nicht für offen Münder gegenüber den "altbekannten" Effekten sorgen wird.
Bei der "Feuergolem Demo", während der AMD Präzi, war der Effekt deutlich sichtbar. Ich glaube aber auch, dass solche RT Effekte, die dann sehr geil aussehen, in Spielen immer noch viel zu viel Leistung kosten werden.
AMD hat alles richtig gemacht und eine GPU für Spieler rausgebracht und keine Hybride wie bei nV.
Mich würde ernsthaft interessieren, wie eine nV GPU ohne diesen ganzen RT "Kack" auf dem Chip dastehen würde!?

basix
2020-10-30, 14:45:07
Da kann man auch FPS/$ einstellen und die 6800XT liefert immer mehr als die 6800 uff. Letztere ist eindeutig etwas zu teuer. Für einen ungefähren Gleichstand müsste sie $549 kosten.

Oder AMD verkauft die 6800 XT unter dem Wert aufgrund der 3080 ;) Bang for the Buck Image pflegen, günstiger und schneller als direkte Konkurrenz sein (ohne RT + DLSS), mehr Speicher bieten. Viel besser kann man sein Produkt nicht vermarkten.

Zossel
2020-10-30, 14:57:05
Ampere hat eine Schwäche bei niedrigeren Auflösungen, auch im Vergleich zu Turing: https://www.youtube.com/watch?v=c7npXXyXJzI

Sehr geil, dann hört endlich das testen in 240p Auflösung auf.

why_me
2020-10-30, 14:58:47
Sehr geil, dann hört endlich das testen in 240p Auflösung auf.

Dafür gibts doch jetzt DLSS ;D;D;D

Iscaran
2020-10-30, 14:59:14
Wo sind die Werte mit SAM?
https://www.amd.com/de/gaming/graphics-gaming-benchmarks
Auf der Homepage sind ALLE Messwerte immer mit SAM.

Anders als im Release Youtubevideo !

HOT
2020-10-30, 15:04:14
Oder AMD verkauft die 6800 XT unter dem Wert aufgrund der 3080 ;) Bang for the Buck Image pflegen, günstiger und schneller als direkte Konkurrenz sein (ohne RT + DLSS), mehr Speicher bieten. Viel besser kann man sein Produkt nicht vermarkten.
Nope, die verkaufen die 6800 über Wert, weil sie schlichtweg nicht soviele Chips haben, um damit <500$ zu füttern.


@SAM
Ich bin da bei Buildzoid, die Kritik an SAM ist albern. Es war doch immer nur ne Frage der Zeit, bis AMD selbst mal die eigene Plattformsynergie ausnutzen würde. Intel wird das ebenfalls tun und NV würde das tun, wenn NV das könnte (gibts vielleicht was ähnliches per Treiber noch). Das jetzt AMD vorzuwerfen, dass sie eine Optimierung für eigene Systeme haben, würden die gleichen Leute nicht tun, wenn es sich hier um NV-Technik handeln würde. Es ist doch kein Nachteil für Intel-Systeme sondern ein Vorteil für AMD-Systeme - und NV hat damit gar nichts zu tun. Die müssen halt selber sehen, dass deren Produkte auf den vorhandenen Plattformen optimal laufen.

dargo
2020-10-30, 15:05:51
Naja... <500$ wäre auch übertrieben. 529$-549$ würden der Karte aber besser stehen.

Zergra
2020-10-30, 15:06:47
Naja... <500$ wäre auch übertrieben. 529$-549$ würden der Karte aber besser stehen.

Wenn die Verfügbarkeit passt, dürfte man den Preis auch in 2-3 Monaten sehen.

basix
2020-10-30, 15:07:24
SAM zu verwenden ist grundsätzlich legitim. Reviews werden eh mit und ohne SAM geliefert werden oder es wird noch mit Intel gebencht. Und wenn SAM noch für alle andere AMD CPUs käme (evtl. halt nur 500er Boards aufgrund 64b BAR Support), wäre alles in Butter von Seiten AMD. Intel wird etwas ähnliches aber nur schwerlich selbst in den AMD Treiber einbauen können ;)

Nvidia könnte SAM auch implementieren, aber ich weiss nicht ob es hier noch von Seiten CPU etwas spezifisches benötigt wo Nvidia mit AMD/Intel daran arbeiten müsste. Intel + Nvidia könnten das aber machen. Da Intel aber eigene GPUs bringen will: Eher nein.

EinName
2020-10-30, 15:10:00
Nö das ist ja ganz normal, du rennst bei kleinen Auflösungen eh ins CPU Limit und bekommst die GPU nicht mehr ausgelastet.

Ist bei Ampere in 50% der Games aber nicht der Fall. Da gibt es mitlerweile stapelweise Auswertungen auf Youtube, die genau zeigen, dass Ampere da limitiert obwohl die CPU noch Luft hat. 3080/3090 sind für 4k gebaut, darunter fehlt irgendwas am Front- oder Backend um in allen Games die hohen FPS zu pushen. BN scheint hier normal zu funktionieren.

Lehdro
2020-10-30, 15:11:26
Ist bei Ampere in 50% der Games aber nicht der Fall. Da gibt es mitlerweile stapelweise Auswertungen auf Youtube, die genau zeigen, dass Ampere da limitiert obwohl die CPU noch Luft hat. 3080/3090 sind für 4k gebaut, darunter fehlt irgendwas am Front- oder Backend um in allen Games die hohen FPS zu pushen.
Klingt irgendwie gewaltig nach GCN....mächtige Rechenwerke aber zu kleines Frontend für 1080p.

HOT
2020-10-30, 15:11:56
Wenn die Verfügbarkeit passt, dürfte man den Preis auch in 2-3 Monaten sehen.
Exakt.

EinName
Das wird auch so sein, jo.

dargo
2020-10-30, 15:18:24
Wenn die Verfügbarkeit passt, dürfte man den Preis auch in 2-3 Monaten sehen.
Das meine ich nicht. Ich meine in Bezug auf den Preisunterschied zur RX 6800XT. Wenn es ganz blöd läuft (Entwicklung der Straßenpreise) dann wird die RX 6800 völlig unattraktiv beim Preis wie die RX 5700 vs. RX 5700XT.

Grendizer
2020-10-30, 15:20:14
Bin da auch gerade zwiegespalten .... ich habe einen 4K 60 fps Monitor. Für den wäre eine 6800 mit Freesync eigentlich perfekt von den fps .Eine 6800 produziert dann fps, die ich eh nicht mehr syncen kann, außer in RT .... und das was dann in evtl. 2-3 Jahren kommt.

Wäre die Karte für 529-549 am Start, würde ich mich glaube ich eher für die 6800 entscheiden...

basix
2020-10-30, 15:34:43
Grad weil RT Effekte selbst gar nicht von ai upscaling in der jetzigen Form profitieren. Der Raster-Part aber schon.

Und was ist mit Super Resolution und allenfalls DLSS 3.0 ;) Wäre ich AMD oder Nvidia und wüsste, dass dies technisch irgendwie klappen sollte und auch von Seiten Spieleentwickler gangbar ist, würde ich hier sehr stark Forschung betreiben.

Iscaran
2020-10-30, 15:47:17
Und was ist mit Super Resolution und allenfalls DLSS 3.0 ;)

Und was soll DLSS 3.0 sein ?

"Wir generieren jetzt Bilder auch OHNE vorherigen Input"...d.h. sie können eine beliebige Auflösung wählen und darin spielen. Sie brauchen überhaupt keine GPU mehr."

Einzige Vorraussetzung: Internetanschluss um den Stream durchzuleiten :-).

Oh wait - das gibts ja auch schon ?

WedgeAntilles
2020-10-30, 15:50:31
Naja... <500$ wäre auch übertrieben. 529$-549$ würden der Karte aber besser stehen.
530 Euro wäre IMO ein perfekter Preis für die 6800.

Die 6800XT ist ein super Deal.
Wenn das jemand mit der 3080 vergleicht sieht er:
Günstiger als Nvidia
Deutlich mehr Speicher

Auch mit einem Nvidia-Bonus (so wie ich ihn habe), ist da die 6800XT die klar bessere Wahl.


Bei der 6800 vs der 3070 kann man den Mehpreis natürlich verteidigen.
Mehr Ram, hat auch mehr Leistung als die 3070.
Aber unterm Strich sieht der eher uninformierte Kunde halt auch einen doch sehr merklichen Aufpreis zu Nvidia - immerhin 80 Euro mehr, über 15%. Dazu das ominöse DLSS und ggf. RT.
Wie gesagt, der Preisunterschied ist erklärbar - aber greift da dann nicht doch eine große Masse zur bekannten Nvidia-Marke?
Mich persönlich spricht die 6800 deutlich mehr an. Die 3070 hat für mich einfach zu wenig Ram. Da ist die 6800 schlicht das bessere Produkt.
Aber denkt so die Mehrheit?

Klar, falls die 3070 auch nicht lieferbar ist hat sich das erledigt *g*


Aber bei dem Preisunterschied von gerade mal 70 Euro hat man schon das Gefühl, dass AMD die 6800 gar nicht verkaufen will sondern gleich die 6800XT.
Nur ist man dann halt doch bei 650 Euro.
Ja, für die gebotene Leistung ist das ein Hammerpreis - aber es bleibt halt eine Menge Geld.
500 Euro ist denke ich schon für einige eine psychologische Grenze.
Da wäre man mit 530 Euro nur ganz knapp drüber - 580 oder gar 650 ist dann halt schlicht "zu viel" für einige.

Andererseits lässt sich über die Preise noch nichts endgültiges sagen, wir kennen ja das ganze Portfolio noch nicht.
Da kommt ja noch der Low / Midrangebereich.
Und wenn man da attraktive Karten im Bereich 400 hat, ist die 6800 vielleicht einfach "egal" - wer weniger Geld ausgeben will nimmt die Karten im Bereich 200-400 Euro.
Und wer viel Leistung will nimmt die 6800XT.
Die 6800 ist dann nur so eine Art Lückenfüller, damit die Differenz zwischen dem 400 Euro Produkt und der 6800XT nicht so groß ist.

Das kann natürlich sehr gut sein.

So alleine ist die Preisgestaltung etwas merkwürdig.
6800XT sau günstig
6800 dafür etwas zu teuer.

Ich bin sehr auf die Entwicklung der Preise und der Verfügbarkeiten gespannt.

maximus_hertus
2020-10-30, 15:57:38
Nur nochmal fürs Protokoll: weitere RDNA2 Karten kommen erst 2021? Gibt es da schon konkretere Termine oder nur ein "irgendwann 2021" bzw. "müsste eher Anfang 21 sein"?

Hakim
2020-10-30, 16:01:46
Die 6800 hat derzeit keinen nv konter mMn, 3070 in der Form ist etwas zu schwach, daher auch die Gerüchte über den ga102 mit 70% chipausbau vermutlich

basix
2020-10-30, 16:02:42
Nope, die verkaufen die 6800 über Wert, weil sie schlichtweg nicht soviele Chips haben, um damit <500$ zu füttern.

Der Chip ist zwischen 500-580mm2 gross in 7nm. Dazu 16 GB GDDR6, ein PCB + Elektronik für 250W und ein guter Kühler. Und du kommst mit nicht genügend Chips für <500$? Marge ist das Stichwort. Bei weniger wird einfach die Marge für AMD anscheinend zu gering. Eine 6800 XT kostet 70$ mehr, wird gleichzeitig aber auch +70$ Marge abwerfen (für alle in der Vertriebskette). Deswegen geht das. Und die 6800 XT ist nur wegen der 3080 nicht höher bepreist. Wäre die 3080 799$, wäre auch AMDs Karte teurer.

Und über Wert finde ich gar nicht. Die Karte ist in etwa 1.7x so schnell wie eine 5700 XT. 1.7*379$ MSRP = 644$. Somit ist Perf/$ besser (ja nicht extrem viel), bekommt doppelten Speicher und all die Features wie RT und DX12U oben drauf. Auch im Vergleich zur 3070 unnd 3080 stimmt es: In etwa identische Perf/$, dafür 16 GB anstatt 8/10 GB. Der Preis ist somit dem Markt angepasst und verglichen mit dem Hochpreisausflug von Turing mehr als angemessen. Die 6800 ist also "normal" bepreist ohne die Marge zu kastrieren, die 6800 XT bietet mehr Marge und kann dafür im Verhältnis etwas günstiger angeboten werden, um Nvidia die Käufer abzugraben (Gewinn von Marktanteilen).

Und was soll DLSS 3.0 sein ?

"Wir generieren jetzt Bilder auch OHNE vorherigen Input"...d.h. sie können eine beliebige Auflösung wählen und darin spielen. Sie brauchen überhaupt keine GPU mehr."

Einzige Vorraussetzung: Internetanschluss um den Stream durchzuleiten :-).

Oh wait - das gibts ja auch schon ?
Man kann auch alles arg überspitzt formulieren ;) DLSS 3.0 wird einfach eine verbesserte Version von DLSS 2.0 sein. Und das hier zum Teil enorme Fortschritte erzielbar sind hat ja DLSS 2.0 vs. 1.0 schon gezeigt. Und einer der Hauptperformancekiller wird in Zukunft RT sein. Wieso also hier nicht vermehrt und besonders viel Hirnschmalz reinstecken und RT Upsampling optimieren?

dargo
2020-10-30, 16:15:44
Mir war gerade langweilig. :freak:

RX 6800XT vs. RX 6800 @4k (eigene AMD-Messungen)
BFV = +15,30%
B3 = +19,93%
CoD: MW = +17,60%
TD2 = +19,37%
Doom E. = +17,39%
FH4 = +14,60%
Gears 5 = +17,50%
RE3 = +15,79%
SotTR = +16,51%
WY = +20,52%

Im Schnitt der 10 getesteten Games ergibt das +17,45%. Kein so schlechter Deal für +20% Verbrauch.

mboeller
2020-10-30, 16:30:20
Mir war gerade langweilig. :freak:

snip

Im Schnitt der 10 getesteten Games ergibt das +17,45%. Kein so schlechter Deal für +20% Verbrauch.


... und kein Bandbreitenlimit gegenüber der 6800!

Zergra
2020-10-30, 16:31:25
Mir war gerade langweilig. :freak:

RX 6800XT vs. RX 6800 @4k (eigene AMD-Messungen)
BFV = +15,30%
B3 = +19,93%
CoD: MW = +17,60%
TD2 = +19,37%
Doom E. = +17,39%
FH4 = +14,60%
Gears 5 = +17,50%
RE3 = +15,79%
SotTR = +16,51%
WY = +20,52%

Im Schnitt der 10 getesteten Games ergibt das +17,45%. Kein so schlechter Deal für +20% Verbrauch.

Wo bleibt die 6900XT ? :D

dargo
2020-10-30, 16:36:07
Wo bleibt die 6900XT ? :D
Noch besserer Deal bei Perf/W, P/L-mäßig dann aber Mist. ;)

KodeX
2020-10-30, 16:36:15
Ich habe mir die Mühe gemacht und die AMD-Benchmarks zusammengefasst:

Platos
2020-10-30, 16:38:58
Blöderweise ohne Kennzeichnung, wo SAM benutzt wurde etc. :wink:

ianm
2020-10-30, 16:39:06
Ich habe mir die Mühe gemacht und die AMD-Benchmarks zusammengefasst:
Danke, die 6800XT ist für 1440p Nutzer wie mich eine tolle Option.

basix
2020-10-30, 16:41:51
Blöderweise ohne Kennzeichnung, wo SAM benutzt wurde etc. :wink:

Bei allen 6000er Karten und allen Benches ;)

Redneck
2020-10-30, 16:42:09
Ich habe mir die Mühe gemacht und die AMD-Benchmarks zusammengefasst:

Danke schön...
wenn man bedenkt, das 3070 = 2080TI ist , sieht man überdeutlich wie die
Ihre Daseinsberechtigung bei Gamern verloren hat. Die wird von der 6800 komplett geplättet.

dargo
2020-10-30, 16:42:45
Danke, die 6800XT ist für 1440p Nutzer wie mich eine tolle Option.
Für mich schon fast zu schnell. :freak: Rein theoretisch müsste sich die RX 6800XT auf 250-260W undervolten lassen ohne Performance zu verlieren wenn ich das platt auf Navi10 übertrage. Hmm... :uponder: Mal die ersten UV-Versuche abwarten.

ianm
2020-10-30, 16:46:04
Für mich schon fast zu schnell. :freak: Rein theoretisch müsste sich die RX 6800XT auf 250-260W undervolten lassen ohne Performance zu verlieren wenn ich das platt auf Navi10 übertrage. Hmm... :uponder: Mal die ersten UV-Versuche abwarten.
Das ist der Plan. :) Soll ja auch eine Weile ausreichen.

Zergra
2020-10-30, 16:46:25
Die wird von der 6800 komplett geplättet.

Und trotzdem bin ich mir sicher das sie aufgrund dessen, das sie eine NV Karte ist bei MF öfter verkauft wird als vergleichbare AMD Karten.

KodeX
2020-10-30, 16:48:25
Das sind halt nur Hersteller-eigene Benchmarks. Aber konkurrenzfähig sind die neuen Grafikkarten gewiss.

dargo
2020-10-30, 16:49:28
Und trotzdem bin ich mir sicher das sie aufgrund dessen, das sie eine NV Karte ist bei MF öfter verkauft wird als vergleichbare AMD Karten.
MF hat nicht mal GA102 gelistet. Und bei GA104 sieht es momentan auch nicht anders aus. :freak:

anorakker
2020-10-30, 16:49:50
Danke schön...
wenn man bedenkt, das 3070 = 2080TI ist , sieht man überdeutlich wie die
Ihre Daseinsberechtigung bei Gamern verloren hat. Die wird von der 6800 komplett geplättet.

Zeigt wie verbogen die Wahrnehmung ist, die 2080ti ist und bleibt ne wahnsinnig schnell Karte für aktuelle und kommende Titel, wir werden gerade mit Leistung beworfen die eigentlich niemand, ausser Enhusiasten, braucht - es sei denn jemand schaltet dieses recht unsichtbare RTX an.

basix
2020-10-30, 16:50:47
So wie ich das sehe werden die 6900 XT und 6800 XT mit SAM einen Ticken schneller als ihre Counterparts sein und ohne SAM einen Ticken langsamer. Und die 6800 wird +10% schneller als die 3070 sein und mit SAM gleich +15%.

Well done AMD. Beide IHVs gehen ans Limit und duellieren sich auf Augenhöhe :D

Edit:
@ 4K, bei WQHD werden die AMD Karten auch ohne SAM schneller sein.

Locuza
2020-10-30, 16:54:32
Kenn ich, halte ich aber ehrlich gesagt für ausgedacht auf der Basis was man für einen noch kleineren Chip in etwa erwarten könnte.
[...]

Du dürftest aber damit Recht haben, dass der IC mit der Anzahl der CUs bzw. der Größe des Speicherinterfaces skaliert wird. Wobei ich fast sogar letzteres vermuten würde, was bei Navi 22 dann evtl. 48 oder 96 MB bedeuten würde und nicht 64 MB und über 12 IFs angebunden statt über 16 wie bei Navi 21.

Ja, aber jemand der gut bei Nvidia informiert ist muss ja nicht zwangsläufig auch gute Kontakte bei AMD haben. ;)

Mir fällt es einfach schwer zu glauben, dass AMD die Daten von Navi 21-23 so lange vor den Leakern zurückhalten konnte und nun plötzlich ein einziger Leaker fast ein Jahr vor Release die Daten zu Navi 24 (der ja bisher nicht in den Treibern enthalten ist) weiß?
Findest du das nicht auch etwas seltsam?
Ich fasse seine Aussage nicht als Spekulation auf und habe da persönlich wenig Zweifel.
Navi24 liegt vermutlich auch nicht sehr weit entfernt.
Garantiert muss man das natürlich nicht auffassen.

Und du hast natürlich Recht, beim N22 wären es dann entsprechend 48/96MB L3$.



Schön dich wieder hier zu sehen. Trotz Infinity Cache passen die spekulierten SIs nicht ganz zusammen.
Von N21 zu N22 CUs*0,5 und SI*0,75, von N22 zu N24 CUs*0,6 und SI*0,33.
Und dann noch dieser merkwürdige N23.... mal sehen was sich AMD da gedacht hat.
[...]
Ich habe nur kurz vorbei geschaut, denn ich bin jetzt auch wieder weg, denn die dämlichen Videos machen sich leider nicht von alleine und ich habe zuviel Spaß daran, zumindest bis zum Videoschnitt. :freak:

Wie du ausgeführt hast, es könnte Sinn ergeben N22 mit 48MB zu bestücken und N23 mit 64MB, da Ersterer deutlich mehr Roh-Bandbreite bietet.
Allerdings wäre Navi23 mit 32 CUs dann wohl auch ziemlich nah an Navi22 mit 40 CUs, möglicherweise wird auf 32MB beschnitten?
Mal sehen, aber rein vom Bauchgefühl würde ich jetzt einen L3$ bei allen GPUs erwarten.

Ich habe gerade den beschrifteten Navi21 die-shot von Locuza gesehen.

Hat Navi21 echt nur 8 PCIe4 Lanes?
Dann könnte man die anderen 8 PCIe4 Lanes vom Ryzen schön noch für SSDs nutzen... wenn das Mainboard die Aufteilung zulässt.
Der I/O-Bereich ist zu großen teilen simples Copy&Paste von einem vorherigen Navi14 Diagramm:
https://twitter.com/Locuza_/status/1321619790138642432

Die GPU hat höchstwahrscheinlich 16x PCIe4.0 Lanes.

ChaosTM
2020-10-30, 16:55:12
Echt schade dass NV keine 16/20er im Angebot hat. Dann hätte ich wirklich die Qual der Wahl.

Schnoesel
2020-10-30, 16:56:41
SAM und ohne SAM

BFV @ 1440p ohne SAM BFV @ 1440p mit SAM FPS %
198 FPS 199 FPS 1 0.5
Borderlands 3 @ 1440p ohne SAM Borderlands 3 @ 1440p mit SAM
111 FPS 119 FPS 8 7
COD Modern Warfare @ 1440p ohne SAM COD Modern Warfare @ 1440p mit SAM
148 FPS 146 FPS -2 -1,3
Division 2 @ 1440p ohne SAM Division 2 @ 1440p mit SAM
135 FPS 138 FPS 3 2
Doom Eternal @ 1440p ohne SAM Doom Eternal @ 1440p mit SAM
216 FPS 216 FPS 0 0
Forza Horizon 4 @ 1440p ohne SAM Forza Horizon 4 @ 1440p mit SAM
201 FPS 230 FPS 29 14
Gears of War 5 @ 1440p ohne SAM Gears of War 5 @ 1440p mit SAM
132 FPS 142 FPS 10 7.5
Resident Evil 3 @ 1440p ohne SAM Resident Evil 3 @ 1440p mit SAM
225 FPS 229 FPS 5 1.7
SOTR @ 1440p ohne SAM SOTR @ 1440p mit SAM
155 FPS 154 FPS 1 -0.6
Wolfenstein YB @ 1440p ohne SAM Wolfenstein YB @ 1440p mit SAM
253 FPS 254 FPS 1 0.3

dargo
2020-10-30, 16:58:24
Das ist der Plan. :) Soll ja auch eine Weile ausreichen.
Mir geht trotzdem die RX6800 bei P/L nicht aus dem Kopf. :freak:

Mal angenommen die RX 6800XT hat bei 255W TGP 300W Gesamtverbrauch. Die RX 6800 hat dann bei 203W TGP 250W Gesamtverbrauch. Wenn ich jetzt mein Navi10 UV auf N21 übertrage bedeutet das bei der RX 6800XT 213W TGP und ca. 250W Gesamtverbrauch. Da kann ich aber auch einfach das PT bei der RX 6800 auf 213W erhöhen und gleichzeitig UV betreiben. Am Ende ist die RX 6800 bei gleichen Verbrauch nur noch ~10% (grobe Schätzung) von der RX6800XT entfernt und 70€ gespart. :D Die Entscheidung wäre echt einfacher für die RX 6800 bei 529-549€. ;)

Echt schade dass NV keine 16/20er im Angebot hat. Dann hätte ich wirklich die Qual der Wahl.
Bei der Verfügbarkeit von Nvidia? :freak: Ich sehe da irgendwie bis 2021 keine nennenswerte Verbesserung.

SAM und ohne SAM

BFV @ 1440p ohne SAM BFV @ 1440p mit SAM FPS %
198 FPS 199 FPS 1 0.5
Borderlands 3 @ 1440p ohne SAM Borderlands 3 @ 1440p mit SAM
111 FPS 119 FPS 8 7
COD Modern Warfare @ 1440p ohne SAM COD Modern Warfare @ 1440p mit SAM
148 FPS 146 FPS -2 -1,3
Division 2 @ 1440p ohne SAM Division 2 @ 1440p mit SAM
135 FPS 138 FPS 3 2
Doom Eternal @ 1440p ohne SAM Doom Eternal @ 1440p mit SAM
216 FPS 216 FPS 0 0
Forza Horizon 4 @ 1440p ohne SAM Forza Horizon 4 @ 1440p mit SAM
201 FPS 230 FPS 29 14
Gears of War 5 @ 1440p ohne SAM Gears of War 5 @ 1440p mit SAM
132 FPS 142 FPS 10 7.5
Resident Evil 3 @ 1440p ohne SAM Resident Evil 3 @ 1440p mit SAM
225 FPS 229 FPS 5 1.7
SOTR @ 1440p ohne SAM SOTR @ 1440p mit SAM
155 FPS 154 FPS 1 -0.6
Wolfenstein YB @ 1440p ohne SAM Wolfenstein YB @ 1440p mit SAM
253 FPS 254 FPS 1 0.3

Ganz sicher, dass da kein Rage bei SAM inbegriffen ist? :)

Dampf
2020-10-30, 16:59:38
Der Performance Gewinn von SAM mit Forza ist ziemlich cool!

Wenn Spiele mit SAM optimiert werden, dann ist das echt ein netter Bonus für komplette AMD Systeme.

basix
2020-10-30, 17:01:11
SAM und ohne SAM
:up:

Noch zu den Benches, der Treiber war augenscheinlich vom 13. Oktober
20.45-201013n
Zwischen diesen Datum und Karte trifft bei Reviewern ein liegen 3-4 Wochen. Geht da evtl. noch was beim Treiber?

Ravenhearth
2020-10-30, 17:03:55
Weiß jeman wieviel (%) Fläche der Infinity Cache belegt?
Anhand von AMDs Bild komme ich auf 76-78mm², aber keine Ahnung wie akkurat das ist.

So wie ich das sehe werden die 6900 XT und 6800 XT mit SAM einen Ticken schneller als ihre Counterparts sein und ohne SAM einen Ticken langsamer.
Der Unterschied zwischen 6800 XT und 6900 XT ist geringer als zwischen 3080 und 3090. Ich denke eher die 6800 XT ist ohne SAM so schnell wie die 3080 und mit schneller, die 6900 XT ist ohne SAM langsamer als die 3090 und mit gleichauf.

Dalai-lamer
2020-10-30, 17:05:22
Bei allen 6000er Karten und allen Benches ;)


Die 6800 XT wurde ohne SAM und Rage gezeigt.

Ravenhearth
2020-10-30, 17:06:18
Die 6800 XT wurde ohne SAM und Rage gezeigt.
Es geht um die Benches auf der Website

Schnoesel
2020-10-30, 17:08:45
Ganz sicher, dass da kein Rage bei SAM inbegriffen ist? :)

Nun auf der Webseite ist nur AMD Smart Access Memory enabled angegeben. Bei der Youtube Präsentation wurde SAM und Rage gesondert ausgewiesen z.B. beim Bench der 6900XT in 4k vs 3090. Also ja ich gehe davon aus dass nur SAM on war.

https://i.postimg.cc/SNwGKtPr/1.png

ianm
2020-10-30, 17:10:51
Mir geht trotzdem die RX6800 bei P/L nicht aus dem Kopf. :freak:

Mal angenommen die RX 6800XT hat bei 255W TGP 300W Gesamtverbrauch. Die RX 6800 hat dann bei 203W TGP 250W Gesamtverbrauch. Wenn ich jetzt mein Navi10 UV auf N21 übertrage bedeutet das bei der RX 6800XT 213W TGP und ca. 250W Gesamtverbrauch. Da kann ich aber auch einfach das PT bei der RX 6800 auf 213W erhöhen und gleichzeitig UV betreiben. Am Ende ist die RX 6800 bei gleichen Verbrauch nur noch ~10% (grobe Schätzung) von der RX6800XT entfernt und 70€ gespart. :D Die Entscheidung wäre echt einfacher für die RX 6800 bei 529-549€. ;)

Ja, das ist die andere Rechnung. Das entscheidende Argument für mich wird die Verfügbarkeit sein. Im Grunde kann ich bis 2021 warten. Valhalla und auch CB2077 werden auf der 5700XT ohne Probleme laufen.
Sollte es wieder einen Miningboom geben, wäre es aber schlau die neue Karte sofort zu kaufen.

Und sollte ich Shadowlands spielen, macht aufrüsten überhaupt keinen Sinn. Argh... :D

Edit, zu Unterschieden zwischen den Karten:

Die Customs werden Takt drauf legen, da wird man schauen müssen wie die Unterschiede am Ende ausfallen. 6800 gut übertaktbar? Geht die Schere zwischen 6800xt und 6900xt weiter auseinander etc.

kabe
2020-10-30, 17:11:12
Nun auf der Webseite ist nur AMD Smart Access Memory enabled angegeben. Bei der Youtube Präsentation wurde SAM und Rage gesondert ausgewiesen z.B. beim Bench der 6900XT in 4k vs 3090. Also ja ich gehe davon aus dass nur SAM on war.

Auf der Webseite ist die 6900XT ohne Rage und nur mit Smart Access Memory. Der Werte bei der Präsentation sind etwa 1-2 FPS höher.

Digidi
2020-10-30, 17:14:11
Ich glaube ich hab ein Programmierfehler in MacOs 10 gefunden das sollte man nicht für Navie 21 Verwenden :D :D :D

Quelle:https://www.reddit.com/r/Amd/comments/j7bpzs/an_update_on_navi_2x_firmware/

Flinx
2020-10-30, 17:16:41
Die Karten haben doch USB-C ...Bis zu 15 Watt stehen dem Nutzer zur Verfügung, sind also im TDP enthalten. Bei Nichtnutzung....

ianm
2020-10-30, 17:18:08
Sind das nicht sogar 27W?

SentinelBorg
2020-10-30, 17:18:57
Der Performance Gewinn von SAM mit Forza ist ziemlich cool!

Wenn Spiele mit SAM optimiert werden, dann ist das echt ein netter Bonus für komplette AMD Systeme.
Ich würde nicht sagen, dass FH4 auf SAM optimiert, sondern eher umgekehrt nicht besonders auf die PC Befindlichkeiten angepasst wurde weil es von einer Konsole mit Unified Memory stammt. Also eher unoptimiert ist, weil ja eh schnell genug.

Viele Engines segmentieren den VMEM sehr strikt und versuchen Fragmentierung zu vermeiden. FH4 arbeitet wohl eher querbett womit es dann von SAM deutlich profitiert.

Würde mich btw auch nicht wundern, wenn HZD ein gutes Plus durch SAM bekommt. Das Spiel agiert ja bekanntlich auch sehr stark auf dem PCIe Bus.

Ich gehe zudem immer noch stark davon aus, dass Nvidia SAM innerhalb weniger Monate auch implementieren wird und dann ist der Vorteil auch schon wieder dahin.

Flinx
2020-10-30, 17:19:56
https://www.reichelt.de/magazin/ratgeber/usbc/

basix
2020-10-30, 17:21:19
Der Unterschied zwischen 6800 XT und 6900 XT ist geringer als zwischen 3080 und 3090. Ich denke eher die 6800 XT ist ohne SAM so schnell wie die 3080 und mit schneller, die 6900 XT ist ohne SAM langsamer als die 3090 und mit gleichauf.

Ich weiss, sollte so sein. Ich habe mich aber auf folgende Werte bezogen: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12480225&postcount=17082

Hier ist in 4K der Unterschied 3090 vs. 6900 XT fast identisch wie bei 3080 vs. 6800 XT. Und SAM scheint ~5% zu bringen.

gedi
2020-10-30, 17:21:34
Die Tests werden uns schon Aufschluss geben, wo die Achilles-Ferse von Infinity Cache (falls vorhanden) liegt.. Igor ist sicher schon an der Arbeit ^^

Als Schwachpunkt würde ich dies absolut nicht sehen! Wenn die Leistungsfähigkeit der CPU beinahe ausgeklammert wird, dann käme dies einer Revolution gleich ...

x-dragon
2020-10-30, 17:25:02
https://www.reichelt.de/magazin/ratgeber/usbc/

Ist wohl doch nicht so einfach :D

... Aus diesem Grund nennt AMD eine Board-Power von 205 Watt, ohne USB-C benötigt die Karte bis zu 190 Watt. Ähnlich ist es bei Nvidia, wenngleich hier in die angegebene Leistungsaufnahme die Energie eines VR-Headsets nicht eingerechnet wird. Der Virtual Link kann bis zu 27 Watt durchreichen. ...
(geht hier um andere Grafikkarten)
https://www.golem.de/news/workstation-grafikkarte-amds-radeon-pro-w5700-hat-usb-c-anschluss-1911-145096.html#:~:text=Aus%20diesem%20Grund%20nennt%20AMD,bis%20zu%2027%20Watt%20du rchreichen.

dargo
2020-10-30, 17:26:23
Und sollte ich Shadowlands spielen, macht aufrüsten überhaupt keinen Sinn. Argh... :D

Ich kenne das Luxusproblem. ;D Nüchtern betrachtet brauche ich in 2020 keine schnellere Grafikkarte. Für Horizon Zero Dawn und Avengers brauche ich nur mehr Speicher. :freak:


Die Customs werden Takt drauf legen, da wird man schauen müssen wie die Unterschiede am Ende ausfallen. 6800 gut übertaktbar?
Ja... weil es auch Biose mit 230W TGP geben wird. :D Damit hast du dann grob geschätzt 200Mhz mehr anliegen.


Würde mich btw auch nicht wundern, wenn HdZ ein gutes Plus durch SAM bekommt. Das Spiel agiert ja bekanntlich auch sehr stark auf dem PCIe Bus.

Dann muss AMD noch am Marketing etwas feilen denn HZD fehlt bei den eigenen Benches.

SKYNET
2020-10-30, 17:27:00
Was ich bei der ganzen RT Geschichte nicht ganz verstehe:

AMD gibt in den Footnotes (RX 571) an 437 Fps im DX SDK zu RT erreicht zu haben und in Software (DXR Fallback Layer?) 37 Fps.

Da ich grad nicht die Möglichkeit habe hat ein Kumpel mal mit dem Tool auf seiner 1080 geprüft, die keine RT-EInheiten hat, was dabei so rauskommt. Er kommt im Standard, also start und Fenstermodus, auf 135 Fps. Macht er Vollbild auf 4k schrumpft die Framerate auf 22 Fps.

Die 37 Fps erscheinen im Standard auf Software, also da wo eine 3080 in HW über 600 Fps erreichen soll und eine 1080 schon 135 Fps, viel zu wenig.

Entweder AMD hat in einer anderen Auflösung getestet was einen Vergleich mit der 3080 unmöglich macht, oder der DXR Fallback Layer ist etwas sehr merkwürdiges.


Wer mal selber testen will, gerne auch User mit einer 5700 XT als vergleich, hier der Downloadlink. (http://s000.tinyupload.com/download.php?file_id=75266639847527851391&t=7526663984752785139139376)

Ist bereits kompiliert und stammt von Reddit, falls das auch noch Einfluss haben sollte.


190fps avr in standard und in 1920*1200 92fps avr 1080Ti

basix
2020-10-30, 17:28:43
Soweit ich weiss läuft RDNA1 im DXR Fallback und Pascal hat einen dedizierten DXR Pfad im Treiber, welcher schneller ist.

ianm
2020-10-30, 17:32:00
Ja... weil es auch Biose mit 230W TGP geben wird. :D Damit hast du dann grob geschätzt 200Mhz mehr anliegen.
Ich habe da eher noch im Hinterkopf, dass man eine Sperre wie bei der 5700 einbaut. Klar wird man die mit MPT umgehen können, daher wahrscheinlich auch die 580€.

OgrEGT
2020-10-30, 17:33:22
Bin auch irgendwie ein wenig hin und her gerissen zwischen 6800 und 6800XT... Die Karte sollte UWQHD (3440x1440) mit 100FPS packen...

dargo
2020-10-30, 17:34:36
Ich habe da eher noch im Hinterkopf, dass man eine Sperre wie bei der 5700 einbaut. Klar wird man die mit MPT umgehen können, daher wahrscheinlich auch die 580€.
Patrick nannte bei den AIB-Biosen für die RX 6800 203W, 220W und 230W. :wink: Und ja... an der Konfiguration von N21 wird sich zu 99,x% nichts ändern. Powerlimit sowie untere Lüfterdrehzahl (letzteres sofern notwendig) + ZeroFan Off im MPT einstellen, Custom-Lüftersteuerung + UV über den Afterburner. Genau wie bei Navi10.

ianm
2020-10-30, 17:36:47
Patrick nannte bei den AIB-Biosen für die RX 6800 203W, 220W und 230W. :wink:
Hmmm, die customs werden das schon regeln. Ein anderer Faktor gleich zu kaufen, man bekommt noch mehr für seine alte Karte. Speziell wenn die Nachfrage so bleibt.

edit: zu USB-C
Vielleicht verbauen manche Boardpartner das auch nicht, daher das 203W und 230W BIOS. Sind genau 27W für max. Virtual Link. Nvidia verbaut auch kein USB-C. Oder es gibt verschiedene Modi.

dargo
2020-10-30, 17:43:59
Hmmm, die customs werden das schon regeln. Ein anderer Faktor gleich zu kaufen, man bekommt noch mehr für seine alte Karte. Speziell wenn die Nachfrage so bleibt.
Du hast zwar recht, aber ich kaufe ungern die Katze im Sack. Ich brauche da schon detailierte Infos von Usern. Selbst die ganzen "08/15" Reviews liefern mir nicht die nötigen Infos. Asus tendierte bsw. bei N10 zu zu heißen Speicherchips. Sowas möchte ich halt nicht kaufen, erst recht da ich die Lüfter eher langsamer laufen lasse als der AIB (weniger Luftdruck = noch heißerer Speicher). Schwingende Lüfter halten mich auch eher vom Kauf ab. Zum Glück legte sich das bei der Pulse nach einigen Tagen. Wurde ja von Igor bemängelt.

_therookie
2020-10-30, 17:47:47
Wann kam der angebliche 10% Treiber nochmal? Sind die Benches schon mit? ^^

Grendizer
2020-10-30, 17:48:12
Du hast zwar recht, aber ich kaufe ungern die Katze im Sack. Ich brauche da schon detailierte Infos von Usern. Selbst die ganzen "08/15" Reviews liefern mir nicht die nötigen Infos. Asus tendierte bsw. bei N10 zu zu heißen Speicherchips. Sowas möchte ich halt nicht kaufen, erst recht da ich die Lüfter eher langsamer laufen lasse als der AIB (weniger Luftdruck = noch heißerer Speicher). Schwingende Lüfter halten mich auch eher vom Kauf ab. Zum Glück legte sich das bei der Pulse nach einigen Tagen. Wurde ja von Igor bemängelt.


Kaufen und wenn es nicht paßt teurer bei ebay verkaufen... hat mit der Vega64 und Vega LCE auch sehr gut geklappt... wenn man das Risiko scheut kann man ja auch den Kauf widerrufen.

SentinelBorg
2020-10-30, 17:50:52
Dann muss AMD noch am Marketing etwas feilen denn HZD fehlt bei den eigenen Benches.
Ja, weil es afaik keinen eingebauten Benchmark hat.

dargo
2020-10-30, 17:52:47
Hat es. ;)

Kaufen und wenn es nicht paßt teurer bei ebay verkaufen... hat mit der Vega64 und Vega LCE auch sehr gut geklappt... wenn man das Risiko scheut kann man ja auch den Kauf widerrufen.
Ganz ehrlich... ich habe keine Lust zig Karten zu verbauen und zu testen.

Grendizer
2020-10-30, 18:00:51
Hat es. ;)


Ganz ehrlich... ich habe keine Lust zig Karten zu verbauen und zu testen.


Ja... aber darauf wird es bei dir doch im Endeffekt wieder drauf hinauslaufen :biggrin:

dargo
2020-10-30, 18:24:36
Zum Glück brauche ich keinen neuen Monitor. X-D Diese Panellotterie ist das Übelste überhaupt.

SKYNET
2020-10-30, 18:26:30
Zum Glück brauche ich keinen neuen Monitor. X-D Diese Panellotterie ist das Übelste überhaupt.


wenn man billigen gamer-shice kauft, stimmt das :tongue:

kleeBa
2020-10-30, 18:31:29
Ist im 1000€ Plux X Segment genau der gleiche Rotz. :rolleyes:

huey
2020-10-30, 18:54:37
Anhand von AMDs Bild komme ich auf 76-78mm², aber keine Ahnung wie akkurat das ist.


Der Unterschied zwischen 6800 XT und 6900 XT ist geringer als zwischen 3080 und 3090. Ich denke eher die 6800 XT ist ohne SAM so schnell wie die 3080 und mit schneller, die 6900 XT ist ohne SAM langsamer als die 3090 und mit gleichauf.


Verstehe die Diskussion mit SAM ehrlich gesagt nicht. Es war doch schon immer so das ich eine Highend Grafikkarte erst mit der schnellsten CPU ausgelastet bekomme und wenn das jetzt der neueste Ryzen sein soll dann muss man das System auch dementsprechend anpassen oder hatte früher jeder mit einer schnellen Grafikkarte eine Intel 9900 CPU im Rechner.... Es ist ein ein Feature was eingebaut wurde um das Letzte rauszuholen und in Tests hat man immer die CPU's genommen welche am wenigsten oder am besten überhaupt nicht limitieren also finde ich es völlig legal das man damit testet. Wenn man jetzt keinen neuen Ryzen im System hat dann ist das halt so, aber war doch schon immer so wenn man nicht die schnellste CPU im System hatte.

Ich hätte damit in Zukunft ein Problem wenn das Feature in Zukunft nur für Ryzen 5000 geboten wird aber auch auf einem neuen Intel laufen würde und genauso würde ich es nicht begrüßen wenn Nvidia Karten auf einem Ryzen System langsamer laufen würden als auf dem schnellsten Intel System und so nicht ihre optimale Leistung zeigen könnten, aber wenn das nicht der Fall ist dann sollte ein zukünftiges Testsytem aus Ryzen 5000 bestehen und bei AMD mit SAM getestet werden. Es sollte Nvidia halt offen stehen das auch zu integrieren, aber wenn es nicht so wäre dann kann Lederjacke trotzdem erstmal in den Spiegel schauen. ;-)

gedi
2020-10-30, 19:00:29
Okay jetzt Grätsche ich doch mal dazwischen: 6900 scheint selektiert zu sein, sprich die Ersten welche die BBA bekommen sind wirklich glücklich dran. Es ist ne Grafikkarte, welche mit dem Top-Dog des Widersachers mithalten kann und wenn ich mit meiner Vermutung recht liege, in CPU-lastigen Spielen überlegen ist. Wie bekomme ich nen Overhead gecancelt? Indem ich meine Schwäche p/H deutlich verbessere.

Out of the Box reicht ne 6870 nicht übertaktet, nur per MPT angepasst, locker für für ne 6900 und damit auch für ne 3090! Die 2.25G müssen halt immer anliegen-that it is! Per MPT Kindergarten und zudem werden die 375W nicht überfahren

BoMbY
2020-10-30, 19:00:33
Prinzipiell geht es dabei ja primär um die nutzbaren PCI Base Address Registers, soweit ich das sehe dürfte der Unterschied sein dass vor Ryzen 5000 nur max. 32 Bit adressierbar waren, und unter Windows nochmal weniger, und die das jetzt auf 64 Bit erweitert haben auf allen Seiten.

Zossel
2020-10-30, 19:02:21
Zum Glück brauche ich keinen neuen Monitor. X-D Diese Panellotterie ist das Übelste überhaupt.

Auf welches Problem bezieht sich die "Panellotterie"?

Wiseman
2020-10-30, 19:05:16
Ich hatte mich auch gewundert, warum AMD Horizon Zero Dawn nicht in seinen Benchmark-Parcours aufgenommen hat. HZD hat doch einen eingebauten Benchmark und wär eins der neuesten Spiele.

Hab ich schon erwähnt, dass ich eine Big Navi Karte kaufen werde? :biggrin:

Ja, klar doch. Schließlich will ich jetzt endlich mal alles, was ich so spiele, auf meinem native 4k Monitor in 4k spielen können.

Wie man sieht bin ich ein Intel-Geschädigter (hehe). Da hat mich diese SAM-Geschichte schon ein bisschen irritiert. Muss ich unbedingt auf eine Zen3 CPU umrüsten? Bringt SAM wirklich so viel?

Wahrscheinlich kaufe ich eine 6800XT. Also habe ich die 10 Spiele, die AMD bei der Präsentation vor zwei Tagen zeigte, für die 6800XT in 4k überprüft. Einmal die Ergebnisse ohne SAM und einmal die Ergebnisse mit SAM.

- FPS-Durchschnitt für 10 Spiele mit SAM: 107.3 fps
- FPS-Durchschnitt für 10 Spiele ohne SAM: 104.2 fps

Mein persönliches Fazit: Ob ich in Zukunft ein Spiel in 4k mit 104 fps oder mit 107 fps spielen kann, ist mir egal. Also deswegen brauche ich meine kleine i5-8400 CPU nicht aufgeben. (Notiz am Rande: in 4k hält meine kleine i5-8400 selbst mit den stärksten Boliden mit.)

Von den 10 getesteten Spielen konnte mich SAM nur in einem einzigen Spiel beeindrucken, nämlich in der Renn-Simulation Forza Horizon 4. Hier konnte SAM 11% an Leistung zulegen. Schon klar, warum AMD dieses Spiel mit aufnahm und nicht z. B. HZD. Trotzdem kann mir diese beeindruckende Steigerung von 11% egal sein, denn ich spiele grundsätzlich keine Rennspiele.

Ein Wort noch zur 6800XT. Normalerweise entscheide ich mich immer für eine Custom-GPU. Vor allem wegen der Lautstärke. Da waren ja die Referenz-Karten von AMD stets eine herbe Enttäuschung bzw Zumutung. Diesmal allerdings könnte ich eventuell eine Ausnahme machen, denn in einem der bei der Präsentation gezeigten Videos sprach der AMD-Mann von 37 dB Lautstärke. Also wenn das in den kommenden Reviews bestätigt wird, dann ... ? Andererseits werde ich selbstverständlich abwarten, ob und wann meine Haus- und Hofmarke Sapphire eine Nitro+ mit Silent-BIOS rausbringt. Damit würde die Lautstärke sicher in Richtung 30 dB = lautlos gehen.

gedi
2020-10-30, 19:07:59
Prinzipiell geht es dabei ja primär um die nutzbaren PCI Base Address Registers, soweit ich das sehe dürfte der Unterschied sein dass vor Ryzen 5000 nur max. 32 Bit adressierbar waren, und unter Windows nochmal weniger, und die das jetzt auf 64 Bit erweitert haben auf allen Seiten.

Es wurde doch behauptet, dies wäre nur ne Software-Geschichte :confused:

gedi
2020-10-30, 19:12:31
Ich hatte mich auch gewundert, warum AMD Horizon Zero Dawn nicht in seinen Benchmark-Parcours aufgenommen hat. HZD hat doch einen eingebauten Benchmark und wär eins der neuesten Spiele.

Hab ich schon erwähnt, dass ich eine Big Navi Karte kaufen werde? :biggrin:

Ja, klar doch. Schließlich will ich jetzt endlich mal alles, was ich so spiele, auf meinem native 4k Monitor in 4k spielen können.

Wie man sieht bin ich ein Intel-Geschädigter (hehe). Da hat mich diese SAM-Geschichte schon ein bisschen irritiert. Muss ich unbedingt auf eine Zen3 CPU umrüsten? Bringt SAM wirklich so viel?

Wahrscheinlich kaufe ich eine 6800XT. Also habe ich die 10 Spiele, die AMD bei der Präsentation vor zwei Tagen zeigte, für die 6800XT in 4k überprüft. Einmal die Ergebnisse ohne SAM und einmal die Ergebnisse mit SAM.

- FPS-Durchschnitt für 10 Spiele mit SAM: 107.3 fps
- FPS-Durchschnitt für 10 Spiele ohne SAM: 104.2 fps

Mein persönliches Fazit: Ob ich in Zukunft ein Spiel in 4k mit 104 fps oder mit 107 fps spielen kann, ist mir egal. Also deswegen brauche ich meine kleine i5-8400 CPU nicht aufgeben. (Notiz am Rande: in 4k hält meine kleine i5-8400 selbst mit den stärksten Boliden mit.)

Von den 10 getesteten Spielen konnte mich SAM nur in einem einzigen Spiel beeindrucken, nämlich in der Renn-Simulation Forza Horizon 4. Hier konnte SAM 11% an Leistung zulegen. Schon klar, warum AMD dieses Spiel mit aufnahm und nicht z. B. HZD. Trotzdem kann mir diese beeindruckende Steigerung von 11% egal sein, denn ich spiele grundsätzlich keine Rennspiele.

Ein Wort noch zur 6800XT. Normalerweise entscheide ich mich immer für eine Custom-GPU. Vor allem wegen der Lautstärke. Da waren ja die Referenz-Karten von AMD stets eine herbe Enttäuschung bzw Zumutung. Diesmal allerdings könnte ich eventuell eine Ausnahme machen, denn in einem der bei der Präsentation gezeigten Videos sprach der AMD-Mann von 37 dB Lautstärke. Also wenn das in den kommenden Reviews bestätigt wird, dann ... ? Andererseits werde ich selbstverständlich abwarten, ob und wann meine Haus- und Hofmarke Sapphire eine Nitro+ mit Silent-BIOS rausbringt. Damit würde die Lautstärke sicher in Richtung 30 dB = lautlos gehen.

Hast du auch nach FS2020 geschaut? CPU-Limit ahoi bis hinauf in 4K (abzüglich der Bandbreite der Internet Connection)!

dargo
2020-10-30, 19:13:35
Auf welches Problem bezieht sich die "Panellotterie"?
Pissecken + inhomogene Ausleuchtung.

gedi
2020-10-30, 19:15:24
Pissecken + inhomogene Ausleuchtung.

Zeig mir nur ein Panel, welches dein OT löst?!

SentinelBorg
2020-10-30, 19:53:07
Es wurde doch behauptet, dies wäre nur ne Software-Geschichte :confused:
Ist es hauptsächlich auch. Rein von der Hardware her sollte das bei korrekter Implementation des PCIe Standard unter einem 64 Bit OS schon seit geraumer Zeit gehen und wird ja auch gemacht (siehe Xeon Phi, Nvidia Tesla).

Windows bietet seit 2017 auch Support für Resizable BAR, so dass nichtmal das UEFI das selbst unterstützen muss: https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support

wolik
2020-10-30, 20:09:55
Ich freu mich für AMD. (Ernst) Und das ist eindeutige Sieg. (Bisschen Hype, was bis jetzt ausgeblieben)

https://leonardo.osnova.io/34e2185d-1e03-5e8f-aa69-f90a28af290b/

Sardaukar.nsn
2020-10-30, 20:10:19
Ist im 1000€ Plux X Segment genau der gleiche Rotz. :rolleyes:

Darum kauft man ja auch einen Xiaomi und erkennt das er für das Geld eigentlich super ist und andere auch nur mit Wasser kochen.

https://www.mydealz.de/deals/xiaomi-mi-gaming-curved-monitor-1677569

dargo
2020-10-30, 20:22:03
Ich wusste gar nicht, dass die schon Monitore bauen. :freak:

mboeller
2020-10-30, 20:36:12
nt

Zergra
2020-10-30, 20:41:46
Ich wusste gar nicht, dass die schon Monitore bauen. :freak:

Tun sie eig auch nicht. Da wird mittlerweile vieles nur unter dem Namen verkauft und von anderen Entwickelt, auch bei den Handys.

Emil_i_Lönneberga
2020-10-30, 20:42:00
https://www.ekwb.com/custom-loop/quantum-vector-amd-radeon-rx-6000-series/#toggle-id-1-closed

https://www.ekwb.com/wp-content/uploads/2020/10/4-EK_AMD_RYZEN_RX6000_GPU_AIO.jpg

ChaosTM
2020-10-30, 20:43:46
ASUS zeigt Custom-Modelle der Radeon-RX-6000-Serie *Updated (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54501-asus-zeigt-custom-modelle-der-radeon-rx-6000-serie.html)

[MK2]Mythos
2020-10-30, 20:45:01
https://www.ekwb.com/custom-loop/quantum-vector-amd-radeon-rx-6000-series/#toggle-id-1-closed

https://www.ekwb.com/wp-content/uploads/2020/10/4-EK_AMD_RYZEN_RX6000_GPU_AIO.jpg
Geil! Mal sehen ob ich den Wasserkühler vor der Grafikkarte habe... :biggrin:

ChaosTM
2020-10-30, 21:03:30
https://www.computerbase.de/2020-10/asus-ekwb-series-geforce-rtx-3070-3080-3090-wasserkuehler/

auch recht schick..

Tarkin
2020-10-30, 21:11:54
Quelle 4K: _rogame (https://twitter.com/_rogame/status/1322237836289069057)

Quelle QHD: harukatze5719 (https://twitter.com/harukaze5719/status/1322239580427284481)

echt unglaublich... da muss ich gerade an Jim von AdoredTV (diesen alten RTG hater) denken... "nVidia has won" und "nvidia is completely out of sight"

really? Tja, da hat er (und nVidia) die Rechnung wohl ohne den Wirt gemacht. Big Navi ist RTGs Zen

Was AMD hier geschafft hat mit Zen 3 und RDNA2 ist unglaublich... Hut ab und weiter so!

Zergra
2020-10-30, 21:28:10
Das sind doch die Benchmarks aus der Übersicht von AMD, also nix neues.

Schnitzl
2020-10-30, 21:37:36
ich hoffe bald gibts ein paar Infos zur 6700 / 6700XT
will neuen PC....
wenn die 3070 16GB vorher kommt wirds schwierig :freak:

ChaosTM
2020-10-30, 21:42:08
Das sind doch die Benchmarks aus der Übersicht von AMD, also nix neues.


Die Jüngeren brauchen % und Balken ;)

just4FunTA
2020-10-30, 21:46:46
Ich freu mich für AMD. (Ernst) Und das ist eindeutige Sieg. (Bisschen Hype, was bis jetzt ausgeblieben)

https://leonardo.osnova.io/34e2185d-1e03-5e8f-aa69-f90a28af290b/

Rofl

mczak
2020-10-30, 22:08:31
Ich freu mich für AMD. (Ernst) Und das ist eindeutige Sieg. (Bisschen Hype, was bis jetzt ausgeblieben)

https://leonardo.osnova.io/34e2185d-1e03-5e8f-aa69-f90a28af290b/
Richtig macht man das so dass das Diagramm erst bei 2000 beginnt, sieht dann viel besser aus :biggrin:.

Savay
2020-10-30, 22:18:31
Ausschnitt zwischen 3000 und 7000! :tongue:

71978

Iscaran
2020-10-30, 22:53:48
Die Jüngeren brauchen % und Balken ;)

Ist das nicht einfach nur seine neue Sig ?

Iscaran
2020-10-30, 23:06:42
Zur RT Performance eine interessante Analyse aus dem CB-Forum:
https://www.computerbase.de/forum/threads/rx-6800-6800-xt-und-6900-xt-amd-veroeffentlicht-weitere-benchmarks-in-4k-und-wqhd.1977954/post-24812832


RT Performance Prognose:

Ampere schafft zwischen 10,19 fps (3070) und 9,13 fps (3090) pro RT Kern
Turing schafft 6,93 fps (2080TI) pro RT Kern
(WOW, 50% RT Leistungsanstieg pro Kern)

Navi schafft je nachdem welche Anzahl an CU´s in dem Benchmark (siehe Link)
genutzt worden sind 7,98 fps (60CU) 1815 Mhz / 6,65 fps (72CU) 2015 Mhz / 5,98 fps (80CU) 2015 Mhz pro CU
Zieht man die 15% Taktunterschied zwischen der 2080TI und der RX6800 (60CU) ab, würde das eine RT Performance pro CU bei AMD von 6,78 fps bedeuten. Was als erste Generation ziemlich passen kann, somit wäre die erste Generation der RT Performance pro CU sogar noch unter der ersten Gen. von Nvidia, was AMD allerdings durch den sehr hohen Takt teilweise ausgleicht. (ACHTUNG, ALLES SPEKULATION)

80 CU's könnten also (Takt bereinigt) 542 fps und mit der "GAME CLOCK" von 2015 Mhz 672 fps schaffen.

Wenn allerdings die 479 fps mit einer 80 CU Version bei 2015 Mhz Takt erreicht worden sind (5,98 fps und 4,55 fps Taktbereinigt) dann wäre der Raytracing Start "Schlechter" als ein 2 Jahre alter RT Kern von Nvidia. Schwer vorstellbar...

Fragt sich nun, was da der Ingenieur nun am 17.08.2020 zum Testen da gehabt hat.

https://wccftech.com/amd-radeon-rx-...phics-cards-ray-tracing-performance-detailed/

Berniyh
2020-10-30, 23:58:01
Ist bei Ampere in 50% der Games aber nicht der Fall. Da gibt es mitlerweile stapelweise Auswertungen auf Youtube, die genau zeigen, dass Ampere da limitiert obwohl die CPU noch Luft hat. 3080/3090 sind für 4k gebaut, darunter fehlt irgendwas am Front- oder Backend um in allen Games die hohen FPS zu pushen. BN scheint hier normal zu funktionieren.
Wahrscheinlich steigen mir jetzt einige hier aufs Dach, weil ich was gegen die heilige Benchmarkkultur sage, aber:
ist das nicht vollkommen Wumpe?

Ich mein, wer kauft denn bitte eine 3080/3090 (oder 6800XT/6900XT) um dann 1080p zu spielen?
Und selbst wenn, inwiefern spielt das dann eine Rolle ob man viele FPS oder viele FPS + 5% hat?
Alles oberhalb von 120 fps macht doch eh keinen wirklichen Unterschied mehr.

Insofern: auch wenn ich die 6800XT als Produkt wesentlich interessanter finde als die 3080 oder 3090. Der von dir genannte Punkt wäre mir persönlich total egal.

Der_Korken
2020-10-31, 00:11:19
Zur RT Performance eine interessante Analyse aus dem CB-Forum:
https://www.computerbase.de/forum/threads/rx-6800-6800-xt-und-6900-xt-amd-veroeffentlicht-weitere-benchmarks-in-4k-und-wqhd.1977954/post-24812832

Weiß jemand wie repräsentativ der RT-Bench für RT-Performance in Spielen sein kann? Wenn das ein synthetischer Test ist, der unrealistisch viele Intersections macht und die AMD-Karten dort einbrechen, weil ihnen Rohleistung fehlt, muss sich das ja nicht 1:1 auf Spiele übertragen. So ähnlich wie drückend Fermi damals bei Tesselation-Benches drückend überlegend war und sich das in Spielen nur gering ausgewirkt hat, weil die Tesselation-Last da im Relation zum Rest viel geringer war als in den Benches.

SKYNET
2020-10-31, 00:16:35
Wahrscheinlich steigen mir jetzt einige hier aufs Dach, weil ich was gegen die heilige Benchmarkkultur sage, aber:
ist das nicht vollkommen Wumpe?

Ich mein, wer kauft denn bitte eine 3080/3090 (oder 6800XT/6900XT) um dann 1080p zu spielen?
Und selbst wenn, inwiefern spielt das dann eine Rolle ob man viele FPS oder viele FPS + 5% hat?
Alles oberhalb von 120 fps macht doch eh keinen wirklichen Unterschied mehr.

Insofern: auch wenn ich die 6800XT als Produkt wesentlich interessanter finde als die 3080 oder 3090. Der von dir genannte Punkt wäre mir persönlich total egal.

problem ist nur, wenn wer ohne DLSS spielen will, langt mit RT nichtmal ne 3090 um 60fps durchgehend zu halten max out... in 1080p versteht sich.

Nazar
2020-10-31, 01:57:53
Zeigt wie verbogen die Wahrnehmung ist, die 2080ti ist und bleibt ne wahnsinnig schnell Karte für aktuelle und kommende Titel, wir werden gerade mit Leistung beworfen die eigentlich niemand, ausser Enhusiasten, braucht - es sei denn jemand schaltet dieses recht unsichtbare RTX an.

VR -> auch in 10 Jahren nicht genügend Leistung ;)
Die HP G1 (bald G2 ;)), nuckelt die 2080ti im Vorbeigehen einfach mal unter den Tisch. Als erstes geht der VRAM aus, dann die Leistung. :wink:
Die ideale Karte für die G2 wäre derzeit eine 4090/7900XT mit 20+GB VRAM, denn mit SS kann man die BQ der G2 dermaßen gut Verbessern, dass zwar der VRAM einer 3090 reichen würde aber die Leistung immer noch viel zu niedrig ist.
Mein VR Lieblingsspiel -DCS- kann ich zwar auf einem 4k Monitor auf den höchsten Einstellungen mit Minimum 60 FPS auf meiner 2080ti spielen (da geht der VRAM auch schon auf 10.7GB hoch) aber in der VR muss ich die Detailqualität reduzieren, um die nötigen !niedrigen! Frame Times zu erhalten (maximal 18ms dürfen es sein).
Selbst eine 3090 reicht da noch nicht und mit einer 6900Xt wird es vermutlich noch schlechter sein, da DCS auf nV optimiert wurde, bzw. AMD bei DX11 Spielen bisher immer schwächelte (-20% in DCS).
Es darf also ruhig noch sehr viel mehr Leistung sein. :D

dildo4u
2020-10-31, 02:05:50
Der Flight Sim 2020 bekommt doch VR Support für 90hz in 1440p braucht man sicherlich 2X 3090 Plus Zen 4 oder so.

Emil_i_Lönneberga
2020-10-31, 03:04:55
Mythos;12480535']Geil! Mal sehen ob ich den Wasserkühler vor der Grafikkarte habe... :biggrin:

Der Fullcover ist potthässlich, aber die GPU-AiO ist für AiO Käufer möglicherweise interessant. Die AiO ist ja ein alter Bekannter: https://www.guru3d.com/articles-pages/ek-mlc-phoenix-360-aio-cpu-gpu-liquid-cooling-review,5.html

Reaping_Ant
2020-10-31, 04:06:43
Weiß jemand wie repräsentativ der RT-Bench für RT-Performance in Spielen sein kann? Wenn das ein synthetischer Test ist, der unrealistisch viele Intersections macht und die AMD-Karten dort einbrechen, weil ihnen Rohleistung fehlt, muss sich das ja nicht 1:1 auf Spiele übertragen.
Andererseits könnte auch der umgekehrte Fall eintreten: Da die Intersections bei AMD soweit ich mich erinnere auf den TMUs berechnet werden, könnte es in realistischen Szenarien, wo die TMUs ohnehin schon gut ausgelastet sind, hier in Verbindung mit RT auch zu einem Flaschenhals kommen. Aber anhand eines einzigen Datenpunkts kann man halt nur spekulieren.
Hat eigentlich jemand einen Überblick, welche Spiele zum Launch überhaupt mit RT auf AMD laufen werden? Also sprich, welche DXR anstelle von RTX nutzen?

Sardaukar.nsn
2020-10-31, 05:11:20
Ich wusste gar nicht, dass die schon Monitore bauen. :freak:

Ist ja auch der erste, aber durchaus brauchbar und vor allem sehr erschwinglich.

1hMAw8xCd0Y

MasterElwood
2020-10-31, 05:23:11
Der Flight Sim 2020 bekommt doch VR Support für 90hz in 1440p braucht man sicherlich 2X 3090 Plus Zen 4 oder so.

Angeblich ist das Ziel, dass FS2020 auf der REVERB G2 auf Top Hardware "ungefähr auf Medium-Settings" laufen wird.

Wäääh..... Wir brauchen echt VIEL mehr Power

Stretcher
2020-10-31, 07:15:56
Die AMD Zahlen sind ja wirklich stark geschönt.
Während die 3090 in 4K 46% schneller ist als die 2080Ti sind es bei AMD nur 39,5%.
Während die 3080 32% schneller in 4K ist, sind es bei AMD nur 28% in 4K.

Die Benchmarks kann man in die Tonne kloppen, ohne SAM und Rage werden die AMD Karten langsamer sein.
Und selbst mit dürfte die 3090 in 4K nicht geschlagen werden, die 3080 jedoch schon, aber nur knapp.

Thunderburne
2020-10-31, 07:26:32
So am 5. neue CPU und ade 3950 X.
18.Tests schauen und am 8.Dez.auf 6900XT Jagd gehen.
AMD hat mich jetzt angefixt!
Das ganze Konzept wirkt stimmig!
Die Nähe zu den Konsolen find ich Klasse das wird bestimmt eine Großartige Gaming Plattform!

soLofox
2020-10-31, 07:27:23
Ja, es kann nicht sein, was nicht sein darf.

Ganz sicher wird Nvidia schneller sein, mach dir keine Sorgen.

Adam D.
2020-10-31, 07:32:00
Ja, es kann nicht sein, was nicht sein darf.

Ganz sicher wird Nvidia schneller sein, mach dir keine Sorgen.
Naja, man sollte Hersteller-Benchmarks IMMER mit großer Vorsicht betrachten. Gilt für AMD wie NV, genau so wie Intel und alle anderen Firmen, die in den Slides immer Best-Case-Szenarien darstellen. NV hat auf einer Slide die RT-Leistung der 3070 mit der 1070 verglichen :freak:

Die Tendenz wird schon klar bei Herstellerangaben, mehr aber auch nicht.

dargo
2020-10-31, 07:43:36
Das ist doch eine glatte Lüge. Würde AMD nur Best-Cases zeigen würdest du keine Benchmarks sehen wo AMD langsamer als die Konkurrenz ist.

Thunderburne
2020-10-31, 07:47:49
Last euch doch nicht trigern genau das wollen die Leute doch erreichen!
Ich glaub die Gesamte Kombi über CPU bis GPU wird ein Gamer Traum und mit der Zeit werden sich so einige die Finger danach lecken!
Hoffe die ganzen Feature die angekündigt wurden werden Zeitnah ausgerollt und zur Verfügung stehen!
Mein Rechner wird zu einer PSBOX

Stretcher
2020-10-31, 07:56:31
Das ist doch eine glatte Lüge. Würde AMD nur Best-Cases zeigen würdest du keine Benchmarks sehen wo AMD langsamer als die Konkurrenz ist.

Die 3090 ist im 3DC Index genau 46% schneller als die 2080Ti.
Bei AMD sind es in diesen ausgewählten Spielen unter 40%, während AMD selbst "nur" knapp über 40% schneller ist als die 2080Ti inkl. OC und SAM.
AMD zeigt hier sehr wohl Bestcase Szenarien.
Na wenn die finalen Werte da nicht 10% davon abweichen, denn erstens betreibt nicht jeder die AMD Karte auf einer aktuellen AMD Plattform und zweitens wird auch die Spieleauswahl deutlich größer sein.

Ich glaube die AMD Fan Armada darf sich auf eine Enttäuschung einstellen.:tongue:
Es ist eh jedem klar, dass das geschönte Werte sind. Wenn es am Ende für die 3080 reicht, passts doch.

soLofox
2020-10-31, 07:58:47
Als würde AMD jetzt im großen Stil die Benchmarks schönen mit unüblichen Mitteln.

Unwahrscheinlich dass die 6900XT flüssig gekühlt wurde und auf Teufel komm raus hoch geprügelt wurde. Woher käme dann die Effizienz?

SMA und Rage, ja mein Gott UND? Wenn es läuft warum denn nicht?

Dass hier kein kompletter Murks vorgestellt wurde, sollte doch jeder gemerkt haben, egal welche Brille er trägt.

Ob die 6900XT am Ende 2% schneller oder langsamer als die 3090 ist, ist sowieso egal.

Jedes Lager (rot und grün) kauft seine Marke und das war's. Könnt euch ja dann im Dezember totbenchen. Vielleicht wird der Lock down ja sogar verlängert und man hat eh nichts anderes zu tun :usad:

dildo4u
2020-10-31, 07:59:30
Natürlich zeigt jeder sein Produkt im besten Licht ich meine wir haben null AMD Werte von Games mit DXR.
Kein Plan was es dort zu diskutieren gibt.
Noch dazu haben sie mehrere Games mit RT gezeigt und somit beworben.
Man hat aber null Informationen ob es überhaupt brauchbar läuft.

Thunderburne
2020-10-31, 08:04:29
Wenn ich den Quatsch mit Lagern und Brille schon lese wird mir schlecht!
Die letzte AMD war bei mir die HD7970 warum weil die ein Brett war vor allem mit OC danach nur noch NV bis zur 2080Ti warum weil ich möglichst viel Leistung für 4K will und die Abstände zu groß waren zwischen den beiden Herstellern gab es nur den einen Weg für mich und jetzt ist man auf Augenhöhe und man hat wieder eine Wahl!
Wenn ich da wieder Sprüche höre wie(Fanboys)frage ich mich wie alt hier manche sind!?!

Linmoum
2020-10-31, 08:07:28
Die 3090 ist im 3DC Index genau 46% schneller als die 2080Ti.Es gibt im Index auch Webseiten, bei denen die 3090 +55% schneller ist als die 2080Ti. Da der Schnitt nur bei 46% liegt, müssen viele da ganz schön schönen, nech.

dargo
2020-10-31, 08:08:08
Die 3090 ist im 3DC Index genau 46% schneller als die 2080Ti.

Wen interessiert ein 3DC-Index? Mich jedenfalls nicht. Es werden zu oft noch uralte Schinken gebencht die eh schnell genug laufen sofern keine absolute Engine-Gülle. Mich interessieren nur neuere Games. Ob am Ende im Schnitt eine 6900XT leicht vor oder leicht hinter der RTX 3090 landet ist mir sowas von latte bei 500€ weniger und somit 2/3 des Preises. Mit 350W schafft sie es eventuell im Schnitt schneller zu sein. Falls nicht.... wayne.

eratte
2020-10-31, 08:09:06
Wer die Fanboykeule schwingt ist meist selber einer.

Dabei scheint es endlich mal 2 recht gleichwertige Alternativen zu geben und man kann wählen nach eigenen Vorlieben.

Anstatt wird von einigen lieber das eigene "Lager" versucht bis auf das Blut zu verteidigen und anzupreisen. Was eine Zeitverschwendung.

BoMbY
2020-10-31, 08:15:11
Die 3090 ist im 3DC Index genau 46% schneller als die 2080Ti.


Der Durchschnitt von dutzenden Tests kann natürlich extrem von dem Ergebnis eines einzelnen Tests abweichen, am sinnvollsten ist es hier einzelne Spiele mit Tests mit vergleichbares Settings und Systemen zu vergleichen.

Korvaun
2020-10-31, 08:18:27
Ernsthaft? Welche Karte nun 2-3% vorne/hinten liegt mag auf dem Papier "wichtig" sein, in der Realität merken das 99,9% aller Käufer nicht. Ich finds super das AMD wieder auf Augenhöhe ist und nV kämpfen müssen um Nr.1 zu bleiben. Abgesehen davon werden BEIDE prächtig verdienen an dieser Generation, also alles bestens ;)

Stretcher
2020-10-31, 08:27:16
Wenn ich den Quatsch mit Lagern und Brille schon lese wird mir schlecht!

Na wenn man sich anschaut, wie energisch hier gestritten und gepöbelt wird und das quasi 24/7, möchtest du wirklich behaupten es gäbe hier kein Lagerdenken mit Brillen in der jeweiligen Farbe?;D

Szudri
2020-10-31, 08:36:11
Na wenn man sich anschaut, wie energisch hier gestritten und gepöbelt wird und das quasi 24/7, möchtest du wirklich behaupten es gäbe hier kein Lagerdenken mit Brillen in der jeweiligen Farbe?;D

Als wenn du nicht dazu gehörst...

Gouvernator
2020-10-31, 08:47:54
Die AMD Zahlen sind ja wirklich stark geschönt.
Während die 3090 in 4K 46% schneller ist als die 2080Ti sind es bei AMD nur 39,5%.
Während die 3080 32% schneller in 4K ist, sind es bei AMD nur 28% in 4K.

Die Benchmarks kann man in die Tonne kloppen, ohne SAM und Rage werden die AMD Karten langsamer sein.
Und selbst mit dürfte die 3090 in 4K nicht geschlagen werden, die 3080 jedoch schon, aber nur knapp.
"Nur" 4K spiegelt nicht die wahre Leistung der RTX3090 wieder. Sie tricksen ganz bewusst wenn sie 8K Benches auslassen. Bei der 3090 ist es nämlich so, die hat grob gesagt die selben 30 FPS bei einem neueren Game wie bei einem älteren Game. Weil Reserve bei Shaderleistung vorhanden ist. Ich wette wenn jemand die beiden Karten in 8K testet dann sieht es für AMD viel düsterer aus als jetzt mit "nur" 4K. Für solche Karten müsste man langsam auch schon 8K Index einführen.

dargo
2020-10-31, 08:54:13
Geil... Gouvernator mit seinen 8K-Ergüssen fehlte noch. ;D

woodsdog
2020-10-31, 08:55:17
"Nur" 4K spiegelt nicht die wahre Leistung der RTX3090 wieder. Sie tricksen ganz bewusst wenn sie 8K Benches auslassen. Bei der 3090 ist es nämlich so, die hat grob gesagt die selben 30 FPS bei einem neueren Game wie bei einem älteren Game. Weil Reserve bei Shaderleistung vorhanden ist. Ich wette wenn jemand die beiden Karten in 8K testet dann sieht es für AMD viel düsterer aus als jetzt mit "nur" 4K. Für solche Karten müsste man langsam auch schon 8K Index einführen.

Du scheinst wiederholt nicht zu verstehen, dass sich kein Schwanz abgesehen von dir für 8K interessiert. Nische in der Nische... Leute die 1000+ Eur für Grafikhardware ausgeben wollen in der Regel AAA mit mehr als 20 FPS spielen lol

soLofox
2020-10-31, 09:14:01
"Nur" 4K spiegelt nicht die wahre Leistung der RTX3090 wieder. Sie tricksen ganz bewusst wenn sie 8K Benches auslassen.

https://geizhals.de/?cat=monlcd19wide&xf=14591_76804320

Geil, es gibt ja sogar schon einen 8K Gaming Monitor. Sogar mit 144Hz. Und kostet nur über 3000€. Und 1ms!

8K Gaming ist etabliert! Wer jetzt noch auf 4K setzt, ist einfach nur oldschool.

HOT
2020-10-31, 09:17:49
Was ist denn das für ein dämliches Gehate hier? Seid doch froh, dass alles so nah beieinander ist, besser kann das als Kunde doch gar nicht kommen. Jetzt noch ne 3070, 3070Ti und 3080 mit 16GB und die Sache wär perfekt. Kommt sicherlich mit GA103.

soLofox
2020-10-31, 09:33:36
Was ist denn das für ein dämliches Gehate hier?

Naja wenn hier versucht wird auf Teufel komm raus die AMD GPU schlecht zu reden, was soll man denn machen.

Als wenn 8K aktuell für mehr als <1% relevant wären. Absoluter Quatsch. Selbst hier im 3DC.

Berniyh
2020-10-31, 09:40:25
https://geizhals.de/?cat=monlcd19wide&xf=14591_76804320

Geil, es gibt ja sogar schon einen 8K Gaming Monitor. Sogar mit 144Hz. Und kostet nur über 3000€. Und 1ms!

8K Gaming ist etabliert! Wer jetzt noch auf 4K setzt, ist einfach nur oldschool.
Wie kommst du auf 144 Hz? Da steht 60 Hz. Und 8ms bzw. 6ms.
https://www.dell.com/de-de/shop/dell-ultrasharp-32-8k-monitor-up3218k/apd/210-amfd/monitore-und-monitorzubehor#techspecs_section

Brillus
2020-10-31, 09:42:22
Naja, man sollte Hersteller-Benchmarks IMMER mit großer Vorsicht betrachten. Gilt für AMD wie NV, genau so wie Intel und alle anderen Firmen, die in den Slides immer Best-Case-Szenarien darstellen. NV hat auf einer Slide die RT-Leistung der 3070 mit der 1070 verglichen :freak:

Die Tendenz wird schon klar bei Herstellerangaben, mehr aber auch nicht.

Streich AMD da mal raus die stapeln immer tief seit Raja weg ist.

Gouvernator
2020-10-31, 09:55:54
Du scheinst wiederholt nicht zu verstehen, dass sich kein Schwanz abgesehen von dir für 8K interessiert. Nische in der Nische... Leute die 1000+ Eur für Grafikhardware ausgeben wollen in der Regel AAA mit mehr als 20 FPS spielen lol
Als ob du schon mal 1000+€ für eine Grafikkarte ausgegeben hast um mitzureden? Leute die elitäre Preise für Grafikarten zahlen wollen auch elitäre Bildqualität. Deswegen paare ich diese Grafikkarte nicht mit einem 1440p Guckloch sondern mit einem 8K TV. Es ist halt jetzt die Frage rauszufinden ob man mit AMD unter diesen Umständen mit mehr als 20 FPS spielen kann?
Tief im Inneren fühlen die Fanboys - wahrscheinlich nicht. Deswegen wird "8K" gleich vorneweg als Blasphemie abgetan. ;D

dargo
2020-10-31, 09:58:37
Als ob du schon mal 1000+€ für eine Grafikkarte ausgegeben hast um mitzureden? Leute die elitäre Preise für Grafikarten zahlen wollen auch elitäre Bildqualität.
Ich hatte immer gedacht Enthusiasten wollen hohe Frameraten und keine Standbilder. :uponder:

Gouvernator
2020-10-31, 10:02:57
Ich hatte immer gedacht Enthusiasten wollen hohe Frameraten und keine Standbilder. :uponder:
Sorry Bro, aber ich war derjenige der seit CRT Zeit "Downsampling" als Begriff vorgestellt und angestoßen hat. Gegen die Meinung von hiesigen Experten hier wie "Coda". Und jetzt? Die machen 8K TVs und Grafikkarten - für mich natürlich.

ChaosTM
2020-10-31, 10:03:32
Ich hab bisher keinen einzigen 5,6 oder 8k Benchmark gesehen..

btw.: ich werde mir bald entweder eine 5k2k oder einen 8K Monitor zulegen. Letzteren beabsichtige ich aber nicht nativ anzusteuern bei neuen Spielen. ;)

dargo
2020-10-31, 10:04:04
@Gouvernator

Du bist echt der Größte. :comfort:

dildo4u
2020-10-31, 10:07:09
Das Fazit von Dural ist komisch AMD hat schon mehrmals HBM2 verbaut also auch ohne Cache hätten sie High-End Modelle gehabt.

ianm
2020-10-31, 10:08:14
Ich hatte immer gedacht Enthusiasten wollen hohe Frameraten und keine Standbilder. :uponder:
Dieser spezielle Fall guckt sich lieber Standbilder an. Oder sein 12"(?) Tablet im Schlafzimmer. Richtiger Enthusiast! Indie-Lover anyone? Von AAA kann hier ja nicht die Rede sein.

Und Lord Almighty Dural, der hat die richtigen Connections. Der weiß alles, der hat auch schon einen 5900X. Der ist so Insider, ihr versteht das alle nur nicht.

https://abload.de/img/unbenannt1pekmq.png

gedi
2020-10-31, 10:10:30
Dieser spezielle Fall guckt sich lieber Standbilder an. Oder sein 12"(?) Tablet im Schlafzimmer. Richtiger Enthusiast! Indie-Lover anyone? Von AAA kann hier ja nicht die Rede sein.

Und Lord Almighty Dural, der hat die richtigen Connections. Der weiß alles, der hat auch schon einen 5900X. Der ist so Insider, ihr versteht das alle nur nicht.

https://abload.de/img/unbenannt1pekmq.png

:biggrin:

Gouvernator
2020-10-31, 10:11:44
Ich hab bisher keinen einzigen 5,6 oder 8k Benchmark gesehen..

btw.: ich werde mir bald entweder eine 5k2k oder einen 8K Monitor zulegen. Letzteren beabsichtige ich aber nicht nativ anzusteuern bei neuen Spielen. ;)
Es gibt außer neue Spiele noch reichlich aufgehübschte Klassiker mit Reshade. Ich habe versucht mein altes gemoddetes Far Cry in 16K laufen zu lassen. Bäm, 23Gb VRAM und 15 FPS. Das sind halt alles auch Testkandidaten für Radeons um deren 16Gb auszulasten.

Savay
2020-10-31, 10:13:53
Klassiker. Mit Reshade. Ich dachte es geht um "elitäre" "Enthusiasten"-HW. :facepalm:

erlgrey
2020-10-31, 10:14:27
wtf, das wird immer absurder hier.
ich hab gehofft dass sich nach dem Release das ganze hier irgendwie mal normalisiert..

ianm
2020-10-31, 10:17:13
Release ist am 18.11., lass die Hoffnung noch nicht fahren. Es wird, es wird.

ChaosTM
2020-10-31, 10:19:14
Viele haben halt keine Freude mit einer ausgeglichenen Situation im Grafikbereich.
Das 1500€ Flaggschiff ist jetzt leider kein echtes Statussymbol mehr ;)

dargo
2020-10-31, 10:22:51
Das 1500€ Flaggschiff ist jetzt leider kein echtes Statussymbol mehr ;)
Ich frage mich ernsthaft wie armselig der eine oder andere drauf sein muss um PC-Hardware als Statussymbol zu sehen. :usweet: Viel können diese Menschen in ihrem Leben noch nicht erreicht haben.

ianm
2020-10-31, 10:23:49
Viele haben halt keine Freude mit einer ausgeglichenen Situation im Grafikbereich.
Das 1500€ Flaggschiff ist jetzt leider kein echtes Statussymbol mehr ;)
Dude, hier sowieso nicht. In diesem Forum stecken viele so voll, da haben einige schon Hardware bevor so offiziell auf den Markt kommt.

Man könnte es auch gut finden, dass Intel und Nvidia zum Handeln gezwungen sind und in zwei Jahren die Entwicklung hoffentlich nochmals exponentiell nach oben geht.

Gouvernator
2020-10-31, 10:24:05
Dieser spezielle Fall guckt sich lieber Standbilder an. Oder sein 12"(?) Tablet im Schlafzimmer. Richtiger Enthusiast! Indie-Lover anyone? Von AAA kann hier ja nicht die Rede sein.

Wie gesagt ich habe schon so Perversionen wie 3200p@30Hz auf einem 22" CRT im Jahr 2005 getrieben. Jetzt ist eben 8K Streaming auf ein 12" 120Hz Tablet dran. Bin ein Marktlückenentdecker für Hersteller. In 10 Jahren könnt ihr mir auch dafür danken. Vorausgesetzt die Welt geht nicht zuvor unter...

dargo
2020-10-31, 10:25:44
Ahhhh... ich kann nicht mehr. ;D ;D ;D

Schnoesel
2020-10-31, 10:27:09
Die Masse wird mehr an den Ergebnissen von 1440p Benches interessiert sein, da wird AMD glänzen und daher wird es sich auch blendend verkaufen, zumal Nvidia eh nicht liefern kann. Ich werde wohl auch wechseln wenn nicht noch ein Wunder geschieht. Ich denke auf die Gouvernators dieser Welt, kann AMD leicht verzichten. 8K Benches... wasn Blödsinn. Wird echt nur noch getrollt in diesem Forum.

ianm
2020-10-31, 10:29:38
Wie gesagt ich habe schon so Perversionen wie 3200p@30Hz auf einem 22" CRT im Jahr 2005 getrieben. Jetzt ist eben 8K Streaming auf ein 12" 120Hz Tablet dran. Bin ein Marktlückenentdecker für Hersteller. In 10 Jahren könnt ihr mir auch dafür danken. Vorausgesetzt die Welt geht nicht zuvor unter...
Danke Gouv, ich hatte ja keine Ahnung. Mach bitte weiter so, was wären wir nur ohne dich!? Vielleicht kannst du dir bei Gelegenheit auch mal die aktuelle Covid19-Forschung anschauen. Oder Krebsforschung. Oder neue Theorien zum Weltfrieden entwickeln. Da könnten wir deinen Intellekt auch gut gebrauchen.

Natürlich nur, wenn du Zeit findest.

Daredevil
2020-10-31, 10:29:50
Die Masse wird mehr an den Ergebnissen von 1440p Benches interessiert sein, da wird AMD glänzen und daher wird es sich auch blendend verkaufen, zumal Nvidia eh nicht liefern kann. Ich werde wohl auch wechseln wenn nicht noch ein Wunder geschieht. Ich denke auf die Gouvernators dieser Welt, kann AMD leicht verzichten. 8K Benches... wasn Blödsinn. Wird echt nur noch getrollt in diesem Forum.
"Die Masse", sofern du damit die "Mehrheit", also über 51% Menschen Weltweit meinst, ist sicherlich weder über FullHD, noch 60hz.

Screemer
2020-10-31, 10:31:54
"Die Masse", sofern du damit die "Mehrheit", also über 51% Menschen Weltweit meinst, ist sicherlich weder über FullHD, noch 60hz.

Muss man eigentlich immer alles absichtlich falsch verstehen oder politisieren? Das das auf eine bestimmte Gruppe gemünzt ist, ist im 3dc ja völlig unmöglich.

dargo
2020-10-31, 10:32:13
"Die Masse", sofern du damit die "Mehrheit", also über 51% Menschen Weltweit meinst, ist sicherlich weder über FullHD, noch 60hz.
Es ist doch offensichtlich war er damit meint. :rolleyes: Die 1440p Gamer die diese Leistung wollen/brauchen. Für alle anderen kommen günstigere Grafikkarten.

ianm
2020-10-31, 10:34:44
"Die Masse", sofern du damit die "Mehrheit", also über 51% Menschen Weltweit meinst, ist sicherlich weder über FullHD, noch 60hz.
1080p ja, aber 144Hz wird immer beliebter. Die Monitore sind mittlerweile erschwinglich und auch die Kids wissen heutzutage was hohe fps, Anti-Lag und Konsorten in Games bringen. Frag mal die Fortnite, Valorant etc. Generation. In dem Bereich wird viel Geld gemacht.

So jemand braucht natürlich keine 3080/6800 aufwärts, es sei denn sie werden gesponsort.

dildo4u
2020-10-31, 10:39:32
Angeblicher Tomb Raider Raytracing Leak.


https://twitter.com/Theswweet/status/1322465603521667072?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1322466 619214295040%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1322466619214 295040

Daredevil
2020-10-31, 10:40:58
Dann muss man das auch so schreiben, Worte haben Bedeutungen. :D
"Die Masse hier im Forum". Jop.
"Es schauen sich mehr Leute WQHD Werte an als UHD". Jop
"Viele Leute interessieren sich für die günstigere Karte". Genau.

Aber die Aussage oben ist halt nicht richtig.
Selbst hier sieht man ja gerade, dass man über WQHD und UHD diskutiert, obwohl nicht jeder ne 4K Kiste Zuhause hat. Der ein oder andere plant einen GPU Kauf ja auch "vorausschauend" und bei der Leistung einer 6800XT/6900XT hat man meistens die Möglichkeit, selbst wenn man einen WQHD Monitor Zuhause hat, immer DSR einzuschalten um quasi die Auflösung zu pimpen.
4K ist auch bei einem WQHD Monitor Nutzer wichtig, wenn die Karte für die Auflösung "zu schnell" ist, und das ist jede neue AMD Karte in WQHD bei einem Großteil der Spiele, sofern man nicht mit 144fps spielen will.

Ich weiß, "zu viel" Leistung kennt man mit Navi1 und WQHD selten, aber mit Navi2 wird sich das schlagartig ändern. ^^
DSR wird da Gang und gebe sein, sofern man Bock auf Eye Candy hat und nicht Strom sparen möchte.

woodsdog
2020-10-31, 10:43:53
Als ob du schon mal 1000+€ für eine Grafikkarte ausgegeben hast um mitzureden? Leute die elitäre Preise für Grafikarten zahlen wollen auch elitäre Bildqualität. Deswegen paare ich diese Grafikkarte nicht mit einem 1440p Guckloch sondern mit einem 8K TV. Es ist halt jetzt die Frage rauszufinden ob man mit AMD unter diesen Umständen mit mehr als 20 FPS spielen kann?
Tief im Inneren fühlen die Fanboys - wahrscheinlich nicht. Deswegen wird "8K" gleich vorneweg als Blasphemie abgetan. ;D

Du vergreifst dich hier ganz schön im Ton mit diesem pseudo-Elitären Gequatsche.
Faselst in einem Thread was von Bildqualität und im anderen Thread wie geil doch "ich streame übers WLAN auf ein 12" Tablet" ist weil Strom zu teuer für die 8K Mattscheibe.
Hat ein wenig was von Trump hier mit dir. Der merkt es auch nie wenn keiner ihn ernst nimmt lol

Schnoesel
2020-10-31, 10:49:00
Naja das waren in den Schulen eben Transferaufgaben. Da waren manche eben nicht so gut drin. Passt schon.

Daredevil
2020-10-31, 10:49:06
Gouvernator vereint die aktuell maximal möglichen PPI mit High Refreshrate und der aktuell besten Panel Technik.
OLED, 120hz, 266ppi, da bekommt man schon was fürs Auge, das kann man nicht abstreiten. Ob einem die Größe passt oder nicht, ist halt Geschmackssache. Manche spielen mit 27" und denken sich "lol ist das klein". Manche spielen mit 27" und denken sich bei meinen 55" "lol ist das groß".
Jeder von uns hat halt seine Bubble, wa. :)

ChaosTM
2020-10-31, 11:05:12
Als ich vor 6 Jahren auf 4k wechselte hab ich anfangs auch alle genervt mit "wie toll 4k ist"..

add.: die tollen Folgekosten hab ich natürlich nicht erwähnt

Das gibt sich wieder ;)

dargo
2020-10-31, 11:11:48
Gouvernator vereint die aktuell maximal möglichen PPI mit High Refreshrate und der aktuell besten Panel Technik.
OLED, 120hz, 266ppi, da bekommt man schon was fürs Auge, das kann man nicht abstreiten.
Kann er ja machen. Nur wäre das im 8k-Thread besser aufgehoben. Mein Sehvermögen sowie Input-Gefühl ist leider nicht träge genug für 8k.

MikePayne
2020-10-31, 11:12:58
Wie gesagt ich habe schon so Perversionen wie 3200p@30Hz auf einem 22" CRT im Jahr 2005 getrieben. Jetzt ist eben 8K Streaming auf ein 12" 120Hz Tablet dran. Bin ein Marktlückenentdecker für Hersteller. In 10 Jahren könnt ihr mir auch dafür danken. Vorausgesetzt die Welt geht nicht zuvor unter...

Bitte nicht wie Napoleon die eigene Propaganda glauben.
Gaming auf einem 12" Tablet in egal welcher Auflösung ist jedenfalls kein Burner. Wer die 8K Marketingpille von Jensen geschluckt hat, muss mit den Nebenwirkungen klarkommen.

M4xw0lf
2020-10-31, 11:19:25
Angeblicher Tomb Raider Raytracing Leak.


https://twitter.com/Theswweet/status/1322465603521667072?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1322466 619214295040%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1322466619214 295040
Wenn das wirklich eine 6800, also die kleinste Big Navi-Ausbaustufe ist, dann ist das ein gutes Ergebnis. Wenn eine der größeren Varianten, dann nicht so prall.

Gouvernator
2020-10-31, 11:41:40
Gouvernator vereint die aktuell maximal möglichen PPI mit High Refreshrate und der aktuell besten Panel Technik.
OLED, 120hz, 266ppi, da bekommt man schon was fürs Auge, das kann man nicht abstreiten. Ob einem die Größe passt oder nicht, ist halt Geschmackssache. Manche spielen mit 27" und denken sich "lol ist das klein". Manche spielen mit 27" und denken sich bei meinen 55" "lol ist das groß".
Jeder von uns hat halt seine Bubble, wa. :)
Korrektur! Es war bis jetzt nicht die maximal mögliche PPI. Zum jetzigen Zeitpunkt existiert nur ein einziger Smartphone Bildschirm mit der allergrößten PPI der Sony Xperia XZ Premium mit nativ 4K und 806 PPI. Was ich zufällig besitze... und es decodet mein 4K/60Hz(150mbps) Stream mit flüffigen 19ms. Wie soll ich den Herren hier Mortal Combat 11 in 8K DSR auf 800 PPI am besten beschreiben? ;D
Ja jetzt kreuzigt mich.

Neurosphere
2020-10-31, 11:47:07
Wenn das wirklich eine 6800, also die kleinste Big Navi-Ausbaustufe ist, dann ist das ein gutes Ergebnis. Wenn eine der größeren Varianten, dann nicht so prall.

Taktbereinigt und auf die CUs gerechnet könnte man das Ergebnis mit der 6900 XT wohl um 43% überbieten wenn RT 1 zu 1 skaliert.


Wie sieht es bei AMD eigentlich mit Crossfire aus? Es gab da ja mal PAtente zu verbesserten Techniken. Oder sieht es so aus wie mit SLI?

gedi
2020-10-31, 11:57:03
Taktbereinigt und auf die CUs gerechnet könnte man das Ergebnis mit der 6900 XT wohl um 43% überbieten wenn RT 1 zu 1 skaliert.


Wie sieht es bei AMD eigentlich mit Crossfire aus? Es gab da ja mal PAtente zu verbesserten Techniken. Oder sieht es so aus wie mit SLI?

Sollte in DX12 und Vulkan funktionieren - wenn es gleich wie RDNA1 ist.

Savay
2020-10-31, 12:04:48
Soso. Die Gouvernante hat also Supersampling erfunden. Vor ihm ist da noch nie jemand drauf gekommen.
Ich bin echt baff. Glückwunsch.

r3ptil3
2020-10-31, 12:15:48
Angeblicher Tomb Raider Raytracing Leak.


https://twitter.com/Theswweet/status/1322465603521667072?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1322466 619214295040%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1322466619214 295040

Auf Basis eines 3500X?

CPU und Tomb Raider kennt man ja...

arcanum
2020-10-31, 12:29:38
Taktbereinigt und auf die CUs gerechnet könnte man das Ergebnis mit der 6900 XT wohl um 43% überbieten wenn RT 1 zu 1 skaliert.

eher 33,3% im best case

die 6800 entspricht genau 3/4 des vollausbaus (minus speicher/interface und cache).

ChaosTM
2020-10-31, 12:34:00
Sobald die Treiber fertig sind gibts auch mehr DXR Leaks. Xbone X Watchdogs ist aber vielversprechend..

reaperrr
2020-10-31, 12:36:12
eher 33,3%

die 6800 entspricht genau 3/4 des vollausbaus (-speicher/interface und cache).
Da RT meines Wissens auch viel Bandbreite braucht, würde ich mit unter 30% taktbereinigtem Vorteil für die 6900XT rechnen, da bei der 6800 effektiv mehr Cache und Bandbreite je Einheit zur Verfügung stehen.

Thunderburne
2020-10-31, 12:41:14
https://wccftech.com/amd-radeon-rx-6800-rdna-2-graphics-card-ray-tracing-dxr-benchmarks-leak-out/

ChaosTM
2020-10-31, 12:42:41
Ging ja schnell ^^

[MK2]Mythos
2020-10-31, 12:50:58
Also fast auf Ampere Niveau wenn ich das richtig deute. Passt doch. Damit kann man locker leben. Ich möchte dann bitte jetzt bestellen. Danke. :biggrin:

ChaosTM
2020-10-31, 12:53:03
jetzt bleibt nur mehr DLSS ..

Wenn es bis zum Launch was gibt, reicht das ;)

Dampf
2020-10-31, 12:54:18
Wenn das wirklich stimmt, dann wäre das super. Dann verstehe ich aber nicht, warum AMD so geheimnisvoll mit der RT Performance ist. Macht irgendwie kein Sinn.

Naja erstmal richtige Tests abwarten und mit Games die mehr als nur Schatten rendern.

ChaosTM
2020-10-31, 12:57:58
Sie machen das diesmal ziemlich klug. Schmeißen uns die Leistung häppchenweise vor die Füße.. hält den Hype am köcheln..

r3ptil3
2020-10-31, 13:01:21
Sie machen das diesmal ziemlich klug. Schmeißen uns die Leistung häppchenweise vor die Füße.. hält den Hype am köcheln..

Wenn man es kann, wieso nicht.

6800 XT + 5900X sehe ich momentan als die perfekte Kombination.

arcanum
2020-10-31, 13:12:03
Wenn das wirklich stimmt, dann wäre das super. Dann verstehe ich aber nicht, warum AMD so geheimnisvoll mit der RT Performance ist. Macht irgendwie kein Sinn.

Naja erstmal richtige Tests abwarten und mit Games die mehr als nur Schatten rendern.

weil max settings+4k+max rt bei den meisten spielen im 3x fps-bereich landet und kommende titel (cyberpunk) wahrscheinlich nicht weniger fordernd werden. ohne dlss-alternative lohnt es sich wohl kaum mit so einer performance werbung zu machen.

Der_Korken
2020-10-31, 13:22:39
Angeblicher Tomb Raider Raytracing Leak.


https://twitter.com/Theswweet/status/1322465603521667072?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1322466 619214295040%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html1322466619214 295040
https://wccftech.com/amd-radeon-rx-6800-rdna-2-graphics-card-ray-tracing-dxr-benchmarks-leak-out/

Hm welche Vergleichswerte sind jetzt korrekt? Auf Twitter werden Werte von techpowerup dagegen gehalten, wo die 2080Ti auf 49/87 fps kommt (4K/1440p), auf WTF-Tech sind es 40/75 fps. Bei letzteren Werten und der Annahme, dass es eine 6800 nonXT ist, wären die Werte ganz passabel, vielleicht gute 10% Verlust auf Nvidia im Vergleich zu keinem RT. Mit den techpowerup-Werten wären die Ergebnisse aber schon etwas übler, da würde selbst die 6900XT ne gute Ecke unter der 3080 rauskommen.

Gut, man muss auch bedenken, dass die Treiber vielleicht noch nicht gut sind. Wäre jedenfalls sehr unklug von AMD erst den großen Hype aufzubauen mit den neuen Karten und dann bei RT anzustinken. Ich glaube da hätten die am Mittwoch eine Palette tiefer gestapelt und die 6900XT gegen die 3080 gestellt. Dann hätte man sagen können +10% in Rasterizer und -10% in RT = gleiche Performance.

Nazar
2020-10-31, 13:24:14
Na wenn man sich anschaut, wie energisch hier gestritten und gepöbelt wird und das quasi 24/7, möchtest du wirklich behaupten es gäbe hier kein Lagerdenken mit Brillen in der jeweiligen Farbe?;D

Du kommst in den "Saal", stemmst die Fäuste in die Seiten und Brüllst: "AMD sind Lügner und wer das nicht glaubt ist ein Fanboy!"
Anschließend erklärst du, das jeder Widerspruch zu deiner Aussage dieselbe bestätigst und das die anderen alle keine Ahnung haben.
Argumentation = 0,0 :freak:

Bisher hast du einige Dinge von dir offenbart:
1. offensichtlich hast du den höchsten DAN im sequentiellen Lesen
daraus folgt wiederum
2. du bist nicht in der Lage das Gelesene zu verstehen, da du nicht mal die auf dieser Internetplattform zur Verfügung stehen Informationen deuten kannst.
und daraus ergibt sich wiederum
3. ob dieses Mangels beleidigst du alle Leute, die dir widersprechen, unabhängig aller vorgebrachten Argumente, als Pöbler.
das ergibt in der Summe
4. Du bist nicht an einer Diskussion interessiert, sondern möchtest nur beleidigen.

Ernsthaft? :freak:

Wenigstens bist du lustig.... ;D

Blabla navi wäre genau dort rausgekommen ohne den cache, keiner hat erwartet das amd da 128mb reinsteckt. Übrigens habe ich immer wieder betont wie das wohl amd lösen wird, und ich habe gesagt das amd min. 100mb rein stecken muss...

Was soll es den sonst sein wenn die karten sogar in den eigenen amd 4k bench zurückfallen.

Wolltest du dich nicht vom Forum abmelden?
Schön, dass du es nicht machst. Auch du bist lustig. ;)

Emil_i_Lönneberga
2020-10-31, 13:28:01
wtf, das wird immer absurder hier.
ich hab gehofft dass sich nach dem Release das ganze hier irgendwie mal normalisiert..

Ist bei jedem Release und in jedem Forum seit jeher dasselbe Theater.

Merke dir bis zum 18.11 einfach folgende Einstufung:

3090 ~ 6900XT
3080 ~ 6800XT
3070/2080Ti < 6800 < 3080

Dann suchst du dir vom 18.11. bis 20.11. die Testberichte heraus, die dein Weltbild bestätigen.
Sinnvoller wäre es, wenn du auf die Launch-Analyse, in der für eine möglichst objektive Beurteilung die Ergebnisse einiger Seiten miteinander verrechnet werden, wartest.

https://m.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3080/launch-analyse-nvidia-geforce-rtx-3080-seite-2

Die nächsten zwei Wochen wird es nur noch nichtssagenden Leaks wegen fehlender Infos zu den Rahmenbedingungen geben, in die dann irgendwas reininterpretiert wird.

Linmoum
2020-10-31, 13:32:18
Hm welche Vergleichswerte sind jetzt korrekt? Auf Twitter werden Werte von techpowerup dagegen gehalten, wo die 2080Ti auf 49/87 fps kommt (4K/1440p), auf WTF-Tech sind es 40/75 fps. Bei letzteren Werten und der Annahme, dass es eine 6800 nonXT ist, wären die Werte ganz passabel, vielleicht gute 10% Verlust auf Nvidia im Vergleich zu keinem RT. Mit den techpowerup-Werten wären die Ergebnisse aber schon etwas übler, da würde selbst die 6900XT ne gute Ecke unter der 3080 rauskommen.Da niemand weiß, was und wie genau TPU gebencht hat, sind die Werte als Vergleich sowieso sinnlos.

Wenn wtftech keinen Quatsch schreibt, haben sie den internen Benchmark mit exakt denselben Settings laufen lassen wie aus dem Leak. Das kann man dann für diesen Fall auch vergleichen. Interne Benchmarks sind sicher immer besser reproduzierbar, aber ingame-Werte wären natürlich sinnvoller. Aber die hat man ja leider noch nicht.

Awrack
2020-10-31, 13:39:06
Wenn man es kann, wieso nicht.

6800 XT + 5900X sehe ich momentan als die perfekte Kombination.

Naja in 4K nicht wirklich.

Grendizer
2020-10-31, 13:41:38
Warum ? Die meisten 4k Monitore liefern nur 60 fps. Dafür reicht auch eine 6800.... nur die wenigsten werden 4k mit 120 hz haben. Und dafür reichen dann weder 3090 noch 6900XT.

Nazar
2020-10-31, 13:43:13
Naja in 4K nicht wirklich.

Warum? :confused:

Daredevil
2020-10-31, 13:47:22
Zen3 ist für HighFPS gemacht.
RDNA2 ab 6800XT ist für 4K gemacht.
Beides kann man kombinieren, muss man aber nicht.
Da wäre es klüger, sich auf sein Setup zu fokussieren.

Wenn es also 240-360FPS sein soll, nimmt man ne dickere CPU + schnellen RAM, um maximal FPS zu bekommen, dafür reicht dann auch eine 6800 in FullHD.
Wenn es 4K+ sein soll, nimmt man eine dickere GPU und ggf. dort auch eine WaKü, um maximal viel GPU Power zu bekommen, dafür reicht dann auch ein 5600X ( Wenn überhaupt... )

Also nicht, dass so eine Kombination falsch ist, das ist quasi die "Allzweckwaffe gegen und für alles", aber man kann sein Setup auf sein "Problem" aka Monitor durchaus optimieren, als einfach Geld aus dem Fenster zu werfen.
Und 12 Zen3 Kerne........ ^^

gedi
2020-10-31, 13:55:20
Wenn das wirklich stimmt, dann wäre das super. Dann verstehe ich aber nicht, warum AMD so geheimnisvoll mit der RT Performance ist. Macht irgendwie kein Sinn.

Naja erstmal richtige Tests abwarten und mit Games die mehr als nur Schatten rendern.

Der Treiber fehlte es an RT-Support

Iscaran
2020-10-31, 13:57:34
problem ist nur, wenn wer ohne DLSS spielen will, langt mit RT nichtmal ne 3090 um 60fps durchgehend zu halten max out... in 1080p versteht sich.

Ich dachte einer der Gründe warum man in RT die Zukunft sieht ist, dass die erforderliche GPU-Leistung eben nicht mehr direkt mit der Auflösung skaliert, bzw. sogar noch überproportional.

Also Bsp.: Wenn man mit Rasterizing in FHD 120 FPS hat, hat man in der
doppelten Auflösung in der Regel dann MEHR als faktor 2 weniger.

Also z.B. dann in 4k eben nur 30 FPS

Mit RT hingegen sollte doch die Skalierung zu höheren Auflösungen nicht mehr überproportional sein...heist also wenn ich 60 FPS in FHD habe, sinds dann eben auch 30 FPS in 4k.

Das wäre dann eigentlich identisch wie die Rasterperformance bei höheren Auflösungen.

pixeljetstream
2020-10-31, 14:02:17
Ich dachte einer der Gründe warum man in RT die Zukunft sieht ist, dass die erforderliche GPU-Leistung eben nicht mehr direkt mit der Auflösung skaliert, bzw. sogar noch überproportional.

Also Bsp.: Wenn man mit Rasterizing in FHD 120 FPS hat, hat man in der
doppelten Auflösung in der Regel dann MEHR als faktor 2 weniger.

Also z.B. dann in 4k eben nur 30 FPS

Mit RT hingegen sollte doch die Skalierung zu höheren Auflösungen nicht mehr überproportional sein...heist also wenn ich 60 FPS in FHD habe, sinds dann eben auch 30 FPS in 4k.

Das wäre dann eigentlich identisch wie die Rasterperformance bei höheren Auflösungen.

FHD zu 4K ist die vierfache Menge an Pixeln :) nicht die doppelte

Raytracing kann besser skalieren wenn die Hauptlast per Pixel ist. Also sowas wie path tracing wo es keine Shadowmaps etc. mehr gibt.
Man hat zwar auch einen Szenen abhängigen Aufwand, die bvhs updaten, dieser muss aber nur einmal passieren und skaliert eigentlich auch Recht gut.

Solange wir aber hybrid unterwegs sind profitiert man davon noch nicht so ganz, auch weil man die Hardware ja noch nicht vollends in eine Richtung bauen kann.

Du hast in Games auch viel mehr Effekte die um rasterization gebaut wurden (Partikel etc.).

Die Vergleiche Raster vs Raytracing kommen eher vom Film und high-end. Wo die Datenmenge/Komplexität so groß ist, das RT seine Vorteile ausspielen kann.