Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread
Seiten :
[
1]
2
3
4
5
6
7
8
Leonidas
2020-11-18, 13:49:10
Modell|Technik|Listenpreis|Release
Radeon RX 6900 XT|Navi 21 XTX, 80 CU @ 256 Bit, 16 GB GDDR6|$999|8. Dezember 2020
Radeon RX 6800 XT|Navi 21 XT, 72 CU @ 256 Bit, 16 GB GDDR6|$649|18. November 2020
Radeon RX 6800|Navi 21 XL, 60 CU @ 256 Bit, 16 GB GDDR6|$579|18. November 2020
Liste der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/launch-von-amds-radeon-rx-6800-6800-xt-die-launchreviews-gehen-online) & Videocardz (https://videocardz.com/newz/amd-radeon-rx-6800-series-review-roundup).
-> erster Performance-Überblick auf UltraHD/4K (https://www.3dcenter.org/news/radeon-rx-6800-xt-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick)
Dural
2020-11-18, 15:06:42
So ein Theater und dann das, RT praktisch unbrauchbar, die 3080 nach wie vor schneller etc.
Performence/Watt ist die 6800XL mit Mühe und Not leicht vor der 3070. Trotz besserer Fertigung, trotz Wunder Cache.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/
sulak
2020-11-18, 15:11:20
Hä, sieht doch gut aus, RX6800 auf RTX3070 Niveau, die RX6800XT liegt darüber, jetzt muss nur der Preis runter und der Verfügbarkeit rauf.
Adam D.
2020-11-18, 15:12:30
So ein Theater und dann das, RT praktisch unbrauchbar, die 3080 nach wie vor schneller etc.
Performence/Watt ist die 6800XL mit Mühe und Not leicht vor der 3070.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/
Du bist so ein Affe, echt. Vor ein paar Wochen hieß es von dir noch, wie uneinholbar weit vorne NV bei Perf/W ist - und das ist jetzt dein abschließendes Fazit, nachdem deine gesamten Aussagen von Anfang an komplett für den Arsch waren. Manche Leute biegen sich ihre Welt echt Trump-mäßig zurecht.
Mit Mühe und Not - und doppelt so viel Speicher. Wirklich peinliche Leistung von AMD.
Awrack
2020-11-18, 15:13:05
Der Kühler scheint super, ansonsten Mega Enttäuschung bei dem ganzen Hype der um die Karten gemacht wurde.
Adam D.
2020-11-18, 15:14:29
Der Kühler scheint super, ansonsten Mega Enttäuschung bei dem ganzen Hype der um die Karten gemacht wurde.
WTF habt ihr denn erwartet? Da hast du das erste Mal seit fast einen Jahrzehnt Konkurrenz im High-End und alle heulen rum. Was ist denn mit den Leuten inzwischen los hier?
Rancor
2020-11-18, 15:16:06
Ich finde die Karten interessant. Alleine schon wegen den 16 GB bei gleicher Performance zur 3080. Unter RT sind mir ehh alle Karten zu langsam, daher ist das noch kein Thema für mich.
Einzig und alleine mein G-Sync Monitor hält mich noch ab auf AMD umzusteigen.
Dural
2020-11-18, 15:16:25
Vor ein paar Wochen gab es den Cache aber auch noch nicht :rolleyes:
Und nur zur Erinnerung, hier wurde schon behauptet das die 6800XT so schnell wie eine 3090 ist. :rolleyes:
chaospanda
2020-11-18, 15:16:56
MF locker flockig 150€ Aufpreis bei der 6800XT... 6800 auch 110€on Top
w0mbat
2020-11-18, 15:17:06
Die 6800 schlägt die 3070 locker und ist kein Speicherkrüppel, die 6800 XT ist auf Augenhöhe mit der 3080 und ist kein Speicherkrüppel (die "neuen Spiele", wo BigNavi schneller ist als Nvidia, fließen bei CB nicht ins Gesamtranking ein. Seltsam...). Bessere Energieeffizienz und RT schon jetzt auf dem Niveau der 3070. Das kann auch nur besser werden.
Insg. ganz klar die besseren Karten vs Ampere. Ich weiß nicht, was Nvidia gemacht hat. Aber sie haben es falsch gemacht :D
mironicus
2020-11-18, 15:18:00
Bei Igor ist die RX 6800 XT mit SAM etwas schneller als die RTX 3080 in WQHD.
dildo4u
2020-11-18, 15:18:02
Vor ein paar Wochen gab es den Cache aber auch noch nicht :rolleyes:
Und nur zur Erinnerung, hier wurde schon behauptet das die 6800XT so schnell wie eine 3090 ist. :rolleyes:
Kommt aufs Game an.NV hat ein komplett Ausfall bei Dirt 5.
https://youtu.be/ZtxrrrkkTjc?t=270
Bessere Frametimes mit Valhalla.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-assassins-creed-valhalla-3840-2160
Daredevil
2020-11-18, 15:19:45
WTF habt ihr denn erwartet?
In AMD Benches war die Karte vor der 3080, Real ist sie hinter der 3080. Erwartungen, die AMD halt nicht richtig gesetzt hat.
AMD:
3080:58fps
6800XT: 66fps
Computerbase:
3080:67fps
6800XT: 61fps
Viele haben einen 3080 "Killer" erwartet, ich auch. Ist es wohl nicht.
Was nicht bedeutet, dass es keine schlechte Karte ist.
Nur ob man wirklich nur 6GB Speicher als einzigen Vorteil nimmt, den so eine 6800XT hat ( Mal abgesehen von RT ), muss halt jeder für sich selber wissen. Die XT kostet zudem aktuell mehr. ^^
w0mbat
2020-11-18, 15:20:05
Bei Igor ist die RX 6800 XT mit SAM etwas schneller als die RTX 3080 in WQHD.
In vielen reviews ist die 6800 XT gleich schnell bzw. sogar schneller als die 3080. CB hat einen sehr Nvidia-Lasting bench parkour und die extra getesteten "neuen Spiele", wo BigNavi Ampere dominiert, fließen nicht in die Gesamtwertung ein.
ComputerBase benched alte und Nvidia-Lastige Spiele. In einem modernen Test schägt die 6800 XT die 3080.
blaidd
2020-11-18, 15:21:06
Btw.: In Dirt 5 und Assassin's Creed Valhalla (beide AMD-sponsored, beide Titel erscheinen auf den Ryzen+Navi-Next-Gen-Konsolen) schlägt die RX 6800 in Full HD eine OC'd RTX 3090... mit SAM wird der Abstand sogar noch ein wenig größer.
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/ (https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/)
Dural
2020-11-18, 15:21:13
Also ich bin mehr als entäuscht nach den ganzen Hype.
Der_Korken
2020-11-18, 15:21:58
Mal was abseits der Gaming-Performance:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_leistungsaufnahme_desktop_youtube_und_spiele
6W Idle-Verbrauch. "Hui" denkt man sich. Dann sieht man den Verbrauch bei Youtube-Videos: 51W :down:. Kriegt AMD das wohl jemals vernünftig hin? Gefühlt wird es bei jeder Generation schlimmer. Habe zwar kein Dual-Monitor, aber da rollen gerade bestimmt auch schon einige mit den Augen.
Lurtz
2020-11-18, 15:22:07
Igor ist Fan der 6800 und hält das Speicherinterface der 6800 XT für zu klein für 4k - die 6800 XT wird ja fast verrissen:
Die RX 6800 ist hier fast schon die interessantere Karte von den beiden Radeons, denn der mögliche Leistungszuwachs durch eine Übertaktung, die deutlich höhere Effizienz und letztendlich auch der Abstand zur GeForce RTX 3070 machen sie zu einer Art Einzelkämpferin, die aktuell ziemlich einsam ihre Kreise zieht, denn sowohl nach unten als auch nach oben ist genügen Luft und echte Gegenspieler sind Mangelware.
Man kann über die in der Relation zum Preis eher mickrigen 10 GB GDDR6X der RTX 3080 schimpfen wie man will, sie sind unterm Strich besser angebunden, deutlich schneller als der GDDR6-Speicher und man kommt auch so schnell nicht ins Bandbreiten-Limit. Mit SAM kann es AMD einigermaßen kompensieren, so dass es am Ende (aber nur mit SAM) sogar noch zum gefühlten Gleichstand kommt. Ohne allerdings geht es definitiv nicht.
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/
Die Raytracing-Performance ohne DLSS-Äquivalent vergleicht er mit Turing und hält sie für unbrauchbar:
Kommen wir nun zum Raytracing. Um auf den Radeons zumindest Frameraten mit 60 FPS und besser zu erreichen, muss man die Auflösung oder die Qualität der Effekte enorm einschränken. Um aber auch optisch ein Urteil fällen zu können, sollte man es bei den Effekte nie zu niedrig einstellen. Genau deshalb habe ich auch nur in 1080p getestet. Hier vermisst man generell und sehr schmerzlich Dinge wie DLSS 2.0. die die Strahlen-Show hätten beschleunigen können. AMD ergeht es mit den RX6000er Karten gefühlt wie NVIDIA vor 2 Jahren mit Turing: schöner sterben im Spiel, dafür aber in Zeitlupe.
Ja, es geht durchaus auch mit DXR und wenn man die Settings nur weit genug reduziert, dann auch im spielbaren Bereich. Aber so richtig überzeugend ist es nicht, wenn dann selbst eine GeForce RTX 3070 ohne DLSS der RX 6800XT im Nacken sitzt. Ich habe bewusst ein altes Spiel, ein etwas neueres und ein ganz neues Spiel getestet – es war stets die gleiche Problematik. Ohne DLSS wird man derzeit mit Raytracing sogar bei NVIDIA nicht vollumfänglich glücklich, wenn man in WQHD oder sogar Ultra-HD spielen möchte. Mit den Radeon-Karten gehen diese Auflösungen nur noch im Schneckentempo.
Hasenpfote
2020-11-18, 15:22:10
Wenn die 6800 im Sommer für 450€ zu haben ist, schlag ich zu.
Bis dahin dürften auch die gröbsten Treiberprobleme und Kinderkrankheiten behoben sein.
Nun bloß hoffen, dass die Miner nicht zuschlagen. Aber die bescheidene (laut Golem) Performance außerhalb von Gaming z.B. Blender und Luxmark, macht da Hoffnung.
edit: sehe gerade fast 40W für Dual Monitor :freak: hat AMD verpennt, dass bei uns die CO2-Steuer ins Haus steht? VIelleicht sollten FFF und Greenpeace mal AMD auf's Dach steigen.
Dural
2020-11-18, 15:23:54
Ja die 6800LE kommt am besten weg. Aber auch nur weil es ein massiv beschnittener Chip ist und die Bandbreite offensichtlich halt doch nicht ausreicht für die grossen Karten.
Linmoum
2020-11-18, 15:27:05
In AMD Benches war die Karte vor der 3080, Real ist sie hinter der 3080. Erwartungen, die AMD halt nicht richtig gesetzt hat.
https://i.gyazo.com/eadd851ca3c2eef4c8f97c7c855cf09f.png
3%. The fuck is wrong with the internet. Auch bei TPU ist's kaum mehr und die haben nur avg. fps.
Viele haben einen 3080 "Killer" erwartet, ich auch.Dann tust du und ihr mir leid.
Ansonsten:
https://i.gyazo.com/cba93538d26e0f9d5c0f70f2b9b8f873.png
w0mbat
2020-11-18, 15:27:39
Also ich bin mehr als entäuscht nach den ganzen Hype.
Wieso denn? Die Karten sind schneller, bzw. auf Augenhöhe mit der Konkurrenz, sind effizienter, haben ausreichend Speicher und eine sehr gute Kühlung (vor allem die XT).
Das ist doch mehr als sich alle erhofft haben. Und die 6900 XT kommt ja noch :cool:
y33H@
2020-11-18, 15:28:57
aber aber aber aber Raytracing :freak:
Daredevil
2020-11-18, 15:30:31
https://i.gyazo.com/eadd851ca3c2eef4c8f97c7c855cf09f.png
3%. The fuck is wrong with the internet. Auch bei TPU ist's kaum mehr und die haben nur avg. fps.
Vergleich doch mal Borderlands von AMD und Borderlands von Computerbase. (:
Ich sag doch, dass es eine gute Karte ist. Aber AMD hat vorher was falsches suggeriert, auch wenn der Unterschied nur minimal ist.
Laut AMD hatte man in 4K 5fps mehr, real sind es weniger, hat scho ein gschmäckle.
Für 4K ist die 3080@10GB aber eh nichts, das ist aber wiederum ein anderes Thema. :D
Sehr schnell und viel Speicher vs. Schnell und sehr viel Speicher. ^^
Ansonsten natürlich beindruckende Leistung von AMD, in einem Schlag Rohperformance UND Raytracing einzubauen.
Hakim
2020-11-18, 15:30:38
WOW Endlich hat AMD am Multimonitor Mode gearbeitet. Hat mich seit Jahren bei AMD gestört, der Punkt ist endlich beseitigt und sieht auch sehr gut aus.
Edit: Wobei wieder wohl was nicht passt, Techpowerup bescheinigt 7W im Multi, CB 60W ?
Screemer
2020-11-18, 15:33:13
schöne karten. top kühlung und gute leistung. leider bin ich von der durchwachsenen RT-leistung doch enttäuscht.
kudos an raff für die umfangreiche testreihe mit teilweise auch wirklich alten karten (980ti, 390).
Dural
2020-11-18, 15:33:34
AMD hat ganz klar gesagt die 6800XT ist schneller als 3080. Das ist sie aber nicht, sie ist sogar Messbar langsamer.
Und RT ist gleich ein Co Kriterium.
Ich wollte mir die 6900XT kaufen, nach dem wie die 6800XT abschneidet kann man mit etwa 3080 Leistung rechnen. Definitiv zu wenig für 1000.- da hole ich mir lieber die 3090 :rolleyes:
Diese hin und her kotzt mich langsam an :freak:
Blediator16
2020-11-18, 15:33:57
Stellt euch vor Nvidia galt als uneinholbar, dann kommt AMD mit absolut konkurrenzfähigen Produkten und was passiert? Es ist nicht genug ;D;D;D
AMD hat ganz klar gesagt die 6800XT ist schneller als 3080. Das ist sie aber nicht, sie ist sogar Messbar langsamer.
Und RT ist gleich ein Co Kriterium.
Ich wollte mir die 6900XT kaufen, nach dem wie die 6800XT abschneidet kann man mit etwa 3080 Leistung rechnen. Definitiv zu wenig für 1000.- da hole ich mir lieber die 3090 :rolleyes:
Diese hin und her kotz mich langsam an :freak:
Interessant, dass du so tust, als ob du komplett alleine in diesem Thread mit dir selbst redest ohne auch auf deinen bereits widerlegten Quatsch einzugehen.
Grendizer
2020-11-18, 15:35:09
Der Preise mit 789-849 für eine XT ist wahnsinn... UVP Preise werden wir dann vermutlich lange nicht sehen
sunshine
2020-11-18, 15:35:28
Wie viel ist da wohl noch mit besseren Treibern zu retten? Die AIBs werden sicher Preise haben wie die 3080 Pendants und da hat fuer mich Nvidia (leider!) die Nase vorn. Hier in den USA uebrigens auch alles direkt auf Out of Stock. No chance.
dildo4u
2020-11-18, 15:35:32
AMD hat ganz klar gesagt die 6800XT ist schneller als 3080. Das ist sie aber nicht, sie ist sogar Messbar langsamer.
Und RT ist gleich ein Co Kriterium.
Ich wollte mir die 6900XT kaufen, nach dem wie die 6800XT abschneidet kann man mit etwa 3080 Leistung rechnen. Definitiv zu wenig für 1000.- da hole ich mir lieber die 3090 :rolleyes:
Diese hin und her kotz mich langsam an :freak:
Wie immer man kann sich das raussuchen was zu seinem eigenen Bias passt, ich würde sagen neutral betrachtet 1440p AMD und für 4k Nvidia.
https://youtu.be/ZtxrrrkkTjc?t=758
Menace
2020-11-18, 15:36:58
aber aber aber aber Raytracing :freak:
Nein, leider aber aber aber der Multimonitorbetrieb.
BlacKi
2020-11-18, 15:38:19
zum glück geht bei den amd karten mehr OC als bei ampere, die können sich ja richtig absetzen... NOT.
die 6800 ist trotz oc meilen weit von der XT weg.
Leonidas
2020-11-18, 15:38:49
TweakTown-Test hat einen schönen Titel: Makes AMD Great Again
https://www.tweaktown.com/reviews/9667/amd-radeon-rx-6800-xt-rdna-2-totally-makes-great-again/index.html
Adam D.
2020-11-18, 15:39:01
Der Sprung von N10 zu N20 im gleichen Prozess ist INSANE. Dass AMD im höheren Leistungssegment mal Perf/W-Leader ist, hätte man sich vor ein paar Monaten echt noch nicht erträumen können.
RT ist aber wirklich mickrig, das wird ohne den DLSS-Konkurrenten quasi keinerlei praktischen Nutzen haben. Mir ist es egal, aber da muss man schon ehrlich sein.
rentex
2020-11-18, 15:39:29
Enttäuscht? Alter, das Ergebnis ist mehr als heftig. NV ist mit einem blauen Auge weggekommen und hier wird gemotzt...ich packs ned.
mironicus
2020-11-18, 15:40:41
Nein, die Karten sind gut. Und das Referenz-Design ist top bei der Kühlleistung.
maximus_hertus
2020-11-18, 15:41:00
AMD hat ganz klar gesagt die 6800XT ist schneller als 3080.
Wo hat AMD das gesagt?
Das ist sie aber nicht, sie ist sogar Messbar langsamer.
Ist das so? ODer hängt das stark vom verwendeten Parcour ab?
Und RT ist gleich ein Co Kriterium.
Jo, wie die RTX Karten eine immer noch viel zu geringe RTX Performance. In 4-5 Jahren werden wir wohl KArten sehen, bei denen RTX sinnvoll einsetzbar ist. Wenn es gut läuft.
Ich wollte mir die 6900XT kaufen, nach dem wie die 6800XT abschneidet kann man mit etwa 3080 Leistung rechnen. Definitiv zu wenig für 1000.- da hole ich mir lieber die 3090 :rolleyes:
Diese hin und her kotzt mich langsam an :freak:
Nein, auch die 6900XT wird deutlich(!) langsamer als die 3080 sein (RTX).
Linmoum
2020-11-18, 15:43:06
zum glück geht bei den amd karten mehr OC als bei ampere, die können sich ja richtig absetzen... NOT.
die 6800 ist trotz oc meilen weit von der XT weg.Meinst du das """OC""" wie von CB, wo nur stumpf das PT aufgedreht wird und das war's? Ja, so übertaktet man richtig, um den maximalen Takt samt maximal möglicher Leistung zu bekommen... NOT. ;D
dargo
2020-11-18, 15:43:16
Also die Lüftersteuerung hat AMD bei der RX 6800 bissel verkackt. :freak:
RX 6800 = 1700RPM @41dB bei 68°C GPU
RX 6800XT = 1490 RPM @37dB bei 78°C GPU
Finde den Fehler. :tongue: Mich würde es nicht überraschen, dass die RX 6800 bei 1490RPM immer noch leicht kühler als die RX 6800XT laufen würde.
btw.
Leistungsaufnahme in Idle absolut vorbildlich. :up: Etwas überrascht bin ich auch von den "nur" 231W der RX 6800 bei Gamelast.
Also ich bin mehr als entäuscht nach den ganzen Hype.
Das interessiert hier nur niemanden.
Daredevil
2020-11-18, 15:45:09
https://tpucdn.com/review/evga-geforce-rtx-3080-ftw3-ultra/images/average-fps-3840-2160.png
https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/average-fps-3840-2160.png
Die AMD Kiste ist schon von der Rohleistung her die bessere Karte, gerade auch beim UVP Preis und Speicherausbau.
Jetzt muss es eine der beiden Karten nur wirklich für den Preis geben. :freak:
w0mbat
2020-11-18, 15:45:15
Alle bisherigen RT Titel wurden ausschließlich auf Nvidia optimiert, z.T. mit deren direkter Beteiligung. Dazu ist das jetzt die erste RT Generation von AMD. Da wird sich sicher noch was bewegen.
Von ein paar Monaten war die 2080 Ti in RT noch top, jetzt wird sie von ner AMD Karte geschlagen (mit Beta-Treibern und ohne Optimierungen) und alle heulen rum. Ist dann eurer Meinung nach auch die 3070 RT-Leistung "schlecht"? Und die 6900 XT kommt ja noch...
Wir haben jetzt wieder einen Kampf auf Agenhöhe im high-end. AMD hat mehr RAM und ist etwas effizienter, Nvidia liefert aktuell noch etwas mehr RT-Leistung. Ist doch super!
Mein einziges Problem: die Preise steigen, anstatt dass sie fallen :ugly:
BlacKi
2020-11-18, 15:45:30
In AMD Benches war die Karte vor der 3080, Real ist sie hinter der 3080. Erwartungen, die AMD halt nicht richtig gesetzt hat.
obendrauf kamen dann noch die behauptungen hier im forum da die amd vorgaben seit RDNA die realität wiedergeben.
es waren wieder mal einige ziemlich gehyped von den wohlwollenden benchmarks von amd. zweifel daran wurden dann als FUD abgetan.
WedgeAntilles
2020-11-18, 15:46:03
Stellt euch vor Nvidia galt als uneinholbar, dann kommt AMD mit absolut konkurrenzfähigen Produkten und was passiert? Es ist nicht genug ;D;D;D
Naja, wir wollen mal ehrlich bleiben: Hier hieß es doch zigfach, Nvidia könnte seine Karten wegwerfen, die wären nur noch für die Tonne wenn AMD rauskommt.
Die 6800XT würde die 3090 versägen.
Die 6800 würde die 3080 angreifen.
Was bleibt davon übrig? Die nvidia-Karten haben (zu) wenig Speicher.
Das war bekannt.
Sind die 6800 und 6800XT gute Karten?
Ja.
Nicht mehr, aber auch nicht weniger.
Ein "Nvidia braucht seine Karten gar nicht mehr anbieten" ist aber schlicht Schwachsinn.
Und von dem Aufschrei wieviel Strom Ampere verbrauchen würde hört man auch nicht mehr viel - seitdem BigNavi quasi das gleiche braucht / Frame.
Und wie man angefeindet wurde wenn man die Benchmarks von AMD erstmal von neutraler Seite anschauen wollte.
Generell galt ja alles, was AMD geschrieben hat als "Gesetz", das anzuzweifeln Gotteslästerung gleich kam.
Auch hier zeigt sich AMD als nicht besser, als es nvidia war. "up to 2 times" hieß es bei Nvidia (gerne wurde das "up to" ja weggelelassen, um einen größeren "Skandal" zu machen.)
Das stimmte nur sehr eingeschränkt und war daher übertrieben. Ja.
Aber ist AMD besser und ehrlich? Nein. Kein Stück.
Sowohl die "AMD ist meilenweit zurück und Nvidia irre überlegen" als auch die "Nvidia kann seine Produkte in den Müll werfen" Fraktion wurde von der Realität eingeholt und deren Standpunkt ad absurdem geführt.
Edit: Unterm Strich finde ich die AMD Karten etwas attraktiver, da der Speicher bei Nvidia etwas zu knapp ist.
Sollte Nvidia eine Version mit größerem Speicher auflegen sähe es ggf. anders aus.
Und natürlich wird es wichtig sein, was die realen Preise in 3-4 Monaten sind.
Cubitus
2020-11-18, 15:46:19
Wer auf RT keinen Wert legt und ein leises System haben will, der kann schon zugreifen.. Wer in den Genuss aller moderner Features kommen will, der kauft sich ne 3080 RTX und wer mehr Speicher möchte wartet auf die TI.
An sich ists ja ne schöne Karte.. Kompromissbehaftet aber durchaus konkurrenzfähig..
r3ptil3
2020-11-18, 15:46:35
Sehr interessante Grafikkarten, aber RTX 3000 Nr. 5 bestellt.
Gut dass die Entscheidung jetzt deutlich einfacher fällt.
Szudri
2020-11-18, 15:47:16
Wenn man bedenkt, dass die 5700xt über die Zeit 10%P im 3DC Index dazugewonnen haben, mache ich mir mit dem minimalen Rückstand ggü. der 3080 (je nach Parkour) nun wirklich keine sorgen.
Da reicht nen kleiner Boost per Treiber von 3-4% aus.
w0mbat
2020-11-18, 15:47:57
@Cubitus: D.h. ne 3070 oder 2080Ti ist auch nur für Jemand, der "auf RT keinen Wert legt"?
Die Treiber sind noch beta, die Spiele bisher alle nur auf Nvidia optimiert (ging ja nicht anders). Und die neuen Konsolen kommen mit RT und RDNA2. Da wird sich schon noch was bewegen ;)
obendrauf kamen dann noch die behauptungen hier im forum da die amd vorgaben seit RDNA die realität wiedergeben.
es waren wieder mal einige ziemlich gehyped von den wohlwollenden benchmarks von amd. zweifel daran wurden dann als FUD abgetan.
Die Benchmarks stimmen doch alle. Schau dir doch mal die CB Rubrik "topaktuelle Spiele" an. Da zersägt BigNavi Ampere. Fließt aber (seltsamer Weise) nicht in die Wertung ein. Ihr baut euch gerade eine alternative Realität auf. AMD hat gezeigt, dass die 6800 XT auf Augenhöhe mit der 3080 liegt und das tut sie auch. Im CB Ranking sind es 3% bei den frametimes und das ohne die neuen Spiele, wo AMD schneller ist. Mit denen würde die 6800 XT sogar im Ranking in Führung liegen.
Das sind harte Fakten, damit musst du klarkommen.
Langlay
2020-11-18, 15:48:59
@Cubitus: D.h. ne 3070 oder 2080Ti ist auch nur für Jemand, der "auf RT keinen Wert legt"?
Wenn man auf hohe FPS und RT Wert legt ist auch die 3090 nichts für einen.
Imo ist die 6800Xt da rausgekommen wo sie zu erwarten war. Ich scheint mir ne runde Karte zu sein wenn man nicht gerade in 4K unterwegs ist.
derguru
2020-11-18, 15:49:03
gut das der deppenaufschlag so hoch ist und ich deshalb keine kaufen mochte, amd hat sie ein wenig besser verkauft als sie es sind, imo mehr als 650€ sind die karten auch nicht wert, dlss und bessere rt performance ist mir mehr als 16gb speicher wert, gib ich mein geld doch lieber nivdia.:smile:
Daredevil
2020-11-18, 15:49:58
Wenn man bedenkt, dass die 5700xt über die Zeit 10%P im 3DC Index dazugewonnen haben, mache ich mir mit dem minimalen Rückstand ggü. der 3080 (je nach Parkour) nun wirklich keine sorgen.
Da reicht nen kleiner Boost per Treiber von 3-4% aus.
Da hast du natürlich recht, aber das ändert ja nichts am Ergebnis.
Wenn die 6800XT jetzt schon 5% schneller wäre, wären es in einem Jahr dann meinetwegen 15%. ( Wird sie so oder so in manchen Spielen weil Speicher )
Aber Dass die 6800XT in 4k schwächelt aufgrund der Geschwindigkeit des Speichers und die 3080 aufgrund der Menge des Speichers ist halt lame für 4K Gamer. :D
( Im Zweifel natürlich mehr Speicher, dafür langsamen nehmen, ist ja klar )
Natürlich ist die RT Performance gut. Wer hier Performance Krone und RT Krone und Perf/Watt Krone verlangt, verlangt zuviel. Lieber macht AMD kontinuierlich kleine Schritte, siehe bei Zen.
dildo4u
2020-11-18, 15:51:42
Die 16Gb erscheinen mir wie ein Gimmick die Karten rocken in 1440p ohne RT dort wo 8 oder 10 GB dicke langen.
Disco_STFU
2020-11-18, 15:52:27
Unglaublich was hier wieder für ein Stuss von den üblichen Verdächtigen Dural, Blacki und Co. vom Stapel gelassen wird.
Fehlen nur noch Lawmachine und Troyan...
Lowkey
2020-11-18, 15:53:36
Ich sehe da auch noch eine Menge Treiberfehler und Potential über die Software mal wieder ein paar Prozent herauszuholen und diverse Einzeldisziplinen zu verbessern. Der hohe Händleraufpreis direkt zum Marktstart und die viel zu geringe Verfügbarkeit auf unter-Ampere Level machen den Kauf derzeit nicht nötig. Wer wartet bekommt bessere Leistung und normale Preise. Die RT Performance war vorher bekannt, aber ich habe 5% mehr Gesamt-Leistung erwartet (6800XT).
Linmoum
2020-11-18, 15:54:04
Hardwareunboxed:
1080p
https://i.gyazo.com/d31598ec77b574cd1f8ef4ab8e867bcc.jpg
1440p
https://i.gyazo.com/e4041a1bacb6a327ea028e17fae326c6.jpg
2160p
https://i.gyazo.com/d41af1215265959397bde0193dface11.jpg
ZtxrrrkkTjc
Auch hier in UHD nur ein Unterschied von +-3% (sowohl avg. als auch min.). Darunter liegt man vorne, in FHD ist die XT bei HWU sogar minimal schneller als die 3090. Da braucht man gar nicht lange überlegen, welche Karte sich "besser" eignet. Auch in UHD nicht.
Cubitus
2020-11-18, 15:54:17
@Cubitus: D.h. ne 3070 oder 2080Ti ist auch nur für Jemand, der "auf RT keinen Wert legt"?
Die Treiber sind noch beta, die Spiele bisher alle nur auf Nvidia optimiert (ging ja nicht anders). Und die neuen Konsolen kommen mit RT und RDNA2. Da wird sich schon noch was bewegen ;)
Die 3070 performant eigl relativ gut.. ist auch bald in den gedachten Preisregionen. Und die 2080ti ist der Top-Dog der letzten Gen, diesen bekommt man jetzt auch schon zwischen 400-500 Euro..
Aber ansich finde ich die AMD Karten jetzt nicht so wirklich übel..
Aktuell sind eben durch des Hypes die Preise zu hoch..
Wenn die Treiber und die Preise besser werden, ist die Karte wie gesagt durchaus nett..
Langlay
2020-11-18, 15:54:59
obendrauf kamen dann noch die behauptungen hier im forum da die amd vorgaben seit RDNA die realität wiedergeben.
es waren wieder mal einige ziemlich gehyped von den wohlwollenden benchmarks von amd. zweifel daran wurden dann als FUD abgetan.
4K ist nicht ihre Stärke, aber in 1440p isse schneller als die 3080 zumindest in einigen Reviews.
https://abload.de/img/6800xtm4jb6.png
Szudri
2020-11-18, 15:55:25
Die 16Gb erscheinen mir wie ein Gimmick die Karten rocken in 1440p ohne RT dort wo 8 oder 10 GB dicke langen.
Vor Jahren reichte für die Auflösung noch 4GB. Und nun? Sind dann 8GB heute auch Gimmick?
Grischnak
2020-11-18, 15:55:31
Wittert Dural jetzt wieder Morgenluft? ;D;D
AMD wieder konkurrenzfähig. Sehr schön. Kann für uns als Gamer doch nur gut sein!
dargo
2020-11-18, 15:56:07
Die 16Gb erscheinen mir wie ein Gimmick die Karten rocken in 1440p ohne RT dort wo 8 oder 10 GB dicke langen.
Geht die Märchenstunde wieder los?
BlacKi
2020-11-18, 15:57:04
der schlingel hier
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12500803#post12500803
durfte hierzu nur nichts sagen
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12500807#post12500807
obwohl er es besser wusste^^
und wie die leute die performance anhand von igors stapelung von grafikkarten abgelesen haben, das rettet mir schon irgendwie den tag^^
Stretcher
2020-11-18, 15:57:31
So ein Theater und dann das, RT praktisch unbrauchbar, die 3080 nach wie vor schneller etc.
Performence/Watt ist die 6800XL mit Mühe und Not leicht vor der 3070. Trotz besserer Fertigung, trotz Wunder Cache.
PCGH 3080 in 4K fast 15% schneller.;D
Ich hol mir jetzt erst mal einen Kaffee, Dural behält recht.
Schwache Karten, RT Leistung für den Hintern.
Voodoo6000
2020-11-18, 15:57:52
AMD ist endlich zurück. Die Karten haben Stärken und Schwächen aber jetzt ist AMD wieder eine ernstzunehmende Option. Es wird interessant sein wie sich 2021 Preise und Treiber entwickeln.
w0mbat
2020-11-18, 15:58:34
Hardwareunboxed:
[...]
Auch hier in UHD nur ein Unterschied von +-3% (sowohl avg. als auch min.). Darunter liegt man vorne, in FHD ist die XT bei HWU sogar minimal schneller als die 3090. Da braucht man gar nicht lange überlegen, welche Karte sich "besser" eignet. Auch in UHD nicht.
Danke für den post. Vor allem sieht man, dass 6800 XT, 3080 und 3090 eine neue Leistungsgeneration sind, die sich von den anderen gut absetzen können (speziell in 4K). Wenn Nvidia jetzt noch mehr VRAM bietet und AMD etwas an der RT-Leistung schraubt, dann haben wir wieder gute Alternativen aus beiden Lagern. Abgesehen von den gesalzenen Preisen :eek:
Aber witzig zu sehen, wie die ganzen Nvidia-Trolle das alles nicht wahrhaben wollen ;D
sven2.0
2020-11-18, 15:59:53
Puh, gute Karten. Aber mehr nicht, Hypetrain wie bei Ampere entgleist. Kann man jetzt guten Gewissens ne 3080 bestellen. :ugly:
Linmoum
2020-11-18, 16:00:20
PCGH 3080 in 4K fast 15% schneller.;DBei HWU ist die 3080 nur 3% schneller, bei CB ebenfalls. Aber warum nimmt man dann lieber den Ausreißer mit angeblichen 15%? ;D
Stretcher
2020-11-18, 16:00:44
Die 6800 schlägt die 3070 locker...
PCGH 2%, RT Leistung drunter, kein DLSS und viel teurer.
Locker? Wohl nur in deiner Schein-Welt.
die 6800 XT ist auf Augenhöhe mit der 3080 und ist kein Speicherkrüppel
10 bis 15% schwächer bei PCGH, vor allem in 4K.:wink:
Insg. ganz klar die besseren Karten vs Ampere. Ich weiß nicht, was Nvidia gemacht hat. Aber sie haben es falsch gemacht :D
Nein, die AMD Karten sind unterlegen. Sobald Nvidia den Speicher noch vergrößert gibt es für die AMD Karten nur den Weg über den Preis.
Daredevil
2020-11-18, 16:02:00
Da braucht man gar nicht lange überlegen, welche Karte sich "besser" eignet. Auch in UHD nicht.
Ist jetzt sicherlich Cherry Picking, aber was ist, wenn ich den Witcher in 4K spielen will? :D
https://abload.de/img/unbenanntdij3h.png
Die Karte ist eine gute Karte, bis der Punkt kommt, wo sie was zutun bekommt?
Das sind immerhin 30%, was läuft da falsch?
Denke, dass das ein Treiber regelt, gute Treiberarbeit ist das aber nicht, der Witcher ist nun mal ein Vorzeigespiel.
Hakim
2020-11-18, 16:02:22
Diese Aussetzer bei einigen Spielen wie Wolcen oder Trackmania, ob sowas noch angepasst wird, zu neu und Treiber unausgereift undso?
DozerDave
2020-11-18, 16:02:36
... Sobald Nvidia den Speicher noch vergrößert gibt es für die AMD Karten nur den Weg über den Preis.
Und mehr Angebot und Wettbewerb sind ja immer schlecht für die Kunden.
dildo4u
2020-11-18, 16:02:53
Ist jetzt sicherlich Cherry Picking, aber was ist, wenn ich den Witcher in 4K spielen will? :D
https://abload.de/img/unbenanntdij3h.png
Die Karte ist eine gute Karte, bis der Punkt kommt, wo sie was zutun bekommt?
Das sind immerhin 30%, was läuft da falsch?
Jup da ist noch Luft im Treiber in 1440p hängt auch was bei Wolcen.
Fuck ich hoffe ich bekomme eine günstige 3070 für Cyberpunk.
https://live.staticflickr.com/65535/50617474802_c89843d7ac_b.jpg (https://flic.kr/p/2k7TMLN)hgh (https://flic.kr/p/2k7TMLN) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Lowkey
2020-11-18, 16:04:42
4K ist nicht ihre Stärke, aber in 1440p isse schneller als die 3080 zumindest in einigen Reviews.
Da war doch noch was mit der WQHD Schwäche bei der 3080/3090?
w0mbat
2020-11-18, 16:04:43
@FaktenStretcher: Wer ließt PCGH? Schau dir HWUB an, die Bilder sind hier im thread zu finden. In 1080p wird die 3090 geschlagen, in 1440p die 3080 und in 4K ist man knapp hinter der 3080. Dazu kein Speicherkrüppel und die bessere Effizienz, zudem kein Brüllwürfel. Ach, und noch günstiger dazu.
RT-Leistung schon jetzt, mit Beta-Treiber und ohne Optimierungen auf 2080Ti/3070 Niveau. Und mit den neuen Konsolen wir RT eh auf Navi2X optimiert.
Ach, und kein Speichrkrüppel hab ich schon erwähnt? Selbst ne 1080Ti hat mehr VRAM als ne 3080 :ugly: Das kauft doch nur noch der MediaMarkt DAU.
Screemer
2020-11-18, 16:04:57
Unglaublich was hier wieder für ein Stuss von den üblichen Verdächtigen Dural, Blacki und Co. vom Stapel gelassen wird.
Fehlen nur noch Lawmachine und Troyan...
keine sorge, die kommen schon noch.
Legendenkiller
2020-11-18, 16:05:25
Sieht doch erstmal gut, im Sinne wie zu erwarten, aus...
AMD its back. Zumal die 3900XT noch kommt und Gerüchte über eine 3950XT (Dual Navi21 ?!) im Umlauf sind.
RT einbrüche wie bei Minecraft würde ich erstmal klarauf die Treiber schieben, nicht schön aber per Update lösbar.
Und das die 30x bei RT schneller sind, war ja ebenfallsbereits bekannt.
Naja letzlich entscheiden jetzt die realen Straßenpreise zu den die Karten kaufbar sind.
Warum brechen die 6800der mit zunehmender Auflösung so ein ?
Ram Bandbreite?
Matrix316
2020-11-18, 16:06:32
Also RTX On scheint ja nicht sooo die Stärke zu sein...
BlacKi
2020-11-18, 16:07:24
Warum bricht die 6800 mit zunehmender Auflösung so ein ?
Ram Bandbreite?
umgekehrt würde ich behaupten. denn soweit ich weiß ist der infini cache und bandbreite gleich.
Langlay
2020-11-18, 16:07:43
Da war doch noch was mit der WQHD Schwäche bei der 3080/3090?
Ist eigentlich nicht wirklich interressant zu diskutieren ob die 6800XT in <4K besonders stark oder die 3080/3090 in <4K besonders "schwach" sind.
Bei Ampere ist es halt imo ein Mix aus suboptimaler Auslastung und teilweisem CPU Limit.
Linmoum
2020-11-18, 16:08:06
Ist jetzt sicherlich Cherry Picking, aber was ist, wenn ich den Witcher in 4K spielen will? :D
https://abload.de/img/unbenanntdij3h.png
Die Karte ist eine gute Karte, bis der Punkt kommt, wo sie was zutun bekommt?
Das sind immerhin 30%, was läuft da falsch?
Denke, dass das ein Treiber regelt, gute Treiberarbeit ist das aber nicht, der Witcher ist nun mal ein Vorzeigespiel.Die Frage ist eher, warum ich sowas veröffentliche. TPU hat den Witcher ebenfalls drin, dort liegt die XT rund 20% vor einer 2080Ti. Kann also kein (grundlegendes) Treiberproblem sein, sonst hätten es andere auch.
Dural
2020-11-18, 16:09:23
Jetzt werden die AMD Karten schon als perfekte 1080p Karten angepriesen :freak:
Aber die 16GB sind halt doch ganz wichtig, obwohl die Karten nachweislich schon jetzt mit 4K Mühe haben, das ich übrigens schon vor Wochen aus den AMD eigenen Benchmarks rausgelesen habe... :freak:
Ach ja, und RT ist nicht wichtig, wer braucht das schon in 1080p ;D
6800XT ist eigentlich die typische AMD Karte wie seit je her: Friss die FPS und erwarte ja nicht mehr und schon gar keine Zugabe! Kostet auch ein paar Groschen weniger, also klappe halten ;)
dildo4u
2020-11-18, 16:10:31
Live Gameplay mit Clocks in 4k Division 2 sinds eher so 2.2Ghz.
https://youtu.be/NXRvqjXf4Sc?t=976
Control ist noch buggy Takt fällt manchmal auf 500mhz.
Daredevil
2020-11-18, 16:12:21
Jetzt werden die AMD Karten schon als perfekte 1080p Karten angepriesen :freak:
Aber die 16GB sind halt doch ganz wichtig, obwohl die Karten nachweislich schon jetzt mit 4K Mühe haben, das ich übrigens schon vor Wochen aus den AMD eigenen Benchmarks rausgelesen habe... :freak:
Ach ja, und RT ist nicht wichtig, wer braucht das schon in 1080p ;D
6800XT ist eigentlich die typische AMD Karte wie seit je her: Friss die FPS und erwarte ja nicht mehr und schon gar keine Zugabe! Kostet auch ein paar Groschen weniger, also klappe halten ;)
Es ist völlig egal, ob die 3080 5%, 10% oder 15% schneller ist als eine 6800XT, letzere ist aufgrund des Speichers die bessere Wahl.
Lieber hast du langsamen Speicher als gar keinen, weil konstant weniger FPS sind erträglicher als unkontrollierte Nachladeruckler. Nur weil die 3080 manchmal schneller ist, ist sie keine bessere 4K Karte.
Das ist zumindest meine Meinung, die 3080 ist eine perfekte WQHD Karte für die nächsten Jahre, die 6800XT kann mehr.
spike.sp.
2020-11-18, 16:12:41
Cheatet AMD bei RTX oder liegen Treiberprobleme vor? :confused:
Twitter link (https://twitter.com/KeithPlaysPC/status/1329066879445557251?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1329067 058252886016%7Ctwgr%5E&ref_url=https%3A%2F%2Fforums.somethingawful.com%2Fshowthread.php%3Fthreadid%3D34 84126pagenumber%3D2472lastpost)
w0mbat
2020-11-18, 16:14:54
Es ist völlig egal, ob die 3080 5%, 10% oder 15% schneller ist als eine 6800XT, letzere ist aufgrund des Speichers die bessere Wahl.
Lieber hast du langsamen Speicher als gar keinen, weil konstant weniger FPS sind erträglicher als unkontrollierte Nachladeruckler. Nur weil die 3080 manchmal schneller ist, ist sie keine bessere 4K Karte.
Das ist zumindest meine Meinung, die 3080 ist eine perfekte WQHD Karte für die nächsten Jahre, die 6800XT kann mehr.
Geh doch auf sein getrolle gar nicht erst ein. Er weiß doch selber, dass er Stuss verzapft. Er schreibt das doch wirklich nur, weil er andere damit ärgern will.
Einfach ignorieren :smile:
Cheatet AMD bei RTX oder liegen Treiberprobleme vor? :confused:
Was ist RTX :confused:
Oder meinst du Ray Tracing = RT?
dildo4u
2020-11-18, 16:14:55
Cheatet AMD bei RTX oder liegen Treiberprobleme vor? :confused:
Twitter link (https://twitter.com/KeithPlaysPC/status/1329066879445557251?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1329067 058252886016%7Ctwgr%5E&ref_url=https%3A%2F%2Fforums.somethingawful.com%2Fshowthread.php%3Fthreadid%3D34 84126pagenumber%3D2472lastpost)
Treiber Problem.
https://twitter.com/VideoCardz/status/1328749642385940481
Daredevil
2020-11-18, 16:16:40
Geh doch auf sein getrolle gar nicht erst ein. Er weiß doch selber, dass er Stuss verzapft. Er schreibt das doch wirklich nur, weil er andere damit ärgern will.
Einfach ignorieren :smile:
Ich werde ja gerne als Nvidia Fanboy betitelt, da möchte ich gerne auch mal aus der Reihe tanzen und sagen, dass das quatsch ist, was manchmal hier dogmatisch geteilt wird. (:
Zahlen, Daten, Fakten. Mehr nicht.
dargo
2020-11-18, 16:17:11
Puh, gute Karten. Aber mehr nicht, Hypetrain wie bei Ampere entgleist. Kann man jetzt guten Gewissens ne 3080 bestellen. :ugly:
Nein, das konnte man vorher schon nicht.
spike.sp.
2020-11-18, 16:18:34
Treiber Problem.
https://twitter.com/VideoCardz/status/1328749642385940481
Mhh, dann würde ich mal sagen alle RT Vergleiche in WD:Legion sind momentan unbrauchbar, bis es gefixt ist.
Stretcher
2020-11-18, 16:18:44
@FaktenStretcher: Wer ließt PCGH?
Also ich lese Querbeet, das ist immer besser als eine Quelle.
Und ja, die anderen Reviews fallen etwas positiver aus, aber am Ende sind die Karten Nvidia leicht unterlegen. Besseres P/L haben sie auch nicht und die schwächere RT Leistung, sowie kein DLSS.
Ich sehe somit eher Nvidia vorne.
Schau dir HWUB an, die Bilder sind hier im thread zu finden. In 1080p wird die 3090 geschlagen,in 1440p die 3080 und in 4K ist man knapp hinter der 3080.
Das ist alles schön und gut, im Mittel der Reviews sind die Karten schwächer und haben in einigen Spielen richtige Leistungsausfälle, was wohl diesem Wundercache geschuldet ist.
Dazu kein Speicherkrüppel und die bessere Effizienz, zudem kein Brüllwürfel. Ach, und noch günstiger dazu.
Du hast schon eine seltsame Auffassung der Realität. Effizienz ist doch auf Augenhöhe, und Brüllwürfel sind die Nvidia Karten nicht.
Über 700 Euro für eine 6800 nennst du ein gutes PLV?
AMD hat das Argument des Speichers, ansonsten nix.
Im Mittel wird nur die 6900XT die 3080 schlagen können und das vielleicht um 1%.
RT-Leistung schon jetzt, mit Beta-Treiber und ohne Optimierungen auf 2080Ti/3070 Niveau.
Wenn man auf Minecraft RTX schaut, dann sieht man, dass reines Pathtracing wohl die Leitungen verstopft, insofern ist es mit der "RT Leistung" nicht weit her.
Und mit den neuen Konsolen wir RT eh auf Navi2X optimiert.
Das glaube ich nicht, AMD sitzt schon seit Jahren in den Konsolen, besonders auf einen Grafikhersteller wurde da nicht optimiert.
Ach, und kein Speichrkrüppel hab ich schon erwähnt?
Ja, unterm Strich dein einziger Punkt, den man für AMD werten kann.:tongue:
Disco_STFU
2020-11-18, 16:19:36
Das ist AMDs erster Versuch in RT. Was haben hier denn manche erwartet? Außerdem sieht vieles noch nach Treiberproblemen aus. Gebt dem ganzen mal einpaar Wochen.
Ich bin wirklich mal auf den neuen Adrenalin Dezemeber Mega Treiber gespannt! :)
aufkrawall
2020-11-18, 16:23:49
Das ist alles schön und gut, im Mittel der Reviews sind die Karten schwächer und haben in einigen Spielen richtige Leistungsausfälle, was wohl diesem Wundercache geschuldet ist.
Ah ja, und bei Nvidia gibts natürlich keine Ausfälle in Dirt und anderen Fällen.
Was ein dummes Geclowne...
Die Hitrate beim Cache sinkt mit steigender Auflösung, das ist der Nachteil. Die Karte ist eine klare 1440p-Karte, dank des Caches. Aber in UHD hängt sich dennoch erstaunlich wenig zurück mMn.
Eigentlich ist das ein taktoptimierter Navi1 mit Cache und RT-Zusatz. Das ist einfach ein exzellentes Gesamtpaket, RT ist halt der Wermuthstropfen.
Linmoum
2020-11-18, 16:28:22
Das ist alles schön und gut, im Mittel der Reviews sind die Karten schwächer und haben in einigen Spielen richtige Leistungsausfälle, was wohl diesem Wundercache geschuldet ist.Ist sowas hier dann auch ein "Leistungsausfall"? Muss ja nach deiner Definition.
https://i.gyazo.com/7ad24b19ac84853ccc8473c23423e5b9.png
aufkrawall
2020-11-18, 16:28:24
Ja, die low fps in 4k sind wirklich desaströs und die 16GB völlig nutzlos. Eine 3080 ist bestimmt besser.
Gebrechlichkeit
2020-11-18, 16:30:04
Jemand sollte mal bitte die 6800XT auf 5700XT Niveau runter takten.
w0mbat
2020-11-18, 16:31:47
In einer perfekten Welt hätte die 3080 20GB VRAM und die 6800 XT 50% mehr RT-Leistung. Und beide Karten würden 200€ weniger kosten.
Matrix316
2020-11-18, 16:35:34
In einer perfekten Welt hätte die 3080 20GB VRAM und die 6800 XT 50% mehr RT-Leistung. Und beide Karten würden 200€ weniger kosten.
In einer perfekten Welt kostet die 3090 750 Euro. ;)
Kriegsgeier
2020-11-18, 16:35:41
wozu dann die 16 GB? Wenn RTX3080 mit 10GB gleich oder sogar besser performt?
Loeschzwerg
2020-11-18, 16:36:06
Die Luftkühlung hat AMD diesmal super in den Griff bekommen, damit dürften die meisten Nutzer mehr als nur zufrieden sein.
keine sorge, die kommen schon noch.
Wo ist eigentlich horn? :D
Kriegsgeier
2020-11-18, 16:36:19
"In einer perfekten Welt kostet die 3090 750 Euro." im Jahr 2010 vielleicht wir haben 2020!
sven2.0
2020-11-18, 16:38:54
wozu dann die 16 GB? Wenn RTX3080 mit 10GB gleich oder sogar besser performt?
Fühlt sich besser an
dildo4u
2020-11-18, 16:38:58
Hier hat er mit Intel und Zen 3 gebencht.
nbqFCuEZOPY
WedgeAntilles
2020-11-18, 16:39:04
Noch eine Anmerkung von Igor zum Thema RT:
"Ich weiß nicht, ob es nur eine Täuschung der Sinne war, aber rein subjektiv hatte ich, vor allem in Metro Exodus (Kampagne) in geschlossenen, dunklen Räumen mit vielen kleinen Lichtquellen das Gefühl, dass beim DXR-Ergebnis der Radeon-Lösung etwas fehlte bzw. die Effekte etwas einfacher ausfielen. Auch manche Reflexionen und Schatten waren nicht völlig identisch, obwohl gerade die Funktion des Raytracings als solches dies eigentlich impliziert hätte. Ob überhaupt etwas und wenn doch, was genau fehlt, müsste man noch einmal im Detail testen, denn dafür blieb leider keine Zeit mehr."
Matrix316
2020-11-18, 16:43:35
"In einer perfekten Welt kostet die 3090 750 Euro." im Jahr 2010 vielleicht wir haben 2020!
2017 kostete das die 1080TI, davor die 980TI.
Und dann kam Mining und plötzlich kosteten alle Karten das Doppelte.
Kriegsgeier
2020-11-18, 16:43:45
was sagt ihr zum PCGH-Test? Irgendwie schneidet die RX6800XT dort sehr schlecht ab!
soLofox
2020-11-18, 16:47:27
Enttäuscht? Alter, das Ergebnis ist mehr als heftig. NV ist mit einem blauen Auge weggekommen und hier wird gemotzt...ich packs ned.
Normal.
Denkt an gerade mal 2017 zurück, die 1080Ti (https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/). Eine top Karte, wer hätte denn ernsthaft damit gerechnet, dass AMD das wirklich nochmal wieder aufholt.
Die Fury X war cool, aber gegen nVIDIA ein Witz.
maximus_hertus
2020-11-18, 16:50:55
Das lustigste: man schlägt sich über "imaginäre" Produkte den Kopf ein. So lange es keine breite Verfügbarkeit (bei nV und AMD) gibt, so lange ist doch jeder Vergleich für die Tonne.
Ich warte jetzt erstmal ganz entspannt auf den LAunch Analysenartikel von LEo. Da bekomme ich dann alle Zahlen wunderbar aufbereitet.
Dann haben alle ein paar Monate Zeit darüber zu diskutieren und irgendwann in 2021, wohl sobald die Sommerzeit wieder gilt, kann man dann Grafikkarten wieder kaufen.
Von daher einfach entspannt bleiben :)
wozu dann die 16 GB? Wenn RTX3080 mit 10GB gleich oder sogar besser performt?
Die 16GB werden dir in den nächsten 2 Jahren nicht ausgehen. Die 10GB ziemlich sicher aber schon ;). Lass mal die ersten next-gen-Titel in den Markt tröpfeln.
MikePayne
2020-11-18, 16:56:23
Stellt euch vor Nvidia galt als uneinholbar, dann kommt AMD mit absolut konkurrenzfähigen Produkten und was passiert? Es ist nicht genug ;D;D;D
Ja, so ist es ;D :freak:
Bissl irre, aber jedem das seine.
Korvaun
2020-11-18, 16:58:55
Die 16GB werden dir in den nächsten 2 Jahren nicht ausgehen. Die 10GB ziemlich sicher aber schon ;). Lass mal die ersten next-gen-Titel in den Markt tröpfeln.
Naja, wer alle 2 Jahre eh aufrüstet für den sind auch 10GB noch ganz ok. "Echte" NextGen-Titel (die exklusiv für die neuen Konsolen+PC entwickelt werden) erscheinen eh nicht vor 2022...der ganze Kram der auch noch für PS4/XOne erscheint zählt da nicht.
user77
2020-11-18, 16:59:11
Schöne Karten! Vor allem die Effizienz finde ich Beeindruckend!
Ich gehe davon aus, dass der Treiber in den nächsten 2-3 Monaten noch reift und sie noch ein paar % schneller werden.
Auch sieht man im CB extra Test mit den ganz neuen Spielen, dass die AMD Karten nochmal zulegen im Vergleich zum "alten" Parkour.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark
Dino-Fossil
2020-11-18, 16:59:23
Insgesamt ordentlicher Einstand für RDNA2, wie ich finde.
Die 6800XT kommt ungefähr da raus, wo ich vor einigen Wochen eher die 6900 vermutet hätte - ca auf Gleichstand mit der 3080, mit Vorteil nVidia im RT.
Dafür Vorteil für AMD beim Speicher, der Infinity Cache ist eine interessante Technik, wie ich finde.
Abzuwarten bleibt, wie sich diverse Features im Treiber entwickeln, speziell AMDs DSLR-Alternative wird interessant. RT-Leistung dürfte für diese Generation (und die nächste, denke ich) ausreichen, auch im Hinblick auf die Konsolen.
Bis RT wirklich wichtig wird, dauert es sowieso noch ein paar Jahre. nVidia könnte natürlich versuchen ihren Vorteil da zu pushen, siehe Tessleation vor einigen Jahren.
Auch schön zu sehen: Die Effizienz ist relativ gut und AMD hat den Betriebspunkt mal etwas besser gewählt. Besonders die 6800 schaut da gut aus. Auf jedenfall ein Stück besser als Igor's Hochrechnung vor ein paar Wochen. ;)
Abgesehen von der aktuellen Nicht-Verfügbarkeit ist für mich aber jetzt sowieso erstmal warten auf die Mittelklasse angesagt. High-End macht für mich keinen Sinn.
Gebrechlichkeit
2020-11-18, 17:01:37
Jemand sollte mal bitte die 6800XT auf 5700XT Niveau runter takten.
Dank 2.5GHz King bis 1440p, at 4K zu wenig Saft. edit: dachte die waere out of the box bereits mit 2.5ghz getaktet ..., ist marginal schneller getaktet als eine 5700XT. Ergo sehr gute Performance.
yMz-5uP8sBw
Lowkey
2020-11-18, 17:02:15
Test zu SAM
https://www.techpowerup.com/review/amd-radeon-sam-smart-access-memory-performance/5.html
3-4% unterhalb von 4k, aber 4k ist relativ schwach.
BlacKi
2020-11-18, 17:10:21
mhhh
https://abload.de/img/screenshot_2020-11-187bk5v.png
https://www.hartware.de/wp-content/uploads/2020/06/AMD-RDNA-2-Perf-Watt-Improvement-202006.jpg
TurricanM3
2020-11-18, 17:12:28
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Ich hab jetzt nur kurz den Computerbase Test überflogen, aber haben die Mist getestet oder was ist hier los?
EDIT:
Ach da kommt noch ne 6900 XT. Na da bin ich mal gespannt.
Wie viel schneller wird die ca. sein? Kann man das schon grob anhand Specs errechnen?
PingpiN
2020-11-18, 17:12:58
Bei neuen Spielen wird Nvidia vernichtet! jetzt müsste man nur wissen ob das der trend in den nächsten 1-2 jahren wird wegen den neuen Konsolen und AMD Hardware. Insgesamt ist die 3080 bei gleichen Preis aber die bessere Wahl weil ich keine Glaskugel habe.
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Ich hab jetzt nur kurz den Computerbase Test überflogen, aber haben die Mist getestet oder was ist hier los?
Bei neuen Spielen ist die 6800 XT ein 3090 Killer.
N0Thing
2020-11-18, 17:16:25
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Ich hab jetzt nur kurz den Computerbase Test überflogen, aber haben die Mist getestet oder was ist hier los?
Ja, von einigen wurde das so geäußert. Auf der anderen Seite wurde von einigen gemutmaßt, der Navi21 Vollausbau würde so gerade eben mit der 3070 gleichziehen.
Diese Leute, denen die eigene Agenda wichtiger ist als alles andere, findet man leider immer öfter.
arcanum
2020-11-18, 17:17:00
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Ich hab jetzt nur kurz den Computerbase Test überflogen, aber haben die Mist getestet oder was ist hier los?
EDIT:
Ach da kommt noch ne 6900 XT. Na da bin ich mal gespannt.
Wie viel schneller wird die ca. sein? Kann man das schon grob anhand Specs errechnen?
80 anstatt 72 CUs bei gleicher TDP.
Linmoum
2020-11-18, 17:17:08
mhhh
https://abload.de/img/screenshot_2020-11-187bk5v.png
https://www.hartware.de/wp-content/uploads/2020/06/AMD-RDNA-2-Perf-Watt-Improvement-202006.jpghttps://i.gyazo.com/90baf70ebdd28be4b79e6c471e6ba79c.png
Warum WQHD nehmen, wenn AMD selbst UHD als Grundlage genommen hat? Manchmal fällt einem zu unnötig lächerlichem getrolle echt nichts mehr ein.
arcanum
2020-11-18, 17:19:13
hier wird mal wieder um jedes % gekämpft :popcorn:
Troyan
2020-11-18, 17:20:13
mhhh
https://abload.de/img/screenshot_2020-11-187bk5v.png
https://www.hartware.de/wp-content/uploads/2020/06/AMD-RDNA-2-Perf-Watt-Improvement-202006.jpg
Computerbase nimmt drei Spiele und mittelt dann den Parcours.
Gerade mal überflogen:
Control: 34%
Doom: 38%
Gears Tactic: 31%
Hm, sieht nicht besser aus. Aber bei Computerbase wird die 5700XT auch mit 210W geführt. Mit 220 ist man dann an eher an den 50%.
BlacKi
2020-11-18, 17:20:39
https://i.gyazo.com/90baf70ebdd28be4b79e6c471e6ba79c.png
Warum WQHD nehmen, wenn AMD selbst UHD als Grundlage genommen hat? Manchmal fällt einem zu unnötig lächerlichem getrolle echt nichts mehr ein.
macht jetzt nicht den fetten unterschied oder? 26% vs 34%?
r3ptil3
2020-11-18, 17:20:49
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Ich hab jetzt nur kurz den Computerbase Test überflogen, aber haben die Mist getestet oder was ist hier los?
EDIT:
Ach da kommt noch ne 6900 XT. Na da bin ich mal gespannt.
Von gewissen Usern wurde halt eine unheimliche Erwartungshaltung kreiert, dann dazu noch in jedem Thread jeden als dumm abstempeln der jetzt noch eine RTX 3000 sucht/kauft.
Es herrscht jetzt wenigstens Gewissheit.
WedgeAntilles
2020-11-18, 17:21:23
Bei neuen Spielen wird Nvidia vernichtet! jetzt müsste man nur wissen ob das der trend in den nächsten 1-2 jahren wird wegen den neuen Konsolen und AMD Hardware.
Ich weiß nicht ob das jetzt neu für dich ist, aber bereits die aktuellen Konsolen haben AMD Hardware.
Die Prognose, dass wegen den neuen Konsolen Nvidia schlechter wäre, wurde also mit Blick auf die Vergangenheit bereits widerlegt.
Und dein "vernichtet" sieht übrigens so aus:
Auszug aus Computer Base
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark
In neuen Spielen ist Big Navi teils richtig schnell
In den meisten neuen Spielen schneidet die Radeon-RX-6800-Serie richtig gut ab und liegt gleich auf oder teils deutlich vor der GeForce-Konkurrenz. Einzig in Mafia: Definitive Edition hakt es bei den Radeons. Dort ist in 3.840 × 2.160 die GeForce RTX 3080 21 Prozent bei den Durchschnitts-FPS und 9 Prozent bei den Perzentil-FPS schneller als die Radeon RX 6800 XT, die GeForce RTX 3070 liegt 1 respektive 7 Prozent vor der Radeon RX 6800. Und in den niedrigeren Auflösungen wird der Abstand teils noch größer.
Danach kommen dann diverse Spiele
Spiel (3.840 × 2.160) 6800 XT vs. 3080 6800 vs. 3070
Assassin's Creed: Valhalla 106 % 114 %
COD Black Ops: Cold War 99 % 113 %
Dirt 5 120 % 124 %
Mafia: Definitive Edition 83 % 99 %
Serious Sam 4 103 % 113 %
Star Wars: Squadrons 106 % 117 %
Watch Dogs: Legion 105 % 115 %
Dirt 5 ist deutlich vorne.
Dafür ist Mafia deutlich dahinter.
"vernichtet" wenn man im Schnitt 3% vorne liegt.
3%.
die 6800XT ist in den neuen Spielen im Schnitt um 3!!!% vorne.
Und das auch nur ohne RT.
Keine Ahnung ob du die Tests überhaupt gelesen hast? :confused:
TurricanM3
2020-11-18, 17:25:35
Hab noch kurz PCGH geschaut, aber da sehe ich auch nichts von Vernichtung.
80 anstatt 72 CUs bei gleicher TDP.
D.h. dann im Optimalfall 10% drauf? Selbst bei Gleichstand fände ich das eher schade... :(
Naja, dann muss man sich wenigstens keine Gedanken über Wechsel und damit verbundene Umstände machen.
fondness
2020-11-18, 17:25:46
https://i.gyazo.com/90baf70ebdd28be4b79e6c471e6ba79c.png
Warum WQHD nehmen, wenn AMD selbst UHD als Grundlage genommen hat? Manchmal fällt einem zu unnötig lächerlichem getrolle echt nichts mehr ein.
Die effizientere Karte nämlich die 6900XT gibt es im übrigen noch gar nicht.
dargo
2020-11-18, 17:29:34
Schöne Karten! Vor allem die Effizienz finde ich Beeindruckend!
Ich gehe davon aus, dass der Treiber in den nächsten 2-3 Monaten noch reift und sie noch ein paar % schneller werden.
Auch sieht man im CB extra Test mit den ganz neuen Spielen, dass die AMD Karten nochmal zulegen im Vergleich zum "alten" Parkour.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark
Wen interessieren schon neue Spiele? ;) Gerade Valhalla zeigt es wunderbar (Dirt 5 praktisch das selbe). In 1440p (also meine Spielauflösung) ist die RX 6800 non XT genau so schnell wie die RTX 3090, bei den Frametimes ist die RTX 3090 sogar ziemlich abgeschlagen. Ich warte jetzt in Ruhe die Customs ab. Bisher gefällt mir die RX 6800 am besten. Beste Perf/W in dieser Generation plus sehr angenehmer, allgemeiner Verbrauch. Mal sehen wie der Unterschied bei den Straßenpreisen in den nächsten Wochen dann aussieht.
Hm, hieß es hier von einigen nicht die 6800 XT würde ein 3090 Killer und die neue erste Wahl für Enthusiasten?
Nein... keine Ahnung wo du das her hast. Schon alleine dieses Unwort "Killer" ist nur Kinderkram irgendwelcher Fanboys. Außerdem... 649$ soll überall eine 1499$ Karte schlagen? Ich denke du findest den Witz selber raus.
mhhh
https://abload.de/img/screenshot_2020-11-187bk5v.png
https://www.hartware.de/wp-content/uploads/2020/06/AMD-RDNA-2-Perf-Watt-Improvement-202006.jpg
Danke für die Bestätigung deiner Unfähigkeit wie Perf/W Steigerungen bei IHVs ermittelt werden. Wobei deine AMD-Folie sogar nur das Ziel darstellt.
Rabiata
2020-11-18, 17:29:57
Natürlich ist die RT Performance gut. Wer hier Performance Krone und RT Krone und Perf/Watt Krone verlangt, verlangt zuviel. Lieber macht AMD kontinuierlich kleine Schritte, siehe bei Zen.
Gut gesagt. Wer bereit ist, ein bischen tiefer auf der Leistungsskala einzusteigen, der braucht sich nur noch über Perf/Euro und Perf/Watt Gedanken zu machen, das passende Modell findet sich dann schon.
Perf/Watt herrscht mittlerweile Gleichstand, AMD hat als Bonus den größeren Speicher, und die Euros werden noch ein paar Monate unberechenbar bleiben.
Linmoum
2020-11-18, 17:31:59
macht jetzt nicht den fetten unterschied oder? 26% vs 34%?Ist doch völlig latte, wie riesig der Unterschied ist. Einen Hersteller blamen zu wollen um dann nicht einmal das heranzuziehen, was dieser aber als Grundlage für seine Behauptung genommen hat, ist einfach nur albern.
Ansonsten siehe noch Troyans Post, bei CB nuckelt die 5700XT nur 210W statt der offiziellen TBP von 225W. Das spielt genauso mit rein.
Complicated
2020-11-18, 17:42:35
Es sind 47% - die beste RX 6xxx gegen die beste RX 5xxx.
XT vs XT ins ein bißchen Unsinnig zu vergleichen, wenn es um RDNA->RDNA2 geht. Man nimmt die beiden besten in der Disziplin um sie gegeneinander zu stellen.
Und das in diesem CB-Parcour.
Hakim
2020-11-18, 17:50:40
Nach dem Schauen vom Hardware Unboxed bleibe ich dabei das es aus meine Sicht besser gewesen wäre HBM zu nutzen statt 256 Bit SI + IC. Frage wäre halt gewesen wie es preislich ausgesehen hätte. Die 6800XT verliert leider sehr oft vom Sprung 1440p zu 4k im Gegensatz zu Konkurrenz deutlich mehr an Performance, scheint halt die Bandbreite auszugehen. Würde mich mit 1440p aber nicht betreffen.
Schnoesel
2020-11-18, 17:52:18
Hat jemand Benches für BFV zur Hand?
Mega-Zord
2020-11-18, 17:55:06
Haben noch Grakas dabei? Ham wir die noch? Keine mehr? Gar keine mehr? Gar keine Graka mehr? Zwei noch? ;D
Ich hbae heute Nachmittag mal die Situation in den Shops verfolgt. Alternate und Ko. sind auf die Bretter gegangen. Amazon hat es nicht gejuckt, aber anbieten konnten die auch nichts. Mal gucken, ob genauso geheult wird, wie beim Ampere-Launche oder ob die AMD-Apologeten hier aus dem Fanboy-Center jetzt still bleiben.
dildo4u
2020-11-18, 17:56:26
Hat jemand Benches für BFV zur Hand?
Unter DX11.
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/9.html
dargo
2020-11-18, 17:57:06
Nach dem Schauen vom Hardware Unboxed bleibe ich dabei das es aus meine Sicht besser gewesen wäre HBM zu nutzen statt 256 Bit SI + IC. Frage wäre halt gewesen wie es preislich ausgesehen hätte. Die 6800XT verliert leider sehr oft vom Sprung 1440p zu 4k im Gegensatz zu Konkurrenz deutlich mehr an Performance, scheint halt die Bandbreite auszugehen. Würde mich mit 1440p aber nicht betreffen.
Verliert N21 in 4k an Leistung oder gewinnt nur Ampere in 4k an Leistung weil er drunter nicht ausgelastet wird? Das ist hier die Frage. ;) Und wenn du eh in 1440p spielst, was juckt dich 4k? :freak:
Schnoesel
2020-11-18, 17:58:30
Unter DX11.
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/9.html
Shit die ist halt echt gut in BFV ... Ätzend.
dildo4u
2020-11-18, 18:02:19
Shit die ist halt echt gut in BFV ... Ätzend.
War ja eigentlich klar 5700X = 2080S in 1440p.
Daredevil
2020-11-18, 18:04:53
Eins sollte aber klar sein, wenn ne 6900xt ~10% drauf legt und das ganze in 350w mit einem noch fetteren Kühler versehen wird, dann wird die 3090 zumindest ohne RT leicht geschlagen. ^^
Also der overall Performance Krone in 4K sollte auch da eigentlich nichts im Wege stehen.
Lawmachine79
2020-11-18, 18:09:40
Zusammenfassung:
- 3080 3-6% schneller als 6800XT
- In neuen Spielen ist die 6800XT teilweise schneller als die 3080 - wenn man neue Features deaktiviert
- Womit wir beim Thema Raytracing wären: hier fällt die 6800XT auf das Niveau der Vorgängergeneration
- DLSS gibt es nicht
- In den Benchmarks ist das SAM-Feature berücksichtigt; schaltet NV bald per Treiberupdate frei, dann vergrößert sich der Abstand etwas
Vorteil: für die Leute, die 700€ für eine Grafikkarte ausgeben, sich Strom dann aber plötzlich vom Munde absparen müssen, verbraucht die 6800XT wschl. weniger Strom.
Fazit: Deutlich verbessertes Produkt für AMD; Fanboys können jetzt eine AMD-Karte kaufen, ohne sich dann heimlich nachts in den Schlaf weinen zu müssen. Leistungsmässig knapp vorbei, featuremässig noch etwas größerer Abstand; ich glaube mit dem nächsten großen Generationswechsel wird AMD NVidia überholen können. Der Refresh der jetzigen Generationen wird eher NVidia helfen, weil die deutlich mehr Optimierungspotential dank des schlechten 8nm-Prozesses haben.
Eins sollte aber klar sein, wenn ne 6900xt ~10% drauf legt und das ganze in 350w mit einem noch fetteren Kühler versehen wird, dann wird die 3090 zumindest ohne RT leicht geschlagen. ^^
Also der overall Performance Krone in 4K sollte auch da eigentlich nichts im Wege stehen.
Naja, ich denke mal, pünktlich zum 6900XT-Launch wird NVidia auch SAM freischalten (ganz ohne Zen 3-Kaufzwang); da ist also noch etwas Reserve.
fondness
2020-11-18, 18:11:46
Nach dem Schauen vom Hardware Unboxed bleibe ich dabei das es aus meine Sicht besser gewesen wäre HBM zu nutzen statt 256 Bit SI + IC. Frage wäre halt gewesen wie es preislich ausgesehen hätte. Die 6800XT verliert leider sehr oft vom Sprung 1440p zu 4k im Gegensatz zu Konkurrenz deutlich mehr an Performance, scheint halt die Bandbreite auszugehen. Würde mich mit 1440p aber nicht betreffen.
Das liegt an der lowres Schwäche von Ampere.
Daredevil
2020-11-18, 18:13:23
Gut, aber gerade Speicher kann man ja easy übertakten.
Wenn es da echt mangeln sollte, müsste die Leistung ja stark noch oben gehen.
Ich finde die Lösung von AMD, selbst wenn sie nicht so stark performt wie richtiger schneller Speicher, trotzdem eleganter als das, was Nvidia da abzieht mit der Brechstange. :D
Aber letzten Endes werden 8K Benchmarks zeigen, wer hier wirklich der König ist!!!1111Nachtelf111
TurricanM3
2020-11-18, 18:13:50
Schlecht sind die Karten keinesfalls, aber imho doch nicht so toll wie angepriesen.
Nein... keine Ahnung wo du das her hast. Schon alleine dieses Unwort "Killer" ist nur Kinderkram irgendwelcher Fanboys. Außerdem... 649$ soll überall eine 1499$ Karte schlagen? Ich denke du findest den Witz selber raus.
Dann hast du in den NV Threads wohl nicht so mitgelesen. Siehe mein edit, ich beziehe mich auf Enthusiasten. Preis ist da zweitrangig.
DrFreaK666
2020-11-18, 18:19:06
Vergleich doch mal Borderlands von AMD und Borderlands von Computerbase. (: ...
Es ist doch bekannt dass unterschiedliche Szenen unterschiedliche Zahlen liefern, sonst bräuchte man keine Werte von mehreren Testern, wenn das Ergebnis immer das gleiche wäre.
Ist aber eigentlich nicht erst seit der RX6800 der Fall...
DrFreaK666
2020-11-18, 18:21:37
... Definitiv zu wenig für 1000.- da hole ich mir lieber die 3090 :rolleyes:
Dann hol dir eben eine 3090 für 1000€....:rolleyes:
https://geizhals.de/?cat=gra16_512&xf=9810_16+0035581+-+RTX+3090&sort=p&hloc=de&v=l
Screemer
2020-11-18, 18:23:53
Siehe mein edit, ich beziehe mich auf Enthusiasten. Preis ist da zweitrangig.
geld ist für enthusiasten zweitrangig. alle anderne sind nur plebs. :up:
auch im ampere thread hat niemand jemals von ampere killern gesprochen. nicht mal der gute gedi, der häufig übers ziel hinaus geschossen ist. komischerweise ist er jetzt wieder wenig hier. :uponder:
dildo4u
2020-11-18, 18:26:17
Vergleich doch mal Borderlands von AMD und Borderlands von Computerbase. (:
Hatte AMD nicht was um 60fps für die 6800XT?
https://live.staticflickr.com/65535/50617814541_a368997dc6_b.jpg (https://flic.kr/p/2k7VwLn)Borderlands-3-FPS-3840-x-2160-DX12-Badass-Quality (https://flic.kr/p/2k7VwLn) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/3/
Daredevil
2020-11-18, 18:27:02
Wenn ich mir das Bild so anschaue, dann scheint SAM ja ordentlich zu performen, wo sonst die Bandbreite ausgeht?
Scheint also so, als wäre SAM nicht zufällig mit dieser Generation geboren, die minFPS sind ja riesig.
https://abload.de/img/unbenanntxejln.png
dargo
2020-11-18, 18:29:57
Preis ist da zweitrangig.
Für dich vielleicht, für die anderen 99,x% sieht es anders aus. Zudem ist die Enthusiast N21 Karte noch gar nicht vorgestellt worden.
EinName
2020-11-18, 18:31:01
Sehr, sehr gute Karten - die XT wie von AMD gezeigt auf Augenhöhe mit der 3080 bei deutlich besserem "Game Verbrauch", AV1 wird auch unterstützt. Top. Die 16gb Speicher sind für mich auch sehr deutlich positiver zu bewerten als DLSS und RT, dass noch von keinem Spiel welches ich spiele unterstützt wird oder irgendwas zu einem besseren Spielerlebnis beigetragen hätte.
Die allermeisten User haben aktuell immer noch WQHD Monitore, und auch ich suche für WQHD was, dass da richtig Frames pusht damit der 165hz Moni auch mal Futter bekommt. Dafür ist die 6800xt deutlich eher gemacht als die 3080. Ist somit auf der Wunschliste für den Weihnachtsbaum - wenn man sie denn zu einem normalen Preis dann kaufen kann.
Wermutstropfen:
Treiber Fehler in einigen Games, die Kosten AMD hier komplett unnötigerweise bei einigen Tests bestimmt 5% avrg Frames des Parkours da es in Einzeltiteln komplett einbricht. Wenn hier genörgelt wird, dass AMD nicht das liefert was sie versprochen haben, liegt das mit Sicherheit zu einem guten Teil daran und sie verschenken damit viel Goodwill. Der Dual-Monitor Stromverbrauch scheint ebenfalls nur bei jeder zweiten Monitorkonfiguration zu funktioniern - wtf?
Hat da jemand Erfahrung mit anderen AMD Karten, ob sie das mit dem Dual-Monitor Verbrauch hinbekommen mit der Zeit?
DrFreaK666
2020-11-18, 18:31:22
Hatte AMD nicht was um 60fps für die 6800XT?...
https://www.overclock3d.net/gfx/articles/2020/11/17121736369l.jpg
Gethvel
2020-11-18, 18:32:48
Selbst eine RTX2080 schlägt also die Radeon 6800XT mit Raytracing + DLSS bei besserer Bildqualität wie erwartet um 40%. Blamabel.
FastAndy
2020-11-18, 18:37:00
auch im ampere thread hat niemand jemals von ampere killern gesprochen. nicht mal der gute gedi, der häufig übers ziel hinaus geschossen ist. komischerweise ist er jetzt wieder wenig hier. :uponder:
Also das ist mal quatsch oder du hast die alle auf ignore. Es gab einige die sich nach der präsi kaum eingekriegt haben vor der vermeintlichen niederlage. Gerade dieser executer, der hier anderen sehr gerne ans bein pinkelt, hat doch rumposaunt amd ist nun no1 zum zocken und intel/nvidia nur noch zweite wahl.
Für mich sind die neuen amds die besten die es je gab, aber erste wahl bleibt nv, sowohl leistung als auch features. Amd ist eher was für die weniger gut betuchten. Was ja voll ok ist.
HarryHirsch
2020-11-18, 18:37:04
[blaa blubb] da hole ich mir lieber die 3090 :rolleyes:
Diese hin und her kotzt mich langsam an :freak:
was willst du denn mit noch einer? oder ist deine in deiner fantasie welt abgeraucht? :freak:
Stretcher
2020-11-18, 18:37:56
Selbst mit einer RTX 2060 und DLSS kannst du gegen die 6800XT bei RT anstinken.^^
Ab in die Tonne mit den AMD GPUs, zumindest für den der RT will.
Colin MacLaren
2020-11-18, 18:38:12
Ich bin not impressed.
Mich interessieren zwei Dinge:
4K-Gaming am 65" OLED in maximal schön.
Multiplayer-Spiele in 3080x1080 mit möglichst 144fps+
- Die Straßenpreise sind so, dass sich die 6800XT mit der 3080 messen muss.
- In Sachen Rasterization kommt die 6800XT mit SAM gerade so an eine 3080 ran, ohne liegt sie etwas zurück. Nur leider ist SAM nahezu irrelevant, da nur auf Zen3 verfügbar, die für Gamer aufgrund der Verfügbarkeit ein grausiges P/L-Verhältnis bieten. NVIDIA bringt das Feature aber noch und wird daher den Abstand wieder um einige wenige Prozent ausbauen können, im Zweifelsfall sogar bei Intel und PCI-E 3.0 und damit AMD marketingtechnisch richtig blöd aussehen lassen.
- In 4K bricht die 6800XT weg. Die 10GB limitieren die 3080 nur in Ausnahmefällen, aufgrund der Speichersituation bei den neuen Konsolen erwarte ich auch nicht, dass sich das ändert. die Speicherbandbreite fehlt der 6800XT fasst immer.
- Die RT-Performance ist wie zu erwarten eine Generation zurück.
- DLSS gibt es gar nicht. Auf meinem 4K-Screen sehe ich null Unterschied zwischen DLSS On und Off.
- Reflex und Gamestream
-Bisher schafft es AMD nur meine Soundbar in Stereo anzusprechen, NVIDIA und Intel in 5.1 und Atmos. Würde mich nicht wundern, wenn das immer noch so wäre. Damit im Wohnzimmer, wo die Gamingkiste zz. steht, ein No-Go.
Alles in allem, setzt man die Herstellerpreise an, eine tolle Karte, die mit 650 EUR vs 800 EUR für die 3080 das bessere PL-Verhältnis aufbietet, auch wenn die 3080 das rundere Produkt ist. Nur leider kosten 6800XT und 3080 das Gleiche :)
Linmoum
2020-11-18, 18:41:54
Selbst mit einer RTX 2060 und DLSS kannst du gegen die 6800XT bei RT anstinken.^^
Ab in die Tonne mit den AMD GPUs, zumindest für den der RT will.Und bei allem anderen fängt die 2060 an zu heulen. Auf jeden Fall heißer Anwärter für den Trollpost des Jahres.
Schnoesel
2020-11-18, 18:43:01
Bitte nicht zitieren, jetzt muss ich son Käse auch lesen wo er doch auf ingore ist.
Last die Trolle doch einfach in Ruhe.
Die allermeisten User haben aktuell immer noch WQHD Monitore, und auch ich suche für WQHD was, dass da richtig Frames pusht damit der 165hz Moni auch mal Futter bekommt. Dafür ist die 6800xt deutlich eher gemacht als die 3080. Ist somit auf der Wunschliste für den Weihnachtsbaum - wenn man sie denn zu einem normalen Preis dann kaufen kann.
die meisten haben full hd oder drunter
DrFreaK666
2020-11-18, 18:44:57
...Ab in die Tonne mit den AMD GPUs, zumindest für den der RT will.
Wer nur Spiele mit RT spielt, hat aktuell eine seeeeehr kleine Auswahl
EinName
2020-11-18, 18:45:09
Amd ist eher was für die weniger gut betuchten. Was ja voll ok ist.
*facepalm*
Was ist mit den Leuten die keinen Backofen im Rechner haben wollen? 230 Watt Spieleverbrauch bei gleicher Leistung - das ist mal ne Ansage.
Was ist mit den Leuten denen bisher all die tollen fünf Titel mit DLSS und RTX am A... vorbei gingen?
Für mich sieht die 6800XT jedenfalls besser aus als eine 3080 - und das hat nichts mit monitärer Limitierung zu tun. Es ist für mich die subjektiv bessere Karte.
Edit: Und 16GB Speicher :P
Stretcher
2020-11-18, 18:45:43
Und bei allem anderen fängt die 2060 an zu heulen. Auf jeden Fall heißer Anwärter für den Trollpost des Jahres.
Ja, ich denke dein Beitrag steht da relativ weit oben.:biggrin:
Cyberpunk und Nvidia ich komme.:smile:
Ex3cut3r
2020-11-18, 18:47:46
Bin begeisterst. Richtig toll was AMD da auf die Beine gestellt hat, trotz der Doppelbelastung mit Ryzen. Die 10% zur 3080 kann man mit OC rausholen, bei der 3080 geht ja nicht mehr viel, ohne das dir das Ding abfackelt. :biggrin: Von daher, passt die Performance, und richtig viel Speicher. Klasse!
Wenn es doch nur was zu kaufe gäbe. Die 2080 hier pfeift aus dem letzen Loch. ;D
grizu
2020-11-18, 18:51:51
Die 16gb Speicher sind für mich auch sehr deutlich positiver zu bewerten als DLSS und RT, dass noch von keinem Spiel welches ich spiele unterstützt wird oder irgendwas zu einem besseren Spielerlebnis beigetragen hätte.
Nicht dein ernst oder ? :freak:
FastAndy
2020-11-18, 18:53:13
Die 16GB sind schon nett, für diejenigen die so Karten Jahre haben.
Bin begeisterst. Richtig toll was AMD da auf die Beine gestellt hat, trotz der Doppelbelastung mit Ryzen. Die 10% zur 3080 kann man mit OC rausholen, bei der 3080 geht ja nicht mehr viel, ohne das dir das Ding abfackelt. :biggrin: Von daher, passt die Performance, und richtig viel Speicher. Klasse!
Wenn es doch nur was zu kaufe gäbe. Die 2080 hier pfeift aus dem letzen Loch. ;D
plötzlich so bescheiden? ;D
Auf jeden Fall geile Sachen bringt AMD raus, Intel und Nvidia ist IMO tot. Wer was auf sich hält, gamt ende 2020 mit Ryzen und Big Navi GPU! Ampere aka Speicherkrüppel war ja von Anfang an, irgendwie ein Fail.
dargo
2020-11-18, 18:53:26
Bin begeisterst. Richtig toll was AMD da auf die Beine gestellt hat, trotz der Doppelbelastung mit Ryzen. Die 10% zur 3080 kann man mit OC rausholen, bei der 3080 geht ja nicht mehr viel, ohne das dir das Ding abfackelt. :biggrin: Von daher, passt die Performance, und richtig viel Speicher. Klasse!
Da gibt es keine 10% zu holen, die RX 6800XT ist ootB schon schneller in deiner Auflösung. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12503581&postcount=55
Colin MacLaren
2020-11-18, 18:54:24
*facepalm*
Was ist mit den Leuten die keinen Backofen im Rechner haben wollen? 230 Watt Spieleverbrauch bei gleicher Leistung - das ist mal ne Ansage.
Was ist mit den Leuten denen bisher all die tollen fünf Titel mit DLSS und RTX am A... vorbei gingen?
Für mich sieht die 6800XT jedenfalls besser aus als eine 3080 - und das hat nichts mit monitärer Limitierung zu tun. Es ist für mich die subjektiv bessere Karte.
Edit: Und 16GB Speicher :P
Modern Warfare oder Cold War mit Raytracing in Multiplayer-fähiger Framerate. Finde ich sehr geil und war die 3090 wert.
Ex3cut3r
2020-11-18, 18:54:52
Da gibt es keine 10% zu holen, die RX 6800XT ist ootB schon schneller in deiner Auflösung. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12503581&postcount=55
Ah Super. Danke dir. Spiele eh in 3440x1440.
plötzlich so bescheiden? ;D
Wat? Wer bist du denn? Ich bin wie gesagt begeistert, kauft doch weiter eure Amperes, habe ich mehr Navis zur Auswahl. Danke und Tschüss. :biggrin:
Daredevil
2020-11-18, 18:56:28
FvE7GeaPjjA
Digidi
2020-11-18, 18:57:20
Ich bin etwas Konfused. Laut treiber von Linux und MacOS soll AMD 8 Rasterizer haben, aber laut Architekturbild sind es nur 4????
Linux treiber:
https://www.pcgamer.com/a-linux-update-may-have-let-slip-amd-big-navis-mammoth-core/
MacOs:
https://www.reddit.com/r/Amd/comments/j06xcd/?utm_content=title&utm_medium=post_embed&utm_name=fd51cb9b0d8e4dec9d44b57f204cc70d&utm_source=embedly&utm_term=j06xcd
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/42-1080.fd765b4b.png
dargo
2020-11-18, 18:58:07
Ah Super. Danke dir. Spiele eh in 3440x1440.
Und die Customs mit noch etwas mehr Bums kommen auch noch. ;) Werden dann aber logischerweise auch so viel fressen wie die 3080 Customs. 340+W halte ich für realistisch.
grizu
2020-11-18, 18:58:39
habe ich mehr Navis zur Auswahl. Danke und Tschüss. :biggrin:
Du darfst von mir aus alle haben :D
dargo
2020-11-18, 18:59:40
Du darfst von mir aus alle haben :D
Nö... eine bekomme ich. :P
dildo4u
2020-11-18, 19:01:21
Hoffe mal das zieht sich nicht durch die Produktion brutal.
https://youtu.be/2fs0yByc8EA?t=376
Were the Fuck is nagus.
Screemer
2020-11-18, 19:02:57
Also das ist mal quatsch oder du hast die alle auf ignore. Es gab einige die sich nach der präsi kaum eingekriegt haben vor der vermeintlichen niederlage. Gerade dieser executer, der hier anderen sehr gerne ans bein pinkelt, hat doch rumposaunt amd ist nun no1 zum zocken und intel/nvidia nur noch zweite wahl.
Für mich sind die neuen amds die besten die es je gab, aber erste wahl bleibt nv, sowohl leistung als auch features. Amd ist eher was für die weniger gut betuchten. Was ja voll ok ist.
man liest scheinbar immer das was man lesen will. scheint eine krankheit zu sein die sich durch alle lager zieht. grad exe der jahrelang als absoluter nv-fanboy galt wird jetzt als amd-shill dargestellt.
dann packt man im endsatz noch das neidargument aus. not bad ach ne eigentlich hammmmmer.
Hoffe mal das zieht sich nicht durch die Produktion brutal.
https://youtu.be/2fs0yByc8EA?t=376
Were the Fuck is nagus.
warum ist das sonst niemandem aufgefallen? kartendefekt? sehr komisch.
Hakim
2020-11-18, 19:09:46
Mich haben jetzt ehrlich gesagt weder die 6800xt noch die 3080 vollends überzeugt, vielleicht mache ich das jetzt einfach davon anhängig welche Custom Versionen ordentlich sind und zu preisen um den UVP verfügbar sein werden. Großer Minus Punkt für AMD könnte CP2077 sein, wofür ich eigentlich die Motivation genommen hatte eine gute Karte für ~700€ zu kaufen, statt 3060Ti/3070 oder halt 6700/6700xt
sven2.0
2020-11-18, 19:11:50
Hoffe mal das zieht sich nicht durch die Produktion brutal.
https://youtu.be/2fs0yByc8EA?t=376
Were the Fuck is nagus.
Jesus :freak:
Screemer
2020-11-18, 19:12:23
Mich haben jetzt ehrlich gesagt weder die 6800xt noch die 3080 vollends überzeugt, vielleicht mache ich das jetzt einfach davon anhängig welche Custom Versionen ordentlich sind und zu preisen um den UVP verfügbar sein werden. Großer Minus Punkt für AMD könnte CP2077 sein, wofür ich eigentlich die Motivation genommen hatte eine gute Karte für ~700€ zu kaufen, statt 3060Ti/3070 oder halt 6700/6700xt
pass auf gleich kommt dargo und beschimpft dich.
Bin begeisterst. Richtig toll was AMD da auf die Beine gestellt hat, trotz der Doppelbelastung mit Ryzen. Die 10% zur 3080 kann man mit OC rausholen, bei der 3080 geht ja nicht mehr viel, ohne das dir das Ding abfackelt. :biggrin: Von daher, passt die Performance, und richtig viel Speicher. Klasse!
Wenn es doch nur was zu kaufe gäbe. Die 2080 hier pfeift aus dem letzen Loch. ;D
Haste vollkommen recht. Verdammt gäbs die Teile zum LP würde ich sofort zuschlagen und mir dazu wieder einen "Free"Sync Monitor kaufen.
Dieses Jahr kann man nicht alles haben, Ryzen 5000 und PS5 sind schon meins.
Aber es gibt noch den Dezember...:smile:
Blediator16
2020-11-18, 19:16:51
Scheiß Preise scheiß Verfügbarkeit. PC Gaming ist einfach nur noch ein PITA.
Schnoesel
2020-11-18, 19:18:49
Den Konsoleros gehts nicht besser hört man.
Blediator16
2020-11-18, 19:20:29
Bin halt keiner von daher sind mir die egal :)
Stretcher
2020-11-18, 19:21:23
PCGH: Die besten Radeon Grafikkarten aller Zeiten.
Tiefer Griff in die Bullshit-Bingo Kiste.
Screemer
2020-11-18, 19:23:37
Ich bin etwas Konfused. Laut treiber von Linux und MacOS soll AMD 8 Rasterizer haben, aber laut Architekturbild sind es nur 4????
Linux treiber:
https://www.pcgamer.com/a-linux-update-may-have-let-slip-amd-big-navis-mammoth-core/
MacOs:
https://www.reddit.com/r/Amd/comments/j06xcd/?utm_content=title&utm_medium=post_embed&utm_name=fd51cb9b0d8e4dec9d44b57f204cc70d&utm_source=embedly&utm_term=j06xcd
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/42-1080.fd765b4b.png
die frage wurde gerade im Vidcast von Hothardware angesprochen. Herkalman kommt später noch mal darauf zurück.
DrFreaK666
2020-11-18, 19:30:59
PCGH: Die besten Radeon Grafikkarten aller Zeiten.
Tiefer Griff in die Bullshit-Bingo Kiste.
??
Screemer
2020-11-18, 19:33:34
oha. herkalman sagte gerade, dass der dlss konkurent überall laufen und mit allem zusammenarbeiten soll.
ich verstehe es so, dass es zwar von den devs implementiert werden muss aber auf allen IHVs laufen soll. kudos für AMD in dem fall. sie arbeiten wohl da direkt mit intel und nvidia. intel wurde allerdings häufiger genannt als nvidia :up:
außerdem hat frank azor gerade eine wiederaufleben von asymetrischem crossfire von apu und gpu angedeutet. noice.
DrFreaK666
2020-11-18, 19:34:25
oha. herkalman sagte gerade, dass der dlss konkurent überall laufen und mit allem zusammenarbeiten soll.
ich verstehe es so, dass es zwar von den devs implementiert werden muss aber auf allen IHVs laufen soll. kudos für AMD in dem fall :up:
Die sollten weniger Sprüche klopfen und mehr zeigen
etp_inxession
2020-11-18, 19:34:45
Nicht dein ernst oder ? :freak:
Er hat doch Recht?
Auch ich spiele kein einziges Spiel welches RT inkludiert hat.
Mehr Speicher kann ich allerdings immer brauchen. (Flight SIM)
maximus_hertus
2020-11-18, 19:36:46
Wow. 3DC in 2020. Nur doch getrolle und Sticheleien. Völlig egal ob aus welcher Ecke.
Ist es so schwer die jeweiligen Stärken und Schwächen sauber zu diskutieren? Muss es immer Schwarz und Weiß sein („der Killer”)? Wir sind hier eigentlich in einem Technik-affinen Forum. Also lasst uns mehr vernünftig diskutieren, gerade weil man die Karten eh nicht wirklich zum UVP kaufen kann.
Auch wichtig: die eigene Spielerealität muss nicht für alle gelten. Es gibt sicherlich nicht wenige 1080p144 bzw. 1440p144 Spieler. Gerade da könnte der IC eine Menge bringen.
Statt von einer 4K Schwäche zu philosophieren, warum nehmen wir nicht zB die 2080 Ti und zB 5700XT unff do gucken mal, wie viele % die von 1440p auf 2160p verlieren. Dazu dann die rx 6000 und rtx 3000 Karten. DAS wäre eine gute Grundlage mit entsprechenden Daten. Verhält sich die 3000 eher „normal“ oder doch eher die rx 6000? Oder verhalten sind beide anders als die vorherigen Generationen?
DAS wäre doch großartig - miteinander alles analysieren und herausarbeiten. Da braucht man kein getrolle und kein „mimimi aber letzte Woche im anderen Thread...“
Lasst uns diese tolle Situation doch nutzen um sauber zu diskutieren. Es wäre viel zu Schade, wenn es nur beleidigte Leberwürste gibt die nur darauf warten, ihre Bitternis dem anderen durch Provokationen zu zeigen.
Linmoum
2020-11-18, 19:39:21
oha. herkalman sagte gerade, dass der dlss konkurent überall laufen und mit allem zusammenarbeiten soll.
ich verstehe es so, dass es zwar von den devs implementiert werden muss aber auf allen IHVs laufen soll. kudos für AMD in dem fall. sie arbeiten wohl da direkt mit intel und nvidia. intel wurde allerdings häufiger genannt als nvidia :up:Jop, deswegen können sie da auch aktuell noch nicht großartig viel zeigen bzw. zu sagen, weil es eben keine alleinige "interne" Lösung von AMD ist (wie eben DLSS von NV), sondern das in Zusammenarbeit mit Partnern und Developern entwickelt wird.
Die sollten weniger Sprüche klopfen und mehr zeigenWieso sollen sie bei einem quasi industrieweiten Standard, an dem etliche andere Parteien beteiligt sind, mehr zeigen? Das liegt nicht allein in deren Hand. Es ist klasse, dass eine solche nicht-proprietäre Lösung kommen wird, die in Zusammenarbeit mit anderen entwickelt wurde und wird. Das war's dann mittelfristig auch schon wieder für DLSS.
DrFreaK666
2020-11-18, 19:44:22
...Wieso sollen sie bei einem quasi industrieweiten Standard, an dem etliche andere Parteien beteiligt sind, mehr zeigen? ...
Weil wir es benutzen werden. Ich will Daten und Screenshots. Von Marketing-Bla kann ich mir nichts vorstellen.
Benutzername
2020-11-18, 19:51:49
Wow. 3DC in 2020. Nur doch getrolle und Sticheleien. Völlig egal ob aus welcher Ecke.
Ist es so schwer die jeweiligen Stärken und Schwächen sauber zu diskutieren? Muss es immer Schwarz und Weiß sein („der Killer”)? Wir sind hier eigentlich in einem Technik-affinen Forum. Also lasst uns mehr vernünftig diskutieren, gerade weil man die Karten eh nicht wirklich zum UVP kaufen kann.
Auch wichtig: die eigene Spielerealität muss nicht für alle gelten. Es gibt sicherlich nicht wenige 1080p144 bzw. 1440p144 Spieler. Gerade da könnte der IC eine Menge bringen.
Statt von einer 4K Schwäche zu philosophieren, warum nehmen wir nicht zB die 2080 Ti und zB 5700XT unff do gucken mal, wie viele % die von 1440p auf 2160p verlieren. Dazu dann die rx 6000 und rtx 3000 Karten. DAS wäre eine gute Grundlage mit entsprechenden Daten. Verhält sich die 3000 eher „normal“ oder doch eher die rx 6000? Oder verhalten sind beide anders als die vorherigen Generationen?
DAS wäre doch großartig - miteinander alles analysieren und herausarbeiten. Da braucht man kein getrolle und kein „mimimi aber letzte Woche im anderen Thread...“
Lasst uns diese tolle Situation doch nutzen um sauber zu diskutieren. Es wäre viel zu Schade, wenn es nur beleidigte Leberwürste gibt die nur darauf warten, ihre Bitternis dem anderen durch Provokationen zu zeigen.
Danke. :smile:
Mal für kurze Zeit nicht ins Forum geguckt und das Bignavi Embargoende ignorieert, und dann das hier. Aber die Kultur im interwebs hat sich die letzten zehn Jahre immer mehr zu Absolutismen und jedes einzelne Mal Weltuntergang und die zweite (dritte, vierte) Parusie und Ragnarök. :conf: Leute, es ist letztlich nur eine Graifkkarte und wegen der mexikanischen Bierseuche auhc noch kaum lieferbar wie alles andere. allein deswegen kann man es ruhiger angehen lassen und sich auch mal ein bisschen Zeit lassen einen Beitrag zu klöppeln. Wir sind hier ja nicht auf Twitter, wo man in der Länge des Beitrages begrenzt wäre. Man kann, darf und sollte hier Konditionalsätze und Fußnoten und Anmerkungen zur eigenen Meinung schreiben. Kann doch nicht so schwer sein ein paar Gründe anzugeben? Und Ich dachte der Alterschnitt hier tendierte mehr zu vierzig als zu dreizehn. :freak:
Oder ist das dieser Rage Mode von dem das AMD-Marketing immer faselt?
Benutzername
2020-11-18, 20:03:22
Jop, deswegen können sie da auch aktuell noch nicht großartig viel zeigen bzw. zu sagen, weil es eben keine alleinige "interne" Lösung von AMD ist (wie eben DLSS von NV), sondern das in Zusammenarbeit mit Partnern und Developern entwickelt wird.
Sind halt alle nicht der Marktführer, deshalb it es vorteilhaft für sie sich zu verbünden. Mancher Manager mag auch noch das Chaos der Vergangenheit bei 3D karten im Kopf haben. Damals passte ja nichts zueinander und die Spiele mussten einzeln für jede Karte gepatcht werden. :freak: Und die durchaus positive Erfahrung mit Linux dürfte auch offenen Standards helfen.
Wieso sollen sie bei einem quasi industrieweiten Standard, an dem etliche andere Parteien beteiligt sind, mehr zeigen? Das liegt nicht allein in deren Hand. Es ist klasse, dass eine solche nicht-proprietäre Lösung kommen wird, die in Zusammenarbeit mit anderen entwickelt wurde und wird. Das war's dann mittelfristig auch schon wieder für DLSS.
Wie immer bei nVidias "Killer Features". Die werden doch alle nach ein paar Jahren gekillt. Oder wurde irgendwas permanent übernommen irgendwo? PhysX? G-Sync? RTX ON ist doch jetzt auch schon praktisch verschwunden, weil alle anderen Hersteller es nicht benutzen. Warum sollte man sich die Mühe machen es zu implementieren anstelle von Vulkan Raytracing zu dem nVidia selbst ja auch sich eingebringt? DLSS wird auch verschwinden prophezeie Ich. Spätestens wenn nVidia keine Lust mehr hat die Rechnerfarmen dafür zu betreiben. Die Liste der verschwunden Alleinstellungsmerkmale von nVidia ist bestimmt noch länger. Die Karten hatten auch genug Rohleistung, daß es egal war am Ende. Aber das stimmt ja jetzt auch nicht mehr. Puh nochmal die Kurve zu AMD geschafft. :D
Blediator16
2020-11-18, 20:03:54
Mal davon ab muss man stets Preise mit einbeziehen. Dumm nur, dass sowohl AMD als auch Nvidia weder liefern können, noch die Preise in einem akzeptablen Rahmen sind.
dargo
2020-11-18, 20:04:16
Weil wir es benutzen werden. Ich will Daten und Screenshots. Von Marketing-Bla kann ich mir nichts vorstellen.
Dann kauf dir eine Geforce und genieße dein DLSS in jedem Spiel. Meine Güte...
bloodflash
2020-11-18, 20:06:22
DAS wäre doch großartig - miteinander alles analysieren und herausarbeiten. Da braucht man kein getrolle und kein „mimimi aber letzte Woche im anderen Thread...“
Lasst uns diese tolle Situation doch nutzen um sauber zu diskutieren. Es wäre viel zu Schade, wenn es nur beleidigte Leberwürste gibt die nur darauf warten, ihre Bitternis dem anderen durch Provokationen zu zeigen.
Danke!
Die 2-5% Diskussionen bin ich auch leid, weil es bei diesen "Messungenauigkeiten" dann auf andere Dinge ankommt.
RTX und DLSS sind halt für viele kein Thema. Nicht umsonst gibt es auch hier Spieler, die kein Spiel haben, dass das unterstützt. Nicht verwunderlich bei ~1% Marktanteil, wenn überhaupt.
16GB Speicher sind auch für viele kein Thema, weil die Spielehersteller halt bisher auf 8GB oder gar weniger optimiert haben. Denn 10 oder 11GB-Karten sind eher ein Promillephänomenen. Wird die Zukunft zeigen ;) Oder die Konsolen ;)
Das Problem sind halt die Launchtests:
Alles so halbgar und die Stärken und Schwächen offenbaren sich erst nach einigen Monaten. Treiber, Preise, Verfügbarkeit und Co. haben sich wahrscheinlich erst im März normalisiert. Aber dann kommt nV bestimmt mit ihren 16/20GB-Karten.
Ich bin auf jeden Fall von AMDs neuen Offerten überzeugt. Sie liefern genau das, was sie angekündigt haben (blahblah, aber 1,75% in Benchmark X), sei es bei Performace oder Verbrauch. Und zudem haben sie zum Marktführer aufgeschlossen.
Wer im Frühjahr kauft, wird die aktuellen Preise (falls verfügbar) nicht bezahlen müssen und dann sehen wir erst, wer das bessere Preis-/Leistungsverhältnis hat, oder Performance/Watt.
Stand heute wäre es AMD bei UVP.
Wer die handvoll RT(X)/DLSS-Spiele bevorzugt nimmt halt nV und kotzt im Sommer ob deren speichererweiterten Angeboten ab, oder denkt sich: Alle halbe Jahre 'ne neue Top-Karte ist OK ;)
Wen ich soviel Geld ausgeben wollen würde, wäre es bei mir eine 6800, aber ich warte bis sich die Wogen geglättet haben und die kleineren Karten und ein 5700/5700X bei den CPUs raus ist.
DrFreaK666
2020-11-18, 20:07:56
Dann kauf dir eine Geforce und genieße dein DLSS in jedem Spiel. Meine Güte...
Ich will keine GeForce mehr :P
Benutzername
2020-11-18, 20:08:40
Scheiß Preise scheiß Verfügbarkeit. PC Gaming ist einfach nur noch ein PITA.
Versuch mal einen Laptop zu kaufen. Oder eine Webcam. Oder einen Server. Oder eigentlich irgendwas. Durch covid wird alles aufgehalten und wir haben nciht mehr den bequemen Überfluß zu jeerzeit alles kaufen zu können.
--------------------------
Mal davon ab muss man stets Preise mit einbeziehen. Dumm nur, dass sowohl AMD als auch Nvidia weder liefern können, noch die Preise in einem akzeptablen Rahmen sind.
Och die Listenpreise sind schon okay. Aber Angebot und Nachfrage diktieren halt die Straßenpreise. Tja und es gibt offenbar genug Leute die soviel über den Listenpreisen bezahlen wollen. Version 1.0 ist sowieso immer voller Fehler deswegen kaufe Ich eigentlich nie am Marktstart Hardware. ships lassen sich so schleht hinterher patchen. Oder vermurkste Kühlkörper. Oder oder oder.
Hakim
2020-11-18, 20:11:03
Was mich genervt hat das selbst beim 3080 in den ersten Minuten Karten für 699€, wenn auch super Kurz, gelistet waren (Zotac Trinity und selbst die TUF) und danach steil nach oben hin "korrigiert" haben. Hier aber wollten die Händler Geier direkt mal absahnen. Ich hoffe das es nächste Woche besser wird, wenn die Customs raus kommen.
dargo
2020-11-18, 20:11:42
Ich will keine GeForce mehr :P
Dann hast du eh nur einen IHV zur Auswahl, was soll also die Aufregung? Muss ich nicht verstehen.
Grindcore
2020-11-18, 20:15:15
Gute Karten zu (formal) guten Preisen. Die Verfügbarkeit wird halt Mal wieder ein Trauerspiel draus machen.
DrFreaK666
2020-11-18, 20:15:40
Dann hast du eh nur einen IHV zur Auswahl, was soll also die Aufregung? Muss ich nicht verstehen.
Nein, musst du nicht. Ich find's toll dass AMD endlich wieder konkurrenzfähig ist. Die DLSS-Alternative wäre halt noch das i-Tüpfelchen.
Vielleicht kommt es ja schon im 1.Quartal
Lowkey
2020-11-18, 20:18:01
To Do:
Nächste Woche auf Release der Custom 6800(xt) warten.
Dann warten wir am 2.12 auf die 3060Ti (gäähn)
Dicht gefolgt erscheint am 10.12 die 6900XT (mindestens Reviews).
Und danach soll Nvidia noch dieses Jahr ihren SAM Modus zeigen und es folgt ein erneuter Battle (AMD bringt sicherlich neue Treiber).
Kaum haben wir die Ergebnisse ausdiskutiert kommt das Release der 3080Ti Anfang Januar.
Wieder ein Paperlaunch, aber in der Zeit warten wir gespannt auf die Custommodelle der 3080Ti. Aber die Fanboys jubeln nur kurz, denn dann erscheint auch noch die 6700XT.
Nach dem Fahrplan sehen wir im Februar endlich ruhige Zeiten anbrechen und ca. Ende Juni sind alle Karten zu humanen Preisen verfügbar.
bloodflash
2020-11-18, 20:21:33
Wie immer bei nVidias "Killer Features". Die werden doch alle nach ein paar Jahren gekillt. Oder wurde irgendwas permanent übernommen irgendwo? PhysX? G-Sync? RTX ON ist doch jetzt auch schon praktisch verschwunden, weil alle anderen Hersteller es nicht benutzen. Warum sollte man sich die Mühe machen es zu implementieren anstelle von Vulkan Raytracing zu dem nVidia selbst ja auch sich eingebringt? DLSS wird auch verschwinden prophezeie Ich. Spätestens wenn nVidia keine Lust mehr hat die Rechnerfarmen dafür zu betreiben.
So sehe ich das auch.
Insbesondere bei RT(X) und DLSS sehe ich aktuell das Problem der Unterstützung und Weiterverfolgung. Das muss von den Spieleherstellern *und* nV supportet werden.
Aktuell haben wir da eine Marktdurchdringung von ~1%, wenn überhaupt.
AMD will hier mit nicht propietären Lösungen aufschliessen, die sich am Ende wahrscheinlich durchsetzen werden, insbesondere wegen den (AMD)-Konsolen. Siehe Gsync vs. Freesync und HDMI2.1
Problematisch sehe ich eher die Benchmarkwebsites, die so Dinge wie RTX und DLSS promoten und in ihren Launchreviews mit positiven Konotationen in den Vordergrund stellen, weil sie sich halt an die paar von nVidia promoteten AAA-Titel aufhängen.
Gibt es bei den aktuellen Launchrevies eine Website die z.B. Titel ohne diese Features in den Vordergrund stellt und beispielsweise mal die Topgames von Steam durchbencht mit z.B. No Man's Sky?
Ich warte da lieber auf Reviews aus 2021 und diverse Nutzererfahrungen.
Lowkey
2020-11-18, 20:26:07
Das ist doch nicht nur Nvidia? AMDs Trueaudio ist auch weg. Um nur ein Beispiel zu nennen. RT ist immer noch optional, da wie DLSS angepaßt werden muss. Alle extra Features braucht man nicht in der Summe der reinen Leistung. 2020 zählt immer noch Preis und FPS Leistung. Stromverbrauch kann man nun ignorieren, da die Hersteller auf einem Level sind.
bloodflash
2020-11-18, 20:26:41
Versuch mal einen Laptop zu kaufen. Oder eine Webcam.
ACK.
Da gab es im letzten halben Jahr Preissteigerungen von teils 100%, aktuell immer noch bei 50%, bei dem exakt gleichen Modell.
Und Verfügbarkeit: Mit Glück!
Benutzername
2020-11-18, 20:45:01
Das ist doch nicht nur Nvidia? AMDs Trueaudio ist auch weg. Um nur ein Beispiel zu nennen. RT ist immer noch optional, da wie DLSS angepaßt werden muss. Alle extra Features braucht man nicht in der Summe der reinen Leistung. 2020 zählt immer noch Preis und FPS Leistung. Stromverbrauch kann man nun ignorieren, da die Hersteller auf einem Level sind.
Wie Ich ja schrieb, die reine 3D Lesitung war ja auch immer noch in Ordnung bei nVidia. Jetzt ist Gleichstand und mal der und der andere schneller. Aber es wird immer DLSS hier RTX ON da getönt. Dafür hat AMD ja jetzt Rage Mode als albernes Buzzwordbingo. Und PCIe2.0 Spec als SAM verkauft.
Stimmt AMD und andere machen das auch. Ich habe aber den Eindruck daß nVidia die letzen Jahre viel mehr mit solchen Features um sich geworfen hat. Schade um Trueaudio. Oder um A3D. EAX war nie so doll. Vernünftig beschleunigten 3D sound gibt es ja im Moment nicht trotz zum Teil absurd teurer Soundkarten. :( Aber so etwas wie Phsx wäre immernoch allgemein nützlich. Ist halt immer toll wenn Zeug durch die Gegend poltert. "physikalisch korrekt".
Gethvel
2020-11-18, 20:49:26
Wie Ich ja schrieb, die reine 3D Lesitung war ja auch immer noch in Ordnung bei nVidia. Jetzt ist Gleichstand und mal der und der andere schneller. Aber es wird immer DLSS hier RTX ON da getönt. Dafür hat AMD ja jetzt Rage Mode als albernes Buzzwordbingo. Und PCIe2.0 Spec als SAM verkauft.
DLSS und RTX Performance ist aber tatsächlich entscheidend. Für Games ohne Raytracing braucht man diese Performance halt auch nicht. Und wer möchte in 2020 noch Games ohne Raytracing zocken? Ich nicht.:rolleyes:
konkretor
2020-11-18, 20:50:08
Wird das mit der Verfügbarkeit in 2021 jemals besser?
Seit 20 Jahren ist es gefühlt nicht so schlimm wie in 2020.
Bei 2021 mach ich mir auch keine größere Hoffnungen
Korvaun
2020-11-18, 20:58:38
Klar wird das wieder besser. Spätestens wenn die Impfwelle durch ist und alles wieder einigermaßen "normal" ist werden die Leute wie wild verreisen... und dann ist kein Geld mehr da für GraKas. Dann bekommste superduper Preise... ;)
EinName
2020-11-18, 21:03:00
Stimmt AMD und andere machen das auch. Ich habe aber den Eindruck daß nVidia die letzen Jahre viel mehr mit solchen Features um sich geworfen hat
AMD nimmt man da gerne raus, weil sie als Gegenargument zu Nvidias Lösungen dann folgend auf offene Standards gesetzt, und damit auch richtig gelegen haben. Hoffentlich geht die Transition bei DLSS und RTX schneller als bei Gsync...
In dem Sinne hoffe ich auch, dass AMD - wie nennt sich das? SAM? - Unterstützung schnellstmöglich generell immer aktiviert, egal der CPU. Andernfalls hätte es ein Geschmäckle.
Lawmachine79
2020-11-18, 21:04:08
DLSS und RTX Performance ist aber tatsächlich entscheidend. Für Games ohne Raytracing braucht man diese Performance halt auch nicht. Und wer möchte in 2020 noch Games ohne Raytracing zocken? Ich nicht.:rolleyes:
Das ist der Punkt. Im Computerbasereview steht, bei neuen Games steht die 6800XT relativ gesehen besser da, als bei älteren Games - aber wer braucht neue Games mit alten Settings? Wenn neue Spiele auf Max Settings getestet werden, gehört RT eben dazu.
Und noch ein Punkt: es wurde ein Riesenmarketinggedöns um die Speichergeschichte gemacht. Wo sind denn jetzt die 10GB knapp? Die 3080 gewinnt in UHD, also da, wo Speicher am Ehesten zum Problem wird. Man kann den Speicher noch stärker gewichten: indem man RT anmacht. Dann gewinnt die 3080 extrem deutlich. Ja wo isser denn, der Speichermangel? Möglicherweise kommt der noch. Wenn er kommt, dann bestenfalls in ein paar Spielen - und dann macht man halt DLSS an. Was kann die 6800XT anmachen, wenn unter RT die Performance schlecht ist? Gar nix. Da hilft dann auch kein Rumgerage ;).
Von den Einheiten her liegt die 69XT genau 11% vor der 68XT. Knapp vor 3080, etwas weniger knapp hinter 3090. Wenn NV SAM aktiviert, könnte die 69XT sogar hinter die 3080 fallen. Dann ist der Tausi gar nicht mal mehr so günstig ;).
Linmoum
2020-11-18, 21:05:36
AMD nimmt man da gerne raus, weil sie als Gegenargument zu Nvidias Lösungen dann folgend auf offene Standards gesetzt, und damit auch richtig gelegen haben. Hoffentlich geht die Transition bei DLSS und RTX schneller als bei Gsync...
In dem Sinne hoffe ich auch, dass AMD - wie nennt sich das? SAM? - Unterstützung schnellstmöglich generell immer aktiviert, egal der CPU. Andernfalls hätte es ein Geschmäckle.In dem Q&A heute bei HotHardware hat man ja schon durchblicken lassen, dass das auch noch für ältere Chipsätze/CPUs unterstützt wird, aber man aktuell erstmal nur sicherstellen kann, dass die Funktionalität für die 5xx-Chipsätze gegeben ist. An der Unterstützung/Validierung für mehr muss erst noch gearbeitet werden.
Lawmachine79
2020-11-18, 21:09:22
In dem Q&A heute bei HotHardware hat man ja schon durchblicken lassen, dass das auch noch für ältere Chipsätze/CPUs unterstützt wird, aber man aktuell erstmal nur sicherstellen kann, dass die Funktionalität für die 5xx-Chipsätze gegeben ist. An der Unterstützung/Validierung für mehr muss erst noch gearbeitet werden.
Zen 2 geht doch auch auf 5xx Chipsätzen und wird nicht unterstützt.
Da noch nicht validiert vermutlich. ;-)
dildo4u
2020-11-18, 21:13:31
uaxnvRUeqkg
Lawmachine79
2020-11-18, 21:14:29
Da noch nicht validiert vermutlich. ;-)
Natürlich ;). Sowas muss man ausführlich testen ;).
grizu
2020-11-18, 21:14:49
So sehe ich das auch.
Insbesondere bei RT(X) und DLSS sehe ich aktuell das Problem der Unterstützung und Weiterverfolgung. Das muss von den Spieleherstellern *und* nV supportet werden.
Aktuell haben wir da eine Marktdurchdringung von ~1%, wenn überhaupt.
Praktisch fast alle neuen Games unterstützen dlss ..ist für mich das beste nvidia feature überhaupt
Linmoum
2020-11-18, 21:14:50
Deswegen hatte ich ja auch "ältere Chipsätze/CPUs" geschrieben. Wie auch schon mal im Ampere-Thread geschrieben, wenn das so einfach wäre, könnte Nvidia das ja mal eben so nachschieben. Auch da wird erst entsprechend getestet (und validiert) und vor allem soll es ja (erstmal?) auch nur mit Ampere funktionieren. Ist scheinbar nicht so einfach und mal eben gemacht, wie es viele denken.
Robot
2020-11-18, 21:15:31
So sehe ich das auch.
Insbesondere bei RT(X) und DLSS sehe ich aktuell das Problem der Unterstützung und Weiterverfolgung. Das muss von den Spieleherstellern *und* nV supportet werden.
Aktuell haben wir da eine Marktdurchdringung von ~1%, wenn überhaupt.
Was mir jetzt bei RTX schon wieder auffällt ist, dass es wie damals bei PhysX immer die gleichen drei Effekte sind. Damals Fahnen, Haare, Umhänge .... heute Pfützen, Scheiben, Wasserspiegelung. ;D
Mich nervts schon fast wieder das überall jetzt dämliche Pfützen eingestreut werden um noch mal nen RTX-Effekt zu zeigen :P
Man müsste mal nen RTX ON Blindtest machen, ich denke da würden viele scheitern.
bloodflash
2020-11-18, 21:18:12
Was soll denn das rumreiten auf SAM?
Es benötigt BIOS, 64bit-PCIe, OS mit UEFI, CPU- und GPU-Unterstützung.
AMD hat das jetzt für die neue Plattform als Mindestanforderung rausgegeben und es funktioniert.
Intel und nVidia haben auf Consumerplattformen nichts davon, weil nicht unterstützt!
Und alle drei können es nach AMDs Initiative für andere Plattformen nachschieben.
Ob es ohne PCIe4 über die 1-3% hinauskommt, weiss kein Mensch.
Lawmachine79
2020-11-18, 21:18:32
Mich nervts schon fast wieder das überall jetzt dämliche Pfützen eingestreut werden um noch mal nen RTX-Effekt zu zeigen :P
Ja, oder wie plötzlich vertikale und horizontale Linien Konturen abgeschafft wurden, als Antialiasing neu war ;).
grizu
2020-11-18, 21:19:46
Was mir jetzt bei RTX schon wieder auffällt ist, dass es wie damals bei PhysX immer die gleichen drei Effekte sind. Damals Fahnen, Haare, Umhänge .... heute Pfützen, Scheiben, Wasserspiegelung. ;D
Mich nervts schon fast wieder das überall jetzt dämliche Pfützen eingestreut werden um noch mal nen RTX-Effekt zu zeigen :P
Man müsste mal nen RTX ON Blindtest machen, ich denke da würden viele scheitern.
:freak::freak::freak:
Dino-Fossil
2020-11-18, 21:20:08
Es werden halt gerne Effekte genutzt, die man deutlich sieht. Und dabei massiv übertrieben, leider.
Wird uns sicher noch eine so Weile begleiten, bevor es dann halbwegs dezent eingesetzt wird.
bloodflash
2020-11-18, 21:22:51
Wenn neue Spiele auf Max Settings getestet werden, gehört RT eben dazu.
Und wieviele Spiele können das? 1% der letzten 2 Jahre?
Es gibt auch eine handvoll Spiele, die mehr als 12 Theads gewinnbringend ausnutzen können.
Sollen wir dafür Intel komplett ausklammern ;)
grizu
2020-11-18, 21:27:32
Das heißt also keine neue Technik mehr in Spielen integrieren ? warum kauft ihr euch dann eine neue Grafikkarte ? gibt doch genug alte Spiele
AtTheDriveIn
2020-11-18, 21:29:32
Nach den Reviews ist objektiv AMD zu bevorzugen.
#RT ist doch bisher NV only optimiert. PS und XBOX Spiele werden das ändern.
#16Gbyte für den Preis ist deutlich attraktiver
#OC Potential ist vorhanden, da nicht ans Limit gepushed. Customs haben hier Potential.
#Effizienter
#Treiberoptimierung werden die 6800er Serie noch weiter nach vorne bringen. Vergleich 5700er.
#Vorteil in neuen Spielen schon sichtbar
bloodflash
2020-11-18, 21:36:43
Das heißt also keine neue Technik mehr in Spielen integrieren ? warum kauft ihr euch dann eine neue Grafikkarte ? gibt doch genug alte Spiele
Ich rede von Spielen der letzten 2 Jahre. Das sind ein paar mehr als die paar AAA oder von nVidia gesponserten Titel.
Manche wollen auch einfach glatte FPS über 60 auf ihrem aktuellen 144FPS-Display.
Oder Games ohne RT/DLSS in 4K.
Oder beides.
Fakt ist, die meisten Games unterstützen es nicht!
Und wenn nur für marginale Eyecandy-Gewinne, die oftmals ohne kaum zu unterscheiden sind oder halt nur Eyecandy.
Das wird sich in den nächsten 2 Jahren einpendeln, aber aktuell ist es nur ein Nice-To-Have-Feature. Kein Must-Have.
Das Problem sind eher die nicht verfügbaren Displays für 120Hz VRR. Wenn es soweit ist, unterhalten wir uns über RX 7800 XT und RTX 4800.
dargo
2020-11-18, 21:37:02
Das heißt also keine neue Technik mehr in Spielen integrieren ? warum kauft ihr euch dann eine neue Grafikkarte ? gibt doch genug alte Spiele
Weil alte Spiele genauso wie neue aussehen. :rolleyes: Vielleicht weil man bessere Assets durch neuere Spiele haben möchte? Vielleicht weil man neue Spiele mit ausreichend fps spielen möchte? Wäre mal was ganz Neues. :freak:
grizu
2020-11-18, 21:38:51
Manche wollen auch einfach glatte FPS über 60 auf ihrem aktuellen 144FPS-Display.
Oder Games ohne RT/DLSS in 4K.
Oder beides.
Du weist schon das diese Effekte optional sind ? ;) nutze es einfach nicht und gut ist..
grizu
2020-11-18, 21:39:22
Weil alte Spiele genauso wie neue aussehen. :rolleyes: Vielleicht weil man bessere Assets durch neuere Spiele haben möchte? Vielleicht weil man neue Spiele mit ausreichend fps spielen möchte? Wäre mal was ganz Neues. :freak:
sagt genau der richtige :freak:
Lawmachine79
2020-11-18, 21:39:59
Du weist schon das diese Effekte optional sind ? ;) nutze es einfach nicht und gut ist..
Und mach' gleich noch AA aus und spiel im DX9-Mode!
Und wieviele Spiele können das? 1% der letzten 2 Jahre?
Es gibt auch eine handvoll Spiele, die mehr als 12 Theads gewinnbringend ausnutzen können.
Sollen wir dafür Intel komplett ausklammern ;)
Guck' Dir doch an, wieviele Titel der letzten 2 Jahre heute in den Reviews auch mit RT getestet wurden. Das sind schon ein paar. Klar ist das kein Must-Have. Aber "Must-Have" ist nichts, was sich in irgendeinem Optionsmenü abschalten lässt; sogar AA und AF lassen sich abschalten. Also ist alles über HD und low detail kein Must-Have - sonst könnte man es ja nicht deaktivieren. Aber wie gesagt: jeder spielt in den Settings, wie er will. Ich gucke auf die Settings (und da bin ich nicht selektiv: ich klicke alles an und schiebe alles nach rechts), die ich haben will und suche danach meine Graka aus. Wer will, kann es auch umgekehrt machen: sich eine Grafikkarte aussuchen, und dann die Settings aussuchen, auf denen spielen will (kann).
dargo
2020-11-18, 21:40:55
sagt genau der richtige :freak:
Wolltest du mir was mitteilen?
grizu
2020-11-18, 21:44:14
Ja, Erbsenzähler in fast jedem Gamethread
dargo
2020-11-18, 21:45:40
Das ist alles?
Ex3cut3r
2020-11-18, 21:45:55
Lasst doch mal diese persönlichen Gefühle raus, du hast ne 3090 grizu. Kannst du nicht was mit RT spielen gehen? Lasst den Leuten doch ihre Meinung.
EinName
2020-11-18, 21:46:00
Das heißt also keine neue Technik mehr in Spielen integrieren ? warum kauft ihr euch dann eine neue Grafikkarte ? gibt doch genug alte Spiele
Ich glaube es geht eher darum, dass RTX halt propriätär ist, und es kaum Titel und (verkaufte) Grakas gibt auf denen das flüssig läuft. Hätte NV direkt mit MS DX12Ultimate umgesetzt anstatt das eigene RTX, wäre das nochmal was anderes. So wird es aber ohnehin sterben, und aktuell... weiss man nocht nichtmals wie die Performance in Titeln ist, die mit der AMD Hardware im Fokus entwickelt wurden. Aktuell ist halt alles 100% auf Nvidia abgestimmt. Voranprechen finde ich gut, proprietäres Zeug ist aber Müll.
Für mich persönlich fehlt da, trotz dem super tollen DLSS, aktuell einfach die Performance. Mein Ziel sind halt nicht 60 fps avg. sondern 100 Minfps.
Wenn du das anders siehst, und lieber mit RTX und 60 avg spielst - ist doch super, du weißt genau welche Karte für dich die Beste ist. Bitte versuche aber nicht deine Art und Weise zu spielen und die daraus resultierende Meinung anderen über den Kopf zu stülpen :)
Gethvel
2020-11-18, 21:46:19
Ich rede von Spielen der letzten 2 Jahre. Das sind ein paar mehr als die paar AAA oder von nVidia gesponserten Titel.
Manche wollen auch einfach glatte FPS über 60 auf ihrem aktuellen 144FPS-Display.
Oder Games ohne RT/DLSS in 4K.
Oder beides.
Fakt ist, die meisten Games unterstützen es nicht!
Und wenn nur für marginale Eyecandy-Gewinne, die oftmals ohne kaum zu unterscheiden sind oder halt nur Eyecandy.
Die meisten Games laufen halt auch auf nem Laptop.:rolleyes:
Sieht dann halt schrottig aus ohne Raytracing und DLSS, wenn man weiß wie es mit aussieht. Wenn ich neue AAA Games zocke, dann ist RT und DLSS Pflicht. Die meisten neuen AAA Games bieten das auch, vor allem Blockbuster wie Cyberpunk2077.
Szudri
2020-11-18, 21:50:06
ACK.
Da gab es im letzten halben Jahr Preissteigerungen von teils 100%, aktuell immer noch bei 50%, bei dem exakt gleichen Modell.
Und Verfügbarkeit: Mit Glück!
Die Verfügbarkeit wird auch noch Monate so bleiben bis nach CNY, gibt seit Wochen heftige Aufschläge zumal es schwer ist Frachtraum zu bekommen.
grizu
2020-11-18, 21:50:12
Lasst doch mal diese persönlichen Gefühle raus, du hast ne 3090 grizu. Kannst du nicht was mit RT spielen gehen? Lasst den Leuten doch ihre Meinung.
Ehrlich ? schau mal im Ampere Thread wer da alles Nvidia Karten runtergemacht hat, mehr brauche ich da nicht zu sagen ;)
Und ich habe nichts schlechtes über die neue AMD Karten gesagt und finde diese sogar sehr gut..
Mich nervt einfach diese Raytracing, DLSS gebashe von Leuten die das noch nie aktiviert haben
Also ich hatte nun 3 RT-Karten 1x 2080TI, 1x3080 und 1x3090: Defacto ist RT ohne DLSS auf allen Karten zu langsam - was allerdings nicht die Performance seitens AMD entschuldigen soll.
Und zum Thema DLSS: Mag zwar im Vergleich auf Standbildern gut aussehen, allerdings in bewegten Bildchen sieht es doch ganz anders aus! Der wo da keinen Unterschied zwischen nativ und Upscaler aka NV sieht, sollte dringend zum Augenarzt. Leider bringt AMD diesbezüglich ein Equivalent ...
Lawmachine79
2020-11-18, 21:54:59
Ich glaube es geht eher darum, dass RTX halt propriätär ist, und es kaum Titel und (verkaufte) Grakas gibt auf denen das flüssig läuft. Hätte NV direkt mit MS DX12Ultimate umgesetzt anstatt das eigene RTX, wäre das nochmal was anderes. So wird es aber ohnehin sterben, und aktuell... weiss man nocht nichtmals wie die Performance in Titeln ist, die mit der AMD Hardware im Fokus entwickelt wurden. Aktuell ist halt alles 100% auf Nvidia abgestimmt. Voranprechen finde ich gut, proprietäres Zeug ist aber Müll.
Für mich persönlich fehlt da, trotz dem super tollen DLSS, aktuell einfach die Performance. Mein Ziel sind halt nicht 60 fps avg. sondern 100 Minfps.
Wenn du das anders siehst, und lieber mit RTX und 60 avg spielst - ist doch super, du weißt genau welche Karte für dich die Beste ist. Bitte versuche aber nicht deine Art und Weise zu spielen und die daraus resultierende Meinung anderen über den Kopf zu stülpen :)
Wo ist Raytracing denn proprietär? Läuft doch auf AMD-Karten. Und ja, es ist auf NV abgestimmt: auf AMD konnte man es ja bis heute nicht abstimmen, weil sie es nicht unterstützt haben. Wird aber auch jetzt schwer, dass auf AMD abzustimmen, weil sie im Gegensatz zu NV keine dedizierten RT-Einheiten auf dem Chip haben.
Ah und DLSS ist genau für die Leute gemacht, die 100 Minfps mit RT haben wollen.
grizu
2020-11-18, 21:56:26
Ah und DLSS ist genau für die Leute gemacht, die 100 Minfps mit RT haben wollen.
Wollte ich auch gerade schreiben :)
grizu
2020-11-18, 21:58:16
Und zum Thema DLSS: Mag zwar im Vergleich auf Standbildern gut aussehen, allerdings in bewegten Bildchen sieht es doch ganz anders aus! Der wo da keinen Unterschied zwischen nativ und Upscaler aka NV sieht, sollte dringend zum Augenarzt. Leider bringt AMD diesbezüglich ein Equivalent ...
Sicher das du DLSS z.b in Death Stranding oder Watch Dogs Legion etc aktiviert hattest ? ;)
dargo
2020-11-18, 22:00:22
Sicher das du DLSS z.b in Death Stranding oder Watch Dogs Legion etc aktiviert hattest ? ;)
Schon witzig, dass du gerade mit Watch Dogs Legion kommst wo es mit DLSS @1440p an vielen Stellen stärker flimmert als ohne. Ich glaube manche müssen wirklich hier zum Augenarzt.
EinName
2020-11-18, 22:01:50
DLSS und RTX basht hier keiner. Du akzeptierst nur nicht, dass das für andere gegebenenfalls keinen Fokus hat und die Leute das auch mal als "nettes Gimmik" ansehen können. Gibt halt noch andere Prioritäten. Ich frag mich z.B. wie man unter 100fps avg. überhaupt irgendwas spielen kann. Ja, ein DLSS wäre da nett, aber Fakt ist: Mein erstes Spiel was DLSS unterstützt wird Cyberpunk (ich gehe jetzt einfach davon aus, das es auch DLSS kann). Du siehst - wir spielen großteils andere Sachen und haben unterschiedliche Prioritäten. Akzeptier das doch bitte.
Lawmachine79
2020-11-18, 22:03:55
Ich frag mich z.B. wie man unter 100fps avg. überhaupt irgendwas spielen kann.
Okay, verstehe ich. Bei der Karte, die man dann am Besten nimmt, ist DLSS und RTX nur eine nette Dreingabe.
Rancor
2020-11-18, 22:05:47
Also ich habe Raytracing schon aktiviert und finde es optisch schon sehr nice. Leider ist mir persönlich aber auch Ampere noch zu langsam damit, so dass ich es einfach auslassen würde.
Unter dem Gesichtspunkt finde ich die neuen Radeons extrem interessant und gut gelungen.
grizu
2020-11-18, 22:06:05
#dargo
Du besitzt das Spiel noch nicht mal, bist also gar nicht qualifiziert solche Aussagen zu tätigen.
grizu
2020-11-18, 22:11:33
DLSS und RTX basht hier keiner. Du akzeptierst nur nicht, dass das für andere gegebenenfalls keinen Fokus hat und die Leute das auch mal als "nettes Gimmik" ansehen können. Gibt halt noch andere Prioritäten. Ich frag mich z.B. wie man unter 100fps avg. überhaupt irgendwas spielen kann. Ja, ein DLSS wäre da nett, aber Fakt ist: Mein erstes Spiel was DLSS unterstützt wird Cyberpunk (ich gehe jetzt einfach davon aus, das es auch DLSS kann). Du siehst - wir spielen großteils andere Sachen und haben unterschiedliche Prioritäten. Akzeptier das doch bitte.
Es geht nicht um RT/DLSS ON/OFF sondern um falsche Aussagen über aktiviertes RT/DLSS.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.