Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread
Es geht los! =) Previews:
Radeon RX 6700 XT offiziell: Launch am 18. März, so schnell wie RTX 3070, 230 Watt, 12 GiByte VRAM (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/News/RX-6700-XT-Release-kaufen-1367908/)
Navi 22 mit RDNA 2: AMDs Radeon RX 6700 XT legt sich mit GeForce RTX 3070 an (https://www.computerbase.de/2021-03/radeon-rx-6700-xt-vorgestellt/)
Ergänzend dazu:
SAM für Ryzen 3000: AMD schaltet Smart Access Memory für Zen 2 frei, bis zu 16 Prozent mehr Leistung (https://www.pcgameshardware.de/Ryzen-9-3900X-CPU-274670/News/SAM-mit-Ryzen-3000-nutzen-1367942/)
Deutschsprachige Tests (seit 17.03., 14 Uhr):
AMD Radeon RX 6700 XT im Test: Die Leistung der RTX 3060 Ti mit 50 Prozent mehr Speicher (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3070-Benchmark-Review-Release-Preis-Hashrate-1368234/)
Radeon RX 6700/6800 vs. Geforce RTX 3060/3070: Raytracing-Schlagabtausch in 8 Spielen (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3060-Ti-Ray-Tracing-Benchmarks-Release-1368248/)
RX 6700 XT im Test: AMD zieht mit Speicher und Takt an Nvidia vorbei (https://www.golem.de/news/radeon-rx-6700-xt-im-test-mit-speicher-und-takt-an-nvidia-vorbei-2103-154613.html)
AMD Radeon RX 6700 XT im Test: Referenz und XFX Merc 319 im Duell mit RTX 3070 und 3060 Ti (https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/)
AMD Radeon RX 6700XT im Test – Big Navi in mittelgroß aber mit ordentlich Biss und auch etwas Durst (https://www.igorslab.de/amd-radeon-rx-6700xt-im-test-big-navi-in-mittelgross-aber-mit-ordentlich-biss/)
Big Navi ganz klein: Die Radeon RX 6700 XT im Test (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/55678-big-navi-ganz-klein-die-radeon-rx-6700-xt-im-test.html)
Komplette Liste @ 3DC.org (https://www.3dcenter.org/news/launch-der-radeon-rx-6700-xt-die-launchreviews-gehen-online)
MfG
Raff
y33H@
2021-03-03, 17:42:58
Auch wenn die Slide alt ist, die Hit-Rate bei 1440p hatte Navi 22 und die 96 MByte Infinity Cache bereits vor Monaten verraten :biggrin:
74427
w0mbat
2021-03-03, 17:50:12
Die 6700 XT ist deutlich schneller als ich erwartet habe, kommt aber auch mit fast 35% mehr Takt als die 6800 und sehr ähnlicher TDP (230W vs. 250W). Ist mMn der deutlich bessere Deal für AMD, da viel kleinerer Chip, weniger VRAM, weniger komplexes PCB, usw.
Vielleicht nimmt AMD die 6800 langsam aus dem Programm, wenn die N21 yields besser werden und sich ein cut auf 60CUs nicht mehr lohnt. Zumal alle N21 SKUs die vollen 256bit, 128MB IF-Cache und 16GB VRAM haben.
6900 XT
6800 XT
6700 XT
6700 non-XT
Der Preisunterschied zwischen N21 XL und XT war ehe sehr gering und etwas seltsam.
][immy
2021-03-03, 17:55:22
Auch wenn die Slide alt ist, die Hit-Rate bei 1440p hatte Navi 22 und die 96 MByte Infinity Cache bereits vor Monaten verraten :biggrin:
74427
Tja, wenn man mal etwas zurück denkt, auch die Intel GPU hat damals einen riesen Sprung mit dem großen Cache gemacht. Zwar immer noch nicht auf Konkurrenzniveau, aber für Intels iGPU Performance war das damals gigantisch.
Dann wird wohl auch noch ein Modell mit 64 MB kommen, da ist auch ein X.
Aber je kleiner die GPU desto verhältnismäßig teurer wird der große Cache.
SAM für Ryzen 3x00 klingt doch nach einem guten plan. Schade nur das die alten Boards dann wohl doch noch ausgeschlossen sind. Zu einem B550 Board treibt mich grad eigentlich nicht wirklich was, wo mein B450 Board endlich mal richtig stabil läuft mit den Speicher-Taktraten seit dem letzten Bios Update.
Die 6700 XT ist deutlich schneller als ich erwartet habe, kommt aber auch mit fast 35% mehr Takt als die 6800 und sehr ähnlicher TDP (230W vs. 250W). Ist mMn der deutlich bessere Deal für AMD, da viel kleinerer Chip, weniger VRAM, weniger komplexes PCB, usw.
Vielleicht nimmt AMD die 6800 langsam aus dem Programm, wenn die N21 yields besser werden und sich ein cut auf 60CUs nicht mehr lohnt. Zumal alle N21 SKUs die vollen 256bit, 128MB IF-Cache und 16GB VRAM haben.
6900 XT
6800 XT
6700 XT
6700 non-XT
Der Preisunterschied zwischen N21 XL und XT war ehe sehr gering und etwas seltsam.
Die Kühlung wird aber auch deutlich schwerer durch den kleinen Chip. Aber der große Cache dient da sicherlich auch gut als Kühlfläche. Die Taktraten sind aber schon ziemlich hoch. Aber die TDP spiegelt das ja auch wieder. Hätte jetzt nicht erwartet das die Karte über 200W TDP gehen würde. Die scheint da ein wenig zu stark platziert zu sein unter der 6800.
Das beschneiden des Speicherinterfaces scheint sich auch nicht so stark wieder zu spiegeln durch den noch immer großen Cache.
Könnte natürlich auch daran liegen das die 6800 ja mehr oder minder das "unterteste" Abfallprodukt ist und man mit dem gleichen Chip noch die 6800 XT und 6900XT bedient.
r3ptil3
2021-03-03, 17:56:43
AMD verwendete heute übrigens alles Spiele, welche auch im letzten Computerbase-Test der RTX 3060 12Gb vorhanden waren:
https://i.ibb.co/WkP2B9M/6700.png
w0mbat
2021-03-03, 18:02:16
Ne, CB testet wesentlich mehr.
Robot
2021-03-03, 18:04:49
Mit der Karte braucht man sich eigentlich nicht wirklich befassen, hab gerade mal so erste Preisgerüchte zu Händler-EK-Preisen gehört... ;D:freak::P
Ich geh mal stramm davon aus, dass sich der Preis von der UVP so wie bei der 3060 fast verdoppeln wird.
derguru
2021-03-03, 18:11:49
alles andere wäre auch überraschend.
][immy
2021-03-03, 18:34:31
Tja, mit der UVP verabschiedet sich AMD aber wohl endgültig vom 350€ Bereich für eine x700er Karte. Und weiter darunter gibt es nach wie vor kaum performance Zuwächse. 7nm + der ganze Speicher haben wohl einfach ihren Tribut. Abgesehen von den aktuell irrwitzigen Grafikkartenpreisen sieht es aber sehr Mau aus günstig ins PC gaming einzusteigen. AMD zieht hier jetzt endgültig mit dem Trend der sich bei nvidia schon vor Jahren abgezeichnet hat, mit.
Aber mal schauen, vielleicht kommt ja noch eine interssante 6600 und 6500. Aber die 5500 war ja schon arg enttäuschend.
arcanum
2021-03-03, 18:54:32
die uvp passt. im schnitt etwas über 3070 niveau, dafür aber 12gb. unterhalb der uvp kann man die karten später immer noch verkaufen, falls sich die lage am markt vor EOL der karte entspannt. realistisch wird die karte in den nächsten monaten aber wahrscheinlich für 750+ gehandelt werden.
Ex3cut3r
2021-03-03, 19:02:10
Wen interessiert es ne 350€ GPU für 1000€ und mehr auf den Tisch zu legen? Wenn überhaupt verfügbar Dieses Jahr kann man IMO abhacken, und es kommt sowieso schon wieder langsam eine neue Gen raus. Ampere und Big Navi sind nächstes Jahr schon fast wieder alteisen. Also Benches und Co. kann man sich eigentlich auch sparen. Kack Situation. Kann man nix machen.
Linmoum
2021-03-03, 19:23:51
Vielleicht bekommt man am 18.03. nach 17 Uhr ja direkt eine. Ist immerhin ein Donnerstag. :D
r3ptil3
2021-03-03, 19:26:42
Bei dem ganzen Gemotze, nicht vergessen:
Die 6700 XT ist auf dem Leistungsniveau einer 2080 Ti und dazu noch mit mehr Speicher für unter 500 Euro.
Mit genug Geduld und Glück, bekommt man bestenfalls auch eine solche Karte zur UVP (AMD Shop), selbst in dieser Marktsituation. Man muss sich zudem vor Augen führen, dass man mit einer solchen Karte, ohne grosse Mühe, einfach mal 300-400 Euro Gewinn machen könnte, falls man diese weiterverkauft, daher auch logisch, dass man entsprechend schnell und informiert sein muss.
Hakim
2021-03-03, 19:39:04
Bei dem ganzen Gemotze, nicht vergessen:
Die 6700 XT ist auf dem Leistungsniveau einer 2080 Ti und dazu noch mit mehr Speicher für unter 500 Euro.
Mit genug Geduld und Glück, bekommt man bestenfalls auch eine solche Karte zur UVP (AMD Shop), selbst in dieser Marktsituation. Man muss sich zudem vor Augen führen, dass man mit einer solchen Karte, ohne grosse Mühe, einfach mal 300-400 Euro Gewinn machen könnte, falls man diese weiterverkauft, daher auch logisch, dass man entsprechend schnell und informiert sein muss.
Finde den Preis für die Leistung auch in Ordnung, eher gefallen mir ehrlich gesagt die 6800 und 6900xt preislich nicht. Sprich wenn ich ne AMD Karte kaufen wollte 6700xt oder 6800xt (zu UVP türlich :) )
derguru
2021-03-03, 19:48:23
Imo ist die 6800xt zu günstig gegenüber der 6800 , 20% Mehrleistung sollte bei mehr als 80€ Aufpreis liegen.
Langlay
2021-03-03, 19:52:30
Imo ist die 6800xt zu günstig gegenüber der 6800 , 20% Mehrleistung sollte bei mehr als 80€ Aufpreis liegen.
Imo ist die 6800XT richtig der Rest ist eher mäh.
6700XT 399$
6800 499$
6800XT 649$
wäre eine coole Staffelung.
Birdman
2021-03-03, 20:20:05
230W für quasi LowEnd :freak:
(alleine aufs Portfolio bezogen - wo es eben noch drei stärkere SKUs gibt)
Auch eine Tolle Grafikkarte aber da ich niemals in diesem Jahr die Grafikkarte für die UVP bekommen werden, bin ich lieber Dagobert Duck, muhahah.
https://media1.faz.net/ppmedia/aktuell/3051717600/1.1963613/default/skandaloes-dagobert-duck.jpg
konkretor
2021-03-03, 21:44:03
Wen interessiert es ne 350€ GPU für 1000€ und mehr auf den Tisch zu legen? Wenn überhaupt verfügbar Dieses Jahr kann man IMO abhacken, und es kommt sowieso schon wieder langsam eine neue Gen raus. Ampere und Big Navi sind nächstes Jahr schon fast wieder alteisen. Also Benches und Co. kann man sich eigentlich auch sparen. Kack Situation. Kann man nix machen.
Sehe ich auch so ist eine verlorene GPU Generation für uns, egal welcher Hersteller
Schluckt etwas zuviel find ich mal sehen was da UV noch bringt.
Robot
2021-03-03, 21:55:09
ealistisch wird die karte in den nächsten monaten aber wahrscheinlich für 750+ gehandelt werden.
Wenn du damit auskommst! können auch gut 850 sein... :ulol4:
Blutmaul
2021-03-03, 22:50:02
MSRP ist mal wieder mindestens 50 Euro zu hoch!
Spielt zwar praktisch keine Rolle, sieht aber blöd aus...
dargo
2021-03-04, 06:53:17
Vielleicht bekommt man am 18.03. nach 17 Uhr ja direkt eine. Ist immerhin ein Donnerstag. :D
Sicher, dass es überhaupt Referenz N22 geben wird?
konkretor
2021-03-04, 07:58:44
Sicher, dass es überhaupt Referenz N22 geben wird?
Jap und Customs gleich am Afang
So steht es hier
https://www.computerbase.de/2021-03/radeon-rx-6700-xt-vorgestellt/
Custom-Designs direkt zum Start
Darüber hinaus wird es direkt zum Start zahlreiche Custom-Modelle mit eigenen Kühlern und höheren Taktraten geben, deren UVP höher liegen wird.
fondness
2021-03-04, 08:59:15
Wenn man die angegeben Taktraten mit Navi21 vergleicht, sollte der Chip mit 2,7-2,8Ghz laufen in Real-World-Szenarien. Die custom libs der CPU-Abteilung sind hier natürlich schon Gold wert, das ist für eine GPU mehr als beeindruckend. Nur deshalb schneidet der Chip auch so gut ab.
Yep, das ist Pitcairn 2.0. :D Wie wär's mit einer feinselektierten "3 GHz Edition" (Max. Boost)?
MfG
Raff
Thunder99
2021-03-04, 11:04:54
Sieht gut aus, aber finde auch die Leistungsaufnahme ist zu hoch. Dafür ist sie anscheinend so schnell wie eine 3070.
Scheint echt Mode zu sein mehr ist besser :freak:
Opprobrium
2021-03-04, 11:26:49
[immy;12614550']Tja, mit der UVP verabschiedet sich AMD aber wohl endgültig vom 350€ Bereich für eine x700er Karte.
Alles andere wäre derzeit auch schlicht dumm.
Den Preis senken kann man immer, und mit einem höheren UVP zum Marktstart nimmt AMD halt selbst auch ein paar Gewinne mit anstatt diese den Händlern und Scalpern zu überlassen.
Mich würds jedenfalls nicht wundern wenn der Preis ursprünglich ~20% niedriger angesetzt war und angesichts der letzten paar Monate schlicht nach oben korrigiert wurde.
Falls dem so sein sollte eine absolut nachvollziehbare Entscheidung, denn wenn die Marktpreise so durch die Decke gehen, dann habe ich für meinen Teil kein Problem damit wenn auch der Entwickler umd Hersteller was von den Gewinnen abkriegt, nicht nur die Händler.
denjudge
2021-03-04, 13:12:02
[immy;12614515']
SAM für Ryzen 3x00 klingt doch nach einem guten plan. Schade nur das die alten Boards dann wohl doch noch ausgeschlossen sind. Zu einem B550 Board treibt mich grad eigentlich nicht wirklich was, wo mein B450 Board endlich mal richtig stabil läuft mit den Speicher-Taktraten seit dem letzten Bios Update.
Bei meinem b450 Tomahawk von MSI steht SAM Support beim neuesten BIOS dabei. Ich denke das wird auch von anderen Herstellern kommen.
dargo
2021-03-04, 13:39:15
Yep, das ist Pitcairn 2.0. :D Wie wär's mit einer feinselektierten "3 GHz Edition" (Max. Boost)?
Das Teil ist schon bei den Referenztaktraten weit vom Sweetspot entfernt und du willst die Effizienz noch mehr killen damit dein Ego befriedigt ist? :freak:
Sieht gut aus, aber finde auch die Leistungsaufnahme ist zu hoch. Dafür ist sie anscheinend so schnell wie eine 3070.
Bei den Frequenzen auch kein Wunder. Lass das Teil "moderat" mit 2,3 bis 2,4Ghz laufen und du dürftest unter 200W rauskommen. Die "Green-Editions" muss man sich heute selbst basteln zurecht biegen.
Igzorn
2021-03-04, 14:17:13
Sieht gut aus, aber finde auch die Leistungsaufnahme ist zu hoch. Dafür ist sie anscheinend so schnell wie eine 3070.
Finde die okay im Vergleich zur 3070.
Bedenken muss man auch das der mehr Speicher gerne Strom braucht.
Bei einem Verbrauch von 230W zu 221W und dazu mehr Speicher würde ich von gleichstand sprechen. Und ob real nachher 230W auf dem Messsystem stehen oder mehr oder vielleicht sogar weniger wird sich in 2 Wochen zeigen.
Stand jetzt würde ich von einem Absoluten gleichwertigen Produkt sprechen.
(Strommesswerte von PCGH genommen Founders Edtion)
Setzt man eigentlich 2W für einen Speicherchip an oder weniger?
dargo
2021-03-04, 14:50:19
Finde die okay im Vergleich zur 3070.
Bedenken muss man auch das der mehr Speicher gerne Strom braucht.
Ähm... nein.
Eine RTX 3070 hat acht Chips, eine RX 6700XT sechs Chips mit doppelter Kapazität je Chip.
Hakim
2021-03-04, 14:58:48
Verbraucht ein 256Bit SI nicht mehr als ein 192Bit? Oder ist das zu vernachlässigen
Thunder99
2021-03-04, 15:14:49
Das Teil ist schon bei den Referenztaktraten weit vom Sweetspot entfernt und du willst die Effizienz noch mehr killen damit dein Ego befriedigt ist? :freak:
Bei den Frequenzen auch kein Wunder. Lass das Teil "moderat" mit 2,3 bis 2,4Ghz laufen und du dürftest unter 200W rauskommen. Die "Green-Editions" muss man sich heute selbst basteln zurecht biegen.
Ja, ist leider so. Out of the box sind die Karten auf maximale Performance ausgelegt mit einer Spannung die mit Sicherheit bei jeder Karte langt.
Igzorn
2021-03-04, 15:36:54
Ähm... nein.
Eine RTX 3070 hat acht Chips, eine RX 6700XT sechs Chips mit doppelter Kapazität je Chip.
Ähn... nein,
denke Speicherchips mit der doppelten Kapazität werden auch mehr verbrauchen als welche mit weniger Kapazität.
Gibt ja einen unterschied in der Transistoren anzahl und jeder der Schaltet braucht Strom.
Beispiel: 1GiB Chip verbraucht 1 Watt und ein 2GiB Chip verbraucht 2W dann ist ein Mehrverbrauch auch bei weniger Chips logisch da sich die Anzahl nicht halbiert.
Die frage wäre ja auch eher was verbraucht ein kleiner Speicher und was ein großer.
Von daher bleibt die Theorie von gleicher Effizienz erstmal besehen ;D
dargo
2021-03-04, 16:08:25
Dann denkst du falsch.
Igzorn
2021-03-04, 16:18:43
Dann denkst du falsch.
Beweise :biggrin:
Habe zwar Datenblätter gesucht aber keine gefunden. Wenn du dir so sicher bist kannst du das bestimmt belegen :wink:
Denke eher das deine Theorie nicht richtig ist an der stelle. Warum sollte ein größer Speicher bei gleichen Takt nur soviel verbrauchen wie ein kleiner Speicher mit der ca. halben menge an Transistoren ? Bei gleichen Fertigungsprozess muss er mehr verbrauchen.
Eine zwei liter Flasche Wasser von a nach b zu bewegen benötigt auch mehr energie als eine ein liter Flasche bei selben Vorraussetzungen.
Ob das doppelte benötigt wird muss man sehen, es wird aber auch nicht unter ferner liefen laufen.
drkohler
2021-03-04, 16:25:32
Ähn... nein,
Beispiel: 1GiB Chip verbraucht 1 Watt und ein 2GiB Chip verbraucht 2W dann ist ein Mehrverbrauch auch bei weniger Chips logisch da sich die Anzahl nicht halbiert.
So einfach ist es dann doch nicht. Bei einem doppelt so grossen Speicher müssen doppelt so viele Zellen refreshed werden. Das würde also an sich doppelt soviel Strom kosten (gleiche Refreshzyklen vorausgesetzt).
Allerdings ist der Strombedarf eines Speichercontrollers massiv höher als der Strombedarf für Refreshes. Also 25% Speichercontroller einsparen (von 4 auf 3) schlägt ebenfalls ordentlich in die Bilanz. Am Schluss wird's wohl ein eher geringer Mehrverbrauch sein wenn Daten herumgeschoben werden (bin jetzt allerdings zu faul um Datenblätter zu durchforsten..)
Igzorn
2021-03-04, 16:50:40
So einfach ist es dann doch nicht. Bei einem doppelt so grossen Speicher müssen doppelt so viele Zellen refreshed werden. Das würde also an sich doppelt soviel Strom kosten (gleiche Refreshzyklen vorausgesetzt).
Allerdings ist der Strombedarf eines Speichercontrollers massiv höher als der Strombedarf für Refreshes. Also 25% Speichercontroller einsparen (von 4 auf 3) schlägt ebenfalls ordentlich in die Bilanz. Am Schluss wird's wohl ein eher geringer Mehrverbrauch sein wenn Daten herumgeschoben werden (bin jetzt allerdings zu faul um Datenblätter zu durchforsten..)
Hallo das es so einfach ist habe ich nie gesagt, aber danke für die Erklärung.
Da wir jedoch nicht die Controller miteinander vergleichen können da diese bei jedem Hersteller unterschiedlich sind und im Chip Integriert sind können wir nur das Gesamt Paket betrachten.
Daher meine erste Aussage das beide gleich effizient sind.
Nur mal so als anstoß. Das Wort Effizienz sagt nichts aus über die Fähigkeiten eines Produktes. So lange man es nur auf einen Wert bezieht.
Am ende muss man alles zusammen betrachten und da kann natürlich auch ein Produkt effizienter sein welches mehr Strom verbraucht.
Aber das werden wir wohl erst am 18.03.2021 endgültig klären können, so lange sollte man bei dem vergleich einen bogen um das Wort Effizienz oder Ineffizient machen.
-/\-CruNcher-/\-
2021-03-04, 16:52:58
Da wird die 3070 TI/Super nicht mehr so extreme gut darstehen mit ihren 250W-270W allerdings warten wir mal den RT boost und DLSS Performance ab.
Samsungs efizienzverlust zeigt sich langsam ab hier shiftet die balance ins abseits vs TSMC aber mit DLSS werden die 200W immernoch sehr ordentlich gegen TSMC bestehen.
Abwarten wenn DLSS 2.5 auf TSMC 5nm wandert ;)
Echo419
2021-03-08, 05:28:59
Eigentlich wollte ich mir ja die 6800er gönnen.
Aber man wird ja zum Lotto spielen oder warten verdammt, wenn man die Wucherpreise nicht unterstützen möchte.
Jetzt kommt mir die 6700xt da ganz gelegen.
Wenn AMDs Präsentation ungefähr stimmen sollte und die 6700xt ca. 90% Leistung einer 6800er hat, dann wäre das für mich eher das passende Kärtchen.
Zumal ich auch noch in FHD bzw. 1440p zocke und es noch mind. 2 - 3 Jahre dauern kann bis nen 4k Monitor hier Einzug hält.
Hoffe der Ref. Kühler ist genauso gut wie bei den großen Schwestern. Obwohl der nur 2 Quirle hat gefällt der mir trotzdem.
Von ner 5700er kommend ist der Sprung dann aber nicht ganz so hoch. Aber die bekomm ich ja zu Mondpreisen los. ;D
Dann nur noch Glück am 18.3. Im Shop haben.
dildo4u
2021-03-13, 08:20:19
6700XT Werte auf einem Zen 3 System.
https://wccftech.com/amd-radeon-rx-6700-xt-12-gb-graphics-card-gaming-benchmarks-1440p-raytracing-performance-at-1080p-leaked-faster-than-rtx-3070/
dargo
2021-03-13, 08:51:36
Weiß einer eigentlich warum die Geforces in WoW bei Nutzung von RT-Schatten so stark gegenüber RDNA2 abfallen? Sehr ungewöhnlich.
dildo4u
2021-03-13, 08:59:14
Macht Sinn wenn man die Hardware Unboxed Benches sieht, das Game ist extrem CPU lastig und nutzt DX12.
Vermutlich erzeugt RT noch mal zusätzliche CPU Last, die restliche Optik hat keine sonderlich aufwendigen Shader, die massive Rechenleistung von Ampere kann dort nix ausrichten.
dargo
2021-03-13, 09:56:39
CPU-Limit könnte es tatsächlich sein. Denn die 3070 spuckt die gleichen Frames wie die 3060TI aus. Das wäre aber schon hart, RX 6700XT ist dort 54% schneller als die RTX 3070 und dann natürlich auch als die RTX 3090. :freak:
vinacis_vivids
2021-03-13, 10:31:18
Wieso CPU-Limit? AMD und Nvidia arbeiten mit der gleichen CPU, also mit dem gleichen Limit.
Wenn Nvidia es nicht gebacken kriegt, aus der CPU entsprechend Leistung rauszuholen liegt es an Nvidia.
DX12 gibs seit 2014 und ist jetzt 7 Jahre alt :freak:
dildo4u
2021-03-13, 10:40:00
WOW ist halt extrem speziell uralt Optik mit DX12 API, die meisten neuen Games nutzen wesentlich aufwendigere Shader.
Die 3070 sieht dort ok aus in Division 2 DX12,Red Dead Vulkan,Doom 2020 Vulkan,Watch Dogs 3 DX12,Ghost Recon Vulkan,Metro DX12,Tomb Raider DX12,Death Strading DX12.
vinacis_vivids
2021-03-13, 10:43:24
Ja und? Was ist das für ne Ausrede? Wow gibs seit 2004, also genügend Zeit um darauf zu optimieren.
dargo
2021-03-13, 10:58:55
Wieso CPU-Limit?
Nenn es von mir aus API-Limit @Geforce.
WoW mit RT: Das ist auf jeden Fall ein Overhead, hier im Detail ausgearbeitet (https://www.pcgameshardware.de/World-of-Warcraft-Shadowlands-Spiel-72321/Specials/WoW-Raytracing-Vergleich-Test-1362425/). Erst mit steigender Auflösung wird daraus das übliche Bild. Daran hat sich seitdem nichts geändert.
MfG
Raff
dildo4u
2021-03-13, 11:05:24
Ja und? Was ist das für ne Ausrede? Wow gibs seit 2004, also genügend Zeit um darauf zu optimieren.
Geiles Argument die RT Implementierung ist ein paar Monate alt, ich wette wenn es um andere RT Games geht willst du das AMD noch Tonnen Zeit gegeben wird damit sie auf diese Optimieren können.
vinacis_vivids
2021-03-13, 11:35:29
Junge, lenk mal nicht von Nvidia`s vorhandene Hardware-Schwäche bei WoW ab.
Die Lederjacke hat deutlich angefangen das krasse RT-Marketing zu pushen.
Wo ist sie denn bei Wow? Wo bleiben die RT-Optimierungen für Ampere, und vor allem für auch Turing?
Vor allem bei einer Engine, die es seit 2004 gibt und Millionen Leute mit grünen Karten da spielen. :facepalm:
hq-hq
2021-03-13, 12:26:01
Junge, lenk mal nicht von Nvidia`s vorhandene Hardware-Schwäche bei WoW ab.
Die Lederjacke hat deutlich angefangen das krasse RT-Marketing zu pushen.
Wo ist sie denn bei Wow? Wo bleiben die RT-Optimierungen für Ampere, und vor allem für auch Turing?
Vor allem bei einer Engine, die es seit 2004 gibt und Millionen Leute mit grünen Karten da spielen. :facepalm:
hm es sieht so aus als sei die 3080 in wow mit oder ohne RT ca. 20% schneller als eine 6800XT
hättest du gemeint das der Abstand deutlich größer werden müsste?
aufkrawall
2021-03-13, 12:26:21
Geiles Argument die RT Implementierung ist ein paar Monate alt
Ist wohl in BFV auch nicht anders...
-/\-CruNcher-/\-
2021-03-13, 12:33:41
hm es sieht so aus als sei die 3080 in wow mit oder ohne RT ca. 20% schneller als eine 6800XT
hättest du gemeint das der Abstand deutlich größer werden müsste?
Total irrelevant wenn du keine genauen verbrauchsdaten hast mit den Referenzdesigns
Jetzt fangen die ersten an Nvidias Driver overhead erst zu bemerken und wie Nvidia auf die CPU auslagert auch ihre PCI-E Compression wird wohl langsam ein Thema und wie sie DX 11/Open-GL so competitive bekommen haben was jetzt aber langsam dem Ende entgegensteuert :D
Der hart erkämpfte Vorteil ist bald nur noch GPU Geschichte, das Hardware sparen bröckelt langsam für jeden sichtbar ausseinander, jetzt werden wohl einige auch langsam verstehen warum Nvidia nie eine Zukunft auf den Konsolen hatte mit ihrem alten Design approach.
Und das der neue Weg allerdings extreme Riskant ist.
Ampere ist am Limit nur noch shrinking wird die Performance bringen und der ML ausgleich.
Sobald VPX fällt war es das
dildo4u
2021-03-13, 13:02:37
Ist wohl in BFV auch nicht anders...
Frage ist welche Stelle gebencht wurde ob dort überhaupt Reflektionen zu sehen sind hier rennt es wie die anderen RT Games.
https://youtu.be/Hmpi7hX915s?t=666
aufkrawall
2021-03-13, 13:04:56
Im GPU-Limit kann man das auch schlecht sehen.
Ex3cut3r
2021-03-13, 13:10:59
Sieht so aus als Radeon tatsächlich den "besseren DX12 Treiber" fürs CPU Limit hat, dass das alles am Entwickler hängen soll, kann ich nicht so wirklich glauben. Ne 6700XT zerstört ne 3070 und 3060Ti in den gängigen 1080p und 1440p Auflösungen, nur in 4K sieht es besser aus, dumm nur, dass das auch nicht lange halten wird, denn mit 8GB ist man in 4K Max bei zukünftigen "Next Gen" Titel am Arsch.
Nvidia muss ihr DX12 unbedingt anpassen, das geht IMO gar nicht. Da fragt man sich schon, was hat Nvidia seit Turing eigentlich so getrieben? Amd könnte einfach mal mit Big Navi alles egalisieren was Nvidia sich über Jahre erarbeitet hat. Peinlich.
Mit Ampere hat man doch noch den Energie Effizienz Vorsprung zur Seite gelegt, und das Marketing wollte uns dann noch verkaufen, dass das eine tolle Sache ist. Also, wenn Sie die Kurve nicht um 360 Grad mit dem Ampere Nachfolger ändern, werden das erstmal schwere Jahre für Nvidia, zumindest was das Gaming angeht. Wahrscheinlich, bringen Sie deshalb extra Karten fürs Mining raus, da hat man ja mittlerweile die Performance Krone erlangt. ^^
dildo4u
2021-03-13, 13:13:58
Ich würde noch ein bissel mit dem Fazit warten bis Rebar für die 3070 kommt, wird interessant ob NV dort Performance im CPU Limit aufholen kann.
Ist ja nicht so als das man die Karten die nästen Monate für vernünftige Preise bekommen würde.
aufkrawall
2021-03-13, 13:17:06
Sieht so aus als Radeon tatsächlich den "besseren DX12 Treiber" fürs CPU Limit hat, dass das alles am Entwickler hängen soll, kann ich nicht so wirklich glauben.
Tut es auch nicht. Vor Kurzem war der AMD Vulkan-Treiber mit DXVK bei manchen Spielen noch arschlahm im CPU-Limit (ca. 1/3 der Performance von Nvidia oder RADV). Mit einem Treiber-Update aus November/Dezember war dann die Bremse gelöst und es läuft nun so ziemlich genau gleich schnell. Auch bei DX12/Vulkan kann es also riesige Fails im Treiber geben.
Ist nur die Frage, ob Nvidia da auch mal eine Bremse lösen kann, oder ob ihnen das bei DX12 ähnlich schwer fällt wie DX11 bei AMD. :freak:
-/\-CruNcher-/\-
2021-03-13, 13:26:02
Sieht so aus als Radeon tatsächlich den "besseren DX12 Treiber" fürs CPU Limit hat, dass das alles am Entwickler hängen soll, kann ich nicht so wirklich glauben. Ne 6700XT zerstört ne 3070 und 3060Ti in den gängigen 1080p und 1440p Auflösungen, nur in 4K sieht es besser aus, dumm nur, dass das auch nicht lange halten wird, denn mit 8GB ist man in 4K Max bei zukünftigen "Next Gen" Titel am Arsch.
Nvidia muss ihr DX12 unbedingt anpassen, das geht IMO gar nicht. Da fragt man sich schon, was hat Nvidia seit Turing eigentlich so getrieben? Amd könnte einfach mal mit Big Navi alles egalisieren was Nvidia sich über Jahre erarbeitet hat. Peinlich.
Mit Ampere hat man doch noch den Energie Effizienz Vorsprung zur Seite gelegt, und das Marketing wollte uns dann noch verkaufen, dass das eine tolle Sache ist. Also, wenn Sie die Kurve nicht um 360 Grad mit dem Ampere Nachfolger ändern, werden das erstmal schwere Jahre für Nvidia, zumindest was das Gaming angeht. Wahrscheinlich, bringen Sie deshalb extra Karten fürs Mining raus, da hat man ja mittlerweile die Performance Krone erlangt. ^^
Das war schon mit Anfang des Mobile und dann zusätzlich Konsolenverlust abzusehen Nvidia ist auch nicht dumm Tensor und RT kamen nicht einfach so aus Zufall es sind Aufsätze eben für eine andere Richtung ohne vorerst alles komplett über Board schmeisen zu müssen.
Sie spielen momentan scheinbar auf Zeit so wie Intel da schon merken musste das das nach hinten losgehen kann, geht es jetzt auch hier immer mehr in diese Richtung.
Es gibt ihnen Zeit eine komplett neue Platform aus dem Boden zu stampfen an der sie im Hintergrund werkeln, eine richtige Generalüberholung nicht nur eine normale refactor iteration, die alle parts noch effizienter vereint, sozusagen ein neuer Maxwell moment.
Die/Den brauchen sie gegen AMD und Intel so schnell wie möglich der Tegra Vorteil ist History (absolut ausgelutscht)
Nightspider
2021-03-13, 14:05:14
Sind die Benchmarks von Hardware Unboxed und WoW bei PCGH mit SAM bei AMD ?
OgrEGT
2021-03-15, 07:51:55
Auf Videocardz gibt es die ersten Custom Designs von Sapphire XFX und Gigabyte zu sehen... Außerdem erste 3DMark Werte zur Sapphire 6700XT Nitro
https://videocardz.com/newz/sapphire-radeon-rx-6700-xt-nitro-tested-in-3dmark
RDNA2 skaliert dabei relativ linear... ausgehend von der 6700XT hin zur 6800XT liefern 80% mehr CUs ca 50% mehr Performance... Die 6800nonXT liegt so ziemlich dazwischen mit 50% mehr CUs und 26% mehr Performance...
Niemand wach? :biggrin: :|
AMD Radeon RX 6700 XT im Test: Die Leistung der RTX 3060 Ti mit 50 Prozent mehr Speicher (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3070-Benchmark-Review-Release-Preis-Hashrate-1368234/)
Radeon RX 6700/6800 vs. Geforce RTX 3060/3070: Raytracing-Schlagabtausch in 8 Spielen (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3060-Ti-Ray-Tracing-Benchmarks-Release-1368248/)
RX 6700 XT im test: AMD zieht mit Speicher und Takt an Nvidia vorbei (https://www.golem.de/news/radeon-rx-6700-xt-im-test-mit-speicher-und-takt-an-nvidia-vorbei-2103-154613.html)
AMD Radeon RX 6700 XT im Test: Referenz und XFX Merc 319 im Duell mit RTX 3070 und 3060 Ti (https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/)
AMD Radeon RX 6700XT im Test – Big Navi in mittelgroß aber mit ordentlich Biss und auch etwas Durst (https://www.igorslab.de/amd-radeon-rx-6700xt-im-test-big-navi-in-mittelgross-aber-mit-ordentlich-biss/)
Big Navi ganz klein: Die Radeon RX 6700 XT im Test (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/55678-big-navi-ganz-klein-die-radeon-rx-6700-xt-im-test.html)
MfG
Raff
w0mbat
2021-03-17, 14:29:58
Dank Zeitumstellung haben wohl alle auf 15 Uhr gewartet, es war aber schon ne Stunde früher so weit :D
Leonidas
2021-03-17, 14:30:11
Alle haben 18.3. erwartet ... aber die Reviewer hatten 17.3. als Termin.
PS @ Wombat: Oder das.
Liste der Launch-Reviews:
https://www.3dcenter.org/news/launch-der-radeon-rx-6700-xt-die-launchreviews-gehen-online
Hakim
2021-03-17, 14:30:57
Ansich ordentlich, nur hat AMD die Erwartungen irgendwie auf über 3070 Performance eingestellt und so leicht enttäuschend. Dennoch für den Preis wenn man es den bekommt.
Opprobrium
2021-03-17, 14:37:30
Bei Phoronix (https://www.phoronix.com/scan.php?page=article&item=radeon-rx6700xt-linux&num=1) gibt's auch ein paar Linux Benchmarks.
Nightspider
2021-03-17, 14:40:05
In Cyberpunk ist die 6700xt mal eben 50-60% schneller als die 5700xt. :ugly:
Linmoum
2021-03-17, 14:41:37
Wie zu erwarten. Auf <=5% an der 3070 dran mit 50% mehr Speicher. RT-Benchmarks mit Karten die zwar schneller sind, aber weniger Speicher haben gab's ja zuletzt erst. Muss man wohl nicht noch einmal für die Zukunft wiederholen.
Schön, dass sie bei der TBP dann doch ein gutes Stück unter den 230W bleibt. Allerdings keine Ahnung, warum AMD wie auch schon bei der 6800 damit anfängt, diese zu hoch anzusetzen.
Achja, wie auch die 6700XT in Valhalla eine 3090 regelrecht verprügelt ist einfach nur noch übel.
Achja, wie auch die 6700XT in Valhalla eine 3090 regelrecht verprügelt ist einfach nur noch übel.
Ich finde das ja auch ganz witzig, aber mal unter uns: Anders herum (also wenn eine 3060 die 6900 XT umhauen würde) gäb's wieder Exkrementschlachten, NDA-Diskussionen und Bestechungsvorwürfe der übelsten Sorte. Insofern: Das Spiel ist einfach kaputt und sollte - eigentlich - nicht weiter beachtet werden. Hübsch und grundsätzlich performant, aber kaputt. Ich bin sehr gespannt, mit welchem Patch das behoben wird; v1.2.0 steht nun an.
MfG
Raff
dildo4u
2021-03-17, 14:45:08
Sie würden eine 3070 vorziehen.
Bzw es macht kein Sinn zur Zeit Karten mit guter Preis/Leistung zu bringen.
PJboWJJFk9I
maximus_hertus
2021-03-17, 14:47:12
Eigentlich eine nette Karte, auch die UVP ist noch okay (wenn man nur die UVPs aller Karten vergleicht, nuabhängig ob es die jemals zu diesen Preisen breit verfügbar gibt). Allerdings hätte AMD hier ein wenig weniger übertrieben müssen. Ich hatte mir schon gedacht, dass man die 3070 wohl nicht schlagen wird und am Ende ist man, mal mehr oder weniger, über der 3060 Ti, aber dann doch ein gutes Stück von der 3070 entfernt.
Wenn ich so die Reviews durchgehe, ist die 3070 weiter weg als der Vorsprung zur 3060 Ti, ergo steht man bei weniger als dem halben Weg von der 3060 Ti zur 3070.
Da man die Karten wohl erst 2022 vernünftig kaufen kann und dann RDNA 3 und RTX 4000 anstehen, ist das ja eher ein Schattenboxen.
Falls man aber die Referenz 6700 XT für die 480 Euro bekommt, hat man erstmal Ruhe und einen guten Deal gemacht. Dank 12 Gigabyte ist man auch Mittelfristig gut dabei :)
Dural
2021-03-17, 14:53:40
Mal wieder ein typisches AMD Produkt :rolleyes:
Ans Limit getrieben, schlechte Perf/W und trotzdem nicht die Leistung einer 3070. Von RT fang ich schon mal gar nicht an.
Next!
aufkrawall
2021-03-17, 14:57:54
Das Spiel ist einfach kaputt und sollte - eigentlich - nicht weiter beachtet werden. Hübsch und grundsätzlich performant, aber kaputt.
Gab es so eine Aussage von dir eigentlich auch zu Origins wegen der miserablen CPU-Performance, insbesondere auf Radeons?
WedgeAntilles
2021-03-17, 14:58:17
Etwas schlechtere Effizienz als die ach so miserablen 3060TI / 3070.
Im Idle mit 2 Monitoren braucht AMD nach wie vor schlanke 65% mehr Strom.
Performancetechnisch etwas unter der 3070, bei Raytracing deutlich darunter, bei DLSS + RT meilenweit darunter.
Preislich von der UVP leicht unter der 3070.
Rein von den FPS / Euro (bei UVP, die aktuell ja völlig irrelevant ist) etwas schwächer.
Dafür deutlich mehr Ram.
Preis-Leistung Vergleich UVP 3060TI vs 5700XT verliert die 5700XT ebenfalls.
Sie ist zwar knapp 10% schneller, aber 20% teurer -> Preis pro Euro gewinnt die 3060TI.
Selbstverständlich wird die Karte hier wieder phantastisch toll bewertet werden.
Die bei Nvidia immer arg bemängelte Effizienz wird bei der 6700X T sogar noch unterboten, aber ich zweifle nicht daran, dass das hier kein Schwein interessiert.
(Der Idle-Verbrauch mit 2 Monitoren, der bei AMD seit Jahren katastrophal ist interessiert ja auch nicht.)
Unterm Strich bleibt ein ordentliches Produkt, das aber im Vergleich zu nvidia zu teuer ist, im RT zu schlecht ist und kein DLSS hat.
Auf dem Papier ist die 3060TI das rundum bessere Produkt. (Papier deswegen, da sämtliche Preise ja nur auf dem Papier existieren.)
Effizienter, Preis-Leistungs-technisch besser (schon ohne RT), bei RT Preis-Leistungs-technisch deutlich besser und von DLSS fangen wir erst gar nicht an.
Aber wie gesagt, NATÜRLICH wird hier die 6700XT als das klar bessere Produkt angesehen werden. Es steht ja AMD drauf statt Nvidia. q.e.d.
dargo
2021-03-17, 14:59:41
Niemand wach? :biggrin: :|
Das Interesse an Karten die kaum zu bekommen sind ist halt nicht so groß. ;)
Gab es so eine Aussage von dir eigentlich auch zu Origins wegen der miserablen CPU-Performance, insbesondere auf Radeons?
Ich habe gerade den alten Techniktest überflogen und einen Absatz zu Radeon-Stuttering gefunden, aber ... irgendwie habe ich so ein Gefühl, dass es dir gar nicht darum geht. ;)
MfG
Raff
dargo
2021-03-17, 15:03:38
Ich finde das ja auch ganz witzig, aber mal unter uns: Anders herum (also wenn eine 3060 die 6900 XT umhauen würde) gäb's wieder Exkrementschlachten, NDA-Diskussionen und Bestechungsvorwürfe der übelsten Sorte. Insofern: Das Spiel ist einfach kaputt und sollte - eigentlich - nicht weiter beachtet werden. Hübsch und grundsätzlich performant, aber kaputt. Ich bin sehr gespannt, mit welchem Patch das behoben wird; v1.2.0 steht nun an.
Das ist aber eine seltsame Sicht der Dinge deinerseits. Nach diesem Argument ist also Watch Dogs Legion auch kaputt? Oder sieht man es nur nicht so extrem weil die DEVs die Grafiksettings @Ultra so gewählt haben, dass es nicht so extrem auffällt? ;) Ich spreche jetzt bei WDL natürlich mit non RT.
aufkrawall
2021-03-17, 15:05:10
Ich habe gerade den alten Techniktest überflogen und einen Absatz zu Radeon-Stuttering gefunden, aber ... irgendwie habe ich so ein Gefühl, dass es dir gar nicht darum geht. ;)
Es ist halt mal wieder sehr interessant, dass für dich "schlechte Performance auf NV" gleichbedeutend ist mit "Das Spiel ist einfach kaputt" (Original-Zitat). Das kann man schon nicht mehr als Subtext bezeichnen...
Das ist aber eine seltsame Sicht der Dinge deinerseits. Nach diesem Argument ist also Watch Dogs Legion auch kaputt? Oder sieht man es nur nicht so extrem weil die DEVs die Grafiksettings @Ultra so gewählt haben, dass es nicht so extrem auffällt? ;) Ich spreche jetzt bei WDL natürlich mit non RT.
Mit welchen Settings kommt es denn zu vergleichbar kaputten = grob vom Durchschnitt abweichenden Verhältnissen wie bei AC Valhalla?
Eure Reaktion ist übrigens genau das, was ich meine. Test bestanden. Oder durchgefallen, wie man's nimmt.
MfG
Raff
Nightspider
2021-03-17, 15:08:24
Könnte auch einfach an der Optimierung für RDNA/2 liegen, wegen der Konsolen? :uponder:
Zumal SAM und der schlankere Treiber bei AMD das CPU Limit stark verschieben, was man vielleicht in den hohen fps Regionen so stark sieht?
maximus_hertus
2021-03-17, 15:11:07
Mal wieder ein typisches AMD Produkt :rolleyes:
Ans Limit getrieben, schlechte Perf/W und trotzdem nicht die Leistung einer 3070. Von RT fang ich schon mal gar nicht an.
Next!
Echt jetzt? Schlechte Perf/W? 1% bzw. 5% liegen die 3060 Ti bzw. 3070 vorne. Ergo kann man bei der Perf/W keinen echten Sieger küren, gerade weil sich das in Zukunft mit nciht so geringer Wahrscheinlichkeit dank zu wenig Speicher bei den Geforces erledigt wird, wenn die fps dann in Relation zur 6700XT sinken.
Wie ich schon vorher geschrieben habe, ohne die Folie von AMD hätte nieamdn damit gerechnet, dass man die 3060 Ti spürbar schlägt. Von daher passt das, nur durch die Folie fühlt es sich ein wenig "meh" an.
Ansonsten muss man sagen, dass die 3060 Ti, 3070 und die 6700XT jeweils eigene Stärken und Schwächen haben (ich nehme mal die UVP Preise, die ja irgendwann mal dann verfügbar sind):
3060 Ti:
+ "nur" 420 Euro, Raytracing sogar etwas schneller als die 6700XT, DLSS (wenn auch nur in extrem wenigen Games)
- langsamste Rasterizing Leistung, nur 8GB VRAM, für RTX fast zu wenig VRAM, gerade für kommende Games (siehe die Situation bei der RTX 2060)
3070:
+ Raytracing deutlich schneller, Rasterizing minimal schneller, minimal bessere Perf/W
- nur 8GB VRAM, für RTX fast zu wenig VRAM, gerade für kommende Games (siehe die Situation bei der RTX 2060)
6700XT:
+ Rasterizing schneller als 3060 Ti, kommt nah an die 3070 ran, 12GB VRAM, potentiell mit SuperResolution auch sinnvolles RT möglich (aber da muss man abwarten)
- Raytracing Leistung unter 3060 Ti, so lange die 8GB bei den RTX Karten reichen, Perf/W minimals schlechter, aber nicht der Rede wert.
Fazit: Will man jetzt für 400 - 520 Euro bestmögliche RTX Leistung, dann nimmt man eine Geforce, auch wenn die 8GB da "weh" tun. Ist RT aktuell weniger wichtig und man will die KArte potentiell länger nutzen, dann scheint die RX 6700 XT das etwas rundere Angebot zu sein, wenn gleich die RT LEistung auch in Zukunft eher suboptimal sein wird. Aber dieses Schicksal werden wohl alle 3 KArten (3060 Ti, 3070 und 6700XT) haben.
dargo
2021-03-17, 15:12:41
Mal wieder ein typisches AMD Produkt :rolleyes:
Ans Limit getrieben, schlechte Perf/W und trotzdem nicht die Leistung einer 3070. Von RT fang ich schon mal gar nicht an.
Next!
Mal wieder ein typischer Bullshit-Post von Dural ohne die ganzen Rahmenbedingungen zu sehen.
GA104 = 392mm²
Navi22 = 335mm²
4GB mehr Speicher gibts auch noch mit N22 dazu. Du wirst uns auch sicherlich erklären können wie AMD bei nur 40 CUs den gewünschten Abstand zum N21 realisieren sollte außer über die Frequenzen? Ob die Frequenzkeule (die immer auf Perf/W geht) dann super sinnvoll ist steht auf einem anderen Blatt. Dieser Weg ist sicherlich fürs Unternehmen günstiger als eine zusätzliche SKU zwischen N21 und N22 aufzulegen. Und eine Vorstufe für zukünftige Chiplet-Designs ist es auch. Manche denken hier einfach viel zu kurzsichtig.
Hakim
2021-03-17, 15:18:12
Unboxed hat schon recht für 50 weniger wäre die deutlich attraktiver als für 479 gegenüber 3060ti und 3070. Aber sehen wir es mal so, außerhalb von AMD und Nv Shop wird die Karte wohl deutlich günstiger sein als die beiden (zumindest denke ich das da hashrate undso).
aufkrawall
2021-03-17, 15:18:14
Fazit: Will man jetzt für 400 - 520 Euro bestmögliche RTX Leistung, dann nimmt man eine Geforce, auch wenn die 8GB da "weh" tun.
Würd ich sehr von abraten, so wie hier in 1440p mit RT der VRAM-Verbrauch gerne mal an den 10GB kratzt oder diese sprengt.
Dann braucht es zur Midrange-GPU auch gleich noch eine Highend-CPU, der Nutzen von RT steht abseits vom Fall "Preis ist egal" in keinerlei sinnvollem Verhältnis zu den Kosten.
Eure Reaktion ist übrigens genau das, was ich meine. Test bestanden. Oder durchgefallen, wie man's nimmt.
Raff, du bist hier kein Oberlehrer. Frag dich mal lieber selbst, ob dein Gebaren einem neutralen Redakteur gerecht wird...
dargo
2021-03-17, 15:20:09
Mit welchen Settings kommt es denn zu vergleichbar kaputten = grob vom Durchschnitt abweichenden Verhältnissen wie bei AC Valhalla?
Das fragst du mich? :confused: Ihr habt doch verschiedene Testsysteme in eurer Redaktion, nicht ich. :tongue: Nehme einfach ein Preset in WDL in 1080p bis 1440p was nicht so stark im GPU-Limit hängt. Zum Bleistift Medium und/oder High.
Raff, du bist hier kein Oberlehrer. Frag dich mal lieber selbst, ob dein Gebaren einem neutralen Redakteur gerecht wird...
Done.
Das fragst du mich? :confused: Ihr habt doch verschiedene Testsysteme in eurer Redaktion, nicht ich. :tongue: Nehme einfach ein Preset in WDL in 1080p bis 1440p was nicht so stark im GPU-Limit hängt. Zum Bleistift Medium und/oder High.
Ach so. Dein Posting oben klang für mich so, als gäbe es diese Fälle und ich ignoriere sie. Mir ist leider nicht langweilig genug, um kaputte Szenarien zu finden, ich schnaufe nur gerade mit etwas 3DC-Spam nach dem Launch-Crunch durch. AC Valhalla bringt die Kaputtheit ab Werk, ganz einfach. :D
MfG
Raff
r3ptil3
2021-03-17, 15:28:56
Abstand zur RX 6800 doch einiges grösser als gedacht.
Die Preisgestaltung bei AMD wäre in einer normalen Marktsituation schon merkwürdig.
Beispiel: Jemand will eine RX 6700 XT, aber für den Aufpreis, dann doch lieber gleich eine deutlich stärkere RX 6800, aber Moment: Für einen weiteren kleinen Aufpreis bekommt man nochmals eine deutlich schnellere RX 6800 XT. :freak:
Aber in dieser Welt: Man nimmt was man kriegt und ein 50%er Preisaufschlag zur UVP, wäre dabei noch ein Schnäppchen.
Hakim
2021-03-17, 15:31:29
Für meine Sicht hat sich auch nichts verändert, beste AMD Karte zu UVP immer noch 6800xt mMn.
Also wenn ich diese zur UVP bekommen würde, wäre mein Gsync Monitor in den Keller gewandert und ich hätte mir noch ein Freesync Monitor gekauft. Aber das passiert eh nicht und schon wieder mehr Geld auf der Hohen Kante...
DrFreaK666
2021-03-17, 15:33:51
Von der Performance her entspricht das ungefähr der Series X GPU!?
Eine 6700XT mit mehr CUs und weniger Takt hätte mir besser gefallen.
MartinRiggs
2021-03-17, 15:34:27
Haben sich hier nicht diverse Leute über den Satz im Igorslab-Forum lustig gemacht, wo Igor meinte das 3DC ist unbedeutend weil ein paar wenige Leute die alten Urgesteine wegpöbeln und die Moderation sie gewähren lässt.
Der Ton von manchen hier ist echt unter aller Sau, ich schreib hier nur noch wenig, aber der musste raus....
@Raff, Danke für deine Arbeit, ich lese deine Artikel gerne ;)
Zum Thread, ganz rundes Produkt, wird aber vermutlich auch nicht lieferbar sein :freak:
dargo
2021-03-17, 15:36:09
@Raff
Braucht ihr nicht mehr testen, ich sehe es schon bei CB trotz Ultra-Settings.
https://abload.de/img/wdl_cb2sktx.jpg
Mit kleinerem Grafikpreset sollte jedem klar sein wie es dann aussieht.
Oh, krass. Habe ich so noch nicht gesehen (maximale Details, schnellere CPU). Da würden mich jetzt weitere SAM-off-Werte interessieren. Fliegen die da irgendwo herum?
Das Spiel hat es nicht in den PCGH-Leistungsindex geschafft, daher ist es nicht bis ins Detail "erforscht". Ist jedenfalls wieder Ubisoft (wie Valhalla), aber nicht die gleiche Technik, sondern bestenfalls entfernt verwandt. Wäre schon spannend, zu erfahren, was da Engine-intern getrieben wird.
MfG
Raff
Aroas
2021-03-17, 15:38:34
479$ Listenpreis...
Dann wird eine 6700 (non XT) wohl bei 429$ liegen. Eine 6660XT bei 379$ und die 6600 bei 329$.
Somit hätte AMD das komplette Produktportfolio in Preisbereiche über 300€ gehoben und für alle Spieler, die keinen Goldesel haben, bleiben nur noch Low End Karten übrig (sofern denn sowas wie eine 6500 überhaupt noch kommt).
Einfach nur krank, diese Entwicklung.
dargo
2021-03-17, 15:40:59
Eine 6700XT mit mehr CUs und weniger Takt hätte mir besser gefallen.
Diese Zeiten sind leider vorbei. Die IHVs quetschen aus dem Chip raus was geht und entsprechend wird dann das Preisschild gestaltet. Eine "Green-Edition" musst du dir dann selbst konfigurieren. Natürlich sollst du den höheren Preis trotzdem bezahlen. ;) Willst du bessere Perf/W bei N22 warte auf die RX 6700 non XT.
Somit hätte AMD das komplette Produktportfolio in Preisbereiche über 300€ gehoben und für alle Spieler, die keinen Goldesel haben, bleiben nur noch Low End Karten übrig (sofern denn sowas wie eine 6500 überhaupt noch kommt).
Einfach nur krank, diese Entwicklung.
Welche low-End Karten? Der gesamte Markt ist praktisch leer gefegt bei dGPUs. :tongue:
aufkrawall
2021-03-17, 15:46:46
Der Ton von manchen hier ist echt unter aller Sau, ich schreib hier nur noch wenig, aber der musste raus....
Der Ton von Igor (hat ja nie angeeckt :freak: ) und Raff ist natürlich immer korrekt und bestimmt gar nicht gespickt von beleidigtem Getrolle. :cool:
Wenn du nicht merkst, dass Raffs Argumentation defakto mal wieder ist "bei AC ist AMD zu gut", dann kann ich dir auch nicht helfen. Gibts hier ein Anrecht darauf, ohne Widerrede Unsinns-Argumentationen in die Welt setzen zu können? Wo steht das? :freak:
Ist dann vielleicht wirklich das falsche Forum...
Opprobrium
2021-03-17, 15:50:11
Abstand zur RX 6800 doch einiges grösser als gedacht.
Die Preisgestaltung bei AMD wäre in einer normalen Marktsituation schon merkwürdig.
479$ Listenpreis...
Dann wird eine 6700 (non XT) wohl bei 429$ liegen. Eine 6660XT bei 379$ und die 6600 bei 329$.
Somit hätte AMD das komplette Produktportfolio in Preisbereiche über 300€ gehoben und für alle Spieler, die keinen Goldesel haben, bleiben nur noch Low End Karten übrig (sofern denn sowas wie eine 6500 überhaupt noch kommt).
Einfach nur krank, diese Entwicklung.
Ich hatte es neulich schon mal geschrieben:
Man darf davon ausgehen, daß seitens AMD ursprünglich ein niedrigerer Listenpreis geplant war. Da man aber nun verständlicherweise auch beim Hersteller den Preis der Nachfrage apasst wurde der eben angehoben.
Senken kann man ihn später immer noch, aber den Shitstorm den ein Anheben der Preise der 6800er Karten mit sich bringen würde will man sich vermutlich auch nicht antun. Und nur ums Portfolio schick aussehen zu lassen bleibt man halt beim geplanten UVP für die 6700er GPUs und schaut dann zu wie die Händler die fetten Margen mitnehmen.
Aroas
2021-03-17, 15:51:01
Welche low-End Karten? Der gesamte Markt ist praktisch leer gefegt bei dGPUs. :tongue:
Ich betrachte das Portfolio und die Listenpreise einfach ohne die derzeitige, völlig kranke Marktsituation. Anders kann man das ja nicht einordnen.
ich auch
2021-03-17, 15:58:13
AMD Radeon RX 6700 XT im Test: Referenz und XFX Merc 319 im Duell mit RTX 3070 und 3060 Ti
https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/
Ex3cut3r
2021-03-17, 15:58:17
Also ich habe die 3080 wieder verkauft, die ich erst vor 2 Wochen geholt habe für 1.700€ :facepalm an mich.
Die knapp 50% zur meiner 2080 @ 3440x1440 waren mir einfach zu wenig, dazu nur 10GB VRAM.
Jetzt habe ich über 2000€ auf dem Konto und weiß nicht was ich holen soll. :biggrin:
Andererseits ist der Spiele Kalender so langweilig wie lange nicht, ich frage mich überhaupt für was ich ne Graka holen soll. Ich überlege mir echt einfach so ne Übergangs GPU ala 1660 Ti oder gleichwertige Radeon zu holen, und auf die nächsten Gen zu warten, kann ja auch nicht mehr soooo lange sein, wenigstens hätte ich dann 100% Performance Gewinn von der 2080 aus.
aufkrawall
2021-03-17, 16:03:46
Jetzt habe ich über 2000€ auf dem Konto und weiß nicht was ich holen soll. :biggrin:
Irgendwas aus dem AMD-Shop, egal was. Wenn man es bekommt, hat man verglichen mit dem restlichen Markt einen phänomenalen Deal gemacht. :freak:
Ex3cut3r
2021-03-17, 16:04:53
Ja, aber da mache ich mir keine Hoffungen, das ist ja wie im Lotto zu gewinnen, 1000 Geile Typen versuchen gleichzeitig was zu kaufen, versuchen werde ich es, aber die Hoffnung da was abzustauben tendiert gegen null. ^^
Im Geizhals bzw. auf dem normalen Markt sieht es nach Cancer aus, 6800XT müsste es IMO Minium sein, aber die fangen auch erst gut und gerne bei 1500€ an. :freak:
aufkrawall
2021-03-17, 16:07:00
Die 6900 XT hatte ich beim ersten Versuch bekommen und hätte vermutlich eine Woche später nochmal eine kaufen können.
Finde die Karte ganz gut, allerdings ein bisschen teuer. 429€ fände ich angemessen. Für ne Strix 499€ als maximalen Preis für ne Custom, würden imo gut aussehen.
Ex3cut3r
2021-03-17, 16:07:52
Die 6900 XT hatte ich beim ersten Versuch bekommen und hätte vermutlich eine Woche später nochmal eine kaufen können.
Ok. Gut, mittlerweile solle sich der Trick rumgesprochen haben, versuchen werde ich es aber. ^^
5wO2vUZv4zw
:freak:
oj8SuJ2Mb6A
Die Zeit von Reviews wird erstmal im "Was auch immer, alles wird gekauft"-Universum sinnlos sein :freak:
Ex3cut3r
2021-03-17, 16:31:48
In Squadrons scheint der Nvidia DX12 Pfad in FHD zumindest auch überdurchschnittlich zurückzuliegen. Eine 3080 kämpft dort mit einer 6800 non XT rum. :freak:
Während in UHD im gleichen Spiel wiederum die 3080 sogar die 6800XT schlägt. ^^
Dino-Fossil
2021-03-17, 16:45:51
Naja, weckt mich, wenn es im sub-350€ Bereich ein modernes, brauchbares Update für meine RX480 gibt. Mehr bin ich aktuell nicht bereit für's Gaming auszugeben, dafür hab ich mittlerweile einfach zu wenig Zeit dafür.
die Benchmarks sind überaus enttäuschend.
vinacis_vivids
2021-03-17, 16:54:54
die Benchmarks sind überaus enttäuschend.
Begründung?
teilweise langsamer, manchmal kaum schneller als die 3060 TI und kostet 150 EUR mehr.
Aber wie in Videos gesagt: Es ist gleich, wie gut oder schlecht die Karte ist, die Leute kaufen alles.
Ex3cut3r
2021-03-17, 16:58:39
teilweise langsamer, manchmal kaum schneller als die 3060 TI und kostet 150 EUR mehr.
Aber wie in Videos gesagt: Es ist gleich, wie gut oder schlecht die Karte ist, die Leute kaufen alles.
Der war gut. 3060 Ti lieferbar ab 1.300€
https://cls-computer.de/top-angebote/msi-geforce-rtx-3060-ti-gaming-x-8gb-hdmi-3x-dp
;D
Blutmaul
2021-03-17, 17:02:01
Hardware Unboxed hat die Sapphire 6700XT Nitro+ bestimmt mit den falschen Bios-Settings getestet - Nitros würden normaler Weise ziemlich hoch takten und nicht langsamer, als alle Konkurrenzmodelle...
[MK2]Mythos
2021-03-17, 17:02:05
Naja, weckt mich, wenn es im sub-350€ Bereich ein modernes, brauchbares Update für meine RX480 gibt. Mehr bin ich aktuell nicht bereit für's Gaming auszugeben, dafür hab ich mittlerweile einfach zu wenig Zeit dafür.
Wie wärs mit einer RX580? :naughty:
ja ^^
ich gehe ja vom magischen UVP aus - die 6700 XT wird bei CLS sicher bei 1500 EUR landen ;D
Hakim
2021-03-17, 17:03:04
Sind doch nur 79$ unterschied beim UVP. Ja AMD hätte es vorab nicht über der 3070 zeigen sollen, ist halt immer so ein Ding wenn man unnötig nicht ganz richtige Erwartungen vorgibt. Besser wäre es doch wenn die Reviews Positiv überrascht werden. Ohne rBAR ist es halt wirklich sehr nah beim 3060ti.
maximus_hertus
2021-03-17, 17:04:40
teilweise langsamer, manchmal kaum schneller als die 3060 TI und kostet 150 EUR mehr.
150 EUR mehr? Bei der UVP sind es 60 EUR Unterschied.
3060 Ti: 419 Euro
6700XT: 479 Euro
3070: 519 Euro
Bei nVidia gibt es leider eine schlechtere USD / EUR Umrechnung, daher die höheren EUR UVPs.
449 Euro würden wahrscheinlich perfekt passen, aber 479 Euro sind auch okay. Nicht super toll, aber auch nicht schlecht.
Wenn man berücksichtigt, wie die aktuelle Situation aussieht, ist ein Teil der UVP wohl auch dessen geschuldet.
vinacis_vivids
2021-03-17, 17:07:47
Die RX6800 ist bei ~ 1000-1100€ lagernd und die 6700XT landet dann bei 700-800€.
UVP kannste vergessen, es sei denn du hängst als Profi-Hacker mit viel Zeit vorm AMD-Shop.
Ex3cut3r
2021-03-17, 17:08:50
Sehe ich auch so. UVP Preise halte ich momentan für Märchenpreise. Morgen werden halt die fünf 6700XT im AMD Shop gelost, und eine handvoll dürfen sich glücklich schätzen, wahrscheinlich verkaufen aber 4 von 5 Leute diese auch wieder auf Ebay zum doppelten oder dreifachen Preis weiter, und das Karussell dreht sich immer weiter. ;D
Hakim
2021-03-17, 17:10:59
Glaube die 6700xt könnte "günstiger" werden, so ~600€ rum, einfach weil die 6800er noch halbwegs für Mining zu gebrauchen sind, aber der 6700xt da wohl noch schwächer stehen müsste. Und durch den kleineren Die etwas mehr verfügbar. Oder ist Wunschdenken bei mir :)
Ex3cut3r
2021-03-17, 17:12:46
Auch so 600€ für so ne Einsteiger Karte wären in einer normalen Welt viel zu viel. :smile:
Außerdem sowieso sehr unwahrscheinlich. Die richtigen Preise stehen auf Geizhals.
Hardwarious
2021-03-17, 17:22:27
Die 6700XT scheint die Brot-und-Butter GPU zu werden, wenn die Preise denn normal wären. So wird sie auch für das gebotene leider zu teuer.
Semmel
2021-03-17, 17:23:37
Auch so 600€ für so ne Einsteiger Karte wären in einer normalen Welt viel zu viel. :smile:
Daran solltest du dich schon mal gewöhnen. ;) Das wird das neue Normal sein, wenn die Lieferbarkeit wieder besser ist.
150 EUR mehr? Bei der UVP sind es 60 EUR Unterschied.
3060 Ti: 419 Euro
6700XT: 479 Euro
3070: 519 Euro
Bei nVidia gibt es leider eine schlechtere USD / EUR Umrechnung, daher die höheren EUR UVPs.
449 Euro würden wahrscheinlich perfekt passen, aber 479 Euro sind auch okay. Nicht super toll, aber auch nicht schlecht.
Wenn man berücksichtigt, wie die aktuelle Situation aussieht, ist ein Teil der UVP wohl auch dessen geschuldet.
Du meinst 479 € inkl. Steuern (für die RX 6700 xt) vs. 319 EUR exkl. Steuern (3060 TI), stimmt. Ich ignoriere immer die Exkl. Steuern :cool:
Ex3cut3r
2021-03-17, 17:29:59
Daran solltest du dich schon mal gewöhnen. ;) Das wird das neue Normal sein, wenn die Lieferbarkeit wieder besser ist.
Wieso? Dann wird ein ganzer Einsteiger PC Markt IMO verschwinden, kann man sich das erlauben?
Semmel
2021-03-17, 17:35:27
Wieso? Dann wird ein ganzer Einsteiger PC Markt IMO verschwinden, kann man sich das erlauben?
Da wird nichts verschwinden. Die Preise werden bezahlt, wie man sieht.
vinacis_vivids
2021-03-17, 17:37:25
Einsteiger holen sich ne RX550 für 200€
https://geizhals.de/powercolor-radeon-rx-550-red-dragon-axrx-550-4gbd5-dh-a2306948.html?hloc=at&hloc=de
oder die 1050 TI, die doppelt so schnell erscheint
https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1050-Ti-vs-AMD-RX-550/3649vs3925
Ex3cut3r
2021-03-17, 17:40:51
Da wird nichts verschwinden. Die Preise werden bezahlt, wie man sieht.
Eigenartige Wahrnehmung. Ich höre nur Klagen und "ich warte" Die paar handvoll "Idioten" gab es immer, aber dafür dann alle über einen Kamm scheren?
Semmel
2021-03-17, 17:47:47
Eigenartige Wahrnehmung. Ich höre nur Klagen und "ich warte" Die paar handvoll "Idioten" gab es immer, aber dafür dann alle über einen Kamm scheren?
Viele jammern und beißen dann trotzdem in den sauren Apfel. ;)
Wieso sollten die Hersteller die Preise senken, wenn das hohe Niveau bezahlt wird?
Ex3cut3r
2021-03-17, 18:04:31
Ach die paar Handvoll Karten, und dann kommen wieder Max 10 Stück, die wieder gleich weg sind für Scalper. Ich sage, solche Preise würden auf Dauer den PC Gaming Markt kaputt machen. Das kann man sich nicht erlauben. Das ist ja nicht der erste Mining Ausbruch, hatten wir doch alles 2 oder 3x mal. Der Markt hat sich dann auch wieder (langsam) beruhigt.
Peek&Poke
2021-03-17, 18:22:52
Die RX 6700 xt wäre auch meine erste Wahl gewesen wäre ich nicht durch Vergoldung der Altkarte zum gleichen Preis an die 6800xt gekommen.
Es ist seit dem ersten Mining boom ein Trend zu erkennen, das es keine guten Midrangekarten im Preisbereich 200-300 Euro mehr gibt. Die vega56 Sale Preise waren die einzige Ausnahme. Die 3060ti wird wenn überhaupt erst kurz vor Ihrer Einstellung unter 300 fallen. Die RX 6700xt wohl nie.
Szudri
2021-03-17, 18:34:28
oder die 1050 TI, die doppelt so schnell erscheint
https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1050-Ti-vs-AMD-RX-550/3649vs3925
Da Userbenchmark nen massiven Hass auf AMD CPUs hat, würde ich auf die GPU Einteilung da sehr sehr wenig geben.
Ex3cut3r
2021-03-17, 18:46:02
Mit welchen Settings kommt es denn zu vergleichbar kaputten = grob vom Durchschnitt abweichenden Verhältnissen wie bei AC Valhalla?
Eure Reaktion ist übrigens genau das, was ich meine. Test bestanden. Oder durchgefallen, wie man's nimmt.
MfG
Raff
Trotzdem Raff, das ist ist muss es jetzt auch mal sagen, eine zumindest komische Ansicht, wieso soll Vahalla kaputt sein? Das ist quasi sein Rls. der Stand der Dinge, wenn es kaputt ist, das ist es ja eine riesige Baustelle, weil weder Ubisoft noch Nvidia bisher was unternehmen konnte, ergo ist da auch nix kaputt, sondern es liegt am DX12 was Nvidia einfach nicht schmeckt, oder an was Architektur bedingten was Nvidia auch nicht schmeckt, bei WDL ist es ja auch wieder das selbe, also schon 2 Spiele die extrem komisch agieren? Das kann doch kein Zufall mehr sein.
dargo
2021-03-17, 19:04:32
Im Geizhals bzw. auf dem normalen Markt sieht es nach Cancer aus, 6800XT müsste es IMO Minium sein, aber die fangen auch erst gut und gerne bei 1500€ an. :freak:
Etwas drunter. :anonym:
https://www.delfitec.de/xfx-radeon-rx-6800xt-speedster-merc-319-16gb-gddr6-rdna2-premium-vr.html
Da Userbenchmark nen massiven Hass auf AMD CPUs hat, würde ich auf die GPU Einteilung da sehr sehr wenig geben.
Eo90v0BFs6M
Dann sowas?
dildo4u
2021-03-18, 05:33:06
jENqMuHJgow
Ich finde das ja auch ganz witzig, aber mal unter uns: Anders herum (also wenn eine 3060 die 6900 XT umhauen würde) gäb's wieder Exkrementschlachten, NDA-Diskussionen und Bestechungsvorwürfe der übelsten Sorte. Insofern: Das Spiel ist einfach kaputt und sollte - eigentlich - nicht weiter beachtet werden. Hübsch und grundsätzlich performant, aber kaputt. Ich bin sehr gespannt, mit welchem Patch das behoben wird; v1.2.0 steht nun an.
MfG
Raff
Jup es skaliert grottig auch auf RDNA2 auf Level mit Flight Sim.
https://youtu.be/v9ZoXA4Tfl4?t=412
Och, nur 84 Minuten Gelaber, ein leichter Happen am Morgen. Könnte das mal jemand transkribieren, bitte? Reduziert auf das Wichtige? =) :biggrin:
MfG
Raff
GerryB
2021-03-18, 09:22:20
Ich finde PCGH unübersichtlich.
Nur Wer die Einzelwerte mit SAM anschaut bekommt ne reale Info.
Der Satz mit 3,5% über 4 Resis ist vollkommen irreführend für den typischen User mit WQHD.
(Auch AMD bewirbt nur bis WQHD)
Und bei BF5 reicht FHD@150% zur Beurteilung von SAM.
WQHD@150% ist ja bereits too much.
(in BF5 hätte man z.Bsp. dann 10% mehr Fps)
RAFF könntest Du bitte bei SAM auch noch die 6800 und 6900xt einblenden?
Bei Euch muss man leider immer 3 Reviews anschauen, um die volle Info fürs komplette Lineup zu bekommen.
btw.
Eigentlich können Zen2+3 und Z390+Z490 inzwischen SAM.
Wer ohne testet macht sich doppelte Arbeit.
= net sehr helle
#17: https://extreme.pcgameshardware.de/threads/amd-radeon-rx-6700-xt-im-test-die-leistung-der-rtx-3060-ti-mit-50-prozent-mehr-speicher.601837/#post-10701861
"Unsere Agenda steht im Text. In 2-3 Wochen zieht Nvidia mit Firmware-Updates nach und wir müssen die Auswirkungen eh testen. Spätestens dann ergibt es keinen Sinn mehr, noch Zeit in 'alte Werte', also ohne SAM/rBAR zu stecken. Da wir jetzt schon SAM-on/off-Bonuswerte liefern, verstehe ich die Diskussion nur bedingt. An der Grundaussage ändert sich ja nichts, denn die RX 6700 XT ist auch mit SAM langsamer als die RTX 3070."
Bei Euch muss man leider immer 3 Reviews anschauen, um die volle Info fürs komplette Lineup zu bekommen.
Dafür gibt es übrigens gute Gründe: Hat man einen zu gehaltvollen Artikel, wird immer etwas übersehen. Daher testen wir Spin-offs wie jüngst zum Raytracing (die aufrufmäßig immer wesentlich schlechter sind als der Haupt-Artikel, aber viel besser verlinkbar und übersichtlicher). :)
MfG
Raff
GerryB
2021-03-18, 09:58:13
An der Grundaussage ändert sich ja nichts, denn die RX 6700 XT ist auch mit SAM langsamer als die RTX 3070.
Ist Das wirklich so wichtig? (Overall ist eh uninteressant, man schaut eher bei schnellem Game XYZ)
Mir wäre die 3070 eher egal, nur das P/L ggü. der 6800 ist interessant und das SAM auch bei der 6700xt funzt.
3070:
Wer sich 8Gb antun möchte zu dem Preis...
Kommt für Aufrüster noch das Problem der evtl. net ausreichenden CPU hinzu!
Linmoum
2021-03-18, 10:39:47
Die 6700XT ist zwar noch ein gutes Stück flotter als die 3060, aber hier sieht man trotzdem schon, dass Nvidias rBAR-Implementierung einfach Müll ist.
Hat also nichts mit dem vormals verbreiteten Märchen zu tun, dass bei der 3060 nur wegen GPU-Limit nix bei rumkommt.
dildo4u
2021-03-18, 10:55:28
Beide Lösungen sind nicht ideal bei HW Unboxed bringt Sam nur 3% im Schnitt weil es teilweise Performance kostet, es kommt also massiv drauf an welchen Mix an Games man testet.
Die Withelist bei NV verhindert das die Performance rückwärts geht, aber natürlich sieht man kaum ein Vorteil wenn man andere Game bencht.
https://i.ibb.co/yVfvccN/1440p-3.png (https://ibb.co/M92wxxg)
https://www.techspot.com/article/2178-amd-smart-access-memory/
mironicus
2021-03-18, 11:08:36
Da wäre ich auch dafür das zukünftig alle Benchmarks mit Resizable Bar ausgeführt und gelistet werden, weil es von Intel und AMD unterstützt wird. Der normale User wird das Feature doch immer aktiviert lassen und wer weiß was Treiberverbesserungen noch zukünftig bringen könnten.
M4xw0lf
2021-03-18, 11:22:10
Nice 250€ Karte :uup:
Nice 250€ Karte :uup:
Sehe ich auch so :biggrin:
Eure Preisvorstellungen sind sooo 2008/2009 (geile Zeit!). Das werden wir wohl nie wieder sehen. =( Dafür halten die Produkte jetzt länger (wenn man die richtigen kauft ;)) -> einfach pro Jahr 100-200 Euro beiseitelegen, dann ist das eigentlich überhaupt kein Thema.
MfG
Raff
Meine R9 380 hält jetzt 5 Jahre. Und du gehst davon aus, dass ich mit einer 6800 XT in 5 Jahren noch alle Spiele mit maximalen Grafikeinstellungen spielen kann? Ich meine: Alle?
Das mit "länger halten" ist so eine Auslegungssache und die 6700 XT ist (UVP) einfach doppelt so teuer wie meine teuerste Grafikkarte, die ich je gekauft habe, dh. Ich muss davon ausgehen, dass die Karte mir sogar 10 Jahre lang Maximale Grafik bietet :|
Loeschzwerg
2021-03-18, 11:38:05
-> einfach pro Jahr 100-200 Euro beiseitelegen, dann ist das eigentlich überhaupt kein Thema.
Wenig massentauglich. Letztendlich dürfte die aktuelle Marktentwicklung den Fortschritt hinsichtlich neuen Techniken und besserer Grafik bremsen.
Opprobrium
2021-03-18, 11:42:15
Wenig massentauglich. Letztendlich dürfte die aktuelle Marktentwicklung den Fortschritt hinsichtlich neuen Techniken bremsen.
Nah, den Fortschritt haben die quasi-Monopol von Intel und nVidia gebremst. Sieht man ja gut daran wie Zen plötzlich den PC Markt wieder belebt hat. Sowohl was Performancezuwächse als auch was Umsatz angeht.
Ist zwar ärgerlich das gerade Corona, Fertigungsengpässe und Miningwahn für höhere Preise sorgen, aber sobald sich das gibt dürfte es auch bei den GPUs wieder vorangehen.
Für viele Fanboys und Monopolverfechter mag das überraschend sein, aber Konkurrenz belebt das Geschäft ;)
Loeschzwerg
2021-03-18, 11:49:01
Das stimmt, ist aber als eigenes Ereignis zu betrachten
aber sobald sich das gibt dürfte es auch bei den GPUs wieder vorangehen.
Genau das sehe ich eben nicht so schnell eintreten. 2021 ist quasi gelaufen und auch 2022 dürfte nicht toll werden. Das bleibt eine Weile lang einfach elitär.
Eher bekommen MS/Sony die Kapazitäten auf die Reihe.
Edit: Aber in dem Fall täusche ich mich auch sehr gerne :D
M4xw0lf
2021-03-18, 12:13:41
Eure Preisvorstellungen sind sooo 2008/2009 (geile Zeit!). Das werden wir wohl nie wieder sehen. =(
MfG
Raff
Jetzt fühle ich mich auch noch alt, danke für nichts! :ufinger:
:tongue:
dildo4u
2021-03-18, 12:21:59
Eure Preisvorstellungen sind sooo 2008/2009 (geile Zeit!). Das werden wir wohl nie wieder sehen. =( Dafür halten die Produkte jetzt länger (wenn man die richtigen kauft ;)) -> einfach pro Jahr 100-200 Euro beiseitelegen, dann ist das eigentlich überhaupt kein Thema.
MfG
Raff
Sony und MS widersprechen dir, PCler zahlen aber und die Preise werden so weiter steigen.
dargo
2021-03-18, 13:11:19
Beide Lösungen sind nicht ideal bei HW Unboxed bringt Sam nur 3% im Schnitt weil es teilweise Performance kostet, es kommt also massiv drauf an welchen Mix an Games man testet.
Die Withelist bei NV verhindert das die Performance rückwärts geht, aber natürlich sieht man kaum ein Vorteil wenn man andere Game bencht.
https://i.ibb.co/yVfvccN/1440p-3.png (https://ibb.co/M92wxxg)
https://www.techspot.com/article/2178-amd-smart-access-memory/
Witzig, dass du gerade diese Liste raussuchst in welcher u.a. FH4 fehlt welches mit 17% von rBar bei Radeon profitiert.
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/News/Resizable-BAR-SAM-fuer-Geforce-1367601/
Noch witziger finde ich, dass laut HU WDL zwar nur 3% bei den avgs. zulegt, dafür aber die bessere Frameausgabe gar nicht erwähnt wird. Das ist für mich jedenfalls viel mehr Wert als paar Prozent mehr Performance.
Da wäre ich auch dafür das zukünftig alle Benchmarks mit Resizable Bar ausgeführt und gelistet werden, weil es von Intel und AMD unterstützt wird. Der normale User wird das Feature doch immer aktiviert lassen und wer weiß was Treiberverbesserungen noch zukünftig bringen könnten.
Natürlich... ich schalte doch nicht jedes Mal im Bios rBAR hin und her. :freak:
Matrix316
2021-03-18, 13:34:51
Hätte man bei der 6700XT vielleicht eher auf 8 GB mit 256 Bit Speicherinterface gehen sollen? :uponder:
dargo
2021-03-18, 13:35:50
Was geht wieder in deinem Kopf vor? :tongue: N22 ist mit 12GB perfekt ausgestattet.
Dann wäre sie das schlechtere Produkt ohne irgendeinen Pluspunkt gegenüber einer RTX 3060 Ti.
MfG
Raff
Redneck
2021-03-18, 13:51:36
Dann wäre sie das schlechtere Produkt ohne irgendeinen Pluspunkt gegenüber einer RTX 3060 Ti.
MfG
Raff
wirklich keine ?? Wie sieht es mit der Raster Geschwindigkeit aus.. das sollte Pluspunkt genug sein.
dildo4u
2021-03-18, 14:06:07
wirklich keine ?? Wie sieht es mit der Raster Geschwindigkeit aus.. das sollte Pluspunkt genug sein.
PCGH hat sie auf den selben Level und sie kostet mehr.
dargo
2021-03-18, 14:09:25
Mehr als 1298€? ;D
https://cls-computer.de/top-angebote/msi-geforce-rtx-3060-ti-gaming-x-8gb-hdmi-3x-dp
Ist die einzige 3060TI die ich über GH lagernd lieferbar finde.
Matrix316
2021-03-18, 14:10:10
Was geht wieder in deinem Kopf vor? :tongue: N22 ist mit 12GB perfekt ausgestattet.
Ist die Frage, wer die Konkurrenz sein soll. Die 3060TI oder die 3070. Vom RAM her eher die 3060 ohne TI. ;) Aber vielleicht ist das Absicht, damit die nicht für Miner so interessant ist...
Tigershark
2021-03-18, 14:10:41
Meine R9 380 hält jetzt 5 Jahre. Und du gehst davon aus, dass ich mit einer 6800 XT in 5 Jahren noch alle Spiele mit maximalen Grafikeinstellungen spielen kann? Ich meine: Alle?
Das mit "länger halten" ist so eine Auslegungssache und die 6700 XT ist (UVP) einfach doppelt so teuer wie meine teuerste Grafikkarte, die ich je gekauft habe, dh. Ich muss davon ausgehen, dass die Karte mir sogar 10 Jahre lang Maximale Grafik bietet :|
Achso, Du kannst mit Deiner R9 380 jetzt noch alle Spiele mit maximalen Grafikeinstellungen spielen? Respekt! :biggrin:
Denn wenn nicht, wäre Dein Vergleich ja irgendwie etwas daneben, nicht? :cool:
Grundsätzlich sehe ich es zwar auch so, dass die aktuellen GPU Preise lachhaft sind (oder eher: zum whinen), aber man muss doch auch die Kirche im Dorf lassen. Ist ja nicht so, dass wir hier alle kollektiv zum HW Kauf GEZWUNGEN werden, und die verklärte Erinnerung einiger an die "guten, alten Zeiten" bzgl. der HW Preise und deren Performance ist auch wenig hilfreich für eine sachliche Diskussion. Oh und nebenbei ging es hier ja eigentlich um die REVIEWS der 6700XT...
Deren Performance finde ich nicht schlecht. Schade zwar, dass die Leistung erkauft wird, indem man N22 ein gutes Stück oberhalb des Sweetspots betreibt. Aber das war ja irgendwie zu erwarten, immerhin ist die Performance jetzt doch deutlich über dem, was ursprünglich aufgrund der geleakten Specs vermutet wurde.
Witzig, dass jetzt einige von der Performance enttäuscht sind. Wenn man mal das aktuelle Preisgefüge ausblendet und nüchtern nur die Leistung beurteilt, dann ist N22 in der jetzigen Form doch eigentlich AMDs 3060Ti, und imho ein gutes (Performance-) Mittelfeld der aktuellen Generation.
Und jetzt nur noch 1000240243 davon raushauen, damit die ollen Miner irgendwann genug haben und "wir" Gamer wieder zu normaleren Preisen einkaufen können. Und schon sind alle wieder froh ;D
dargo
2021-03-18, 14:16:01
Ist die Frage, wer die Konkurrenz sein soll. Die 3060TI oder die 3070.
Och Gottchen, woran sich manche hier immer wieder aufhängen. Die beiden Karten trennen nur ~14% laut CB. Zudem wer sagt denn, dass die Konkurrenz immer eine absolute Punktlandung hinlegen muss und nicht einfach dazwischen rauskommen darf?
btw.
Die ganzen UVP-Vergleiche sind genauso hirnverbrannt. Es wird das gekauft was da ist (bis auf wenige Ausnahmen). Und das ist weit von den UVPs entfernt.
Achso, Du kannst mit Deiner R9 380 jetzt noch alle Spiele mit maximalen Grafikeinstellungen spielen? Respekt! :biggrin:
Denn wenn nicht, wäre Dein Vergleich ja irgendwie etwas daneben, nicht? :cool:
Grundsätzlich sehe ich es zwar auch so, dass die aktuellen GPU Preise lachhaft sind (oder eher: zum whinen), aber man muss doch auch die Kirche im Dorf lassen. Ist ja nicht so, dass wir hier alle kollektiv zum HW Kauf GEZWUNGEN werden, und die verklärte Erinnerung einiger an die "guten, alten Zeiten" bzgl. der HW Preise und deren Performance ist auch wenig hilfreich für eine sachliche Diskussion. Oh und nebenbei ging es hier ja eigentlich um die REVIEWS der 6700XT...
Deren Performance finde ich nicht schlecht. Schade zwar, dass die Leistung erkauft wird, indem man N22 ein gutes Stück oberhalb des Sweetspots betreibt. Aber das war ja irgendwie zu erwarten, immerhin ist die Performance jetzt doch deutlich über dem, was ursprünglich aufgrund der geleakten Specs vermutet wurde.
Witzig, dass jetzt einige von der Performance enttäuscht sind. Wenn man mal das aktuelle Preisgefüge ausblendet und nüchtern nur die Leistung beurteilt, dann ist N22 in der jetzigen Form doch eigentlich AMDs 3060Ti, und imho ein gutes (Performance-) Mittelfeld der aktuellen Generation.
Und jetzt nur noch 1000240243 davon raushauen, damit die ollen Miner irgendwann genug haben und "wir" Gamer wieder zu normaleren Preisen einkaufen können. Und schon sind alle wieder froh ;D
Wenn du meinen Text liest, ich bezog das auf "Länger halten" und wie legst du "länger halten aus"? Dass sie länger als 5 Jahre funktionieren? Das erwarte ich automatisch. Halten bezog ich also auf "Länger hochqualitative Bilder bieten".
Linmoum
2021-03-18, 14:21:46
PCGH hat sie auf den selben Level und sie kostet mehr.PCGH vermischt im Online-Index vier Auflösungen, daher ist der für solche pauschalen Vergleiche ziemlich wertlos. Es sei denn, man hat Zeit/Lust das einzeln nach Auflösung entsprechend aufzudröseln (oder sich das Heft zu kaufen ;) ). In FHD/WQHD ist die 6700XT näher an der der 3070 als 3060Ti, s. TPU oder CB.
BlacKi
2021-03-18, 14:25:01
ich dachte er meint, wenn du dir jetzt eine neue karte kaufst, dann hält sie länger. das stimmt nur, wenn die grafikkarten wirklich auf viele jahre lang teuer bleiben.
allerdings, könnte das problem aber auch noch schlimmer werden. es gibt leute die meinen das bitcoin ende des jahres bei 100k liegen wird. wenn das stimmt und ethereum mit steigt(er läuft relativ stark gekoppelt), dann verdoppeln sich die preise bis ende des jahres nochmals, falls die schwierigkeit nicht rechtzeitig angepasst wird.
sicher ist das nicht, aber nicht ganz abwegig.
meanwhile @ TPU
Actual 3D performance gained from overclocking is 1.0%.
auch geil. insert your price of the 6700xt here XD
https://tpucdn.com/review/amd-radeon-rx-6700-xt/images/performance-per-dollar_2560-1440.png
https://www.techpowerup.com/review/amd-radeon-rx-6700-xt/30.html
Dural
2021-03-18, 14:29:19
Kein brauchbares RT, kein DLSS, überhaupt keinen einzigen Plus Punkt.
Aber Hauptsache 12GB, das ist WICHTIG ;D
Das kommt mir vor wie bei den ersten Grafikkarten überhaupt, meine ist besser habe halt 128KB mehr Speicher. :freak:
Damals stimmte das sogar, heute ist die Diskussion aber komplett lächerlich gerade mit DLSS.
dargo
2021-03-18, 14:33:23
Kein brauchbares RT, kein DLSS, überhaupt keinen einzigen Plus Punkt.
Aber Hauptsache 12GB, das ist WICHTIG ;D
Das kommt mir vor wie bei den ersten Grafikkarten überhaupt, meine ist besser habe halt 128KB mehr Speicher. :freak:
Damals stimmte das sogar, heute ist die Diskussion aber komplett lächerlich gerade mit DLSS.
Dural ist wieder aufgewacht um seine Märchen zu verteilen. :uup:
Das Wunder von DLSS. :rolleyes:
https://abload.de/img/wolfopj2k.jpg
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/
Noch selten. Wie selten es bleibt wird die nahe Zukunft zeigen.
PS: für alle die es noch nicht wissen... 1440p mit DLSS-Q bedeutet 960p Renderauflösung.
Lurtz
2021-03-18, 14:41:59
Kein brauchbares RT, kein DLSS, überhaupt keinen einzigen Plus Punkt.
Aber Hauptsache 12GB, das ist WICHTIG ;D
Das kommt mir vor wie bei den ersten Grafikkarten überhaupt, meine ist besser habe halt 128KB mehr Speicher. :freak:
Damals stimmte das sogar, heute ist die Diskussion aber komplett lächerlich gerade mit DLSS.
Was brauchbares RT ist, kann man sehr breit definieren. IMO ist das bei Karten aus der Preisklasse praktisch nie brauchbar, selbst mit DLSS.
Sobald man was aufwändigeres wie Cyberpunk hat, läuft der VRAM voll und als Renderauflösung kann man bestenfalls noch mit sub 1080p rechnen. Von hohen fps mal ganz abgesehen.
Brauchbar, hmm...
Ich hab Cyberpunk gerne mit RT und DLSS gespielt, aber die Kompromisse in der Auflösung waren stets sichtbar und die Performance war dank der volllaufenden 8 GB VRAM kein Spaß, selbst für mich als jemand der noch vor einem 60 Hz-Display sitzt.
Redneck
2021-03-18, 16:27:32
Kein brauchbares RT, kein DLSS, überhaupt keinen einzigen Plus Punkt.
Aber Hauptsache 12GB, das ist WICHTIG ;D
Das kommt mir vor wie bei den ersten Grafikkarten überhaupt, meine ist besser habe halt 128KB mehr Speicher. :freak:
Damals stimmte das sogar, heute ist die Diskussion aber komplett lächerlich gerade mit DLSS.
Bei Dir hat das grüne Marketing aber voll durchgeschlagen.
Als ob man DLSS oder RT brauchen würde.
Konnte bis dato noch gut ohne leben und werde es wohl in naher Zukunft auch noch können. RT und DLSS werden immer als Argument geliefert, wenn die Grundperformance nicht stimmt (Marketing halt). Welches Must Have RT Spiel gibt es denn zur Zeit, um das kein Weg herumführt ?
Matrix316
2021-03-18, 18:06:37
Dural ist wieder aufgewacht um seine Märchen zu verteilen. :uup:
Das Wunder von DLSS. :rolleyes:
[...]
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/
Noch selten. Wie selten es bleibt wird die nahe Zukunft zeigen.
PS: für alle die es noch nicht wissen... 1440p mit DLSS-Q bedeutet 960p Renderauflösung.
In diesem Wolfenstein Benchmark würde ich gerne mal die Werte der 3080 zum Vergleich sehen...
Das Speicherinterface der 6700 ist halt schon etwas beschnitten. Wahrscheinlich ist die 3060 deswegen meistens auch langsamer als sie sein könnte.
Aber wenn die 6700XT schneller wäre, bräuchte man auch keine 6800. Wobei letztere doch eher die Konkurrenz zur 3070 sein soll, oder?
dargo
2021-03-18, 18:39:29
Das Speicherinterface der 6700 ist halt schon etwas beschnitten.
Alter... :facepalm: Was glaubst du denn wofür der Infinity Cache da ist?
btw.
Mal was anderes... gibt es eigentlich schon Infos wann die RX 6700 non XT kommt und wie diese genau aussieht? 10GB an 160Bit oder weiterhin 12GB an 192Bit? Oder kommt die non XT vorerst nicht weil AMD den hungrigen Markt eh nicht ausreichend bedienen kann? Mit dem vollen N22 gibts halt mehr Kohle.
Hott3X
2021-03-18, 19:04:02
Ich denke nicht, dass so schnell noch eine 6700er kommen wird. Die wenigen Chips gehen doch auch so weg und so verdient man mehr. Ich denke auch die 6800er wird über kurz oder lang auch raus fliegen.
-/\-CruNcher-/\-
2021-03-18, 19:20:57
In diesem Wolfenstein Benchmark würde ich gerne mal die Werte der 3080 zum Vergleich sehen...
Das Speicherinterface der 6700 ist halt schon etwas beschnitten. Wahrscheinlich ist die 3060 deswegen meistens auch langsamer als sie sein könnte.
Aber wenn die 6700XT schneller wäre, bräuchte man auch keine 6800. Wobei letztere doch eher die Konkurrenz zur 3070 sein soll, oder?
Die 6800 schlägt die 3070 in der raster tendenz
Nvidia hat ja mal eine 3070 TI angekündigt um sich alles wieder zu holen inklusive Raster Vorsprung aber bis jetzt wird es hauptsächlich über den DLSS ausgleich realisiert und kompensiert, wohlmöglich kommt es nochmal nach dem FSR Release auf den Tisch sobald die 6800 dann noch weiter vor zieht.
Und ab dann werden wir die 3070 TI/Super sehen, ich bin mir immernoch relativ sicher das sie kommen wird, wobei der vorzeitige Sieg von DLSS wohl Jensen keinen wirklichen anlass gibt sie zu überstürzen.
Ergo Nvidia beindruckt der Raster Vorsprung momentan nicht sonderlich.
dargo
2021-03-18, 19:48:05
Ich denke nicht, dass so schnell noch eine 6700er kommen wird. Die wenigen Chips gehen doch auch so weg und so verdient man mehr. Ich denke auch die 6800er wird über kurz oder lang auch raus fliegen.
Dann muss aber die Chipausbeute extrem hoch bei TSMC sein. Laufen da keine teildefekten Chips vom Band? Kann ich kaum glauben. Wobei... wenn wirklich nur sehr wenige teildefekt sind muss AMD erstmal etwas sammeln damit es nicht komplett als Paperlaunch durchgeht. :ugly:
dildo4u
2021-03-18, 19:57:38
6700 ist vermutlich ideal für Notebooks.
In dem Bereich hat AMD noch fast 100% aufzuholen.
vinacis_vivids
2021-03-18, 20:00:45
Die Chipausbeute dürfte perfektioniert sein. Ist schließlich die vierte Auflage nach Vega20, Navi10-12-14 und Navi21.
Es laufen sicherlich auch mal teildefekte vom Band, allerdings sehr wenige, wie bei der 6800 non XT.
Falls eine 6700er rauskommt, dann sicherlich auch 12GB, 192bit SI, 96MB IC mit 18DCU und deutlich weniger Takt ~ 2,2-2,3Ghz um ein Stromstecker zu sparen. So 170-180W TDP fürs Desktop damit der Abstand gewahrt bleibt.
dargo
2021-03-18, 20:01:35
Für Notebooks finde ich den N22 noch etwas zu durstig. Da wäre N23 wohl besser für geeignet. Ok... stark im PT gedrosselt passt N22 natürlich auch. Die Marge ist beim Nootebook eh höher, da kann man sich das leisten.
SKYNET
2021-03-18, 20:46:24
Für Notebooks finde ich den N22 noch etwas zu durstig. Da wäre N23 wohl besser für geeignet. Ok... stark im PT gedrosselt passt N22 natürlich auch. Die Marge ist beim Nootebook eh höher, da kann man sich das leisten.
ist doch perfekt fürs NB... einfach mit 2GHz und deutlich weniger spannung, dürfte das teil bei +/- 80W rauskommen
Kein brauchbares RT, kein DLSS, überhaupt keinen einzigen Plus Punkt.
Aber Hauptsache 12GB, das ist WICHTIG ;D
Das kommt mir vor wie bei den ersten Grafikkarten überhaupt, meine ist besser habe halt 128KB mehr Speicher. :freak:
Damals stimmte das sogar, heute ist die Diskussion aber komplett lächerlich gerade mit DLSS.
Kannst du dir nicht endlich mal ne Frau kaufen, anstatt nur Stuss von dir zu geben? Wenn dir 320p genügen - fein, dann begib dich in einen NV-Thread und hole dir weiterhin einen runter. Dein Gelaber ist nicht zu ertragen und ich hoffe für dich, dass du bei deiner Selbstbefriedigung kein DLSS benötigst ...
mczak
2021-03-18, 21:42:16
ist doch perfekt fürs NB... einfach mit 2GHz und deutlich weniger spannung, dürfte das teil bei +/- 80W rauskommen
80W dürfte schon eher das untere Limit sein das bei dem Chip sinnvoll ist. Aber nvidia verkauft ja auch GA104 fürs Notebook, als RTX 3080 mit 80-150W, da passt das schon.
Für Thin&Light Notebooks möchte man aber sicher eher N23.
Matrix316
2021-03-18, 21:44:49
Alter... :facepalm: Was glaubst du denn wofür der Infinity Cache da ist?
[...]
Das heißt es reichen 128 MB Infinity Cache und man braucht eigentlich gar kein VRAM? ;)
dargo
2021-03-18, 21:48:54
Das heißt es reichen 128 MB Infinity Cache und man braucht eigentlich gar kein VRAM? ;)
Bitte lese dich nochmal ein wofür Infinity Cache da ist. Oh man... :crazy:
btw.
Bei N22 sind es 96MB.
crux2005
2021-03-18, 22:53:17
Skandal!
5wO2vUZv4zw
y33H@
2021-03-18, 23:18:48
Skandalös ist die doppelt falsche Spec-Tabelle mit dem Infinity Cache ^^
Die RX 6800 hat 128 MByte mit 1024 Bit @ up to 1.94 GHz und somit bis zu 2 TByte/s und die RX 6700 XT hat 96 MByte mit 768 Bit @ up to 1.94 GHz und somit bis zu 1,5 TByte/s ...
Hott3X
2021-03-19, 07:11:48
Dann muss aber die Chipausbeute extrem hoch bei TSMC sein. Laufen da keine teildefekten Chips vom Band? Kann ich kaum glauben. Wobei... wenn wirklich nur sehr wenige teildefekt sind muss AMD erstmal etwas sammeln damit es nicht komplett als Paperlaunch durchgeht. :ugly:
Ist zwar Spekulation, aber der Chip ist ja auch viel kleiner und daher gehe ich von weniger Ausschuss aus. Das 7nm Verfahren bei TSMC scheint allg. sehr gut zu laufen. Sieht man ja schon an der Verfügbarkeit der 6800. Ob es sich da lohnt für die paar Teildefekten Chips eine neue Karte aufzulegen, kann ich mir bei der jetzigen Nachfrage kaum vorstellen. Ich lasse mich aber gerne eines besseren belehren.
dargo
2021-03-19, 08:13:04
Was heißt hier extra Karte, es ist doch keine extra SKU? Du musst ja am PCB, Kühler etc. nichts ändern. Du brauchst nur ein anderes Bios. Bei 200.000 Chips im Monat (fiktive Zahl) die vom Band laufen würde das selbst bei 95% Chipausbeute bedeuten, dass 10.000 Chips im Müll landen. Sowas wäre komplett bescheuert. Die RX 6700 non XT wird kommen, nur halt etwas später. Schließlich braucht AMD auch was gegen die RTX 3060 bis RTX 3060TI. Die non XT wird sicherlich dazwischen landen. Grob 15% werden die RX 6700XT und RX 6700 bei der Performance trennen. 36 CUs und weniger Boost, schon hast du eine ~180W Karte (Referenz).
mironicus
2021-03-19, 08:42:36
Bei der RX6700XT sollte man vielleicht mal nachtesten, wie schnell sie bei reduzierter TDP ist (100, 80 Watt), weil dieser Chip wird sicherlich auch in Notebooks landen.
Legendenkiller
2021-03-19, 09:09:34
Sony und MS widersprechen dir, PCler zahlen aber und die Preise werden so weiter steigen.
Nein werden sie nicht.
Ssolbald die Leute ihr Kohle wieder auf der Wiesn oder auf Malle ausgeben können, kaufen die keine teuren Grakas mehr.
Aktuell sitzen die ganzen Konsumer halt gelangweit zu Hause und haben nix zum Geldausgeben.
Also kaufen sie sich als Ersatzhandlung (elektronik) Zeug für zu Hause.
Holz, OSB und Zement sind schließlich auch ausverkauft :-)
Gut, dank epischen verkackens der "Coronastrategie" ist es gut möglich das es noch 2 Jahre anhält.
GerryB
2021-03-19, 09:18:25
btw.
Merc bei CB im Test:
Im CPU-Limit schneller als die 3070 (Valhalla+WDL)
Und in CP2077 gleichauf.
(1440p)
Für Aufrüster mit ner schwachen CPU eindeutig besser geeignet.
Was ist eigentlich mit HDR@FP16 ala Godfall?
(Das Ampere mit INT+FP16 net so gut kann ist ja klar.
Leider ist Ampere nur ein Abfallprodukt der Quadros und net so auf Gaming optimiert wie Turing.)
vinacis_vivids
2021-03-19, 09:38:19
Was ist eigentlich mit HDR@FP16 ala Godfall?
(Das Ampere mit INT+FP16 net so gut kann ist ja klar.)
HDR@fp16 ist bei Godfall aktiviert, ist aber bei den Performance Test`s nicht berücksichtigt, weil Marketing-Sachen wie DLSS und RT im Vordergrund stehen.
https://gpuopen.com/fidelityfx-lpm/
Godfall ist visuell absolut bombastisch. Ein technisches Meisterwerk, vor allem mit HDR, 4K, RT usw.
dargo
2021-03-19, 09:53:53
N23 soll angeblich schon nächsten Monat kommen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12628334&postcount=19514
Dann ist auch klar wofür die knappen Kapazitäten erstmal drauf gehen. Es ist nicht die RX 6700 non XT.
-/\-CruNcher-/\-
2021-03-19, 10:04:59
HDR@fp16 ist bei Godfall aktiviert, ist aber bei den Performance Test`s nicht berücksichtigt, weil Marketing-Sachen wie DLSS und RT im Vordergrund stehen.
https://gpuopen.com/fidelityfx-lpm/
Godfall ist visuell absolut bombastisch. Ein technisches Meisterwerk, vor allem mit HDR, 4K, RT usw.
:massa:
GerryB
2021-03-19, 10:19:14
Es ging mir net um Godfall als Game an sich, sondern um die 2:1 Performance@FP16.
(dito INT)
vinacis_vivids
2021-03-19, 10:30:04
Mit RT brechen 3070 und 3060Ti 8Gb weg.
https://abload.de/img/pcghgodfallrtepic7tj5d.png
Leider testet PCGH nur mit 8bit SDR. Mit 10 bit 4:4:4 HDR bricht Ampere sicherlich noch mehr weg, weil die 2:1 fp16 NCU`s bei Navi sowohl Rechenleistung verdoppeln als auch den Speicherbedarf und Zugriffe auf VRAM zu senken.
Das spart viel Energie, die den NCU`s zu gute kommen um bessere Latenzen zu erreichen.
dargo
2021-03-19, 10:56:18
Eindeutig Vram-Mangel wie man an der RTX 3060 sieht, das gibt schönes Gespike in den Frametimes mit den 8GB Karten, siehe 1% low. Aber laut Dural sind 8GB genug. ;)
PS: schade, dass die RTX 3080 nicht mit dabei im Test ist.
Lowkey
2021-03-19, 11:20:07
Interessant: https://youtu.be/ZIDi_PI8R8o?t=461
Die 6700XT ist eine 5700XT mit mehr Takt und nur mehr Takt?
M4xw0lf
2021-03-19, 11:23:10
Interessant: https://youtu.be/ZIDi_PI8R8o?t=461
Die 6700XT ist eine 5700XT mit mehr Takt und nur mehr Takt?
Wat? Wer kommt auf so einen Blödsinn?
dargo
2021-03-19, 11:24:14
Lowkey. :tongue:
Lowkey
2021-03-19, 11:26:37
Hast du das Video angeschaut? Anscheinend nicht.
dargo
2021-03-19, 11:27:58
Wofür? Ich kenne das N22 Design.
vinacis_vivids
2021-03-19, 11:28:51
Das stimmt nicht ganz, weil mit steigender Auflösung die 6700XT mit weniger Bandbreite etwas besser skaliert als die 5700XT. Für bessere Erkenntnisse müsste die Bandbreite des VRAM auch bei beiden normiert werden. So geht ja die 5700XT mit 448GB/s und die 6700XT mit "nur" 384GB/s ins Rennen.
Dann kann man auch noch auf elektrisch normierte Leistung bspw. auf 150W oder 100W Begrenzung vergleichen. Erst da zeigt sich die wahre Stärke von Navi 2.0.
dargo
2021-03-19, 11:34:37
Es ist völlig behämmert zu behaupten N22 wäre nur N10 mit mehr Takt. Schon alleine bei gleicher Frequenz von 1,8Ghz dreht N22 Kreise um N10 bei der Effizienz trotz gleichen Prozess. Hätte N22 nur 1,8GHz wären die 192Bit @GDDR6 auch kompletter Overkilll samt den 96MB Infinity Cache. Bei nur 1,8Ghz hätten mit hoher Wahrscheinlichkeit 128Bit und 64MB IC gereicht was N22 nochmal sparsamer gemacht hätte.
mironicus
2021-03-19, 11:37:23
Ich habe auch gerade das Hardware Unboxed-Video gesehen mit dem Vergleich 5700 vs 6700 bei gleicher Taktrate. Die Performance ist fast immer gleich.
Kann es sein, daß die RDNA2-Karten noch nicht so wirklich vom Infinity Cache profitieren, und das wir da noch die ein oder andere Überraschung in Zukunft erleben können (postiv)?
Tigershark
2021-03-19, 11:44:53
Ich habe auch gerade das Hardware Unboxed-Video gesehen mit dem Vergleich 5700 vs 6700 bei gleicher Taktrate. Die Performance ist fast immer gleich.
Kann es sein, daß die RDNA2-Karten noch nicht so wirklich vom Infinity Cache profitieren, und das wir da noch die ein oder andere Überraschung in Zukunft erleben können (postiv)?
6700XT hat doch nur ein Speicherinterface von 192bit. Somit ist sie da schon einmal im Nachteil ggü. der 5700XT, und gleicht den eben durch den IC aus. Außerdem sind die Pipelines bei RDNA2 deutlich verlängert worden, um die hohen Frequenzen zu ermöglichen (macht ja auch Sinn) - das bedeutet aber natürlich bei gleicher Taktfrequenz im Vergleich zu Navi 10 höhere Latenzen und somit je nachdem wie gut RDNA es schafft, die Pipelines auszulasten auch etwas geringere Performance (taktnormiert!).
dildo4u
2021-03-19, 11:49:19
Sie wird besser dastehen da sie neuere Features z.b VRS Tier 2 unterstützt.
Tier 2 VRS allowed Gears 5/Tactics to see an up to 14% boost in GPU perf with no perceptible impact to visual quality. It is available on all hardware supporting DirectX 12 Ultimate, including Xbox Series X|S, AMD Radeon™ RX 6000 Series graphics cards, and NVIDIA GeForce RTX 20 Series and 30 Series GPUs.
https://devblogs.microsoft.com/directx/gears-vrs-tier2/
Matrix316
2021-03-19, 11:54:02
Mit RT brechen 3070 und 3060Ti 8Gb weg.
[...]
Leider testet PCGH nur mit 8bit SDR. Mit 10 bit 4:4:4 HDR bricht Ampere sicherlich noch mehr weg, weil die 2:1 fp16 NCU`s bei Navi sowohl Rechenleistung verdoppeln als auch den Speicherbedarf und Zugriffe auf VRAM zu senken.
Das spart viel Energie, die den NCU`s zu gute kommen um bessere Latenzen zu erreichen.
Da fehlen noch Karten wie 2080TI und 3080, damit man sehen kann ob es 12 GB sein müssen oder ob vielleicht auch 10 oder 11 GB auch reichen. ;)
Robot
2021-03-19, 22:33:22
Kann mir mal kurz irgendeiner erklären wieso die 6700 XT auf Youtube jetzt so viel SHIT abbekommt von wegen nicht lieferbar usw. usw. Preis zu hoch. Schrott Design des Kühlers usw.
Hab ich da was verpasst? Das galt doch exakt genauso so für die 3060?
Hardwarious
2021-03-19, 22:58:34
Kannst du mal verlinken welches Video du meinst? Die kommt überall eigentlich recht gut weg und beim hohen Preis weisen auch alle auf die aktuelle Situation hin.
Opprobrium
2021-03-19, 23:01:48
Kann mir mal kurz irgendeiner erklären wieso die 6700 XT auf Youtube jetzt so viel SHIT abbekommt von wegen nicht lieferbar usw. usw. Preis zu hoch. Schrott Design des Kühlers usw.
Hab ich da was verpasst? Das galt doch exakt genauso so für die 3060?
Hatten vermutlich einige gehofft daß die Karte zumindest für ein, zwei Tage zum UVP erhältlich sein würde (statt ein, zwei Minuten). Frustrierte Leute sind oft recht ungnädig, insbesondere wenn sie sich falsche Hoffnung erlaubt haben.
Hinzu kommt, daß man sich wohl außerdem ein paar % mehr Performance erhofft hatte.
Robot
2021-03-19, 23:05:00
Hatten vermutlich einige gehofft daß die Karte zumindest für ein, zwei Tage zum UVP erhältlich sein würde (statt ein, zwei Minuten). Frustrierte Leute sind oft recht ungnädig, insbesondere wenn sie sich falsche Hoffnung erlaubt haben.
Hinzu kommt, daß man sich wohl außerdem ein paar % mehr Performance erhofft hatte.
Warum sollten Reviewer, die die Karten sowieso geschenkt bekommen frustriert sein und dann nur bei einem Hersteller den Mega Rant bezüglich Lieferbarkeit ablassen?
Robot
2021-03-19, 23:06:58
Kannst du mal verlinken welches Video du meinst? Die kommt überall eigentlich recht gut weg und beim hohen Preis weisen auch alle auf die aktuelle Situation hin.
https://www.youtube.com/watch?v=H0oZPtembDk
https://www.youtube.com/watch?v=AmOp3LLwHmM
https://www.youtube.com/watch?v=R50Nj4qRkrE
https://www.youtube.com/watch?v=5wO2vUZv4zw
https://www.youtube.com/watch?v=oj8SuJ2Mb6A
und und und und....
Opprobrium
2021-03-19, 23:11:43
Warum sollten Reviewer, die die Karten sowieso geschenkt bekommen frustriert sein und dann nur bei einem Hersteller den Mega Rant bezüglich Lieferbarkeit ablassen?
Ist halt der Hersteller der mitten in die Lieferkrise einen mittelmäßigen Hardwarelaunch gelegt hat ;)
davidzo
2021-03-20, 12:13:24
Ich habe auch gerade das Hardware Unboxed-Video gesehen mit dem Vergleich 5700 vs 6700 bei gleicher Taktrate. Die Performance ist fast immer gleich.
Kann es sein, daß die RDNA2-Karten noch nicht so wirklich vom Infinity Cache profitieren, und das wir da noch die ein oder andere Überraschung in Zukunft erleben können (postiv)?
Wie kommst du auf die steile These dass eine 1,8Ghz getakte Karte den gleichen Bandbreitenbedarf wie eine 2,5Ghz Karte hat?
Es ist bekannt dass die 5700XT trotz 448gb/s ziemlich Bandbreitenlimitiert ist. Das wusste auch AMD, sonst hätte man sicher mit der 5700XT richtung 2Ghz und 2080 Level geziehlt.
Mit einer guten karte und guter Kühlung sind 2-2,2Ghz drin, davon wird aber nur ein Drittel in FPS umgesetzt und der Verbrauch steigt exponentiell: https://youtu.be/xYFB3Z0RpLU?t=607
Trotz 96mb IF$ ist der Chip zudem nicht gewachsen im Vergleich zu Navi10, das ist schon ein ziemlich gutes Ergebnis wenn man bedenkt dass gleichzeitig das Featurelevel angehoben wurde (Raytracing) und das PCB durch nur noch 192bit einfacher geworden ist.
Ohne den 192bit Bus wäre man zudem auf 8 oder 16GB festgenagelt. Ersteres würde die RT Performance signifikant einschränken und letzteres wäre einen tick zu teuer für diese Leistungsklasse bzw. gibts dann eine mangelnde Segmentierung zum Highend.
Ich denke der Chip ist schon recht smart umgesetzt, wenn man bedenkt dass man hier lediglich dieselbe Fertigung wie bei NAVI10 zur Verfügung hatte und die Karte in der BOM allgemein billiger herauskommen sollte. +30% Performance und RT, alles beim gleichen Powerbudget, das ist schon ziemlich stark ohne neuen Node.
Das ist fast vergleichbar mit dem außerordentlich großen Sprung den nvidia bei Kepler auf Maxwell hingelegt hat (780ti auf 980ti), das waren ebenfalls 30 bis sogar 40% (wobei teilweise im vram limit von kepler).
Ravenhearth
2021-03-20, 14:29:07
Trotz 96mb IF$ ist der Chip zudem nicht gewachsen im Vergleich zu Navi10
Was meinst du? Navi22 ist wesentlich größer als Navi10 mit 336 vs. 251 mm².
Lurtz
2021-03-20, 20:50:01
Kann mir mal kurz irgendeiner erklären wieso die 6700 XT auf Youtube jetzt so viel SHIT abbekommt von wegen nicht lieferbar usw. usw. Preis zu hoch. Schrott Design des Kühlers usw.
Hab ich da was verpasst? Das galt doch exakt genauso so für die 3060?
Weil AMD nicht liefern kann und zudem die Preise nicht so niedrig wie in der Vergangenheit ansetzt, und so nVidia nicht zwingt, die Preise zu senken. Zu was anderem war AMD für die meisten PC-Spieler ja nie da - nVidias Preise in Schach halten, damit man Geforce kaufen kann. Für einen Großteil der PC-Spieler kommen Radeons grundsätzlich nicht in Betracht.
crux2005
2021-03-21, 03:03:18
AmOp3LLwHmM
"there was never a sticker on..." ;D
dildo4u
2021-03-21, 04:06:56
Weil AMD nicht liefern kann und zudem die Preise nicht so niedrig wie in der Vergangenheit ansetzt, und so nVidia nicht zwingt, die Preise zu senken. Zu was anderem war AMD für die meisten PC-Spieler ja nie da - nVidias Preise in Schach halten, damit man Geforce kaufen kann. Für einen Großteil der PC-Spieler kommen Radeons grundsätzlich nicht in Betracht.
Da fehlen Objekt Features, wenn ihre DLSS Variante kommt könnte schon die nächste Hardware Generation auf dem Markt sein.
https://youtu.be/Z5ItfyGyf58?t=1706
Zusätzlich gibt es Stagnation bei Preis/Performance: https://youtu.be/oj8SuJ2Mb6A?t=1507
Die 6700XT ist Turing selbe Preis Performance wie der Vorgänger Plus RT Hardware.
-/\-CruNcher-/\-
2021-03-21, 09:17:39
Da fängt jemand an Physik zu verstehen ;)
Lurtz
2021-03-21, 12:18:03
Da fehlen Objekt Features, wenn ihre DLSS Variante kommt könnte schon die nächste Hardware Generation auf dem Markt sein.
https://youtu.be/Z5ItfyGyf58?t=1706
Zusätzlich gibt es Stagnation bei Preis/Performance: https://youtu.be/oj8SuJ2Mb6A?t=1507
Die 6700XT ist Turing selbe Preis Performance wie der Vorgänger Plus RT Hardware.
Das gilt aber genauso für nVidia, das sagt er in deiner eigenen verlinkten Quelle sogar selbst :facepalm: Die Frage war wieso die 6700 schlechter abschneidet als die 3060.
dargo
2021-03-27, 09:30:10
ujGYYHu_7_0
Hier sieht man etwas von der Kühlung inkl. dem "Panikmodus".
horn 12
2021-03-27, 09:46:08
und von der 6700 XT Pulse?
Bekomme jene zum Weiterverkauf an Kollege
Wiseman
2021-03-27, 17:46:30
Weil AMD nicht liefern kann und zudem die Preise nicht so niedrig wie in der Vergangenheit ansetzt, und so nVidia nicht zwingt, die Preise zu senken. Zu was anderem war ATi und nun AMD für die meisten PC-Spieler ja nie da - nVidias Preise in Schach halten, damit man Geforce kaufen kann. Für einen Großteil der PC-Spieler kommen Radeons grundsätzlich nicht in Betracht.
+1
War auch mein Eindruck in den letzten zwei Jahrzehnten.
dildo4u
2021-03-27, 17:49:51
Das gilt aber genauso für nVidia, das sagt er in deiner eigenen verlinkten Quelle sogar selbst :facepalm: Die Frage war wieso die 6700 schlechter abschneidet als die 3060.
Nope die 3060 kostet z.b nicht mehr als die 2060, MSRP war 350 in 2019.
https://www.anandtech.com/show/13762/nvidia-geforce-rtx-2060-founders-edition-6gb-review
dildo4u
2021-04-08, 13:57:23
Neues Testsystem mit 5950X und neue Treiber.
iUGppQVpXzU
dargo
2021-04-09, 08:32:43
Die RTX 3070 geht ja richtig ab in Breakpoint @4k.
https://youtu.be/iUGppQVpXzU?t=526
Speichermangel (tritt bei maximierten Details auf).
MfG
Raff
Scoty
2021-04-09, 09:31:25
Hab gestern meine 6700 XT Hellhound bekommen. Mal schauen wie laut und kühl diese wirklich ist. In denn Tests soll diese ja gut sein.
dargo
2021-04-09, 10:46:12
Speichermangel (tritt bei maximierten Details auf).
Natürlich... was denn sonst? :) Vor wenigen Monaten meinte Nvidia noch 8GB sind genug. ;) Fairerweise muss ich dabei sagen, dass eine 3070 zumindest für mich keine 4k Karte ist. Gibts das Problem auch schon vereinzelt in 1440p oder passt es dort noch durchgehend?
Scoty
2021-04-09, 10:48:13
1440p ist kein Problem für eine 3070. Gehört hier aber nicht hin. Gibt auch Nvidia Threads hier.
Natürlich... was denn sonst? :) Vor wenigen Monaten meinte Nvidia noch 8GB sind genug. ;) Fairerweise muss ich dabei sagen, dass eine 3070 zumindest für mich keine 4k Karte ist. Gibts das Problem auch schon vereinzelt in 1440p oder passt es dort noch durchgehend?
Ghost Recon Breakpoint streamt recht auffällig bzw. antiquiert, da ist öfter mal Brei zu sehen, da Texturen zu langsam eingeladen werden. Bei wenig Speicher verstärkt sich das zunächst. Ein echter Zusammenbruch, wie im Video zu sehen, tritt laut meinen Erfahrungen (zuletzt Ende 2020) erst in Ultra HD mit 8 GiByte auf - und mit Nvidia-Karten seltener bzw. weniger heftig als mit AMD-Karten. Mit 6 GiByte wird's hingegen schon in Full HD manchmal eng. Alles, wie gesagt, mit maximierten Details.
MfG
Raff
Scoty
2021-05-20, 09:20:03
Hab meine Hellhound gegen eine Nitro+ getauscht und finde die Nitro+ besser wenn auch in Sachen UV ich eine Gurke erwischt habe.
dildo4u
2022-05-14, 13:35:32
Lg-TcVrh8rA
r3ptil3
2022-05-14, 14:39:44
Die Sapphire Nitro 6750 XT ist in dem Test ja richtig gut.
62-63° bei 1250 RPM.
Bei Guru3d hingegen ist die Kühlleistung der MSI Gaming X besser.
Lehdro
2022-05-19, 18:12:58
Preview Treiber sieht sehr nice (bis zu +12%) aus:
rdBCB4Fm0RY
Nach 10 Jahren Nvidia meine erste AMD Grafikkarte (davor letzte ATI Grafikkarte 5870) gefällt mir die Software von AMD ausgesprochen gut und deren Möglichkeiten. Sehr Nice!!!
Meine 6700 XT läuft schön leise keine Spulenfiepen, einziger mini Kritikpunkt bis jetzt meine Geforce 1080 GTX welche undervoltet ist verbraucht mit den gleichen Einstellungen in APEX Legends etwas mehr Watt, da hab ich mehr bzw. weniger erwartet. Da muss ich noch etwas mehr testen.
Ansonsten negativ für mich aber das wusste ich schon im vorraus:
LG C9 kein freesync nur VRR über (große) Umwege mit Einschränkungen
Quest 2 nur Airlink mit 100 mbps
Jo aber meine Entscheidung gefällt mir, hab ich wieder gut gemacht. :biggrin:
Feine Graka und so winzig!
Ex3cut3r
2022-06-10, 18:35:17
Nja. +50% sind nach 6 Jahren nun wirklich kein Wert, der mich umhaut. Aber gut, wenn du zufrieden bist, alles richtig gemacht. :up:
https://abload.de/img/unbenannt9ajr9.png
Normalerweise wäre es eine min. eine 6800 geworden aber hey ich zahl nicht mehr als die UVP bzw. leicht darüber obwohl ich mehr als Genug Geld hab...schließlich will ich immer mehr^^
Und nach dem die nvidia 4000 Generation neue Rekorde in sachen Watt wohl bringen wird ohne mich.
Für mich über alles:
1. Effizienz ( ist bei dir anders^^mit deinem Effizienz Krüppel^^)
4 Speichermenge
5. Features
6. Preis (Falls über UVP steigt dieser auf)
DrFreaK666
2022-06-10, 19:14:07
...gefällt mir die Software von AMD ausgesprochen gut und deren Möglichkeiten. Sehr Nice!!!...
die Software gefällt mir auch sehr. Keine Ahnung wieso NV das vernachlässigt. Könnte eine KI nicht eine neue Oberfläche basteln? :D
dargo
2022-06-10, 19:45:36
Nja. +50% sind nach 6 Jahren nun wirklich kein Wert, der mich umhaut. Aber gut, wenn du zufrieden bist, alles richtig gemacht. :up:
https://abload.de/img/unbenannt9ajr9.png
Wo hast du das denn ausgegraben? :tongue: Hier hast du mal einen vernünftigen Vergleich.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Dort liegt die RX 6700XT in 1080p schon 73% vor der GTX 1080, in 1440p dürften es dann um die +80% oder gar mehr sein. Dort ist die GTX 1080 leider nicht mehr vertreten.
Meine 6700 XT läuft schön leise keine Spulenfiepen, einziger mini Kritikpunkt bis jetzt meine Geforce 1080 GTX welche undervoltet ist verbraucht mit den gleichen Einstellungen in APEX Legends etwas mehr Watt, da hab ich mehr bzw. weniger erwartet. Da muss ich noch etwas mehr testen.
Beim Navi 22 musste AMD dank nur 40 CUs (Hälfte vom N21) beim Betriebspunkt etwas "Brechstange" anlegen damit der Abstand zum N21 nicht zu groß wird. Das geht dann nur über hohe Taktraten wodurch die Perf/W dann natürlich etwas leidet. Finde einfach den für dich besseren Betriebspunkt heraus. Gepaart mt Undervolting kriegst du diese Karte locker unter 200W ohne Performance zu verlieren.
Gepaart mt Undervolting kriegst du diese Karte locker unter 200W ohne Performance zu verlieren.Bin ich gerade dabei :smile: und das ohne externe Software :biggrin:.
Wow also der Adrenalin Driver ist wirklich mächtig, ich wiederhole mich...^^
aufkrawall
2022-06-10, 20:07:26
Oder er wirkt zumindest so. Bei genauerer Betrachtung jedoch...
jorge42
2022-06-10, 20:11:55
Nja. +50% sind nach 6 Jahren nun wirklich kein Wert, der mich umhaut. Aber gut, wenn du zufrieden bist, alles richtig gemacht. :up:
https://abload.de/img/unbenannt9ajr9.png
Woher ist das Diagramm? Würde mir das mal gerne anschauen
Wo hast du das denn ausgegraben? :tongue: Hier hast du mal einen vernünftigen Vergleich.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Dort liegt die RX 6700XT in 1080p schon 73% vor der GTX 1080, in 1440p dürften es dann um die +80% oder gar mehr sein. Dort ist die GTX 1080 leider nicht mehr vertreten.
Beim Navi 22 musste AMD dank nur 40 CUs (Hälfte vom N21) beim Betriebspunkt etwas "Brechstange" anlegen damit der Abstand zum N21 nicht zu groß wird. Das geht dann nur über hohe Taktraten wodurch die Perf/W dann natürlich etwas leidet. Finde einfach den für dich besseren Betriebspunkt heraus. Gepaart mt Undervolting kriegst du diese Karte locker unter 200W ohne Performance zu verlieren.
Danke
Ex3cut3r
2022-06-10, 20:16:39
TechpowerUp
z.B. https://www.techpowerup.com/gpu-specs/geforce-rtx-3060.c3682
dargo
2022-06-10, 20:18:14
Bin ich gerade dabei :smile: und das ohne externe Software :biggrin:.
Wow also der Adrenalin Driver ist wirklich mächtig, ich wiederhole mich...^^
Na dann viel Spaß dabei. :)
Deine PowerColor RX 6700 XT Fighter müsste sich eigentlich an das Referenzdesign halten, ergo 186W ASIC. Ich denke du müsstest locker 160W ASIC erreichen können, vielleicht sogar 150W oder noch weniger je nach Chipgüte. Dann landest du bei ca. 170-180W für die gesamte Karte. Mit 140W ASIC sind es dann nur noch ~160W für die ganze Karte.
DrFreaK666
2022-07-15, 04:02:05
Kurztest der RX 6700. Test wird folgen
ZI_ljkl_qJw
dargo
2022-07-15, 06:59:55
Sieht gut aus. Bei max. 158W ASIC dürften die 175W für ganze Karte in etwa hinkommen. (y)
DrFreaK666
2022-07-15, 07:15:46
Der Preis bei uns sieht allerdings nicht gut aus
dargo
2022-07-15, 07:20:34
Bei GH ist gerade mal eine Karte gelistet. Das nutzen sicherlich wieder die Händler aus. Einfach wenige Wochen abwarten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.