PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Reviews für die Tonne? (nVidia-Schwäche unter kleineren CPUs)


Seiten : 1 [2]

blaidd
2021-03-24, 00:34:49
Legion verhält sich komplett komisch mit der Auflösungsskalierung nach unten, selbst mit 50% RS bei 1440p ist die GPU-Auslastung der 6800 noch seltsam hoch und die Performance-Steigerung entsprechend gering. Mit der 720p 25% Keule bekomme ich die Auslastung dann gedrückt.
Wahrscheinlich so eine Art "Hauch von Valhalla" bez. Auslastungsprobleme der GPU (was aber nicht zu verwechseln mit dem schlechten CPU-Limit bei NV ist).

Ja, bei einigen aktuellen Spielen (in gewisser Form auch HZD, RDR2) kostet eine Auflösungserhöhung seltsam wenig Leistung und das auch und sogar bei beiden Grafikkarten-Herstellern und bei sowohl satt ausreichender Speicherbestückung sowie CPU-Performance. Irgendwas anderes geht da auch noch ab... vielleicht irgendwelche (Speicher-)Latzenzen? Ich bin z.B. immer noch oft baff, was SAM zumindest in niedrigen Auflösungen (also dann auch bei vergleichsweise hohen Fps bzw. kurzen Frametimes und damit umso wichtigeren Zugriffszeiten) tendenziell so bringen kann...

dildo4u
2021-03-26, 11:17:51
Weitere Overhead Tests mit Intel 9400f,Ryzen 5 1400 vs Zen 3.


G03fzsYUNDU

dargo
2021-03-26, 11:37:13
Zu geil... Polaris 20 vor GA102. ;D

https://abload.de/img/hu2kj0f.jpg

Warum Nvidia wohl so lange nichts von D3D12 wissen wollte? :uponder: ;)

vinacis_vivids
2021-03-26, 11:59:17
Async Compute ist die "secret sauce" aus der CPU mehr GPU-Leistung rauszukitzeln.
Nvidia`s Hardware ist einfach in vielen Aspekten technologisch einfach veraltet.

dildo4u
2021-03-26, 12:03:42
Das scheint an der rotzigen MS API zu liegen, Red Dead 2 rennt mit Vulkan vollkommen Ok auf meinen Ryzen 2600 + 1070 System mit 100fps+.
Vermutlich auch der Grund warum die PS5 manchmal die dickere Xbox schlägt.


i3 plus RTX 3080 100fps+.

https://youtu.be/FjZ9j49U5xo?t=392

dargo
2021-03-26, 12:36:46
Das scheint an der rotzigen MS API zu liegen...
Die dildo Logik schlägt wieder zu. :facepalm:

aufkrawall
2021-03-26, 12:57:43
Sie können bei Vulkan mit 4770k und 9400F in RDR2 und RSS jedenfalls keine AMD-Schwäche feststellen, eher einen minimalen Vorteil gegenüber NV.

BlacKi
2021-03-26, 13:56:18
es widerspricht allerdings der these von HU das daran dinge in HW schuld sind.

und auch, das nv eine low lvl schwäche hätte. da es mir an weiteren daten fehlt, würde ich die schuld genauso dx12 geben, oder etwas, was damit zu tun hat.

falls das in zukunft öfter zu einem limit wird, könnte nv marketshare die entwickler eher in richtung vulkan schielen lassen. full of win.

aufkrawall
2021-03-26, 14:02:48
Ja, da hatten sich HU anfangs definitiv zu weit aus dem Fenster gelehnt. Hätte ihnen sofort klar sein müssen, dass das ein DX12-Kuriosum ist.
Nur wieso sollte es die Schuld von DX12 sein, wenn NV langsamer als AMD ist? Es war nun wirklich lange genug Zeit, Hardware und Treiber darauf zu optimieren.
Und in letzter Zeit scheinen kaum noch AAA-Spiele auf Vulkan zu setzen. Von der Erkenntnis, dass es mit Vk besser liefe, hat der NV-Nutzer nichts...

-/\-CruNcher-/\-
2021-03-26, 14:10:28
Async Compute ist die "secret sauce" aus der CPU mehr GPU-Leistung rauszukitzeln.
Nvidia`s Hardware ist einfach in vielen Aspekten technologisch einfach veraltet.

Tensor Cores kompensieren das locker

ich würde allem zustimmen was du sagst wären wir noch bei Pascal sind wir aber nicht mehr

BlacKi
2021-03-26, 14:30:47
ein DX12-Kuriosum.
Nur wieso sollte es die Schuld von DX12 sein, wenn NV langsamer als AMD ist? Es war nun wirklich lange genug Zeit, Hardware und Treiber darauf zu optimieren.
ausschlussverfahren? es ist ein dx12 kuriosum, so wie du es schon gesagt hast.

aufkrawall
2021-03-26, 14:42:54
Nö, es ist ein NV-DX12-Kuriosum.

-/\-CruNcher-/\-
2021-03-26, 14:49:05
Das dort was laufen muss das weiss man seitdem Microsoft immer Nvidia vorschiebt irgendwas als erster zu präsentieren das hat schon mit Forza (erinnern wir uns Nvidia präsentiert als erster DX12 support) damals angefangen, wie gesagt das machen sie nicht umsonst.
Dann die ganzen WDDM anpassungen die fielen auch extremst auf und die ganzen Probleme die daraus entstanden.
Relativ selten kommt AMD zu wort dafür arbeitet man im Background der Konsolen extreme miteinander und tauscht auch personal aus

Blediator16
2021-03-26, 15:29:27
ausschlussverfahren? es ist ein dx12 kuriosum, so wie du es schon gesagt hast.

Bei AMD dann wohl ein DX11 Kuriosum?

Das dort was laufen muss das weiss man seitdem Microsoft immer Nvidia vorschiebt irgendwas als erster zu präsentieren das hat schon mit Forza (erinnern wir uns Nvidia präsentiert als erster DX12 support) damals angefangen, wie gesagt das machen sie nicht umsonst.
Dann die ganzen WDDM anpassungen die fielen auch extremst auf und die ganzen Probleme die daraus entstanden.
Relativ selten kommt AMD zu wort dafür arbeitet man im Background der Konsolen extreme miteinander und tauscht auch personal aus


Den Aluhut mal etwas lockern. Sitzt scheinbar zu fest :)

Lehdro
2021-03-26, 15:37:24
Bei AMD dann wohl ein DX11 Kuriosum?

Falls ernstgemeint: Intel hat dazu was schönes rausgearbeitet (https://software.intel.com/content/www/us/en/develop/articles/performance-methods-and-practices-of-directx-11-multithreaded-rendering.html).

-/\-CruNcher-/\-
2021-03-26, 18:40:33
Falls ernstgemeint: Intel hat dazu was schönes rausgearbeitet (https://software.intel.com/content/www/us/en/develop/articles/performance-methods-and-practices-of-directx-11-multithreaded-rendering.html).

AMD hat hier auch ordentlich aufgeholt jetzt muss man schauen und exakt verstehen wo genau wer was aufgeholt hat und wo wer was angefangen hat zu kompensieren.

Die GPU ist eine sehr komplexe angelegenhait die wie gesagt Multipurpose abdeckt eine Frage der Balance.

w0mbat
2021-03-26, 18:46:38
Nvidias Treiber sind schon seit ein paar Jahren völliger Softwaremüll, die müssten wirklich einen komplett neuen Treiber von Null aufbauen um eine Chance gegen die super optimierten AMD-Treiber zu haben.

Ich weiß auch nicht was die dort machen. Wahrscheinlich stecken sie einfach die meisten Zeit in CUDA oder RTX, da ist Nvidia ja weit voraus. Nur bringt das nen Scheiß, wenn man einfach nur normale games zocken will.

BlacKi
2021-03-26, 18:47:50
Bei AMD dann wohl ein DX11 Kuriosum?



nein. es gibt dort spiele die erheblich besser auf amd laufen als auf nv karten. aber kennst du ein spiel das auf dx12 mit nv besser im cpu limit läuft?

Cubitus
2021-03-26, 18:47:53
Nvidias Treiber sind schon seit ein paar Jahren völliger Softwaremüll, die müssten wirklich einen komplett neuen Treiber von Null aufbauen um eine Chance gegen die super optimierten AMD-Treiber zu haben.

Ich weiß auch nicht was die dort machen. Wahrscheinlich stecken sie einfach die meisten Zeit in CUDA oder RTX, da ist Nvidia ja weit voraus. Nur bringt das nen Scheiß, wenn man einfach nur normale games zocken will.

Lol deinen Beitrag kann man auch als Müll bezeichnen :freak:
SCNR... das war einfach eine Steil-Vorlage xD

Aber ernsthaft, wenn AMD meint als Standard eine Textur-Filterung des Todes einzubauen, weiß ich nicht ob das Wort Optimierung richtig verstanden wurde..
Joa Nvidia hat viel in DLSS und in RTX gesteckt, stimmt schon.. --> AMD hat dagegen seine Treiber optimiert + die GUI Überarbeitet RespekT! Geiler Mehrwert undzo. :freak:;D

aufkrawall
2021-03-26, 18:48:49
AMD hat hier auch ordentlich aufgeholt
Geht so, mit DXVK erreicht man häufig höhere 1% low fps im CPU-Limit und glattere Frametimes im GPU-Limit vs. natives AMD D3D11.
Das ist mit Nvidia höchstens in einzelnen Ausnahmefällen so, wenn überhaupt.

w0mbat
2021-03-26, 18:51:12
Lol deinen Beitrag kann man auch als Müll bezeichnen :freak:
SCNR... das war einfach eine Steil-Vorlage xD

Aber ernsthaft, wenn AMD meint als Standard eine Textur-Filterung des Todes einzubauen, weiß ich nicht ob das Wort Optimierung richtig verstanden wurde..
Getroffene Katzen bellen, oder so :D

Cubitus
2021-03-26, 18:59:29
Getroffene Katzen bellen, oder so :D

:biggrin:

Ich hab meinen Beitrag noch ergänzt...

Naja prinzipiell muss man AMD schon zugestehen das die aktuelle Genration wirklich sehr gut geworden ist, eine 6900XT ist bei RT in 1080p schon ziemlich gut und bei vielen Games auf Augenhöhe oder stärker als eine gehypte 3090 RTX ..
Und der AMD Treiber, der zwar ausschaut wie ne Kirmes Bude, hat sich gegenüber dem Catalyst von vor ein paar Jahren deutlich verbessert und ist auf dem gleichen Level wie der Nvidia Treiber..

Was ja auch gut ist, Konkurrenz belebt das Geschäft.. Schade nur das es keine GPUs zu kaufen gibt... xD

Iscaran
2021-03-26, 20:31:47
Falls ernstgemeint: Intel hat dazu was schönes rausgearbeitet (https://software.intel.com/content/www/us/en/develop/articles/performance-methods-and-practices-of-directx-11-multithreaded-rendering.html).

Klasse Beitrag! Schöne erklärung für das nVidia "Driver Magic" in DX11.

Deferred Rendering. Da klingelts bei mir. Vor langer langer Zeit, hatte AMD doch mal Probleme mit "Deferred Shading" umzugehen (Ich glaube prominent betroffen war/ist Star Craft 2 davon.

Die Intel-Erklärung ist doch praktisch nahezu Deckungsgleich mit dem Alten Videobefund für den nVidia Driver Overhead aus dem Jahr 2017
https://www.youtube.com/watch?v=nIoZB-cnjc0
Auch der Begriff der "Command list" der direkt im Video selbst ja auch fällt - taucht bei "Intel (https://software.intel.com/content/dam/develop/external/us/en/images/performance-methods-practices-directx-fig7-779912.png) wieder auf.
"By checking the GPU driver support for DirectX 11 multithreaded rendering features3 (see Figure 7) through the DirectX Caps Viewer, we learn that the NVIDIA GPU driver supports driver command lists, while the AMD GPU driver does not support them."

Der Deferred Rendering Pfad via command lists, den nVidia hier erfolgreich in DX11 einzusetzen vermag ist auf den GCN Karten auf 1 zusätzlichen Helper Thread limitiert...weswegen das ganze nur bis 1.6x skaliert.
Bei nVidia hingegen bis 3.7x fach.
https://software.intel.com/content/dam/develop/external/us/en/images/performance-methods-practices-directx-fig3-779912.png

Und nein - das ganze Phänomen ist eher eine seltsame nV-DX12 schwäche - ...denn das deferred Rendering ist im Grunde auf DX12 übertragbar.

Diese 20-30% CPU Overhead sieht man aber auch in Vulkan. Nur sind Vulkan Games aufgrund der API insgesamt noch viel weniger CPU-limitiert als DX12 Games. Weswegen es schwerer ist hier Beispiele zu finden - aber es gibt sie ich hab sie hier im Forum schon gepostet.

Allerdings gibt es in DX12 auch einen "nativeren" und einfacheren Multithreading-Weg...
AMD hat dafür schon den Treiber - nVidia halt noch nicht?
Vielleicht ist das eine Erklärung für die sehr auffällige DX12/Vulkan schwäche ?

aufkrawall
2021-03-26, 20:45:58
Diese 20-30% CPU Overhead sieht man aber auch in Vulkan.
Sieht man nicht, Valheim läuft bei PCGH auf potenter CPU gleich schnell und RDR2 bei HU auf dem 4770k ~ebenso.

-/\-CruNcher-/\-
2021-03-26, 20:55:49
Nvidias Treiber sind schon seit ein paar Jahren völliger Softwaremüll, die müssten wirklich einen komplett neuen Treiber von Null aufbauen um eine Chance gegen die super optimierten AMD-Treiber zu haben.

Ich weiß auch nicht was die dort machen. Wahrscheinlich stecken sie einfach die meisten Zeit in CUDA oder RTX, da ist Nvidia ja weit voraus. Nur bringt das nen Scheiß, wenn man einfach nur normale games zocken will.

Naja weit voraus das solltest du nicht beschwören, so weit ist das schon lange nicht mehr.

vinacis_vivids
2021-03-26, 21:29:54
Sieht man nicht, Valheim läuft bei PCGH auf potenter CPU gleich schnell und RDR2 bei HU auf dem 4770k ~ebenso.

Valheim ist auch relativ schwach optimiert und nutzt die GPU-Cores überhaupt nicht aus.
1080p nur max 127-130fps
1440p nur max 110-125fps

Die Unity Engine ist ein krasser Hardwarefresser für eine relativ mittelmäßige Optik. Da ist bspw. the Talos Principle Anno 2014 vom Cro-Team schon auf einem anderen Vulkan-Level.
Andere Engines wie Frostbite, Glacier, Id-Tech hauen mit gleicher Hardware hauen da 200,300 oder gar 400fps raus.

Valheim sieht aus wie ein krasser Technik "brute force" aus längst vergagenen Zeiten. (Gothic 3)

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=163150

Auch wenn hier Vulkan hilft, ist es trotzdem technische Steinzeit.

gedi
2021-03-26, 21:36:49
Sieht man nicht, Valheim läuft bei PCGH auf potenter CPU gleich schnell und RDR2 bei HU auf dem 4770k ~ebenso.

Sorry, aber PCGH als Vergleich heran zu ziehen :confused:

Iscaran
2021-03-26, 22:35:32
Sieht man nicht, Valheim läuft bei PCGH auf potenter CPU gleich schnell und RDR2 bei HU auf dem 4770k ~ebenso.

Doch sieht man wohl. Muss nur eben ein Game sein bei dem man auch in Vulkan ins CPU Limit rennt.
z.B. Ghost Recon Breakpoint:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12626069#post12626069

Und oh wunder, man findet EXAKT diese +19% Treiber-Overhead den man auch in DX12 sieht.

EDIT: Der PCGH-Test von hier (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&url=https%3A%2F%2Fwww.3dcenter.org%2Fnews%2Fhardware-und-nachrichten-links-des-16-maerz-2021&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Fp%3D12626069%26highlight%3DVulkan%23 post12626069)
Ist da leider nicht stichhaltig da man eben NICHT konsequent und nachweislich im CPU-Limit war. Die GameGPU Benchmarkserien sind hier EINDEUTIG.

aufkrawall
2021-03-26, 22:47:32
Ich meine den, ist mit 720p komplett im CPU-Limit:
https://www.pcgameshardware.de/Valheim-Spiel-73202/Specials/Vulkan-CPU-GPU-Benchmark-Test-1367891/

Gleiches gilt für die neuen HU-Tests mit einem 4770k: Weder RSS, noch RDR2 Vk sind mit NV nennenswert langsamer im CPU-Limit. Dass selbiges vorherrscht, legen die ausbleibenden Performancesteigerungen mit den schnellen GPUs 6800 XT und 3080 nahe.

Iscaran
2021-03-26, 22:55:26
Oh ich merke gerade in meinem alten Link, war es die DX11 Version...er schaltet jedes mal das gewählte Setting um beim neuladen. Ist mir nicht aufgefallen gewesen.

Hier nun aber die korrekten Vulkan-Zahlen zu Ghost Recon Breakpoint in 1080p:

GPU-Limit mit 5700 XT ist 71 FPS
GPU-Limit mit 2080 Ti ist 105 FPS

Ryzen 1200 4C4T@3100MHz:

2080 TI @61 FPS
5700 XT@68 FPS => +11%

Ist halt wegen Vulkan ECHT schwer ins CPU-Limit zu geraten...nur beim kleinsten i3 und den kleinen Ryzens sieht man den Effekt.
Und nach Korrektur der Daten, ist der Effekt auch etwas kleiner als in DX12 (11% nicht 19%).
EDIT ein 4770K ist hier halt vermutlich schon "zu schnell"...wie gesagt echt schwer noch ein CPU-Limit zu finden in Vulkan.

aufkrawall
2021-03-26, 23:10:11
EDIT ein 4770K ist hier halt vermutlich schon "zu schnell"...wie gesagt echt schwer noch ein CPU-Limit zu finden in Vulkan.
Die 6800 XT zeigt vs. die 6700 XT exakt 0 Skalierung -> völliges CPU-Limit.
Die gamegpu Vulkan-Werte mit langsamen CPUs tanzen komplett aus der Reihe vs. andere Tests, zumindest mit diesen kompletten Gurken-CPUs.

Iscaran
2021-03-26, 23:53:23
Die gamegpu Vulkan-Werte mit langsamen CPUs tanzen komplett aus der Reihe vs. andere Tests, zumindest mit diesen kompletten Gurken-CPUs.

Wo genau tanzen die Werte aus der Reihe ? Für sich betrachtet sind die Daten schon recht konsistent.

Gipsel
2021-03-27, 09:16:17
Aber ernsthaft, wenn AMD meint als Standard eine Textur-Filterung des Todes einzubauen, weiß ich nicht ob das Wort Optimierung richtig verstanden wurde.Hast Du dazu mal was Aktuelles? Mein letzter Stand ist eigentlich, daß es bei der Filterqualität keine wirklichen Unterschiede gibt (und das schon seit Jahren).

dargo
2021-03-27, 09:45:29
Cubitus wollte nur ein wenig trollen. Oder er lebt noch im Jahr 2007/2008.

aufkrawall
2021-03-27, 12:11:54
AMDs Texturfilterung ist seit Vega unterm Strich besser als Nvidias, erst recht in Standardeinstellungen.

x-force
2021-03-28, 11:21:38
Texturfilterung ist seit Vega gleich gut, ansonsten dürfte es eh keine Unterschiede geben (Ausnahme vielleicht ungares HDR).
Mit temporalem Supersampling wie in vielen aktuellen Spielen zu finden, ist im Grunde aber auch die Texturfilterqualität fast egal.

Edit: Mit Nvidia kann man für DX12 allerdings AF und TrSSAA erzwingen, geht mit AMD nicht.


AMDs Texturfilterung ist seit Vega unterm Strich besser als Nvidias, erst recht in Standardeinstellungen.

sehr glaubwürdig ;D
versuch lieber erst gar nicht abzustreiten, daß du deine welt jetzt durch die rote brille betrachtest, seitdem dein "bro" und du auf amd unterwegs seid...

aufkrawall
2021-03-28, 12:54:04
sehr glaubwürdig ;D
versuch lieber erst gar nicht abzustreiten, daß du deine welt jetzt durch die rote brille betrachtest, seitdem dein "bro" und du auf amd unterwegs seid...
Die Zitate widersprechen sich nicht. Außerdem hatte ich (neben anderen) in der Zwischenzeit rausgefunden, dass Nvidias gefixtes negatives LOD-Bias mit HQ nicht mit Virtual Textuering ohne Fehler funktioniert. Mit Vulkan steht das bessere negative LOD-Bias auch gar nicht zur Verfügung.
Anstatt sinnentleert alte Zitate in einen unsinnigen Zusammenhang zu bringen, hättest du ja auch entweder mal fragen können, oder vielleicht auch den Sabbel gehalten, wenn du schon keine Ahnung hast...

x-force
2021-03-28, 14:04:42
Die Zitate widersprechen sich nicht.

die semantik sieht das anders... krass wie schnell man fanboy wird :freak:

"gleich gut" entspricht definitiv nicht "unterm strich besser".

[...]
versuch bitte nicht die threads komplett zu derailen, ein kleiner lacher zwischendurch schadet nicht, aber das sollte auch im rahmen bleiben:wink:

aufkrawall
2021-03-28, 15:15:06
die semantik sieht das anders... krass wie schnell man fanboy wird :freak:

"gleich gut" entspricht definitiv nicht "unterm strich besser".

AMD filtert in Standardeinstellungen schon ohne negatives LOD-Bias besser, mit negativem LOD-Bias deutlich und NV HQ neg. LOD-Bias ist in Spielen mit virt. Texturing (BF1...) abgeschaltet.
Nvidia ist also standardmäßig schlechter und filtert nicht mal mit hochgesetzter auf Einstellung auf HQ so verlässlich wie AMD.
Jetzt überlegen wir nochmal, wem das Fanboy-Hirn vernebelt ist...

r3ptil3
2021-03-28, 15:33:08
Will mich jetzt nicht dem Argumentationsniveau der letzten Beiträge anschliessen, da diese keinen Spielraum lassen für Mutmassungen, aber erste vBIOS-Version wurden veröffentlicht für Resizable-BAR auf den RTX 3000 GPUs:

https://wccftech.com/nvidia-geforce-rtx-3090-rtx-3080-rtx-3070-rtx-3060-ti-resizable-bar-bios-support/

Dürfte einige Anpassungen an den Ratings der GPUs erfordern, sofern Resizable-BAR als Standard angesehen wird.
Edit: Nicht GPUs sondern CPUs meinte ich.

rentex
2021-03-28, 17:12:05
Da bin ich mal gespannt, was die Garantie bei Gainward dazu sagt...

x-force
2021-03-28, 17:52:15
AMD filtert in Standardeinstellungen[...]
Jetzt überlegen wir nochmal, wem das Fanboy-Hirn vernebelt ist...

es war so klar, daß du dich an den strohhalm klammerst.

die standardeinstellung interessiert einen nur, wenn man eine rote brille auf hat, oder zu doof ist hq af auszuwählen.

ich bin nach wie vor objektiv und wünsche mir sogar, daß amd mal endlich wieder so etwas wie die 9700 pro(r300) aus dem ärmel schüttelt, bei der kein fanboy spitzfindigkeiten formulieren muss, um einen vermeintlichen vorteil zu suggerieren, weil das produkt einfach -egal von welcher seite aus betrachtet- überlegen ist. :cool:

aufkrawall
2021-03-28, 18:02:31
es war so klar, daß du dich an den strohhalm klammerst.

die standardeinstellung interessiert einen nur, wenn man eine rote brille auf hat, oder zu doof ist hq af auszuwählen.

Das, was du nicht zitiert hast, überfordert dich wohl? Du hast mit NV HQ kein gefixtes negatives LOD-Bias in D3D9, Vulkan und wohl auch nicht OGL. In Spielen mit D3D11/12 auch nicht, wenn diese Virtual Texturing nutzen. Da gibt es extra Ausnahme-Profile im Treiber für BF1 oder Evil Within 2, die mit HQ-Filterung dann nur das minderwertige neg. LOD-Bias zulassen.
Bei AMD gibt es diese Probleme nicht, seit Vega filtert es einfach immer in allen APIs mit oder ohne negativem LOD-Bias gleich gut und problemlos...

SKYNET
2021-03-28, 20:07:50
sehr glaubwürdig ;D
versuch lieber erst gar nicht abzustreiten, daß du deine welt jetzt durch die rote brille betrachtest, seitdem dein "bro" und du auf amd unterwegs seid...

ist aber so, bei NV ist treiber default "qualität" was schon derbe abstriche gegen "hohe qualität" ist, und zwar deutlich sichtbar. bei AMD ist hingegen default schon die höchste stufe :redface:

x-force
2021-03-29, 08:20:02
Das, was du nicht zitiert hast

das, was ich nicht zitiert habe ist irrelevant, vom spiel her so beabsichtigt, oder du hast selbst rumgepfuscht...
wenn af korrekt implementiert ist, muss negatives lod flimmern.

ist aber so, bei NV ist treiber default "qualität" was schon derbe abstriche gegen "hohe qualität" ist, und zwar deutlich sichtbar. bei AMD ist hingegen default schon die höchste stufe :redface:

für wen die default settings interessant sind hatten wir schon

Leonidas
2021-03-29, 09:39:29
BtT:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-maerz-2021

https://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i5-9400F.png

https://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i7-4790K.png

][immy
2021-03-29, 10:10:09
BtT:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-maerz-2021

https://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i5-9400F.png

https://www.3dcenter.org/dateien/abbildungen/HWU-FullHD-Medium-Core-i7-4790K.png
Ok, wenn man die Details auf High stellt, sieht es wieder besser aus. Das ist aber ein wenig zu Kurz gedacht. Denn letztlich haben wir dann kein CPU-Limit mehr. Sprich, wenn Spiele mal so weit sind und die CPU-Leistung tatsächlich benötigen, steht bei nvidia Karten weniger CPU-Leistung zur Verfügung.
Aber bis es soweit ist, kann nvidia natürlich noch einiges optimieren.

Gipsel
2021-03-29, 10:55:07
das, was ich nicht zitiert habe ist irrelevant, vom spiel her so beabsichtigt, oder du hast selbst rumgepfuscht...
wenn af korrekt implementiert ist, muss negatives lod flimmern.Außer in Situationen mit Down-/Supersampling. Da will man einen negativen LOD-Bias, der korrekt funktioniert (und dann flimmert es auch nicht).

vinacis_vivids
2021-03-29, 11:05:48
@ ][immy
Woher soll die Optimierung von NV denn kommen? Pascal gibs seit 5 Jahren. Manche haben hier ein krassen Denkfehler zu glauben, dass NV für die alte Hardware plötzlich zaubern kann.

x-force
2021-03-29, 11:17:32
Außer in Situationen mit Down-/Supersampling. Da will man einen negativen LOD-Bias, der korrekt funktioniert (und dann flimmert es auch nicht).

was unter selbst rumgepfuscht fällt ;)

Gipsel
2021-03-29, 11:57:59
was unter selbst rumgepfuscht fällt ;)Aber negativer LOD-Bias flimmert dann nicht (wenn korrekt implementiert).
Und fällt es bei nV unter "selbst rumpfuschen"? Habe mal gehört, AMD setzt dann gegebenenfalls automatisch den negativen LOD-Bias korrekt (wollte nV das nicht auch nachrüsten?). Ist irgendwie schon Jahre her. :rolleyes:
Und es gibt bestimmt einen Thread dazu.

aufkrawall
2021-03-29, 12:23:19
Das machen mittlerweile seit vielen Jahre beide automatisch. :)
Allerdings sollte das nicht nur für Retro-Kram interessant sein, das Prinzip ist mit offenbar mit temporalem Supersampling so ziemlich das gleiche. Wenn Nvidia hier standardmäßig Schrott filtert oder weitere Einschränkungen wie bei Virtual Texturing hat, ist das sicherlich nicht hilfreich dafür, dass Entwickler negatives LOD-Bias korrekt für TSSAA nutzen. :rolleyes:
Siehe auch viele DLSS-Fails in neueren Titeln, die seltsam detailarm wirken...

r3ptil3
2021-03-29, 14:20:22
Der AMD Grafiktreiber hat einen Einfluss auf die CPU-Performance.

Gerade selber getestet:

5600X, 2x16Gb 3600 (identisches System, SAM inaktiv):

RTX 3080:
https://i.ibb.co/cFr6gRP/5600x.png
TimeSpy CPU Score: 9405

RX 6800:
https://i.ibb.co/WyDZFwJ/6800.jpg
TimeSpy CPU Score: 9645


Wenn AMD die Kombination AMD GPU + AMD CPU softwaretechnisch bevorteilt in der Performance, wäre das für mich ein sofortiger Grund alles von AMD abzustossen und direkt auf Nvidia/Intel zu wechseln.

Daredevil
2021-03-29, 14:25:49
Na aber... wenn der Nvidia Treiber so viel Leistung für sich beanspruchen würde, dann wäre doch nicht nur der SC Score bemerkenswert höher, sondern auch der MC Score. ( Weil bei letzterem alles auffällt, selbst wenn der Ryzen Master im Hintergrund läuft. )

SC: +1,7%
MC: +0,6%
Andersrum wäre es deutlich plausibler. Oder?

Der Timespy Wert ist natürlich n dickes Ding.

aufkrawall
2021-03-29, 14:35:10
Der Grafiktreiber sollte überhaupt keinen Einfluss auf CPU-Z haben. :freak:
Wenn doch, dann bremst der NV-Treiber offenbar den Kernel aus o.ä. ...

Time Spy ist D3D12, "natürlich" ist das auf Nvidia langsamer (darüber handelt dieser Thread??).

][immy
2021-03-29, 15:13:23
@ ][immy
Woher soll die Optimierung von NV denn kommen? Pascal gibs seit 5 Jahren. Manche haben hier ein krassen Denkfehler zu glauben, dass NV für die alte Hardware plötzlich zaubern kann.
Bisher spielte es keine Rolle und ist schlicht nicht aufgefallen.
Und unter DX11 sieht es ja noch ganz anders aus. Daher glaube ich nicht das nvidia hier nichts machen könnte und eventuell auch machen wird. Das kommt halt dabei raus, wenn man immer nur die besten CPUs für die Tests einsetzt und die Details schön hoch dreht, da fällt so etwas halt hinten über. Wenn man es aber weiß, kann man ja versuchen das Problem auch wirklich zu beheben.
Aktuell ist es halt so, das Spiele nur sehr selten CPU limitiert sind und wenn dann hängt alles an einem Thread. Die meisten Kerne auf heutigen CPUs ideln ja nur vor sich rum und nur windows sorgt dafür, das die Threads ständig von core zu core wandern und daher auch der Eindruck entsteht, das die gesamte CPU gut ausgelastet ist. Merkt man z.B. dadurch, das zwischen 6-12 Kernen die Leistung zwar nicht wirklich steigt aber die Auslastung der Kerne im schnitt doch relativ gleich bleibt.

r3ptil3
2021-03-29, 15:40:39
Der Grafiktreiber sollte überhaupt keinen Einfluss auf CPU-Z haben. :freak:
Wenn doch, dann bremst der NV-Treiber offenbar den Kernel aus o.ä. ...


Nvidia-Treiber komplett deinstalliert:
https://i.ibb.co/DtMHGkH/3080.png

5 Runs nacheinander ausgeführt, Multi-Thread-Score variiert ein wenig, Single-Thread kommt jedoch nie über 665.

Mit der RX 6800 spickt der Single-Thread-Score sofort über 670, das höchste was ich gesehen habe war kurzzeitig über 680.

Edit: Falsch, Windows hat einen Geforce-Treiber dermassen schnell installiert, dass ich es gar nicht bemerkt hatte.
Nachdem ich mit DDU alles entfernt habe, stieg der CPU-Z-Single-Thread-Score auf 675!

][immy
2021-03-29, 16:28:50
Nvidia-Treiber komplett deinstalliert:
https://i.ibb.co/DtMHGkH/3080.png

5 Runs nacheinander ausgeführt, Multi-Thread-Score variiert ein wenig, Single-Thread kommt jedoch nie über 665.

Mit der RX 6800 spickt der Single-Thread-Score sofort über 670, das höchste was ich gesehen habe war kurzzeitig über 680.

Edit: Falsch, Windows hat einen Geforce-Treiber dermassen schnell installiert, dass ich es gar nicht bemerkt hatte.
Nachdem ich mit DDU alles entfernt hatte, stieg der CPU-Z-Single-Thread-Score auf 675!
Da könnte ich mir höchsten vorstellen, das der nvidia Treiber versucht sich in den Prozess einzuhaken. Das macht ja so keinen Sinn.
Oder es liegt einfach daran, das der im Hintergrund ständig was mitlaufen lässt und daher die Performance etwas geringer ausfällt. Eventuell die Prozessüberwachung etwas zu aggressiv eingestellt.

qiller
2021-03-29, 18:47:54
Nvidia Treiber mit nv-slimmer (https://www.guru3d.com/files-details/nvidia-driver-slimming-utility.html) installiert? Wenn irgendein Hintergrundmüll vom Nvidia-Treiber die CPU leicht belastet, gehen die Scores nach unten. Und da ist mit Zen3 auch häufig stärker der ST-Score von betroffen.

x-force
2021-03-29, 19:22:37
der nv treiber ist mittlerweile die definition von bloatware.
man braucht nur 3(4 mit hdmi audio) von gefühlt über 30 komponenten.

Iscaran
2021-03-29, 19:34:57
Wenn AMD die Kombination AMD GPU + AMD CPU softwaretechnisch bevorteilt in der Performance, wäre das für mich ein sofortiger Grund alles von AMD abzustossen und direkt auf Nvidia/Intel zu wechseln.

Und wie soll das eigentlich gehen? "Softwaretechnisch" bevorteilen?

Außerdem IST es schon seite geraumer Zeit so dass Intel Systeme, nVidia Systeme "softwaretechnisch" bevorteilen...(bzw. AMD CPUs z.B. softwaretechnisch "benachteilt" werden von Intel. Es gab schon zig Beispiel in der Vergangenheit wo AMD-GPUs @Intel CPUs nicht die Leistung erreichten wie @AMD CPUs...

Stichwort: CPU-Spoofind aus AMD mach Intel und plötzlich hat man 20% mehr FPS (weil die Game-DEVs halt irgendeine Standard-Intel-Software-Compiler-Schei***-eingebaut haben die dann "Genuine Intel ausliest" oder eben nicht)

Oder Stichwork Math Kernel Library (MKL)....was da als Handbremse gegenüber AMD-Systemen läuft. Nicht mehr feierlich.
Wechselst du dann sofort wieder zurück von Intel/nVidia auf ...ARM/keine GPU ?

r3ptil3
2021-03-30, 10:50:08
@qiller
Danke! Bringt zwar keine bessere ST-Performance, jedoch läuft der CPU-Z Bench deutlich stabiler, sprich kaum Schwankungen.

@x-force
Genau, gerade nochmals über das erwähnte Tool von qiller angeschaut: unfassbar was da alles installiert wird über die normale Installation, was man nicht braucht.

Ich mag mich noch erinnern wo ein Grafiktreiber noch ein Treiber war (inkl. GUI natürlich), bei einer Downloadgrösse von 30-40Mb. Der aktuelle Geforcetreiber kommt auf rekordverdächtige 646Mb :freak:, das ist die Grösse eines älteren Betriebssystems.

@Iscaran
Gute Frage, vielleicht wäre es doch sinnvoll Nvidia einfach mal drauf hinzuweisen bzw. anzufragen.

Birdman
2021-03-30, 12:40:15
Es gab schon zig Beispiel in der Vergangenheit wo AMD-GPUs @Intel CPUs nicht die Leistung erreichten wie @AMD CPUs..?
Bitte weniger Müll erzählen...


Ansonsten kann ich mir nicht vorstellen dass eine CPU Plattform die GPU Performance aktiv beeinflusst.
Dass allerdings die Grafikkarte, bzw. der Treiber einen Einfluss haben kann, das ist ziemlich sicher - dass hier aber etwas explizit pro oder gegen einen Vendor gemacht wird, das glaub ich nicht.

z.B. könnte ich mir gut vorstellen, dass der nVidia DX11 Treiber explizit auf eine 4-Core+ Ringbus Architektur von Intel optimiert ist - zum einen weil dies dem grössten Prozenzsatz an Gamern was bringt und zum andern weil man damit in Tests am besten dasteht/dastand. (da bis zum Zen3 quasi alle GPU Reviews immer mit Intel Core Plattformen durchgeführt wurden)

MAX|HASS
2021-03-30, 16:36:08
Kann man jetzt die sieben Seiten in einem Satz zusammenfassen?

Heiße Luft oder berechtigt kritisierte Minderleistung in bestimmten Szenarien? Wenn ja, in welchen? Hardware-, API-abhängig?

Lehdro
2021-03-30, 16:39:35
Kann man jetzt die sieben Seiten in einem Satz zusammenfassen?
Unter DX12 wird, je größer das Missverhältnis von CPU zu GPU Leistung im CPU Limit ist, eine AMD GPU immer schneller als eine NV GPU sein, teilweise bis zu 30%.

MAX|HASS
2021-03-30, 19:47:29
Ich bezog mich ja auf meinen Schrieb von vor drei Wochen

Tangiert mich das Ganze mit alter Hardware (i5-4670/1070)? Sitze ich auf einem toten Pferd? Also im Grunde toter, als das Alter des Krempels vermuten ließe? :biggrin:

und gehe daher davon aus, daß ich so gut wie nichts merke, da der ganze Rappelkasten eh langsam eol ist? Behalte das mal im Hinterkopf, wenn es mal was neues gibt, aber im Moment scheint bei mir eh alles am Limit zu radieren, da wird ne rot gefärbte Karte nichts mehr bringen ;). Trotzdem danke.

Iscaran
2021-03-30, 20:17:37
Kann man jetzt die sieben Seiten in einem Satz zusammenfassen?


IMHO:

nVidia GPUs haben je nach API unterschiedlich einen gewaltigen CPU-Overhead, relativ zu AMD-Karten.
DX12: ca 20-30% "CPU-Overhead"
Vulkan: Weniger als DX12 aber aktuell schwer zu schätzen
DX11: ebenfalls ABER der "Overhead" erlaubt es nVidia >2 Kerne in DX11 sauber zu belasten und gleicht damit das ganze wieder aus (Stichwort "driver magic"). Man kann in der Regel deshalb sogar eher einen Vorteil für nVidia feststellen, insbesondere bei SCHLECHT von den Entwicklern Multi-core optimierten Games.
Das gilt aber nicht für alle DX11 Games.
Neuere DX11 games (die auch DX12 supporten ?) scheinen sich eher wie bei nativem DX12 zu verhalten.

MAX|HASS
2021-03-30, 20:39:42
Wird eh Zeit, daß mehrere Spiele Vulkan-only werden. Die paar Beispiele, die ich nur kenne, laufen durch die Bank besser als DX1x.

Linmoum
2021-03-31, 17:20:15
Das hier ist übrigens auch ein schönes Beispiel für NV/DX12 und Treiber-Overhead. Das sind Ergebnisse in 720p! Und sowas ist dann noch mit Grundlage für einen umfassenden Index und soll aussagekräftig sein. Handelt sich um AC: Valhalla.

https://i.gyazo.com/6b9a83140d2e8346d99f6e582de2d40f.png
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/

Vor allem, da PCGH zuvor noch einen separaten Test hatte, wo sie 3090 und 6900XT mit einem 3100 in 720p mit sämtlichen Spielen des Index getestet hatten. P1 lag dort bei der Kombi mit 6900XT in AC:V iirc knapp 25% höher als mit einer 3090.

Bei sowas braucht man sich dann auch nicht über entsprechende Reaktionen von Lesern zu wundern und warum Kritik kommt. Zeitfaktor ja, aber auch vor diesem Hintergrund sollte man eine gewisse Qualität versuchen anzustreben. Zumal man ja erst zwei Wochen vorher einen umfassenden Artikel mit entsprechenden Messungen veröffentlicht hat, der die Problematik in DX12 klar offengelegt hat. Das macht die ganze Geschichte noch unverständlicher.

Lehdro
2021-03-31, 18:16:03
P1 lag dort bei der Kombi mit 6900XT in AC:V iirc knapp 25% höher als mit einer 3090.
Besonders bitter natürlich, weil die 6900XT auch so die schnellste Karte dort ist, auch in 4k (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Leistung-2021-1366846/2/).

Iscaran
2021-03-31, 19:17:12
Bitte weniger Müll erzählen...


Dann erklär mal warum es Spiele gibt die mit einem 5950X 20% schneller laufen als mit dem 11900K

Und wieder welche wo der 11900K gleich schnell oder schneller ist.
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/

Gut - leider nur @RTX3090 gemessen, aber:
Doom Eternal: 5950X ca 10% vorn
F12020: 5950X ca 10% vorn
HZD: gleichstand
Mafia: +10% Ryzen vorn
Planet Zoo: +6% 11900K vorn
Cyberpunk: +10% 11900K vorn
WD Legion: 11900 gleich mit 5950X
Borderlands3: 11900K 12% langsamer
Crysis:remastered: Gleich bzw. 11900 K minimal vorn
Serious Sam4: Ryzen +10% vorn
Witcher3: Ryzen +15% vorn.

HarryHirsch
2021-03-31, 19:20:51
Aber negativer LOD-Bias flimmert dann nicht (wenn korrekt implementiert).
Und fällt es bei nV unter "selbst rumpfuschen"? Habe mal gehört, AMD setzt dann gegebenenfalls automatisch den negativen LOD-Bias korrekt (wollte nV das nicht auch nachrüsten?). Ist irgendwie schon Jahre her. :rolleyes:
Und es gibt bestimmt einen Thread dazu.

das war (ist?) bei sgssaa der fall. ich hatte dazu vor jahren bilder mit bis zu 16x sgssaa gepostet.

Prinzenrolle
2021-04-03, 00:27:24
Die professionellen Hardwaretester haben die Pflicht auch die Laien vor schlechten und überteuerten Käufen zu schützen.


Die meisten Spiele verweigern heute leider 800x600 Pixel einzustellen.
Je niedriger die Auflösung, desto mehr Schutz vor überteuerten Investitionen. Danke für deinen Beitrag, moneysaver.
Ein Blick hinter die Kulissen. Nur Ignoranten daddeln oberhalb 720p.

By the way total überflüssige Diskussion.

AMDs Texturfilterung ist seit Vega unterm Strich besser als Nvidias, erst recht in Standardeinstellungen.

Wo ist Coda, hat der fertig im 3DC?
Aber du liegst falsch, nur mal nebenbei bemerkt.
Harte Beweise bringen bitte, danke.