PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 24. September 2021


Leonidas
2021-09-25, 08:19:11
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-september-2021

GerryB
2021-09-25, 08:34:20
So einen "vermutlich-Bullshit Artikel" kann eigentlich nur ein Nichtbesitzer von RDNA2 verzapfen.

Auch RDNA2 läuft in 4k-60fps extrem sparsam. (StrangeBrigade habe ich leider net)
Weils um VLK geht, mal SecondExtinction als Bsp mit meiner 6800nonXT.

Und zusätzlich mal eine 6900@UVen mit 200W asic im TS.(wenn da ne Ampere rankommt, wärs schon erstaunlich)
(200W asic sind ca. 235W gesamt)
Der Sweetspot beim 6900@UVen liegt dann ca. bei 150W asic = ca. 175W gesamt.(und z.Vgl. Ampere bei PCGH)
(die Stockwerte@TS sind sicher noch sehr ungünstig, wäre mal interessant wieviel Ampere@UVen rausholen kann)

Leonidas
2021-09-25, 09:06:31
Moment, die Aussage von RDNA2 ist spekulativ und nicht von CapFrameX, sondern von mir. Zudem basiert jene auf den gestern ausgebreiteten TPU-Messungen. "Bullshit" würde ich das angesichts der vorhandenen Datenbasis nicht nennen.

Vielmehr tastet man sich gerade an das Thema heran. Dass dabei anfänglich auch mal falsche Schlüsse gezogen werden oder aber man in Sackgassen rennt, ist vollkommen normal. Wie oft habe ich eigentlich in den 2 News hierzu drauf hingewiesen, dass man mehr Benchmarks braucht?

Denniss
2021-09-25, 09:12:01
Wurde bei den "Messungen" eigentlich wirklich der Verbrauch gemessen oder nur per Software ausgelesen? wir wissen ja alle wie zuverlässig solche Software arbeitet.

tm0975
2021-09-25, 10:10:20
Der Teil des Artikels zum Stromverbrauch ist aus meiner Sicht leider unbrauchbar, denn die Effizienz ist ohne die tatsächlich anliegenden FPS, die temporär niedriger sein können, nicht ermittelbar.

GerryB
2021-09-25, 10:15:59
Moment, die Aussage von RDNA2 ist spekulativ und nicht von CapFrameX, sondern von mir. Zudem basiert jene auf den gestern ausgebreiteten TPU-Messungen. "Bullshit" würde ich das angesichts der vorhandenen Datenbasis nicht nennen.

Vielmehr tastet man sich gerade an das Thema heran. Dass dabei anfänglich auch mal falsche Schlüsse gezogen werden oder aber man in Sackgassen rennt, ist vollkommen normal. Wie oft habe ich eigentlich in den 2 News hierzu drauf hingewiesen, dass man mehr Benchmarks braucht?

Ich will mal so sagen, das PL auf ca. 50-60% zu senken, ohne zu UVen ist brotlose Kunst bei TPU.(x)
Es muss vielmehr geschaut werden, wie weit die jeweilige Architektur UVtet werden kann in so nem Grenzbereich.

(x) Da machen dann zu hohe Werksvoreinstellungen nen Strich durch die Rechnung.

Ich war z.Bsp. auch überrascht wie gut die 6600xt von Gurdi mit Uven lief.(seine Settings will Er irgendwann noch nachliefern)
(TS mit 100W gesamt; VramOCed)

Iscaran
2021-09-25, 10:37:00
Es kommt für die absoluten Ergebnisse ganz extrem darauf an, wie weit das fps-Limit von der ungebremst erzielten Framerate entfernt ist


Das ist absolut logisch - deswegen wäre es halt EXTREM wichtig die AVG FPS während des Testlaufs anzugeben. So kann man abschätzen wieviel % der Zeit die Karte auch im "limit" war.

298W @166 FPS avg wären 0.557 FPS/W bzw. 1.795 W/FPS
281W @144 FPS (avg) im 144 FPS-Limiter, hiesse die GPU fährt IMMER 144 FPS-Leistung under Verbrauch ist dann 144/281 = 0.512FPS/W (1.951 W/FPS)

Natürlich haben die Karten bei voller Leistung alle einfach ihr TDP/Powerlimit (+- Schwankungen) als Leistung.

Realistischer ist es aber wohl anzunehmen dass die Peak-Performance von 166 FPS nur kurzzeitig gehalten wird und somit die W/FPS für das "Max setting" nochmal deutlich schlechter aussehen würden.
So oder so benötigt man zur korrekten Einordnung der Messungen die Avg. FPS während des Messvorgangs.

Nur liegen diese halt JEDE in ihrem eigenem Performancebereich - weshalb ein "Effizienz"vergleich halt nicht möglich ist.

Auf die Problematik Hardware vs Softwaremessung wurde ja schon eingegangen.
CB hat per Hardware gemessen.

Freestaler
2021-09-25, 11:40:53
Ja, wird spannend. 6800 und 6900xt müssten im 60fps limit ja sich annähern, gleicher chip aufbau, gleicher ram. Die 6900xt sauft aber ca. 1/3 mehr. Komisch das ganze.

necro1970
2021-09-25, 12:28:16
Pardon me, aber das weiß man ohnehin. Oder nicht?
Zuerst geht es um den Einsatzzweck, dann die Bildqualität, dann die gewünschte Refreshrate - und dann holt man sich die passenden 1,2,3,4 oder mehr Monitore die man betreiben will.
Und danach richtet sich auch die Ausbau/Leistungsstufe der Grafikkarte - die man natürlich nicht "auf's letzte Ritzel/schafft das Ganze gerade mal so", sondern mit Reserven auswählt.
Sonst kauft man ja ständig neu (und damit völlig unnötig), weil's von Haus aus zu wenig war.

Im Betrieb stellt man den Framlimiter passend zur Refreshrate des Panel ein.
Denn Rest erledigt gSync/FreeSync. Fertig.

Sofern die Karte richtig dimensioniert ist, läuft sie dann locker lässig, am besten im gerade aktuellen Lieblingsspiel mit 10-50% Reserve nach oben für die nächsten Jahre, gemütlich vor sich hin mit entsprechend wenig Stromverbrauch.
Für die ganz seltenen Fälle wenn sich meine 3090 OC mal wirklich die vollen 480W OC TDP zieht - am Ende doch auch völlig egal, ich "spiele" ohnehin keine Benchmarks (höchstens 2-3 mal zu Beginn, oder um etwaige Frametime Problemen nachzugehen - ansonsten ja reine Zeitverschwendung), und der Vergleich NV/AMD ist allenfalls technisch interessant.

Kraft braucht Kraftstoff. Wer aktuell alles (z.b. reale in Game 100+ Framerates in 4k, 2-3 Monitore) mit nichts will (z.b. mit der TDP einer vor 4 Jahren schon lahmen middrange Karte), am besten auch für den Preis der lahmen Midrange Karte von vor 4 Jahren - ist bei dem Thema/Hobby irgendwie falsch aufgehoben.

Platos
2021-09-25, 14:01:02
Sorry, aber was sind das für realitätsferne Tests :D Die wenigsten Leute spielen alte Spiele oder ähnliches, in denen eine (ihre) Grafikkarte Däumchen dreht.

Normalerweise läuft die GPU sowieso am Anschlag, also diese Tests sind völlig an der Realität vorbei. Meistens ist es eher so, dass die Leute entweder auf hohe Frameraten setzen oder aber auf hohe Grafik. Und in beiden Fällen wird normalerweise die GPU voll ausgelastet.

Und jenachdem wie weit entfernt das Framelimit von der maximal erreichbaren Framerate ist, ist logischerweise die Effizienz dann bei der einen besser, wie bei der anderen. Wer hätte das gedacht :D

Iscaran
2021-09-25, 17:17:42
Sorry, aber was sind das für realitätsferne Tests :D Die wenigsten Leute spielen alte Spiele oder ähnliches, in denen eine (ihre) Grafikkarte Däumchen dreht.

Du solltest nicht von dir auf andere schliessen und sowieso nicht auf die "Masse".

Ich spiel praktisch ALLES mit FPS-Limit @75. Ganz einfach 75 Hz Bildschirm.

Und ich spiel zudem sehr viele ältere Games. Ich glaube nix aus 2021, und fast nix aus 2020...usw.

Finde daher so einen Test schon sehr relevant. Allerdings eben nur als Zusatz zum Max FPS Leistungsvergleich.

iamthebear
2021-09-25, 18:15:26
So wie ich das sehe entsteht bis auf Extremfälle mit 10% Auslastung der niedrigere Stromverbrauch lediglich dadurch, dass die GPU dann eben nur mehr 50% der Zeit läuft.

Wesentlich effizienter wäre es das Powerlimit reduzieren. Dann wird wirklich der Takt abgesenkt, was dazu führt dass die Spannung mitgesenkt werden kann.

Beispiel: Eine 3080 verliert laut CB Review nur 4% Leistung wenn man das Powerlimit um 20% drosselt.

Um im Spiel trotzdem eine fixe Framerate zu garantieren (auch in anspruchsvolleren Gegenden) kann man ja eine variable Renderauflösung wählen.

MadManniMan
2021-09-25, 18:16:09
Normalerweise läuft die GPU sowieso am Anschlag, also diese Tests sind völlig an der Realität vorbei. Meistens ist es eher so, dass die Leute entweder auf hohe Frameraten setzen oder aber auf hohe Grafik. Und in beiden Fällen wird normalerweise die GPU voll ausgelastet.

Ich versuche, meine Grafikkarte möglichst unter um 90 % zu cappen, weil 100 % GPU die Latenzen massiv hochdrehen.

Kleines Beispiel "Raft": Dieses Unity-Spiel kommt so auf ~80 fps in UWQHD mit meiner 3060 und die Latenzen bewegen sich zwischen 35 und 40 ms. Bei gecappten 60 FPS bin ich - wie zu erwarten - bei unter 20 ms mit GPU-Auslastungen deutlich unter 90 %.

iamthebear
2021-09-25, 18:26:04
Hier auch ein Test zu dem Thema bei CB:
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/2/#diagramm-leistungsaufnahme-der-grafikkarte-doom-eternal-1920-1080

Anscheinend schneidet hier AMD besser ab.
Meine Erklärung dazu ist, dass Nvidia bei z.B. 80% Auslastung den Takt bis zum Anschlag hochdreht da ja noch Luft beim Powerlimit ist während AMD nicht in solche Grenzbereiche geht und dann einfach 20% Idle ist.

iamthebear
2021-09-25, 19:13:18
Ich versuche, meine Grafikkarte möglichst unter um 90 % zu cappen, weil 100 % GPU die Latenzen massiv hochdrehen.

Kleines Beispiel "Raft": Dieses Unity-Spiel kommt so auf ~80 fps in UWQHD mit meiner 3060 und die Latenzen bewegen sich zwischen 35 und 40 ms. Bei gecappten 60 FPS bin ich - wie zu erwarten - bei unter 20 ms mit GPU-Auslastungen deutlich unter 90 %.

Hattest du bei den 35-40ms den Ultra Low Latency Mode im Treiber aktiv?

GerryB
2021-09-25, 19:56:43
Ja, wird spannend. 6800 und 6900xt müssten im 60fps limit ja sich annähern, gleicher chip aufbau, gleicher ram. Die 6900xt sauft aber ca. 1/3 mehr. Komisch das ganze.

Wie kommste denn auf die komische Idee?
6800xt mit minGFX=881mV
6900xt mit minGFX=825mV
und gar meine 6800nonXT mit minGFX=793mV

DAS meinte ich mit unpassenden Werksvoreinstellungen bei niedrigen W.(die 6800xt ist seeehr ungünstig)
Natürlich sollte man dann auch in 4k vergleichen, um die Shader auszulasten.
Und sicherlich spielt auch die Gameengine ne Rolle.
In TS wird ne 6800xt net so schnell an ne 6900 rankommen.(oder bei 270W-Limit)

In SoTR mit fps-Limit bin ich sogar unter der minGFX !!!
(kann sein das dann noch TDV greift bei sowenig W und niedrigen Temps)

UND solange nur ein Test von TPU vorliegt, ist Das einfach zu wenig, weil bei 1 Sample auch die ASIC-Qualität des Chips
ne Rolle spielt. (insofern bräuchte man schon 8...10 Samples um ne echte Tabelle ala Launchreviews zu erstellen)

Übrigens ist TPU nur in 1080p (wohl mit RT= ON ???)
Es könnte also gut sein, das ein Teil der Grakas gar net die 60fps geschafft hat.
(oder man hat gar noch DLSS aktiviert ohne Es dazu zu schreiben)
Für mich sind die Werte von TPU absoluter Müll und vermutlich ohne SAM, was in CP2077 garantiert Was ausmacht.
(habe mal mit uralten Werten von TPU ohne SAM vgl., da sind weder Treiber noch rBar/SAM aktuell bei einigen Grakas)

Nazar
2021-09-25, 21:49:51
Warum?
Warum werden hier ständig Äpfel und Birnen miteinander verglichen und eine Aussage daraufhin getroffen, die so nicht verifizierbar ist?
Eine Tabelle wird zu einem bestimmten Spiel eingestellt und mit einem anderne Spiel mit anderen Auflösungen verglichen.
Warum macht man sowas?
Zum einen ist die Aussage irreführend, da nicht sofort für den Leser ersichtlich ist, dass es eben wieder mal Äpfel und Birnen sind, die hier verglichen werden.
Zum anderen verstehe ich nicht, weshalb man sowas machen muss!?
Grund?
Maximale Verwirrung stiften?

Halten wir fest:

1. ein Test mit einem Spiel und einer GPU und nur unter Vulkan
2. Vergleich findet mit 2 anderen Spielen und voneinander abweichenden Auflösungen statt
3. zu den weiteren Einstellungen im Spiel und der GPU ist nichts bekannt oder sofort ersichtlich
4. gibt es keine direkte Gegenüberstellung mit einer Auslotung des maximal möglichen

Nochmal!
Warum macht man sowas?
Und wieder kommt der Verdacht auf, dass hier massiv pro nVidia geworben werden soll.
Ich würde ja gerne etwas anderes schreiben, aber mit der schmalen und ungenügenden Datenlage so eine Behauptung wie in dem Artikel aufzustellen, halte ich für maximal "mutig".

Legendenkiller
2021-09-25, 23:28:26
Jetzt muss man sich mal ein systematischen Test ausdenken um zu zeigen ob sich das verallgemeinern lässt.
Also einen vernünftigen Testsetting zum überprüfen mit klaren Ansagen unter welchen Bedingungen was gemessen wurde.

davidzo
2021-09-25, 23:37:56
Leos Nvidia Bias mal wieder. Ist echt langsam peinlich.

Gerade als CB einen Artikel bringt der genau das Gegenteil zeigt, nämlich das nv Karten mit Framecap erheblich mehr verbrauchen als AMD Karten mit Framecap.

/Locutus oB
2021-09-25, 23:44:17
ich verstehe den artikel zum stromverbrauch überhaupt nicht.
ist es nicht logisch das JEDE grafikkarte weniger strom zieht wenn sie nicht voll ausgelastet ist. warum ist diese erkenntnis neu und einen artikel wert?

Leonidas
2021-09-26, 07:42:11
Wurde bei den "Messungen" eigentlich wirklich der Verbrauch gemessen oder nur per Software ausgelesen? wir wissen ja alle wie zuverlässig solche Software arbeitet.

In diesem Augenblick reine Software. Aber die soll doch in letzter Zeit besser geworden sein?




Leos Nvidia Bias mal wieder. Ist echt langsam peinlich.

Ich dachte, ich bin gemäß einhelliger Meinung pro AMD ???



Ehrlicherweise finde ich einige Kommentare zu dieser News inhaltlich nicht gut gelungen. Wir befinden uns zum Thema des Stromverbrauchs im fps-Limit in einer Findungs- und Herantastungsphase. In dieser bereits endgültige Urteile zu fällen oder aber Testaufbauten für ihre Inperfektion niederzumachen, ist deutlich zu früh. Wir lernen doch jetzt gerade erst bei Try&Error, was sinnvoll ist und was nicht.

Sprich: Man sollte eher darüber reden, welche Erkenntnisse zum Thema und zur besten Meßmethode aus den vorliegenden Messungen sich bereits ergeben. Die Diskussion sollte zielführender sein, wo Verbesserungen bzw. weitere Daten notwendig sind, welchen Tendenzen man nachgehen sollte.

Gast#2
2021-09-26, 11:32:56
Eine RX6800 non XT liegt Stock schon 50-80w unter dem TDP Limit der 3070ti, was sollte die 3070ti da noch herausholen können? Die maximale Leistungsaufnahme zeigt doch nur wie weit Nvidia die Karten vom eigenen Sweetspot weit setzt, um überhaupt Land zu sehen.

Ich sehe bei einer RX6800 non XT übrigens 145w bei 60fps UHD Vsync bei stabilem Undervolt, da kommt eine 3070ti nimmer hin (was eigentlich schon ziemlich peinlich ist, weil die RX6800 auch anderwo schneller ist und die 3070ti im Markt ziemlich teuer, die UVP hat die nie erreicht). Genau deshalb hast sich CapFrame gespart, die Karten direkt zu vergleichen.

UHD und 60fps, was ein Schmarren. Aber wenn man sonst nichts findet eben das Lobgehuddel, am besten noch bei DLSS. UHD dürfte immer im GPU Limit sein.

Ätznatron
2021-09-26, 11:56:34
Ich dachte, ich bin gemäß einhelliger Meinung pro AMD ???



Bitte nimm mich von dieser Einheitsmeinung aus.

Siehe deine eigene Signatur. ;)

Platos
2021-09-26, 12:04:00
Ich denke, das war nicht ganz ernst gemeint von Leonidas :D

Es ist hald immer so. Irgendwem passt was nicht und folglich hat Leonidas dann einen Bias irgendwo. :freak:

Gast
2021-09-26, 12:47:04
Ich dachte, ich bin gemäß einhelliger Meinung pro AMD ???
Lol, "grüner" geht es kaum noch.

MadManniMan
2021-09-26, 13:08:56
Hattest du bei den 35-40ms den Ultra Low Latency Mode im Treiber aktiv?

Jup.

...

Nee, warte, das hat sich ja mit dem Graka-Wechsel zurückgesetzt! Argh! Ich probiere nachher mal!

Gast
2021-09-27, 11:47:23
Wurde bei den "Messungen" eigentlich wirklich der Verbrauch gemessen oder nur per Software ausgelesen?


Software.


wir wissen ja alle wie zuverlässig solche Software arbeitet.

Ja bei Grafikkarten mehr als genau genug, was auch logisch ist, da der Wert zur Steuerung des Turbos verwendet wird.

Aber du kannst dich ja gerne mal bei Igorslab umsehen, da gibt es auch haufenweise reale Messungen, auch mit Framelimitier.

MadManniMan
2021-09-27, 17:43:09
Jup.

...

Nee, warte, das hat sich ja mit dem Graka-Wechsel zurückgesetzt! Argh! Ich probiere nachher mal!

Ultra hat tatsächlich was gebracht. Zwar ist die Varianz bei ~80 fps mit Ultra größer als mit 60 fps Lock selbst ohne Low Latency, aber es fühlt sich doch weit, weit besser an.