Archiv verlassen und diese Seite im Standarddesign anzeigen : 8 CPU-Kerne in Games bald von Vorteil?
Campi31
2019-01-23, 09:48:04
Hallo
Es heisst ja immer dass man in Games keinen Vorteil hat ob man nen 8 Kerner hat oder nen 6 Kerner
Jedoch war es doch z.b bevor GTA 5 rauskam auch so dass man sagte dass nen Dualcore reicht aber GTA 5 hat dann doch Profit aus nem 4 Kerner geschlagen.
Denkt ihr dass ide nächsten 4 Jahre nen 6 Kerner reicht oder sollte man doch eher nen 8 Kerner haben?
Ich habe nämlich den ryzen 2700x welcher bei meinem Setup zu heiss wird ...nun habe ich nen 2600 von nem Kumpel eingebaut der wesentlich kühler ist und das trotz 3,9 Ghz allcore bei 1,275 Volt
Wieso wird der zu heiß? Wird der beim Kumpel auch zu heiß?
Lowkey
2019-01-23, 10:00:52
Es gibt immer Ausnahmen. Bei GTA war immer schon ein Quadcore ideal, wobei ein i3 mit 2+2 immer noch ein ausreichender Dualcore war.
https://youtu.be/AsB8MPVnBoY?t=145
Demnach ist ein 8400 dort im Video vor dem 2700x.
https://youtu.be/AsB8MPVnBoY?t=276
Demnach ist die CPU unterhalb der 2080 quasi egal.
https://youtu.be/AsB8MPVnBoY?t=361
Und unter 4k ist immer die Grafikkarte zu schwach.
Kurz: die CPU Leistung ist immer abhängig von der verwendeten Grafikkarte. Ein 9900k bietet zuviel Leistung und eine 2080 Ti ist immer noch zu schwach. Die Idee bei 8+8 oder 6+6 ist das Abfangen von Mini Rucklern. Die ideale CPU wäre ein 9900k ohne HT, da HT und SMT bekanntermaßen einen minimalen, negativen Effekt auf die FPS haben.
dildo4u
2019-01-23, 10:04:06
Der 6 Core ist zur Zeit der bessere Kauf fürs Gameing,z.b verliert der 8700k auch kaum was zum 9900k.
8 Kerne werden interessant wenn 2020 die neuen Konsolen mit Ryzen CPU Raus sind,dann sollten die CPU Anforderungen massiv steigen.
Nightspider
2019-01-23, 10:14:04
Hallo
Es heisst ja immer dass man in Games keinen Vorteil hat ob man nen 8 Kerner hat oder nen 6 Kerner
Jedoch war es doch z.b bevor GTA 5 rauskam auch so dass man sagte dass nen Dualcore reicht aber GTA 5 hat dann doch Profit aus nem 4 Kerner geschlagen.
Denkt ihr dass ide nächsten 4 Jahre nen 6 Kerner reicht oder sollte man doch eher nen 8 Kerner haben?
Ich habe nämlich den ryzen 2700x welcher bei meinem Setup zu heiss wird ...nun habe ich nen 2600 von nem Kumpel eingebaut der wesentlich kühler ist und das trotz 3,9 Ghz allcore bei 1,275 Volt
Nein das heißt es nicht. Das war vor Jahren vielleicht mal der Fall.
Und GTA4 hat enorm von 4 Kernen profitiert. GTA5 profitiert sogar von 6 Kernen und neuere Games haben auch Vorteile bei 8 Kernen.
Wenn dein 2700X also heißer wurde, dann weil er schneller ist und mehr fps gezaubert hat.
Wieso tauscht du also auf einen langsameren Prozessor, nur weil er weniger warm wird?
Bei GTA war immer schon ein Quadcore ideal
Ich wusste gar nicht das GTA3 und älter QuadCores unterstützt hat? :confused: :tongue:
Mich würde aber mal interessieren ob schon GTA4 von 6 echten Kernen profitiert und wenn ja, wie stark.
Thoro
2019-01-23, 10:22:27
Der 6 Core ist zur Zeit der bessere Kauf fürs Gameing,z.b verliert der 8700k auch kaum was zum 9900k.
8 Kerne werden interessant wenn 2020 die neuen Konsolen mit Ryzen CPU Raus sind,dann sollten die CPU Anforderungen massiv steigen.
Warum? Konsolen haben seit der aktuellen Generation 8 Kerne.
HotSalsa
2019-01-23, 10:22:38
Dachte für die Nutzung von mehr als 4 Kernen war die Frostbite Engine immer eine Vorreiter.
dildo4u
2019-01-23, 10:25:16
Warum? Konsolen haben seit der aktuellen Generation 8 Kerne.
Weil Ryzen mit 6 Kerne + HT @4Ghz massiv schneller ist als 8 Jaguar Kerne um 2Ghz.
So lange der PC Port nicht Müll ist sollte man immer vernünftige Performance haben.
SKYNET
2019-01-23, 10:43:28
Weil Ryzen mit 6 Kerne + HT @4Ghz massiv schneller ist als 8 Jaguar Kerne um 2Ghz.
So lange der PC Port nicht Müll ist sollte man immer vernünftige Performance haben.
die ST leistung hat ja nicht viel mit der nutzung der kerne zutun... wenn das game mehr als 4 threads nutzen kann muss man halt min. nen 4C/8T haben, und das steigert sich... ACO nutzt glaube ich volle 16 threads wenn ich mich nicht täusche?
aufkrawall
2019-01-23, 10:50:43
Nope, das macht der NV-Treiber. Diese Unterscheidung überfordert leider viele hier, wahrscheinlich schon in den nächsten Posts...
dildo4u
2019-01-23, 10:51:13
Das Game kann so viele Threads nutzten aber Takt und ST Leistung spielt immer noch eine große Rolle,der 2700X würde ein 9600k in vielen Anwendungen vernichten bei Odyssee sind sie ca gleich auf.
https://youtu.be/-VaGYmQXEjw?t=81
Thoro
2019-01-23, 10:58:49
Weil Ryzen mit 6 Kerne + HT @4Ghz massiv schneller ist als 8 Jaguar Kerne um 2Ghz.
So lange der PC Port nicht Müll ist sollte man immer vernünftige Performance haben.
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
SKYNET
2019-01-23, 11:03:29
Nope, das macht der NV-Treiber. Diese Unterscheidung überfordert leider viele hier, wahrscheinlich schon in den nächsten Posts...
also bei AMD karten nicht der fall?
dildo4u
2019-01-23, 11:04:09
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
Kommt drauf an wie sehr die Entwickler die CPU ausnutzen wollen,ohne massiv besseres Threading kann man Ryzen nicht ausnutzen,da diese CPUs im Gegensatz zu Jaguar SMT haben.
In der Konsole hast du auch den Nachteil das du den Takt nicht wie im Desktop voll ausfahren kannst,wenn ein Game wie Odysee näste Generation mit 60fps laufen soll müssen sie sich was einfallen lassen.
SKYNET
2019-01-23, 11:05:16
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
evtl. auch 12C/12T oder 16C/16T... über die neuen konsolen wissen wir ja derzeit, gelinde gesagt: nix :D
Campi31
2019-01-23, 11:09:50
also den 2700x behalten?
dildo4u
2019-01-23, 11:11:59
Ich würde 8 Kerne erst in 7nm kaufen wenn du solche Probleme mit der Kühlung hast.
SKYNET
2019-01-23, 11:13:06
also den 2700x behalten?
in jedem fall...
und was heisst eigentlich zu heiss?
Thoro
2019-01-23, 11:14:12
evtl. auch 12C/12T oder 16C/16T... über die neuen konsolen wissen wir ja derzeit, gelinde gesagt: nix :D
Das sowieso, aber da 8 Kerne als Minimum gesichert sein dürfte, kann man das ja mal als untere Grenze annehmen.
dildo4u
2019-01-23, 11:14:48
Er hat 83° im 3D Mark CPU Test warum auch immer als wenn sein Sockel nicht genug Druck aufbaut.
SKYNET
2019-01-23, 11:17:24
Er hat 83° im 3D Mark CPU Test warum auch immer als wenn sein Sockel nicht genug Druck aufbaut.
welcher kühler? boxed?
dildo4u
2019-01-23, 11:18:27
Mugen 5.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11898906&postcount=92
SKYNET
2019-01-23, 11:24:09
der sollte eigentlich nen wenig stärker als der boxed sein... evtl. von den gewinde inlays der backplate mal nen halben millimeter runterfeilen um den anpressdruck zu erhöhen.
Campi31
2019-01-23, 11:25:51
der 2600 läuft auf 4 Ghz bei 1,3 Volt.....und kostet 160...die ryzen 2700x könnte ich heute noch für 270 verkaufen ....
Lowkey
2019-01-23, 11:31:24
Tja der Unterschied zwischen 2600 und 2700x bei gleichem Takt dürfte bei Spielen minimal sein. 12 Threads vs 16 Threads nehmen sich nichts. Und wenn ein 3600 im Sommer kommt, dann hätte dieser mehr Mhz und wäre unterm Strich schneller als der 2700x bei Games.
PS: Es geht nur um Games.
Lehdro
2019-01-23, 11:39:14
Mal was anderes:
Wie liest du denn die Temperatur aus? Soweit ich weiß hat der 2700X ein 10°C offset bei der Temperatur, je nach Tool wird das dann entweder falsch oder direkt richtig angezeigt (zB Tctl & Tdie).
aufkrawall
2019-01-23, 11:48:32
also bei AMD karten nicht der fall?
Genau, die dürften in AC: O./Od. kaum mit 6C HTT gegenüber 4C HTT profitieren.
Bezüglich meiner Vorhersage: Siehe dildos Antwort. Er hat es immer noch nicht verstanden, obwohl dargo es im sicherlich schon ein Dutzend Mal sehr eindringlich verklickert hat. :freak:
bnoob
2019-01-23, 11:53:28
Anekdotisch:
Der Wechsel von 1600 @ 3.6 allcore zum 1700 @ 3.6 allcore (mittlerweile höher, aber für den Vergleich war das ideal) hat mit meiner Vega 64 + 10-20% min FPS in NFS 2015 @ 4K gebracht. An den max FPS hat das natürlich nichts geändert.
Die Frostbite Engine spricht schon sehr stark auf Kerne an.
dildo4u
2019-01-23, 11:53:57
Es skaliert mit 6 Kernen auf Vega,die GPU Limitiert dann einfach da PCGH hier mit der hösten Wolkenstufe Bencht.
https://farm5.staticflickr.com/4805/46123567974_0d037b9af6_b.jpg (https://flic.kr/p/2dgMkQA)vegaacodyysee (https://flic.kr/p/2dgMkQA) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/2/
aufkrawall
2019-01-23, 12:00:15
Oder du behauptest das mit den Wolken einfach, weil die Skalierung von ~10% bei 50% mehr Kernen ja eher doch eher als "kaum" bezeichnet werden kann.
Nightspider
2019-01-23, 12:01:00
Es wäre natürlich wirklich eine Möglichkeit den 2700X zu verkaufen und dann kaufst du dir in eine halben Jahr den schnelleren 3600.
ProMhz Leistung ist im Moment noch wichtiger als einen 7. und 8. Core zu haben und in 7nm geht sicherlich auch noch was bzgl. der Effizienz und Übertaktbarkeit.
Lehdro
2019-01-23, 12:14:59
Oder du behauptest das mit den Wolken einfach, weil die Skalierung von ~10% bei 50% mehr Kernen ja eher doch eher als "kaum" bezeichnet werden kann.
NV skaliert auch nicht "besser", schau mal hier: http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/2/#a2
Lowkey
2019-01-23, 12:17:24
Laut der Assassins Creed Grafik lohnt sich das Upgrade von 4 auf 6+6 fast garnicht, wenn es nur 10fps sind. Es sind gut 20% Mehrleistung und dennoch kaum lohnenswert.
Erwartung: 4 Kerne = 100%, 6 Kerne = 150% oder gar 12 Threads = 300%. Realität: bei gleichem Takt simd 12 Threads = 120%
Da muss doch was kaputt sein.
dildo4u
2019-01-23, 12:22:11
Es lohnt sich in dem Sinn da du so näher an die 60fps kommst nicht Jeder hat VRR Displays.
aufkrawall
2019-01-23, 12:33:45
NV skaliert auch nicht "besser", schau mal hier: http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/2/#a2
Es skaliert halt schon mit HTT bei 4C auf Nvidia wesentlich besser.
Da ist offenbar der Sweetspot, was das Auslagern des Overhads in zusätzliche Threads bei der CPU-Nutzung des Spiels bringt. Mit mehr Kernen legt man dann halt bei Nvidia von einem besseren Niveau prozentual ähnlich zu.
Ändert ja nichts daran, dass der NV-Treiber einen großen Teil der Last erzeugt.
basix
2019-01-23, 13:00:03
der 2600 läuft auf 4 Ghz bei 1,3 Volt.....und kostet 160...die ryzen 2700x könnte ich heute noch für 270 verkaufen ....
Ich würde es so machen: 2600 behalten, im Sommer einen 3600 oder 3700 kaufen.
SKYNET
2019-01-23, 14:13:57
Genau, die dürften in AC: O./Od. kaum mit 6C HTT gegenüber 4C HTT profitieren.
Bezüglich meiner Vorhersage: Siehe dildos Antwort. Er hat es immer noch nicht verstanden, obwohl dargo es im sicherlich schon ein Dutzend Mal sehr eindringlich verklickert hat. :freak:
mhhh... verwirrend :upara:
SoTR glaube ich wars, steigen zumindest die min frames mit steigender kernzahl(max frames auch eher nicht, da beim 2600X und 2700X der max takt eh fast der gleiche ist).. aber denke ansonsten stimmt das schon, in 99.9% der games bringen mehr als 4C/8T eher wenig derzeit... aber ist halt schön zu sehen wenn man fette .rar entpackt das es so scheisse flott geht mit 16T ;D
Denkt ihr dass ide nächsten 4 Jahre nen 6 Kerner reicht oder sollte man doch eher nen 8 Kerner haben?
Das wissen wir nicht.
Wir haben nämlich nicht mal ne Ahnung was "reicht" bedeutet.
Ich sags mal mit einem Screenshot aus 2011
https://abload.de/img/star_rulervpco.jpg (http://abload.de/image.php?img=star_rulervpco.jpg)
Wenn man das so aufdröselst, wie Du das angehst, dann würde ich sagen .. schon 2011 haben 12 Threads keine Punkte mehr gebracht.
Eventuell siehst Du da das eigentliche Problem.
Es hängt nämlich gar nicht so sehr an der Hardware, sondern an der Software die Du Dir kaufen wirst.
Deshalb versteh ich auch Dein "bald" überhaupt nicht.
Mein "bald" war nämlich schon 2011 :-)
Und dann gibt es noch die Games, die auch auf Zig-Core-CPUs nur einen einzigen Kern benutzen, und schon stehst Du vor dem gleichen Problem.
VERAMMICH, was hab ich hier 16 Threads mit 4,5Ghz, wenn das Game nur einen davon benutzt ... da bräuchte ich 10 Ghz wenn es geht.
Und auch das "Problem" ist kein neues. Was hilft Dir da eine CPU mit zig Kernen, wenn die einzelnen Kerne nicht Gas geben?
Denn mir z.b. reichen die 20 FPS, die dabei rumkommen nicht :-) Und auch Dein Ryzen (egal ob jetzt 2700 oder 2600) wird dabei leider untergehen.
Und jetzt?
http://abload.de/thumb/attila_2016_05_03_20_u2sty.jpg (http://abload.de/image.php?img=attila_2016_05_03_20_u2sty.jpg)
aufkrawall
2019-01-23, 14:20:10
SotTR ist ja DX12, da gibt es diesen Unterschied zwischen AMD & NV nicht.
Allerdings scheint das Spiel fies viel über die CCX zu schaufeln, wahrscheinlich skaliert CFL wesentlich besser als Ryzen. Wobei man natürlich auch sehr schnell wieder ins GPU-Limit läuft.
=Floi=
2019-01-23, 15:26:53
den ryzen 2700x könnte ich heute noch für 270 verkaufen ....
lass den schmarrn und schlag dir das aus dem kopf. wenn der kühler richtig sitzt, dann sollte alles passen.
Hier willst du wegen einem anderen problem rumdoektern! Das problem ist der kühler und nicht die CPU.
Darkman.X
2019-01-23, 16:16:37
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
Volle 8 Kerne können Spiele in der aktuellen Konsolen-Generation nicht nutzen.
Playstation 4: "Für Spiele standen zunächst sechs der acht Kerne zur Verfügung, die restlichen Prozessoren wurden von dem Betriebssystem reserviert. Ende November 2015 wurde bekannt, dass Sony seit kurzem den Entwicklern auch die Möglichkeit bietet, den siebten Prozessorkern für Spiele zu verwenden. (https://de.wikipedia.org/wiki/PlayStation_4#Technische_Spezifikationen)"
Xbox One: "Spiele konnten zunächst sechs der acht Prozessorkerne verwenden, die restlichen waren für das Betriebssystem und andere Hintergrundprozesse der Konsole reserviert. Anfang 2015 wurde bekannt, dass Microsoft einen Teil des siebten Prozessorkerns (50–80 %) für Spiele-Entwickler freigegeben hat. (https://de.wikipedia.org/wiki/Xbox_One#Basishardware)"
Brillus
2019-01-23, 17:14:44
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
Weil zur Optimierung der Software die Anzahl der HW Threads interessant ist da hat hat PS4 8*1 und ein 4 Kern Rzyen 4*2 also selbe Anzahl. Für die nächste Konsole werden 8 Zen cores erwartet also 8*2 Threads das passt dann zu 8 Kern Desktop CPUs mit auch 8*2 Threads.
gravitationsfeld
2019-01-23, 18:01:07
Nope, das macht der NV-Treiber. Diese Unterscheidung überfordert leider viele hier, wahrscheinlich schon in den nächsten Posts...
Das Endresultat ist halt fuer den Kunden das gleiche, oder nicht?
aufkrawall
2019-01-23, 18:12:19
Wenn die Spielentwickler es nicht anders hinbekommen und sonst dadurch nichts zu Bruch geht, ist das sicherlich eine feine Sache.
Dass AMD fünf Jahre später offenbar nichts Vergleichbares eingebaut hat, wird aber wohl auch nicht den Grund "zu doof dazu" haben.
Rabiata
2019-01-23, 18:17:04
Mir ist schon klar, dass Jaguar und Ryzen von der Single Core Leistung nicht vergleichbar sind. Aber für mich ist nicht schlüssig, warum eine neue Konsolen-Generation jetzt plötzlich den Sprung auf 8-Kern-optimierte Spiele bringen soll, wenn es die 8 Kerne in den Konsolen schon seit PS4/XboxOne gibt.
Die Spiel-Engines sind über die letzten Jahre schon in Richtung Unterstützung von mehr Kernen gewandert. Ashes Of the Singularity (https://www.tomshardware.com/reviews/game-performance-bottleneck-cpu-gpu,5503-2.html) zum Beispiel skaliert auch mit mehr als 8 Cores noch.
Es geht halt nicht von einem Jahr auf das andere, aber die Spielehersteller haben schon einen Anreiz die verfügbaren Kerne auszunutzen.
gravitationsfeld
2019-01-23, 20:17:47
Wenn die Spielentwickler es nicht anders hinbekommen und sonst dadurch nichts zu Bruch geht, ist das sicherlich eine feine Sache.
Dass AMD fünf Jahre später offenbar nichts Vergleichbares eingebaut hat, wird aber wohl auch nicht den Grund "zu doof dazu" haben.
AMD ist eine Hardware-Firma. Andere Philosophie. Die wollen dass der Entwickler die Arbeit macht und ihre Chips optimal ausnutzt.
NVIDIA will dir am liebsten gar nicht sagen, die Abstraktion so hoch wie moeglich halten und dann in ihren Treibern dafuer sorgen dass es optimal laeuft.
Nichts neues seit bestimmt bald 15 Jahren. Aber man muss neidlos anerkennen, dass NVIDIA damit anscheinend besser faehrt.
aufkrawall
2019-01-23, 20:37:25
Oder zumindest fuhr. Die Anzahl der erscheinenden Titeln, die auf AMD-GPUs underperformen, hatte zumindest für 2018 stark abgenommen.
Assassin's Creed steht quasi sinnbildlich dafür. Origins war noch eine Katastrophe, während Odyssey butterweich auf Polaris vs. 1060 läuft:
1OuThl3w3JQ
SKYNET
2019-01-23, 22:27:20
Oder zumindest fuhr. Die Anzahl der erscheinenden Titeln, die auf AMD-GPUs underperformen, hatte zumindest für 2018 stark abgenommen.
Assassin's Creed steht quasi sinnbildlich dafür. Origins war noch eine Katastrophe, während Odyssey butterweich auf Polaris vs. 1060 läuft:
https://youtu.be/1OuThl3w3JQ
ist jemanden die hässliche BQ bei der NV karte aufgefallen? alles farblos und mit nem grauschleier... fast wie die fotos mit nem iphone :freak:
Blediator16
2019-01-23, 22:37:35
ist jemanden die hässliche BQ bei der NV karte aufgefallen? alles farblos und mit nem grauschleier... fast wie die fotos mit nem iphone :freak:
Ne das ist mir auch sofort aufgefallen. Die Aufnahme muss Müll sein. Auf dem Bild sieht man den Unterschied extrem.
https://www.bilder-upload.eu/thumb/222ec3-1548279581.jpg (https://www.bilder-upload.eu/bild-222ec3-1548279581.jpg.html)
dildo4u
2019-01-23, 22:44:05
Hat vielleicht mit dem dynamischen Wetter zu tun hier ist es z.b deutlich satter auf der 2080 Ti.
https://youtu.be/HRoiQvoT4XA?t=91
Blediator16
2019-01-23, 22:48:33
Nein, der Held ist eindeutig schärfer auf dem AMD Bild sowohl der Boden links neben ihm und hinten oben links der Treppenanfang ist ebenfalls schärfer. Das komplette Bild sieht beschissen aus. Ich meine er hatte schon das ein oder andere mal schlechte Aufnahmen.
dildo4u
2019-01-23, 22:51:06
SKYNET meinte die Farbsättigung darauf habe ich mich bezogen,die anderen Details kann man bei Youtube nicht wirklich ausmachen,dazu ist die Kompression viel zu Mies.
SKYNET
2019-01-23, 22:54:59
Ne das ist mir auch sofort aufgefallen. Die Aufnahme muss Müll sein. Auf dem Bild sieht man den Unterschied extrem.
https://www.bilder-upload.eu/thumb/222ec3-1548279581.jpg (https://www.bilder-upload.eu/bild-222ec3-1548279581.jpg.html)
naja, wird beides wohl mit der gleichen software bearbeitet worden sein, von daher sollte das nix machen...
was aber auch auffällt, ist dass der boden bei der NV karte eher matschig aussieht... scheint als ist das LOD deutlich reduziert.
SKYNET meinte die Farbsättigung darauf habe ich mich bezogen,die anderen Details kann man bei Youtube nicht wirklich ausmachen,dazu ist die Kompression viel zu Mies.
korrekt, das ist das was mri als erstes ins auge gefallen ist... der rest siehe oben :)
aufkrawall
2019-01-23, 23:09:58
Hört doch mal mit diesen Schwachsinns-BQ-Vergleichen anhand von YT-Videos auf. Nvidia bescheißt bei der BQ nicht, findet euch mal damit ab... :facepalm:
Alle paar Monate der gleiche Zirkus...
Rooter
2019-01-23, 23:36:27
ist jemanden die hässliche BQ bei der NV karte aufgefallen? alles farblos und mit nem grauschleier... fast wie die fotos mit nem iphone :freak:
Ne das ist mir auch sofort aufgefallen. Die Aufnahme muss Müll sein. Auf dem Bild sieht man den Unterschied extrem.
https://www.bilder-upload.eu/thumb/222ec3-1548279581.jpg (https://www.bilder-upload.eu/bild-222ec3-1548279581.jpg.html)Fehlt da nicht einfach nur AO!? :| Oder ist zumindest geringer?
MfG
Rooter
aufkrawall
2019-01-23, 23:45:50
Ist einfach nur ein falsch aufgenommenes Video, bei dem die Helligkeitslevel-Range falsch konvertiert wurde. Gaanz alter Hut.
Daredevil
2019-01-23, 23:52:17
Zu der Frage poste ich gerne nochmal ein Video von mir aus BFV
-QSF4n3Znk0
Schönes CPU Limit.
Mein Sandy Bridge-E @ 4.6Ghz ist sicherlich nicht der schnellste, aber auch nicht der langsamste. :>
6 Kerne sind imho noch Okay, aber nicht mehr genug.
SKYNET
2019-01-24, 00:40:33
Hört doch mal mit diesen Schwachsinns-BQ-Vergleichen anhand von YT-Videos auf. Nvidia bescheißt bei der BQ nicht, findet euch mal damit ab... :facepalm:
Alle paar Monate der gleiche Zirkus...
frage mich, warum keine seite BQ vergleiche macht, wurden damals ja auch regelmässig gemacht... evtl. NVs fessel NDA?
MadManniMan
2019-01-24, 07:17:43
WAS am Rendering auf einer nV sollte dem so fundamental anderes sein, dass die grundsätzliche Farbdarstellung eine andere wird?
y33H@
2019-01-24, 07:23:36
Es ist BS.
basix
2019-01-24, 07:37:02
Vielleicht die Color Compression? Wenn man es übertreibt mit nicht Lossless Verfahren, würde ich so ein Resultat erwarten. Aber wie immer: Am wahrschenlichsten ist die einfachste Erklärung. Und das ist anscheinend die Videoaufnahme.
Timbaloo
2019-01-24, 09:38:51
frage mich, warum keine seite BQ vergleiche macht, wurden damals ja auch regelmässig gemacht... evtl. NVs fessel NDA?
;D;D;D;D;D;D;D;D;D
w0mbat
2019-01-24, 12:36:37
Es gibt so viele Leute die direkte Vergleiche machen, wenn Nvidia wirklich schlechter oder farbloser aussehen würde, wäre das eine rießen Nachricht die sehr viele Klicks, also Geld, bringen würde.
Wir wüssten davon. Ist mMn einfach nur BS, vor allem wenn man YT Videos vergleicht.
dildo4u
2019-01-24, 12:40:25
Vorallem ist bunter nicht unbedingt korrekter,Samsung stellt seine OLED Handy Display z.b extra Bunt ein damit sie im Laden besonders auffallen.Das hat aber nix mit einer korrekten Farbwiedergabe zu tun,bei Games müsste man den Entwickler fragen welche Sättigung zum Art Design passt.
aufkrawall
2019-01-24, 12:43:59
Quaaatsch. Erstmal macht man korrekte Screenshots, um dann festzustellen, dass es gar keinen nennenswerten Unterschied gibt...
Argo Zero
2019-01-24, 12:52:54
Es gibt so viele Leute die direkte Vergleiche machen, wenn Nvidia wirklich schlechter oder farbloser aussehen würde, wäre das eine rießen Nachricht die sehr viele Klicks, also Geld, bringen würde.
Wir wüssten davon. Ist mMn einfach nur BS, vor allem wenn man YT Videos vergleicht.
Die Farbwiedergabe zwischen AMD und nVidia ist schon anders.
Vom Wechsel meiner Radeon auf die GeForce 1070 durfte ich neu kalibrieren, weil die Farben hinten und vorne nicht mehr stimmten.
Den Effekt hatte ich allerdings auch schon innerhalb der selben Marke mit anderen Grafikkarten und sogar schon bei einem Treiberupdate.
aufkrawall
2019-01-24, 13:09:31
Ich wechsle Grafikkarten wie Unterhosen und hier ist gar nichts mit den Farben anders...
Argo Zero
2019-01-24, 13:13:50
Wenn du so viele Unterhosen hast: Mach mal bitte eine vorher / nachher Messung mit deinem kalibriertem Monitor Profil unter zwei verschiedenen Grafikkarten und poste das Ergebnis :)
aufkrawall
2019-01-24, 13:21:23
Kann ich nicht, seh ich auch nicht als meine Aufgabe.
Es ergibt keinen Sinn, dass ggf. abseits von komischen Bugs es bei Digital-Output in der Hinsicht einen Unterschied geben können soll.
Bei 3D-Rendering sieht es etwas anders aus, aber auch hier gibts zumindest mit SDR-Output nicht einfach irgendwelche Farb-Unterschiede.
unl34shed
2019-01-24, 13:26:21
Gab es bzw. ist bei Nvidia nicht bei HDMI
Ausgabe der Default eine limitierte RGB range? Meine mich da dunkel an was erinnern zu können.
aufkrawall
2019-01-24, 13:45:14
Jup, und für Video gibt es das auch noch extra (völlig bescheuert).
Außerdem kann es TV-Auflösungen geben etc.
Wenn man meint, es gäbe allgemein Unterschiede, sollte man vorher die Rahmenbedingungen geklärt haben.
SKYNET
2019-01-24, 14:22:39
;D;D;D;D;D;D;D;D;D
ja ist doch so? werde wohl mal selber pascal vs. polaris(und evtl. VII) testen müssen. :mad:
SKYNET
2019-01-24, 14:23:58
Wenn du so viele Unterhosen hast: Mach mal bitte eine vorher / nachher Messung mit deinem kalibriertem Monitor Profil unter zwei verschiedenen Grafikkarten und poste das Ergebnis :)
wenn der monitor schlecht genug ist, sieht man halt keine unterschiede... gibt ja genug monitore in der 600€+ klasse, die nichtmal 70% sRGB schaffen :ulol:
Die Farbwiedergabe zwischen AMD und nVidia ist schon anders.
Vom Wechsel meiner Radeon auf die GeForce 1070 durfte ich neu kalibrieren, weil die Farben hinten und vorne nicht mehr stimmten.
Den Effekt hatte ich allerdings auch schon innerhalb der selben Marke mit anderen Grafikkarten und sogar schon bei einem Treiberupdate.
Ooookay...
Als ich vor ~1,75 Jahren von der 390X auf die 1080Ti wechselte,
(hatte davor viele Jahre keine NV Karte)
Bildete ich mir ein, das gleiche festzustellen :|
(davor ist mir nie wirklich ne Veränderung aufgefallen)
Hab den Bildschirm einfach nachgestellt und nicht weiter drüber nachgedacht ...
Betreff "8 Kerne in Games bald von Vorteil?":
(durch die Katzen vergessen worum es ging ^^https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11902158&postcount=60)
Nachdem es schon Spiele gibt die von mehr als 8 Kernen profitieren können (wenn auch nur gering).
Würde ich mal sagen das mehr als 8 Kerne auch jetzt schon vorteilhaft sein können ;)
Also JA, mehr wie 8 Kerne sind auch jetzt schon von Vorteil, wenn man die richtigen Titel spielt.
Aber wie sinnvoll, oder ab wann notwendig, sollte jeder für sich selbst entscheiden.
m.f.g. JVC
Warum? Konsolen haben seit der aktuellen Generation 8 Kerne.
Die Jaguar CPU der Current Gen basiert auf 4 Modulen mit jeweils 2x integer Einheiten und 1x FPU. Die FPU rendert die Polygone.
Ryzen basiert auf Cores mit jeweils 1x Integer und 1x FPU.
Ergo können deutlich mehr Polygone gerendert werden weil doppelt so viele FPU vorhanden sein werden.
Laut Gerüchten soll in der Next Gen eine APU verbaut werden die bis zu 3,2ghz boost bietet. Bei der Current Gen ist bei 2,1ghz (PS Pro) is bzw 2,3ghz (One X) schluss.
In der Konsole hast du auch den Nachteil das du den Takt nicht wie im Desktop voll ausfahren kannst,.
Warum das?
unl34shed
2019-01-24, 20:58:31
Jaguar ist nicht Bulldozer!
Darüberhinaus Rendern die FPUs gar nicht, das macht die GPU
Tesseract
2019-01-24, 21:02:09
Die Farbwiedergabe zwischen AMD und nVidia ist schon anders.
ich verweise hier nochmal auf meinen vergleich (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11862821&postcount=33). wenn die farben anders sind, dann stimmt irgendeine einstellung nicht (limited color space, yCbCr vs. RGB etc.)
Vom Wechsel meiner Radeon auf die GeForce 1070 durfte ich neu kalibrieren, weil die Farben hinten und vorne nicht mehr stimmten.
Den Effekt hatte ich allerdings auch schon innerhalb der selben Marke mit anderen Grafikkarten und sogar schon bei einem Treiberupdate.
das farbmanagement in windows ist ein absoluter clusterfuck. damit icc profile funktionieren muss z.B. die option change system defaults>advanced>use windows display calibration im color management an sein. manchmal (z.B. nach updates) ist der menüpunkt an, funktioniert aber nicht. häkchen weg und wieder her und es geht wieder. je nach dem mit was du kalibrierst kann es sein, dass das programm einfach diesen punkt neu setzt beim profil erstellen und es deswegen danach anders aussieht obwohl sich das neue profil kaum vom alten unterscheidet.
gravitationsfeld
2019-01-24, 21:22:16
Ich wechsle Grafikkarten wie Unterhosen und hier ist gar nichts mit den Farben anders...
Ich hab hier 16 GPUs rumliegen. NVIDIA Kepler, Maxwell, Pascal, Volta & Turing. AMD GCN 1-5.
Es gibt keine unterschiedlichen Farben.
w0mbat
2019-01-24, 21:39:07
Gab es bzw. ist bei Nvidia nicht bei HDMI
Ausgabe der Default eine limitierte RGB range? Meine mich da dunkel an was erinnern zu können.
Bei AMD ist YCbCr 4:2:2 der Standard.
x-force
2019-01-24, 21:52:41
8 kerne und farbdarstellung, oder der einfluß präkolumbischer kulturen auf die rotation des mondes, nur ganz speziellen menschen erschließt sich der zusammenhang.
aufkrawall
2019-01-24, 22:11:34
Bei AMD ist YCbCr 4:2:2 der Standard.
Nö, das hängt vom Anzeigerät ab. Zumindest meinen das einige User bei Reddit:
https://www.reddit.com/r/Amd/comments/78p6ve/is_there_any_a_particular_reason_why_amd_does_not/
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.