Archiv verlassen und diese Seite im Standarddesign anzeigen : BF 1 - Battlefield 1/ Hardwaretopic
Karümel
2016-06-09, 19:22:45
Da ja bald es endlich ingame Material gibt, hoffe ich mal das es auch bald Anforderungen zur benötigten Hardware usw. gibt.
Aufgrund es Übersichtlichkeit dazu ein eigenes Topic.
dildo4u
2016-06-09, 19:26:20
Die Specs werden vermutlich lange nicht festen,das sie gearde DX12 einbauen Dice hat es bis Heute nich geschafft ein Game damit zu Patchen.Auch Mirrors Edge 2 kommt mit DX11.1.
Karümel
2016-06-13, 18:43:37
Neben den Monitoren auf der E3 ist ein kleiner "Sticker" oder Zettel mit einem AMD Logo.
Wieder eine Zusammenarbeite zwischen DICE und AMD?
maguumo
2016-06-13, 18:50:39
AMD hat zumindest auch schon ein paar mal zu BF1 getwittert wenn ich mich recht erinnere, aber das muss natürlich nichts heißen.
Karümel
2016-06-13, 19:38:02
Würde mir "reichen" wenn die neuen AMD Karten BF1 gut unterstützen.
War da nicht was mit DX12, also das die kommenden AMD Karten das mehr (besser?) unterstützen als die neuen nVidia Karten?
Karümel
2016-06-26, 18:06:48
Das passt doch eher hier rein:
5Jb5Tvy-n4M
dildo4u
2016-06-26, 18:22:47
Ohne FPS ist das ein normales Gameplayvideo.
Karümel
2016-06-26, 18:54:18
Stimmt schon das kein FPS eingeblendet sind.
Aber 5k mit ner 1080 "flüssig" läuft es (angeblich)
Nightspider
2016-06-26, 19:04:12
"flüssig" kann für Einige mit G-Sync auch 35fps bedeuten. :rolleyes:
Wobei ich aber auch sagen muss das die Grafik leider nicht so einen großen Sprung gemacht hat wie ich erwartet habe. Star Citizen wird da doch noch ein oder zwei Level darüber liegen.
dildo4u
2016-06-26, 19:08:28
Das Game muss auch auf der normalen PS4 mit 60fps laufen.Games wie Mass Effect 4 sollten mehr aus der Engine holen,da das vermutlich nur mit 30fps läuft.
Lowkey
2016-06-26, 19:54:42
Die Benchmarks zu Mirror´s Edge Catalyst basieren auf derselben Engine. Daher erwarte ich einen Bonus für die 1070&1080 bei Hyper Details.
Ansonsten gilt was schon bei den letzten BF Spielen galt: schneller i5 + schneller DDR4.
illidan
2016-06-26, 20:15:12
Wobei ich aber auch sagen muss das die Grafik leider nicht so einen großen Sprung gemacht hat wie ich erwartet habe. Star Citizen wird da doch noch ein oder zwei Level darüber liegen.
Kannst auch die anderen Early Access Cryengine-Spiele mit guter Grafik (KK: D & Wolcen) als Beispiel dafür heranziehen.
Das meinte ich mit 60fps MP Konsolenengine im BF1-Thread. Das wird zwar schön flüssig laufen, vielen Effekten merkt man aber ihre fps-Sparsamkeit ziemlich an.
Die Beleuchtung mit der zerstörbaren Umgebung scheint noch genau so zu failen wie in Battlefront oder BF4, die gleichmäßig zu helle Geröll-Textur unter zerstörten Gebäuden sieht einfach uncanny valley aus. Mit Cryengine SVOGI würd das viel besser aussehen und der AO-only Modus davon kostet auch kaum Leistung. Hätte man das Know How und den Willen, hätte Dice so etwas auch für PC-Spieler bringen können. Mal sehen, obs überhaupt irgendeinen PC-exklusiven Effekt geben wird, oder ob nicht wieder nur Auflösungen, Partikel-Count und Sichtweite die einzigen Verbesserungen sein werden.
Ich persönlich geh davon aus, dass sie es wieder genau wie bei Battlefront machen werden.
Langsam nervt es auch, dass sie bisher keine konkreten Aussagen zu DX12 machen. Erst gibts Mantle, für neuere Spiele dann nicht mehr, dann wolle man nach Möglichkeit Ende 2016 sogar LL-only anstreben, und jetzt hat nicht mal Mirror's Edge DX12.
Karümel
2016-06-26, 20:53:10
Ansonsten gilt was schon bei den letzten BF Spielen galt: schneller i5 + schneller DDR4.
Ich wollte noch auf 16B RAM aufrüsten, für meinen 2500+, also DDR3 RAM. Wußte nicht das schneller RAM doch was bringt bei der Engine.
illidan
2016-06-26, 20:57:03
Ich bezweifle, dass Lowkey einen RAM-Benchmark für Mirror's Edge ober Battlefront zur Hand hat.
Erstmal abwarten, ob das für BF1 so zutrifft wie für BF4.
Karümel
2016-06-30, 13:05:56
https://www.computerbase.de/forum/showthread.php?t=1596279
Ich zocke es momentan in der Closed Alpha in 3440x1440 mit einer 290x mit High/Med Detail flüssig (~70fps).
maguumo
2016-06-30, 13:34:59
Wie bekommt man da eigentlich Zugriff drauf?
Nightspider
2016-06-30, 13:47:15
Ich weiß nicht ob ich mich über niedrige Anforderungen freuen soll oder nicht. Hmmm...
Jupiter
2016-06-30, 16:39:54
Das passt doch eher hier rein:
http://youtu.be/5Jb5Tvy-n4M
Der Typ in dem Video hat echt 5120x2880 mit 4*MSAA in den Ultra-Einstellungen gespielt. Allein das übertrieben eingestellte 4*MSAA wird sehr viel Performance insbesondere in 5k kosten. Dennoch läuft das Spiel dafür gut. Es wird wohl hardwaretechnisch nicht anspruchsvoll werden.
Lowkey
2016-06-30, 17:14:02
Deswegen behaupte ich, dass es auf den Hardwareanforderungen von BF4 basiert. Viel CPU pro Mhz Leistung, 4 Kerne und eine schnelle Grafikkarte. Ja den schnellen Speicher rechnet man zur CPU Leistung. Schaden wird es also nicht, die paar Euro Aufpreis zu zahlen.
Karümel
2016-06-30, 18:48:18
Evtl. gibt es ja bald mehr einige Aussagen bezüglich der Clo. Alpha die jetzt gerade läuft. Spätestens zur Open Beta wird es dann mehr Input geben.
Dies soll j angeblich Ende Sommer (was auch immer das heißen mag) laufen.
TurricanM3
2016-07-01, 14:34:16
Ich hoffe bez. Framedrops gibts bessere Optimierungen. Z.B. das Feuer oder bestimmte Effekte in BF4 haben die fps teilweise auf ein Drittel absinken lassen. Bestes Negativbeispiel ist Operation Firestorm mit viel Flammen.
Wie sieht das bei Battlefront aus? Spiel das jemand mit min. 120fps und kann da was zu sagen?
Jupiter
2016-07-01, 14:39:58
Ich spiele zwar nur mit 60fps aber Battlefront läuft sehr konstant. Die vielen aufwendigen Raucheffekte haben kaum eine Auswirkung auf die Performance. Sonst würde es wohl auch nicht auf der PlayStation 4 so gleichmäßig laufen.
Ich werde es aber mal testen.
TurricanM3
2016-07-01, 14:45:24
Danke, aber muss unbedingt high fps sein, sonst macht das keinen Sinn. Shanghai ist auch so ein Fall nachdem Einsturz, läuft deutlich schlechter dann stellenweise und der Turri heult dann schnell wieder. :freak:
Jupiter
2016-07-01, 14:49:29
Ich werde es nach dem Essen mit möglichst hoher FPS-Zahl testen.
Auf The Division habe ich gerade keine Lust, da ich mich da wieder hereinspielen muss. Außerdem nervt es mich, dass sie dauernd das Ausrüstungslevel erhöhen. Wollen die das jetzt noch Jahre so weiter machen?
Vielleicht bekomme ich aber wieder die Motivation, es zu spielen.
Jupiter
2016-07-01, 17:21:48
Ich merke keine großen Framerateschwankungen, welche durch Explosionen oder Feuer verursacht werden.
Bei Crysis 3 ist das ganz anders.
Wenn du mit 1440p und einer GTX 1080 spielst, sollte das mit 120fps laufen. Falls es nicht reicht, sollten Schatten zurückgenommen werden.
TurricanM3
2016-07-01, 18:39:07
Gar keine harten drops? Das wäre ja zu schön. =)
Auf wie viel gings denn max. runter? Auf jeden Fall danke.
Jupiter
2016-07-02, 00:27:21
Habe gerade Hoth getestet. Es schwankt in Action zu 99,5% zwischen 145 und 122fps. Meist bei ca. 130fps. Wenn vor mir eine Granate explodiert fallen die FPS vielleicht um 3. Trotz der Partikelschatten.
Mal sehen wie es bei anderen Karten ist.
Für Endor gilt das Gleiche. Nur niedrigere FPS. Zwischen 95 und 120fps. Wenn du nicht alles auf das Maximum/Ultra stellst, sollten 120fps problemlos konstant in 1440p gehen.
Endor ist auch grafisch ein anderes Kaliber als das von Battlefield 1 bisher gezeigte. Ich hoffe das sie in Battlefield 1 noch höhere Einstellungen auf Lager haben, so dass es auf einer GTX 1080 Ti gerade so mit 60fps in 1440p läuft.
TurricanM3
2016-07-02, 02:14:57
Das klingt doch mal prima (du hast eine 970 glaube oder?). Danke dir fürs Testen.
Jupiter
2016-07-03, 19:14:59
Ich habe für die 120fps die Auflösung heruntergestellt.
-=Popeye=-
2016-07-05, 22:05:18
Das Testsystem hatte nicht mal ansatzweise Mühe mit BF1. Die Performance stimmt, das Waffenbalance Alpha typisch, mal sehen wie die Beta wird.
Auch meine GTX 980ti Super Jetstream stemmt die 4K mit 58-62FPS auf St. Quentin. Allerdings ohne AO und AA aber TAA aktiv. 16Gb Ram sollten im PC stecken!
1440p stellen in Ultra, 4xMSAA+TAA, AO auf HDAO keine Hürde dar, FPS auf 80+ bei 4440Gb Speicherverbrauch!
Im Multiplayer hab ich auf 1440p, mit 2xMSAA+TAA und AO Aus gespielt, läuft sehr gut.
Das die GTX1080 da mit 4K maxed Out keine Probleme hat wundert mich nicht.
Aber Psss, alles noch Geheim!
Sauber DICE, das wird Super.
Testsystem: Intel Core i7-2600K @4.2 GHz cooled by Corsair H70/-/Asrock P67 Extreme 6/-/16Gb G-Skill Sniper DDR3-1600/-/GeForce GTX 980Ti Super Jetstream/-/Straight Power E9 580W
Quelle (http://extreme.pcgameshardware.de/battlefield/444873-battlefield-1-closed-alpha-die-erste-stunde-koenige-der-luefte-trotzen-dem-sturm.html)
Das Spiel stellt also keine große Herausforderung dar für aktuelle Hardware.
Karümel
2016-07-08, 14:26:18
Battlefield 1 Alpha PS4/Xbox One/PC Graphics Comparison/Frame-Rate Test
s5-6aow_D-g
Karümel
2016-07-08, 17:37:34
Gibt es nirgendwo mal ein paar Benchmarks von der Alpha?
Ja, ich weiß DX12 ist noch nicht drin und es ist ne Alpha. Aber trotzdem :rolleyes:
Troyan
2016-07-09, 01:09:20
Spielt sieht aus wie ein Mod für BF4. :rolleyes:
https://youtu.be/bsvD_g_UsCA?t=233
https://youtu.be/bsvD_g_UsCA?t=164
Jupiter
2016-07-09, 01:18:06
Es sieht natürlich deutlich besser als Battlefield 4 aus. Es ist aber kein Battlefront, was ich mir schon lange denken konnte.
illidan
2016-07-09, 22:30:19
Spielt sieht aus wie ein Mod für BF4. :rolleyes:
https://youtu.be/bsvD_g_UsCA?t=233
https://youtu.be/bsvD_g_UsCA?t=164
Aber wirklich (ohne Ironie):
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Closed-Alpha-Benchmark-1200943/
Schaut euch mal die Screenshots an. Das sieht im Vergleich zu Battlefront einfach nur schlecht aus, wtf ist da los?
Kahle Flächen en masse, ab mittlerer Entfernung sehr viel matschig, fehlerhafte Tesselation, teilweise völlig seltsame oder matschige Texturen, andere wieder hart überscharf...
Nachschärferegler fürs TAA kommt den Vögeln wohl auch immer noch nicht in den Sinn, stattdessen kann man wieder Leistung für MSAA verpulvern...
Jupiter
2016-07-09, 23:24:28
Nachschärfen ist totaler Unsinn. Eine verlorene Information kann nicht wieder hergestellt werden.
Troyan
2016-07-09, 23:30:11
Die "Hand" auf dem einen Bild sieht aus als ob das ein Mutant ist...
Kein Plan, wieso überall von toller Grafik gesprochen wird. Ich finde Dying Light sieht nicht schlechter aus...
illidan
2016-07-09, 23:51:11
Nachschärfen ist totaler Unsinn. Eine verlorene Information kann nicht wieder hergestellt werden.
Laber nicht. Zig Leute finden die Nachschärfe-Option in The Division klasse.
teh j0ix :>
2016-07-10, 09:31:38
Spiele momentan auf dem "High"-Preset und komme mit der GTX 970 auf ~70FPS - die droppen allerdings schon manchmal auf 50 (kann durchaus am VRAM Problem liegen).
Was allerdings richtig gefordert wird ist die CPU. Auf "High" war die tatsächlich der limitierende Faktor anfänglich. Hab den i5-4690K jetzt auf 4,4 GHz laufen und das reicht gerade so aus. Ich denke/hoffe, dass die da noch was optimieren.
Karümel
2016-07-10, 10:04:59
Spiele momentan auf dem "High"-Preset und komme mit der GTX 970 auf ~70FPS - die droppen allerdings schon manchmal auf 50 (kann durchaus am VRAM Problem liegen).
Was allerdings richtig gefordert wird ist die CPU. Auf "High" war die tatsächlich der limitierende Faktor anfänglich. Hab den i5-4690K jetzt auf 4,4 GHz laufen und das reicht gerade so aus. Ich denke/hoffe, dass die da noch was optimieren.
Effekte und Zerstörung hauen also rein.
Könntet Du mal "testen" wie es läuft/ aussieht wenn man diese Sachen runterregelt. Also ob das was bringt?
teh j0ix :>
2016-07-10, 13:18:55
Effekte und Zerstörung hauen also rein.
Könntet Du mal "testen" wie es läuft/ aussieht wenn man diese Sachen runterregelt. Also ob das was bringt?
Hab mal testweise auf "Medium" und "Low" gestellt, CPU-Load verringert sich nicht merklich. Würde mich aber nicht wundern, wenn sich da bis zum Release noch was tut
dildo4u
2016-07-10, 16:04:55
Spiele momentan auf dem "High"-Preset und komme mit der GTX 970 auf ~70FPS - die droppen allerdings schon manchmal auf 50 (kann durchaus am VRAM Problem liegen).
Was allerdings richtig gefordert wird ist die CPU. Auf "High" war die tatsächlich der limitierende Faktor anfänglich. Hab den i5-4690K jetzt auf 4,4 GHz laufen und das reicht gerade so aus. Ich denke/hoffe, dass die da noch was optimieren.
DX12 geht noch nicht sollte die CPU deutlich entlasten.
Karümel
2016-07-11, 18:15:51
Gamestar hat ein bißchen was "gemessen".
Battlefield 1 Closed Alpha - Benchmarks und Systemvoraussetzungen
http://www.gamestar.de/hardware/praxis/technik-check/3275657/battlefield_1_closed_alpha.html
-=Popeye=-
2016-07-19, 19:12:14
Die Russen auch.
http://gamegpu.com/action-/-fps-/-tps/battlefield-1-alpha-test-gpu
Nightspider
2016-07-19, 19:23:38
Sehr geiler Test. Danke!
-=Popeye=-
2016-08-28, 15:58:20
Ft7vbiG9kXI
mjsvIEqeiDg
UerMHr5PsY4
Karümel
2016-08-29, 20:44:37
Hoffentlich kann man aus der Open Beta schon irgendwas halbwegs relevantes "rausmessen" was die HW-Anforderungen betrifft.
Aber irgendwie glaube ich nicht einmal daran das schon DX12 mit drin ist.
Nightspider
2016-08-29, 21:59:32
So lange kein DX12 drin ist kannste du die Benchmarks eh vergessen.
Unter DX12 könnte sich wie bei Doom der Spieß komplett umdrehen. Deswegen finde ich die obigen Videos ziemlich uninteressant. Viele Beta-Spieler haben auch verschiedene Werte beim Resolution Scale drin, was zusätzlich verwirrt. (Hoffe der Wert wird standardmäßig wieder auf 100% gesetzt)
Ich warte auch bis DX12 raus ist bevor ich meinen Freunden eine GTX1060 oder RX480 empfehle.
Am Ende liegt die Fury wieder knapp mit der 1080 gleich auf. ^^
aufkrawall
2016-08-29, 22:04:29
In Doom schwankt das stark. Die 390 rutschte mir im MP trotz Vulkan oft unter 70fps, während die 1070 OC mit OpenGL kaum unter 100 geht.
dildo4u
2016-08-30, 16:57:41
Erste Tests der PCGH:
http://abload.de/img/furyb3s9x.png
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/
Nightspider
2016-08-30, 17:07:31
Der AMD Treiber kommt ja erst morgen.
Wahrscheinlich müssen wir aber wirklich bis zum Release des Spiels warten bis sich sinnvolle Aussagen treffen lassen.
Schnoesel
2016-08-30, 18:00:29
Wahrscheinlich müssen wir aber wirklich bis zum Release des Spiels warten bis sich sinnvolle Aussagen treffen lassen.
This. Bis zum Release vergehen noch einige Tage und DX12 scheint ja noch völlig kaputt zu sein..
Rancor
2016-08-30, 22:10:12
DX 12 scheint überall völlig kaputt zu sein. Bisher konnt eigentlich nur Vulkan in Doom überzeugen. Low Level aufm PC scheint einfach sehr komplex zu sein. Eine einzige Enttäuschung bisher.
Glaube nicht das da Treibermäßig viel geht. An DX 12 muss MS arbeiten und die Spielentwickler. Der Treiber ist ja nur noch sehr dünn bei den LL APIs
-=Popeye=-
2016-08-30, 23:47:32
Battlefield 1 Open Beta - Grafikvergleich, Benchmarks, DirectX 11 vs. DirectX 12 (http://www.gamestar.de/spiele/battlefield-1/artikel/battlefield_1_open_beta,53468,3301876.html)
DX12 kann auch in Battlefield 1 Wunder bewirken. Ich habe gerade eine höchst aufschlussreiche Messreihe an meinem FX-Nano-PC hinter mir, welche a) die bei PCGH gezeigte Performance im Grafiklimit bestätigt und b) gigantische Gewinne im CPU-Limit aufzeigt – allerdings mit holprigeren Frametimes bei Spielbeginn. Die entsprechenden Frameverläufe gehen morgen früh um 10 Uhr bei PCGH live.
MfG,
Raff
Wie versprochen: http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/
Man beachte vor allem die API-/CPU-Messungen (http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/#a4). Mit dem Skylake @ 4,5 GHz ist DX12 immer langsamer. Mit dem FX-8350 (4,0 GHz) hingegen kann DX12 um gute 50 Prozent zulegen. :up:
MfG,
Raff
dildo4u
2016-08-31, 10:30:10
Krass hätte nich gedacht das der DX11 Treiber bei AMD so schlecht ist,ich sehe keine Vorteile von DX12 mit meinem FX 8320 und der 970.
Liquaron
2016-08-31, 10:38:08
Wie versprochen: http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/
Man beachte vor allem die API-/CPU-Messungen (http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/#a4). Mit dem Skylake @ 4,5 GHz ist DX12 immer langsamer. Mit dem FX-8350 (4,0 GHz) hingegen kann DX12 um gute 50 Prozent zulegen. :up:
MfG,
Raff
Tjo und sollte ich mit meinem i3570 nun DX 12 verwenden, oder lieber DX11? ;) Konnte gestern kaum Unterschiede feststellen.
dildo4u
2016-08-31, 10:41:53
Wenn die CPU Last nicht Richtung 100% geht solltest du mit DX11 noch am besten fahren.
Liquaron
2016-08-31, 10:42:38
Wenn die CPU Last nicht Richtung 100% geht solltest du mit DX11 noch am besten fahren.
Wenn ich mein Afterburner auslese sehe ich die CPU aber schon mal gerne Richtung 100% wandern :)
dildo4u
2016-08-31, 10:46:57
Wenn ich mein Afterburner auslese sehe ich die CPU aber schon mal gerne Richtung 100% wandern :)
Interresant das schaffe ich mit meinem FX8320 nicht,jetzt zahlen sich die 8 Cores langsam aus.
Einfach ausprobieren, so viel Zeit kostet es ja nicht, den Schalter umzulegen und das Spiel neu zu starten. :) 100 Prozent CPU-Last klingt aber definitiv so, als könnte DX12 helfen. 8+ Threads FTW. :D
MfG,
Raff
soLofox
2016-08-31, 11:04:42
dildo, es ist beta status und die treiber von nvidia und amd sind überhaupt noch nicht BF1 optimiert.
dildo4u
2016-08-31, 15:38:28
Die PCGH Benches sind jetzt komplett.
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/
BlacKi
2016-08-31, 16:02:43
Interresant das schaffe ich mit meinem FX8320 nicht,jetzt zahlen sich die 8 Cores langsam aus.
nur weil 8kerne nicht komplett ausgelastet sind, heißt das nicht das er schneller ist.
die fx8350 werte bei pcgh sind bei 720p und die 6700k werte mit 1080p und aa. letztere sind zumindest nicht komplett cpu limitiert.
edit: computerbase ebenfalls mit benchmarks https://www.computerbase.de/2016-08/battlefield-1-beta-benchmark/3/#diagramm-battlefield-1-mit-directx-12-1280-720
auch unter 720p mit dem 6700k kein reines cpu limit, sonst würde die 1080 nicht so gut abgehen.
dildo4u
2016-08-31, 17:31:10
Die CB Benches sind echt interessant die 480 geht deutlich besser als die alten AMD Karten im CPU Test.
Liquaron
2016-09-01, 11:50:17
Das Spiel ist ganz schön RAM intensiv, oder?
Hatte glaube ich gestern einen RAM Verbrauch von knapp 6,7 GB. Wird wohl langsam Zeit in 16 GB zu investieren ;)
dildo4u
2016-09-01, 12:01:45
Hab auch erst letzte Woche 16GB für Deus Ex gekauft,ich hab mir gedacht irgendwann läuft die DDR3 Produktion aus und dann wird's Teuer.Damit muss der FX jetzt lange halten,da ich kein Skylake mit DDR3 betreiben will,kann man nur beten das DX12 irgendwann mal was taugt.
Also mir gefällt die Technik atm nicht so sehr. Vorallem die Texturen machen Probleme bzw. verändern sich dynamisch, wenn man näher kommt. Ganz komisch sieht das aus und irgendwie unrealistisch...
dildo4u
2016-09-01, 13:06:22
Meinst du die Tesselation?Das ist vermutlch so aggressiv damit die alten AMD Karten keine Probleme machen.
http://www.gamersyde.com/thqstream_star_wars_battlefront_tessellation-ZXH31eCfXjuptrHp_fr.html
Meinst du die Tesselation?Das ist vermutlch so aggressiv damit die alten AMD Karten keine Probleme machen.
http://www.gamersyde.com/thqstream_star_wars_battlefront_tessellation-ZXH31eCfXjuptrHp_fr.html
Ja aber in BF1 ist das extrem, da ist SW BF nix dagegen! Sieht richtig scheiße aus...
Deathcrush
2016-09-01, 13:51:05
da ich kein Skylake mit DDR3 betreiben will
Was sprich dagegen? http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/16
Betreibe selbst einen Skylake mit ddr3 2133 und der Sprung vom FX6300 zum Skylake war teils enorm. Ich mit meinem Skylake inc DDR3 stehe sicher besser da als du mit deinem FX und nur das zählt.
Btw Warst du nicht einer derjenigen, die anderen immer einen Skylake anstatt eines FX empfohlen haben?
dildo4u
2016-09-01, 14:19:04
Was sprich dagegen? http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/16
Betreibe selbst einen Skylake mit ddr3 2133 und der Sprung vom FX6300 zum Skylake war teils enorm. Ich mit meinem Skylake inc DDR3 stehe sicher besser da als du mit deinem FX und nur das zählt.
Btw Warst du nicht einer derjenigen, die anderen immer einen Skylake anstatt eines FX empfohlen haben?
Ich hab den FX gekauft weil er mich 120€,statt über 300 für eine neue CPU+ Neues Board gekostet hätte.
Wenn das Game in der Lage ist über 8 Cores zu skalieren ist der Unterschied zum skylake ohne HT nicht so groß,das er das doppelte Werte wäre.
Bei Crysis 3,F1 2015 und Witcher 3 ist der FX zumindest besser als der i5 6500,laut PCGH.
VooDoo7mx
2016-09-01, 14:27:41
Also das Spiel lief problemlos auf gelockten 60fps UHD Ultra Preset mit der Titan X (Pascal). Die Grafikkarte war nicht mal großartig am schwitzen und hatte noch deutlich Luft nach oben.
CPU Auslastung habe ich nicht so genau im Auge behalten aber kein Thread hat bei mir die 50% überschritten. 4,4GHz 6 Core 5820K.
Direct X 12? Wayne?
Jo also irgendwie langweilt sich die GPU bei dem Game. Entweder gut programmiert oder das Game ist anspruchslos :ugly:
Liquaron
2016-09-01, 14:48:46
Eine GPU langweilt sich nie, solange es Resolution Scaler und DSR gibt ;)
BlacKi
2016-09-01, 14:57:40
Jo also irgendwie langweilt sich die GPU bei dem Game. Entweder gut programmiert oder das Game ist anspruchslos :ugly:
1080p und 1080 fe. kauf dir mal nen neuen bildschirm bevor du das spiel als anspruchslos bezeichnest... da könnte ich genauso sagen crysis 3 ist mit meiner 970 und 720p anspruchslos..
TurricanM3
2016-09-01, 15:05:26
Also meine GPU langweilt sich nicht (1440p / Ultra). Ich hab noch nie solche Temperaturen gesehen wie in BF1.
1080p und 1080 fe. kauf dir mal nen neuen bildschirm bevor du das spiel als anspruchslos bezeichnest... da könnte ich genauso sagen crysis 3 ist mit meiner 970 und 720p anspruchslos..
Naja geht in dem Fall ja um high FPS und die werden konstant gehalten. Finde ich schon seltsam...
Also meine GPU langweilt sich nicht (1440p / Ultra). Ich hab noch nie solche Temperaturen gesehen wie in BF1.
Bei mir im Verhältnis zu The Division ca. 10 Grad kühler :eek:
BlacKi
2016-09-01, 15:42:41
Naja geht in dem Fall ja um high FPS und die werden konstant gehalten. Finde ich schon seltsam...
es gibt nur 3 fälle:
1. gpu limit
2. cpu limit
3. fps limiter
andere zustände gibts in spielen nicht. welchen zustand beschreibst du nun?
VooDoo7mx
2016-09-01, 16:05:32
Also meine GPU langweilt sich nicht (1440p / Ultra). Ich hab noch nie solche Temperaturen gesehen wie in BF1.
Naja die Last auf der GPU wird mit 1440p @ 144Hz schon höher sein als bei 2160p @ 60Hz.
Und wenn die Temps bzw die Last auf der GPU besonders hoch sind, ist das ein gutes zeichen. Das heißt einfach das die Engine sehr gut ist und alle Einheiten auf der GPU gut auslastet.
Hast du nicht 6950X mit Titan X SLI unter Wasser?
Aktuellisier mal deine Signatur oder Rechnerprofil.
Deathcrush
2016-09-01, 16:16:45
Bei Crysis 3,F1 2015 und Witcher 3 ist der FX zumindest besser als der i5 6500,laut PCGH.
Links? Und ich hoffe bei Crysis 3 doch Ver. 1.3.
dildo4u
2016-09-01, 16:46:08
Im Heft.
Hier die System Anforderungen für die Beta FX 6350 oder 6600k.
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/News/Beta-Systemanforderungen-1206447/
MiamiNice
2016-09-01, 16:49:51
Mein Rechner langweilt sich auch bei dem Game. Keine Drops unter 140FPS auf 2560x1440 mit allem auf max. Deswegen sieht bestimmt die Grafik auch so künstlich aus. Naja, immerhin rennt es wie ne 1.
Liquaron
2016-09-01, 16:50:56
Im Heft.
Hier die System Anforderungen für die Beta FX 6350 oder 6600k.
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/News/Beta-Systemanforderungen-1206447/
Naja doch ein bisl hoch gegriffen.
Also ich erreiche mit meinem i3570k und einer GTX 1070 bei Ultra + 63% Resolution Slider auf einem 21:9 Monitor noch 60-80 FPS.
Aber wie gesagt, da geht meine CPU auch am Limit :)
Jupiter
2016-09-01, 16:53:02
Künstliche Grafik? Was für ein Witz.
Ich kenne kaum ein Spiel welches realistischer aussieht. Gleiches gilt für das Gabiet in Frankreich. Wenn die Spieler aber nur schlechte Monitore haben oder nicht dazu in der Lage sind diese vernünftig einzustellen, können sie es eben nicht besser wissen.
dildo4u
2016-09-01, 16:56:04
Naja doch ein bisl hoch gegriffen.
Nicht unbedingt der AMD Treiber erzeugt unter DX11 eine erhöte Last,mit Nvidia ist man fein raus.
MiamiNice
2016-09-01, 16:56:51
Künstliche Grafik? Was für ein Witz.
Ich kenne kaum ein Spiel welches realistischer aussieht. Gleiches gilt für die Gabiet in Frankreich. Wenn die Spieler aber nur schlechte Monitore haben, können sie es eben nicht besser wissen.
Vielleicht solltest Du mal in meine Sig schauen ... :eek:;D:freak:
ich finde die Grafik sieht sehr plastisch aus, imho gar nicht wie in der Realität.
Denke auch nicht das es damals im WW1 so shiny ausgesehen hat. Es sieht aus wie es Zukunftsshooter im alten Setting.
es gibt nur 3 fälle:
1. gpu limit
2. cpu limit
3. fps limiter
andere zustände gibts in spielen nicht. welchen zustand beschreibst du nun?
Ist doch völlig latte, Fakt ist, dass sich meine GPU langweilt. Bei The Division @ FHD brennt sie wie Feuer :ugly: Ok die Snowdrop Engine ist auch etwas dynamischer... die neue Frotsbite Engine wirkt hingegen etwas zu statisch, was man bereits in SW BF sehen konnte. Insgesamt zwar hübsch aber doch recht statisch!
TurricanM3
2016-09-01, 19:24:56
Ich finde die Grafik sehr sehr genial. Gerade Gebirge etc. sehen imho fantastisch aus.
Mein Rechner langweilt sich auch bei dem Game. Keine Drops unter 140FPS auf 2560x1440 mit allem auf max. Deswegen sieht bestimmt die Grafik auch so künstlich aus. Naja, immerhin rennt es wie ne 1.
Ist deine Signatur veraltet oder hast du am RS gedreht oder sonst etwas gemacht? Oder wie hast du den Test mit stabilen 140fps überhaupt gemessen?
Ich habe schon oft unter 100 bei mir gesehen und in ganz heftigen Situationen auch schon mal kurz Einbrüche auf 7X. So viel langsamer wird meine Möhre auch nicht sein (Karte läuft konstant 2100/5600). :wink:
EDIT:
Gerade mal auf einem leeren Server mit dem Pferd zur Mapmitte:
Frames, Time (ms), Min, Max, Avg
10543, 96266, 98, 125, 109.519
1440p / Ultra +DX11 und RS steht bei mir auf 42%.
BlacKi
2016-09-01, 19:40:25
Ist doch völlig latte, Fakt ist, dass sich meine GPU langweilt. Bei The Division @ FHD brennt sie wie Feuer :ugly: Ok die Snowdrop Engine ist auch etwas dynamischer... die neue Frotsbite Engine wirkt hingegen etwas zu statisch, was man bereits in SW BF sehen konnte. Insgesamt zwar hübsch aber doch recht statisch!
blabla blub, fakt ist einfach das du sie nur nicht forderst^^
MiamiNice
2016-09-01, 20:44:51
@TurricanM3:
Das SPiel hat einen FPS Counter oben rechts. Ich habe noch nie etwas unter 140 dort stehen sehen. Bewegt sich immer zwischern 140 und 200 Fps.
Allerdings habe ich bisher auch nur kurz reingeschaut.
Grüße
Nightspider
2016-09-01, 21:28:32
Also eben hat das Spiel bei mir 12,8GB RAM belegt und ist dann gecrasht weil neben Windows und Co quasi nix mehr übrig war.
fulgore1101
2016-09-01, 21:30:13
Minimal ein Intel i5 6600k? ;D
Ich glaube da gabs wohl an irgendeiner Stelle ein Problem mit der Kommunikation, denn das ist einfach Quatsch!
TurricanM3
2016-09-01, 22:42:45
Hab noch nicht auf den RAM-Verbrauch geachtet. Mache ich gleich mal.
@TurricanM3:
Das SPiel hat einen FPS Counter oben rechts. Ich habe noch nie etwas unter 140 dort stehen sehen. Bewegt sich immer zwischern 140 und 200 Fps.
Allerdings habe ich bisher auch nur kurz reingeschaut.
Grüße
Hm, also das kann dann aber nicht wirklich 1440p/Ultra/42% RS sein.
Computerbase schreibt:
Aus Gründen der Reproduzierbarkeit der Sequenz handelt es sich leider nicht um ein Worst-Case-Szenario, sondern eine Wegstrecke abseits des Geschehens. Im direkten Gefecht fällt die Framerate teils 20 Prozent niedriger aus.
Und da kommen schon nur:
https://abload.de/img/asdasdd3s18.png (http://abload.de/image.php?img=asdasdd3s18.png)
heraus.
PCGH misst auch um 105fps (mit einer 1890MHz G1) und schreibt:
Die Testszene ist ausdrücklich kein Worstcase, heftige Feuergefechte mit bildfüllenden Explosionen und zahlreichen Kontrahenten erzeugen geringere Bildraten als hier gezeigt.
Und du hast noch nie weniger als 140fps gesehen, hast immer 140-200fps? :freak:
Das schafft nichtmal eine 2GHz Titan X Pascal. Prüf mal die Settings, das kann einfach nicht stimmen. Würde evtl. auch erklären warum es dir grafisch nicht so zusagt?
EDIT:
Hier noch vier aufgezeichnete komplette Runden von mir, Server voll:
#1:
Frames, Time (ms), Min, Max, Avg
128930, 1144578, 82, 146, 112.644
#2
Frames, Time (ms), Min, Max, Avg
122644, 1166125, 67, 146, 105.172
#3
Frames, Time (ms), Min, Max, Avg
140876, 1147453, 88, 146, 122.773
#4
Frames, Time (ms), Min, Max, Avg
124966, 1142172, 59, 145, 109.411
Sogar einmal unter 60fps gedropt. Explosionen hauen noch arg rein teilweise, z.B. wenn man im Panzer draufgeht (ich meine im Sturm noch schlimmer).
Robspassion
2016-09-01, 23:01:45
Bin recht angetan von der Optik ein wenig blurry wegen dem TAA aber sieht echt schick aus insgesamt. Läuft echt gut. nach 3 kompletten Runden:
1440p@Max 42% das niedrigste was ich gesehen habe waren 106 FPS. Sonst immer so 110-144.
TurricanM3
2016-09-02, 01:01:45
Ich komme auf 5.3GB RAM Belegung nach ca. 4 Runden. Muss ein memory leak sein. Absturz bislang noch keinen einzigen.
just4FunTA
2016-09-02, 02:27:38
Miami hat sli oder? Vielleicht deswegen die guten fps.
TurricanM3
2016-09-02, 18:52:20
Von SLi sehe ich nichts in seiner Sig.
EDIT:
Öh, seine Sig ist weg jetzt? Gestern stand da noch eine 1080.
dildo4u
2016-09-03, 10:56:01
4k60 Ultra Gameplay auf Titan X Pascal
https://youtu.be/AjNMou4yadw
Screemer
2016-09-03, 12:21:01
Bei mir im Verhältnis zu The Division ca. 10 Grad kühler :eek:
mindestens. mein vrm1 geht nicht mehr über 85°C und in devision errich ich gern mal die 105-108°C. War schon in BF4 so. Divison ist ein richtiger heizer.
hatte grad nen dx. entgegen des im error erwähnten 15.8 treiber nutzte ich natürlich was neueres (16.8.3).
Edit: na sehr geil. es lässt sich gar nicht mehr öffnen. änderung zum letzten spielen war ein update auf den oben erwähnte amd treiber.
Edit2: hab jetzt das origin overlay deaktiviert und es läuft wieder. joint man nun jemandem aus der freundesliste nach, dann kommt die fehlermeldung, dass man doch origin overlay aktivierenund danach das spiel neustarten solle. klickt man diese weg, kommt man trotz dem auf den server des freundes.
Karümel
2016-09-04, 20:58:56
Irgendwie verwundert es mich das es nicht mehr an HW-Test zu dem Titel gibt :confused:
dildo4u
2016-09-04, 21:09:14
Multiplayer zu benchen ist ungenau und DX12 funzt nicht richtig,wundert mich nicht das nicht mehr Gebencht wird,da kann und sollte sich Einiges tun bis zur Release.
_CaBaL_
2016-09-04, 23:42:49
Bei mir läuft bei BF1 der Speicher voll. Das Game fängt mit 5 GB an und arbeitet sich auf 11 GB hoch, wo dann Windows anfängt zu meckern, dass der Ram nicht reicht und 15 Mins später, steigt dann BF mit OutOfMemory aus.
Meine Kumpels, mit denen ich gespielt habe, meinte bei Ihnen ist das Game 6 GB verbraucht.
jojo13
2016-09-05, 00:08:00
hmmm war jetzt mal auf nem server...bin von einem BF4 server gekommen, aber das Gameplay ist doch elendig langsam zu BF4.. von BF3 will ich gar nicht reden das fühlt sich an wie division...
Karümel
2016-09-07, 20:37:19
Mir kommt es so vor als wäre die Performance nach dem heutigen Update schlechter als vorher? :confused:
Karümel
2016-09-19, 21:07:42
Offiziellen HW-Anforderungen:
https://www.battlefield.com/de-de/games/battlefield-1/tech?utm_campaign=bf1_hd_ww_ic_soco_twt_bf1-techspecs
Mindestanforderungen:
Betriebssystem: Windows 7 (64-Bit), Windows 8.1 und Windows 10
Prozessor (AMD): AMD FX-6350
Prozessor (Intel): Core i5 6600K
Arbeitsspeicher: 8 GB RAM
Grafikkarte (AMD): AMD Radeon™ HD 7850 7850 2 GB
Grafikkarte (NVIDIA): nVidia GeForce® GTX 660 2 GB
DirectX: DirectX 11.0-kompatible Grafikkarte oder gleichwertig
Erforderliche Online-Verbindung: Internetverbindung mit mindestens 512 KB/s Geschwindigkeit
Festplatte: 50 GB freier Speicherplatz
Empfohlene Konfiguration:
BS: 64-bit Windows 10 oder später
Prozessor (AMD): AMD FX 8350 Wraith
Prozessor (Intel): Intel Core i7 4790 oder gleichwertig
Arbeitsspeicher: 16 GB RAM
Grafikkarte (AMD): AMD Radeon™ RX 480 4 GB
Grafikkarte (NVIDIA): NVIDIA GeForce® GTX 1060 3 GB
DirectX: DirectX 11.1-kompatible oder vergleichbare Grafikkarte
Erforderliche Online-Verbindung: Internetverbindung mit mindestens 512 KB/s Geschwindigkeit
Verfügbarer Speicherplatz: 50 GB
MiamiNice
2016-09-20, 11:57:01
Das sind ja mal wieder nette Specs.
Also bei Intel soll es ein i7 4790 sein bei AMD ein FX 8350. Die beiden CPU sind nicht in der selben Leistungsklasse. Der 4790 dreht ja fast rückwärts Kreise um die AMD CPU. 480 vs 1060 passt schon irgendwie, wobei die 1060 auch leicht schneller ist.
Da fragt man sich doch warum das Game mit AMD auf schwächerer "Hardware" läuft als bei Intel/NV. Oder halt warum man die Anforderungen auf Intel/NV Seite höher ansetzt als bei AMD. Das stimmt doch was net :freak:
Liegt vielleicht daran das AMD keine schnellere "HW" im Programm hat und es nur notdürftig auf AMD "HW" läuft. ;)
dildo4u
2016-09-20, 12:21:50
Ist nix Neues und hört man jetzt öfter,das die alten Intel 4 Core Probleme bekommen wo mein FX drüber lacht.Bisher waren die Games halt nich in der Lage 8 Core's vernüftig auzureizen.
Nightspider
2016-09-20, 13:15:15
Das sind ja mal wieder nette Specs.
Also bei Intel soll es ein i7 4790 sein bei AMD ein FX 8350. Die beiden CPU sind nicht in der selben Leistungsklasse. Der 4790 dreht ja fast rückwärts Kreise um die AMD CPU. 480 vs 1060 passt schon irgendwie, wobei die 1060 auch leicht schneller ist.
Im besten Fall ist der FX 8350 dank seiner 8 Kerne sogar schneller als die 4 Kerne des 4790K. Da kann auch SMT nicht viel rausreißen.
Außerdem gibts auch Games wo die RX480 vorne liegt. Vor allem wenn DX12/Vulkan ordentlich implementiert sind.
dildo4u
2016-09-20, 13:26:12
Nein der Haswell i7 ist immer schneller Cinebench skaliert ziehmlich ideal,dafür sehen die i5 nicht sonderlich gut aus.
http://www.anandtech.com/bench/CPU/1029
MiamiNice
2016-09-20, 13:27:40
@Dildo:
Halte ich für ein Gerücht da das Game auf Intel CPUs besser läuft (wie wohl die meisten Games).
https://forums.anandtech.com/threads/battlefield-1-beta-cpu-scaling-performance.2485172/
Da sollte irgendwas von einem i5 stehen imho wenn man bei AMD den FX 8350 angibt.
@Spider:
Das liegst Du imho voll daneben. Sorry:)
dildo4u
2016-09-20, 13:35:16
DX12 war noch kaputt in der Beta einfach die Final abwarten,DX12 sollte das Threading weiter verbessern.
http://www.amd.com/de-de/innovations/software-technologies/directx12
=Floi=
2016-09-20, 14:38:31
Ist nix Neues und hört man jetzt öfter,das die alten Intel 4 Core Probleme bekommen wo mein FX drüber lacht.
der alte intel lacht noch immer...
Nightspider
2016-09-20, 14:48:57
Das liegst Du imho voll daneben. Sorry:)
Nope. Selbst BF4 skalierte schon super mit 8 Kernen. BF1 wird noch besser mit 8 Kernen skalieren und hat zudem noch DX12 welches die Skalierung verbessert.
MiamiNice
2016-09-20, 16:26:57
Ich möchte es mal so sagen (no offense here):
Egal wie hoch Du Mist stapelst (mehr Kerne), es kommt maximal dabei ein Misthaufen heraus und kein Eau de Toilette.
Wenn ich mit 4 Intel Kernen und HTT die 8 Kern CPU von AMD überrunde ist es halt Mist. IMHO ist alles was auf Bulldozer äh Pushcart basiert Mist. Auch wenn sie mit Excavator Boden gut gemacht haben nach Eau de Toilette riechen aktuell nur Intel CPUs. Mit AMD CPUs kannst Du aktuell IMHO nur ineffiziente Office Pcs bauen. Zen wird es aber wohl richten, nächstes Jahr.
Nightspider
2016-09-21, 13:57:29
Keine Ahnung worüber du dich da bei den Systemanforderungen so aufregst.
Selbst im alten BF4 lag der FX 8350 schon nicht weit hinter den Intel CPUs und bei BF1 geht die Engine sicherlich noch effizienter mit 8 Kernen um.
http://pclab.pl/zdjecia/artykuly/chaostheory/2013/10/bf4/charts/bf4_cpu_geforce.png
Spätestens durch DX12 soll sich ja laut diversen Devs die Skalierung noch weiter verbessern. Wenn dann der FX-8350 vor dem 4790K liegen würde, würde mich das nicht wundern.
Aber selbst wenn er nicht davor liegt so wird der Abstand marginal sein.
Die Systemanforderungen sind also zu Recht so und korrekt in meinen Augen.
MiamiNice
2016-09-21, 14:20:56
Der Meinung bin ich nicht. Wenn man auf AMD Seite einen FX 8350 angibt sollte auch was vergleichbares auf Intel Seite angeben. Du siehst doch selbst in Deiner Tabelle das der 8350 nur durch OC an die Intel ran kommt (und das nicht einmal gut). Ein 8350 non OC ist in etwa so schnell wie ein alter i7 2600K. Also sollte auf der BF1 Packung irgendwas von einem mittlerem i5 stehen auf Intel Seite.
Und nur so am Rande: Die BF1 Beta hat mit nur 3 Worker Threads gearbeitet. Also nix zu sehen von BF1 unterstützt besser mehrkern CPUs.
Und bezüglich DX12 als Heilsbringer:
Von der CPU Entlastung durch DX12 profitieren nur CPUs die generell schon etwas schwach auf der Brust sind. Da wird Arbeit von der CPU zur Graka verschoben, imho. Also habe ich weniger Power für die reine Grafik da sich die GPU mit eigentlich CPU Dingen rumschlagen muss. Da baut man sich doch lieber eine starke CPU ein, für mehr FPS.
Oder anders gesagt: Hat man einen guten Gaming PC, fällt der Vorteil von DX12 marginal aus. Also juckt DX12 auch nur Leute mit minderwertigen PCs aka AMD Gurken.
Nightspider
2016-09-21, 14:32:38
Und nur so am Rande: Die BF1 Beta hat mit nur 3 Worker Threads gearbeitet. Also nix zu sehen von BF1 unterstützt besser mehr kern CPUs.
Blödsinn.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1_Alpha/bf1_amd.png
Da wird Arbeit von der CPU zur Graka verschoben, imho. Also habe ich weniger Power für die reine Grafik da sich die GPU mit eigentlich CPU Dingen rumschlagen muss.
Lange nicht mehr solchen Unsinn gelesen.
Bei bestmöglicher Implementierung bringt dir DX12 nicht nur deutlich weniger CPU Belastung sondern auch deutlich mehr GPU Leistung.
Siehe Doom.
MartinRiggs
2016-09-21, 14:36:50
Ich glaub AMD hat MiamiNice die Unschuld geraubt, anders kann ich mir diesen geballten Stumpfsinn nicht erklären;D
Lowkey
2016-09-21, 14:51:48
Nightspider ist aber der Inbegriff eines Enthusiasten. Manchmal hat er recht und manchmal neigt er leicht zu Übertreibungen.
Ich dachte nun auch, dass DX12 CPUs entlastet, die schwach sind?
btw. Benchmarks der Beta oder gar Alpha scheinen von den Systemanforderungen abzuweichen. Da kommt noch etwas hinzu. Eventuell sind ein oder zwei riesige Maps dabei.
aufkrawall
2016-09-21, 14:54:38
Blödsinn.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1_Alpha/bf1_amd.png
Die Gesamtauslastung geht mit 4K + HTT aber tatsächlich nicht nennenswert über 65% im CPU-Limit, das ist weit von optimal entfernt.
Frostbite ist nicht das MT-Monster, das sind die Ubisoft-Engines.
Nightspider
2016-09-21, 14:57:48
btw. Benchmarks der Beta oder gar Alpha scheinen von den Systemanforderungen abzuweichen.
In der Wüstenmap gab es ja auch nicht wirklich viel Physik, da erwarte ich mir von anderen Maps etwas mehr.
Gerade die Map "Krieg im Ballsaal" könnte ordentlich indoor destruction bieten, zumindest hoffe ich das.
http://www.playm.de/wp-content/uploads/2016/09/Battlefield-1-Krieg-im-Ballsaal.jpg
Auch in der Waldmap "Wald der Argonnen" sehe ich viel Potential für viele, zerstörbare Objekte (Bäume).
http://www.playm.de/wp-content/uploads/2016/09/Battlefield-1-Wald-der-Argonnen.jpg
Die Gesamtauslastung geht mit 4K + HTT aber tatsächlich nicht nennenswert über 65% im CPU-Limit, das ist weit von optimal entfernt.
Frostbite ist nicht das MT-Monster, das sind die Ubisoft-Engines.
Ja (bisher unter DX12) werden nicht alle 8 Kerne gleich stark ausgelastet aber sie sind schon recht nah dran imo mit Potential für Verbesserung durch DX12.
Allerdings konnte die Engine ja sowieso noch nicht zeigen was sie kann in der Beta Map imo.
MiamiNice
2016-09-21, 15:10:56
Blödsinn.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1_Alpha/bf1_amd.png
Lange nicht mehr solchen Unsinn gelesen.
Bei bestmöglicher Implementierung bringt dir DX12 nicht nur deutlich weniger CPU Belastung sondern auch deutlich mehr GPU Leistung.
Siehe Doom.
Das mit den 3 Worker Threads habe ich von annandtech, kann gerade nicht den Link suchen da @ work.
€: Mag ja sein das ich mich mit DX12 vertue aber einen Fx blabla mit einem 4790 gleichzusetzen ist nun mal arg daneben. Nur darum ging es mir aktuell. Das suggeriert das beide in etwas das selbe Leistungslevel haben, dem ist aber ganz sicher nicht so. Der Intel dreht rückwärts Kreise in Games um den FX Mist. Un zwar um jeden FX Mist nicht nur den 8 irgendwas.
Ich glaub AMD hat MiamiNice die Unschuld geraubt, anders kann ich mir diesen geballten Stumpfsinn nicht erklären;D
Ne meine Unschuld ging wo anders verloren :biggrin:
Aber ja, ich kann diese Firma nicht ab da sie in meinen Augen den technologischen Fortschritt behindert durch Unfähigkeit. AMD sorgt quasi dafür das sich Intel und NV auf Ihren Lorbeeren ausruhen und weniger Kohle in R&D versenken müssen.
Aber das OT hier und nicht jeder teilt da meine Meinung :biggrin:
Kartenlehrling
2016-09-21, 15:11:48
@Nightspider du hast ja nicht ohne grund die AMD CPU Thread Auslastung gezeigt, da sieht das "schön" aus,
wenn man aber bedenkt das ein AMD FX-8350 4/8 gerade auf dem Leistunglevel von einen i3-4330 2/4 ist sieht das alles schon anders aus und rückt es in ein anderes Licht.
dargo
2016-09-21, 15:16:00
Und bezüglich DX12 als Heilsbringer:
Von der CPU Entlastung durch DX12 profitieren nur CPUs die generell schon etwas schwach auf der Brust sind. Da wird Arbeit von der CPU zur Graka verschoben, imho. Also habe ich weniger Power für die reine Grafik da sich die GPU mit eigentlich CPU Dingen rumschlagen muss.
Was bitte? ;D
MiamiNice
2016-09-21, 15:21:54
Was bitte? ;D
Ja mei, dann schreib es besser. Von ;D kann sich keiner was kaufen. Imho veringert sich der Overhead was bei älteren CPUs zu mehr Leistung führt da die sich nicht mit der Menge Drawcalls rumschlagen müssen. Richtig?
Trotzdem zeigen Benches bisher nur das DX12 bei schwachen CPUs etwas bringt. Da Intel CPUs aktuell eher stark sind profitiert aktuell fast nur AMD durch DX12.
Nightspider
2016-09-21, 15:45:03
Mal Spekulatius meinerseits:
Mich würde es nicht wundern wenn die Technikabteilung von DICE gerade hardcore damit beschäftigt ist so viel Leistung wie nur irgend möglich aus der AMD Grafikarchitektur zu quetschen um BF1 auf der PS4 Pro auch in 4K bzw. 3200p rendern zu können bei gleichen fps.
Ich weiß jetzt gerade nur nicht in welcher Auflösung BF1 auf der normalen PS4 gerendert werden soll aber so oder so wird DICE, wie auch andere Entwickler, dazu gezwungen das Maximum aus der GCN Architektur zu kitzeln.
In bisherigen Präsentationen haben DICE Ingenieure ja schon beschrieben welches enorme Potential in DX12 und den ACEs der AMD Grafikchips steckt. Würde mich nicht überraschen wenn BF1 noch mit Doom ähnlichen Resultaten aufwarten wird oder diese vieleicht sogar noch in den Schatten stellt.
dildo4u
2016-09-21, 15:51:30
Ich würde das nicht zu viel Hypen Dice bekommt von Sony kein extra Geld wenn es besonders gut an PS4 Pro angepasst wird.Es ist sogar so das MS diesmal den Marketing Deal mit EA hat.
Das ändert aber nix dadran das die Engine ideal mit Cores skalieren muss wenn es auf den alten Konsolen auf 64 Player Maps halbwegs laufen soll.
Nightspider
2016-09-21, 15:55:26
DICE hat aber auch einen (Technik-) Ruf zu verlieren und die Xbox Scorpio wird ja auch mit AMD GPU kommen. Und der beste Zeitpunkt für Optimierungen ist immer noch vor dem Release. :)
Deswegen erwarte ich noch recht viel von BF1 was die Technik betrifft und kann es kaum noch erwarten.
dargo
2016-09-21, 16:02:18
Mich würde mal interessieren ob DICE am PC Async Compute nutzen wird. Immerhin hatte man das schon bei BF4 auf der PS4 getan.
aufkrawall
2016-09-21, 16:05:19
Es gibt in der Konsole Befehle für DX12 Multi-Queue (Async Copy & Async Shaders).
Geplant ist das also sicherlich. Obs dann auch mal läuft...
dargo
2016-09-21, 16:15:55
Irgendwelche Hinweise auf Shader Intrinsics gabs aber noch nicht oder?
aufkrawall
2016-09-21, 16:23:54
Ich hatte zumindest in der Konsole dahingehend nichts gesehen.
Kann ich natürlich schlicht übersehen haben oder es kommt in der Final noch hinzu. Aber ich kenne auch von keinem Entwickler außer id Äußerungen, es zu nutzen. id hatten es ja schon in dem Video-Einspieler auf der Polaris-Präsi zusammen mit Async Compute angekündigt.
Edit: Nightpsider belehrte mich soeben eines besseren...
imho läuft das auf Pascal auch mit DX11 schnell genug, ich würd mir eher mal wieder bessere Grafik wünschen. Ich seh den Fortschritt zu Battlefront nicht.
Selbst Dunia hat mit Far Cry 4 -> Primal einen bemerkbaren Sprung hingelegt, Unreal Engine und Cryengine bekommen auch ständig Grafikverbesserungen spendiert.
Bei Frostbite passiert dahingehend gefühlt gar nichts mehr. Stattdessen feiert man sich dafür, dass man in Mirror's Edge jetzt dynamische Tageszeit hat...
Nightspider
2016-09-21, 16:24:25
Laut dieser Präsentation nutzt DICE diese auf jeden Fall:
http://www.wihlidal.ca/Presentations/GDC_2016_Compute.pdf
Da fiel öfter das Wort intrinsic und DICE selbst sagt ja auch das es da massig Optimierungsmöglichkeiten gibt.
Für mich steht es außer Frage das man das Ganze auch bei der PC Version nutzen wird. Das wäre glatte Verschwendung.
MiamiNice
2016-09-22, 09:45:53
@Spider:
Lies mal bitte heutige 3DC News. :biggrin:
Nightspider
2016-09-22, 09:57:04
Ich würde trotzdem mal abwarten was die AMD CPUs noch bei optimalem Scaling schaffen werden.
Da kannst du dich echt nicht an alten Benchmarks orientieren von Games die vllt nur 4 Threads sinnvoll nutzen.
dargo
2016-09-22, 10:04:34
Es sieht so aus, dass der DX12 Renderer zum Release nicht fertig wird bzw. unoptimiert läuft.
Liquaron
2016-09-22, 10:09:53
Es sieht so aus, dass der DX12 Renderer zum Release nicht fertig wird bzw. unoptimiert läuft.
Das wäre enttäuschend. Woher weißt du das?
Nightspider
2016-09-22, 10:13:56
Reine Spekulation....
dargo
2016-09-22, 11:50:31
Das wäre enttäuschend. Woher weißt du das?
Kein Wort zu DX12 bei den empfohlenen Systemanforderungen.
https://www.origin.com/deu/de-de/store/battlefield/battlefield-1/ultimate-edition#requirements
Das heißt für mich nur eins... DX12 wird noch nicht fertig sein.
dildo4u
2016-09-22, 13:10:20
Ich würde das auch nicht hinschreiben so lange DX12 kein Zwang ist,für die Masse heißt DX12 Mehrkosten bzw Aufwand weil sie ihr OS Updaten müssen.Man will mit den Specs ja nich mher Leute verscheuchen als nötig.
THEaaron
2016-09-22, 13:23:29
Ich bin auch im Team "DX12 erst nach X Patches verfügbar". ;)
Ob ordentlich oder überhaupt.
TurricanM3
2016-09-22, 13:53:34
Im Thread vertan sorry...
MiamiNice
2016-09-22, 13:56:40
Ich bin im Team "ist mir scheiß egal" da ich auch mit DX11 auf 3440 x 1440 weit über 100 FPS habe.
So, who cares about DX12 with a real gaming PC? Yeah, nobody :biggrin:
dargo
2016-09-22, 14:02:13
Ich würde das auch nicht hinschreiben so lange DX12 kein Zwang ist,für die Masse heißt DX12 Mehrkosten bzw Aufwand weil sie ihr OS Updaten müssen.
Was für ein Zwang? Du weißt schon was das Wort "empfohlen" bedeutet? Da steht übrigens DX11.1. Also fällt schon mal Windows 7 weg. Und wenn man sich anschaut wie beliebt Windows 8.x bei den Gamern ist.
http://store.steampowered.com/hwsurvey/directx/
Braucht man automatisch Windows 10 für DX11.1. Da hat man auch gleich DX12.
TurricanM3
2016-09-22, 14:07:21
Ich bin im Team "ist mir scheiß egal" da ich auch mit DX11 auf 3440 x 1440 weit über 100 FPS habe.
So, who cares about DX12 with a real gaming PC? Yeah, nobody :biggrin:
Japp, dein real gaming PC schafft ja auch min. 140fps in der Alpha... :freak:
SCNR
MiamiNice
2016-09-22, 14:13:42
Zumindest war der FPS Counter immer über 100 wenn ich drauf geschaut habe. 140 min. Fps werden es wohl aber sicher nicht sein. Aber alles um die 100 Fps ist doch mehr als OK. Oder etwa nicht?
€: Zumal bei den Server Tickrates ... Ja, 100 Fps sind mehr als genug.
aufkrawall
2016-09-22, 15:30:49
100fps sind eher gerade genau richtig, wenn man perfekte Flüssigkeit will. ;)
Ansonsten tun es für den Lag auch 80fps mit dem in-game Limiter, wie schon bei BF4. Auch mit Gsync war der niedrigere Lag durch den für mich spürbar.
just4FunTA
2016-09-22, 15:40:09
100fps sind eher gerade genau richtig, wenn man perfekte Flüssigkeit will. ;)
Ansonsten tun es für den Lag auch 80fps mit dem in-game Limiter, wie schon bei BF4. Auch mit Gsync war der niedrigere Lag durch den für mich spürbar.
Fehlt in deinem Letzten Satz ein Wort oder sind zwei Wörter zu viel drin?
aufkrawall
2016-09-22, 15:49:04
Der Satz stimmt, aber ich formulier es nochmal aus: gelockte 80fps durch den in-game fps-Limiter + Gsync fühlen sich ähnlich direkt an wie ~100fps ungelockt + Gsync.
Will sagen: Wenns nur nach Spielbarkeit geht, braucht man imho nicht unbedingt mehr als 80fps, sofern die mit dem in-game Limiter gelockt sind.
Die gelockten 80fps sehen natürlich ruckeliger aus die die ungelockten 100fps, aber ich will mal bezweifeln, dass sich das ernsthaft auf die Chancen im Gefecht auswirkt (weil Input Lag wichtiger als Rest).
MiamiNice
2016-09-22, 16:00:54
100fps sind eher gerade genau richtig, wenn man perfekte Flüssigkeit will. ;)
Ansonsten tun es für den Lag auch 80fps mit dem in-game Limiter, wie schon bei BF4. Auch mit Gsync war der niedrigere Lag durch den für mich spürbar.
Naja, ein bissel komplexer ist das Thema ja schon. Die meisten BF Server laufen mit einem 33er Tick. Das heißt die Positionen der Spieler werden alle 30ms mit dem Server synchronisiert. Mit 100 FPS hast Du hast Du alle 10ms ein neues Bild von Deiner Graka auf dem Monitor. Das heißt das Du per Servertick 3 Bilder siehst, d.h. Du hast mehr als genug FPS um immer die aktuelle (für BF Verhältnisse) Position eines Spielers auf dem Schirm zu haben.
Die andere Seite der Medaille ist das Spielgefühl, da gehen die Ansprüche aber weit auseinander. Es gibt Menschen die kommen mit 60 Fps aus und es gibt welche denen 144 Fps noch nicht genug sind. Imho, nach gut 20 jahren Shooter Erfahrung, sind 100 min FPS mehr als genug für das reine "Gefühl" (Ausnahme Q3A vor Pointrelease 1.31).
Damit ist ja auch noch nicht genug. Input Lag durch kabelloses Zeug (Maus und Tastatur), Input Lag vom Monitor, lag durch die Internet Connection, Reaktionsgeschwindigkeit vom Spieler selbst usw. usf.
Langes und komplexes Thema. Nichts desto trotz, bei 33er Server Ticks (da hatte schon CS 0.8 Beta auf diversen Servern mehr) reichen 100 Fps mehr als aus. Und das aus spielerischer Sicht als auch aus technischer Sicht. Wenn man den alles Kabel gebunden hat, kein Input Lag am Moni hat und einen anständigen Ping.
aufkrawall
2016-09-22, 16:40:54
Es ging doch jetzt gar nicht ums Drumrum.
Ich kann dir sagen, dass der Input Lag mit meinem 75Hz IPS-Gerät ohne Scaler (keine Latenz durch Verarbeitung im Monitor) mit 80fps in-game Limit gefühlt kaum oder gar nicht schlechter als mit ~100 ungelockten fps und Gsync ist.
Hab mit der Rival-Maus und 150Mbit Kabel auch nicht die schlechtesten Test-Voraussetzungen für einen Vergleich.
Mit den hohen fps wird es nur noch flüssiger, aber nicht direkter (bzw. nur minimal). Und ich bin ein absoluter Vsync-Hasser wegen des Lags, kann ich auf den Tod nicht ab.
Die Server sind bei BF eh immer an der Kotzgrenze, das ist kein Counter-Strike.
Eigentlich ein Witz, wie oft man das Netcode-Warnsignal sieht.
alice.dj
2016-09-29, 21:58:22
Hallo,
ich hab einen i5 3570k 8gb ram und eine 290x 4gb AMD auf win 7 64bit, wie wird da bf1 in fullhd laufen?
maguumo
2016-09-29, 22:04:29
Selbstverständlich, musst nur einige Settings unter "high" lassen wenn du mehr als 60 FPS willst.
dildo4u
2016-09-30, 11:22:34
Die Engine setzt massiv auf DX11.1,Mirror's Edge soll sich auf Win 7 total grottig laufen ich würde also vor dem Launch auf Win 10 upgraden.
dargo
2016-09-30, 11:24:21
Mirror's Edge läuft auch grottig auf DX11.1 mit einem i5.
Nightspider
2016-09-30, 11:28:01
Eher DX11.2 oder? Hat nicht BF4 schon damals von Win8 und DX11.2 profitiert?
Lowkey
2016-09-30, 11:30:12
Der Vorsprung von Windows 8.1 gegenüber Windows 7 bleibt weiterhin bestehen. Stellenweise lässt sich gar ein Vorsprung von bis zu 20 Fps verzeichnen. AMDs Mantle hingegen wird, wie zu erwarten war, weniger stark von Windows 8.1 beeinflusst, schließlich handelt es sich hierbei um eine unabhängige API.
Nichts unter Windows 10 Anniversary!
Karümel
2016-10-12, 18:21:38
Wo bleiben die ersten Benchmarks?
Raff und Kollegen sind gefragt.
dildo4u
2016-10-12, 18:23:26
Treiber fehlen noch kein Plan ob sie zwei mal benchen wollen.
Mein Test ohne Treiber:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11182684&postcount=2072
Multiplayer unter DX12. FX 8320e@4.2GHz GTX 1070
https://mega.nz/#!8VtTWJqI!2ef0aVHAwVJg0AhHmw9sO3mwij7GhPd8o_yl3GI29E0
Karümel
2016-10-13, 17:09:49
Immer noch keine Benches von irgendeiner Seite, was ist denn los?
dildo4u
2016-10-13, 17:16:11
http://abload.de/img/b1_1920_11gqz2o.png
http://abload.de/img/b1_1920_12xyypl.png
http://gamegpu.com/action-/-fps-/-tps/battlefield-1-test-gpu
Lowkey
2016-10-13, 17:18:54
Selbst auf der 750 Ti nicht unter 25fps. Schaltet man es also ein paar Details ab, dann hat man 60fps. Krass gut programmiert! Wie krass schlecht aber SLI auf DX12 läuft ... Baustelle pur.
Karümel
2016-10-13, 18:31:53
"Techniktest" der Gamestar:
http://www.gamestar.de/spiele/battlefield-1/artikel/battlefield_1,53468,3303884.html
Liquaron
2016-10-13, 18:59:31
Bringt denn dx12 einen optischen Vorteil, oder warum sollte ich das aktivieren?
Nightspider
2016-10-13, 19:01:39
Nein, DX12 wird in Zukunft schneller laufen als DX11, wenn DICE DX12 weiter verbessert und optimiert.
Sonst hätte man den Modus nicht eingebaut. Das Spiel ist offiziell ja noch nicht erschienen und es fehlen die Release-Treiber sowie der Day1-Patch.
Und falls du eine sehr schwache CPU hast läuft das Spiel jetzt schon unter DX12 schneller.
just4FunTA
2016-10-13, 19:04:40
Bringt denn dx12 einen optischen Vorteil, oder warum sollte ich das aktivieren?ne bringt garnichts ausser das es schlechter läuft..
dildo4u
2016-10-13, 19:11:59
Manche Maps sind extrem CPU lastig,daher der 6600k Minimum,vorallem wenn man mit 120fps zocken will wäre funzendes DX12 nicht schlecht.
Kartenlehrling
2016-10-13, 19:19:02
Wie krass schlecht aber SLI auf DX12 läuft ... Baustelle pur.
Anscheinend gar nicht sonst wären die FPS nicht gleich, und ca. 10% mehr FPS unter DX12.
Wir zwei lesen Benchmarks anscheinend unterschiedlich.
zwar profitieren AMD FX wieder vom Multithread, aber gut sieht das nicht aus,
wieder 2 Thread unter Intel >90% und rest langweilt sich.
GPU vRAM gefällt mir.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b1_vram.png
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_proz_12.pnghttp://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_intel.png
Megamember
2016-10-14, 10:35:24
Die Fury hat ja ordentlich Bumms in DX12, gefällt mir. Wenn die das jetzt noch stabil und ohne Stottern hinbekommen würden....
Jupiter
2016-10-14, 11:54:57
Mich würde mal interessieren wo der Xeon e3 1231 v3 mit 3,4 Ghz einzuordnen wäre. Damals habe ich mich bewusst gegen den i5 wegen des HTs des Xeons entschieden.
dargo
2016-10-14, 12:47:51
Mich würde mal interessieren wo der Xeon e3 1231 v3 mit 3,4 Ghz einzuordnen wäre.
Praktisch das selbe wie der i7-4770K. Die 100-200Mhz Unterschied sind kaum von Relevanz.
Anscheinend gar nicht sonst wären die FPS nicht gleich, und ca. 10% mehr FPS unter DX12.
Wir zwei lesen Benchmarks anscheinend unterschiedlich.
zwar profitieren AMD FX wieder vom Multithread, aber gut sieht das nicht aus,
wieder 2 Thread unter Intel >90% und rest langweilt sich.
Kein Wunder wenn die Grafikkarte zu langsam ist, die Russen müssen langsam GP102 nehmen. ;) Beim i7-2600K vs. i5-2500K sieht man sehr gut, dass HT optimal skaliert.
Die Fury hat ja ordentlich Bumms in DX12, gefällt mir. Wenn die das jetzt noch stabil und ohne Stottern hinbekommen würden....
Das ist der Grund warum ich das Spiel nicht zum Release kaufe. DICE kriegt das sicherlich hin, wird nur paar Wochen wenn nicht sogar Monate dauern.
btw.
Die Performance der RX470 vs. GTX1060 ist schon recht ordentlich. Bin gespannt ob der Abstand so bleibt.
Traxx
2016-10-14, 12:55:13
Falscher Trööt, sry...
Kartenlehrling
2016-10-14, 13:53:25
Kein Wunder wenn die Grafikkarte zu langsam ist, die Russen müssen langsam GP102 nehmen. ;) Beim i7-2600K vs. i5-2500K sieht man sehr gut, dass HT optimal skaliert.
Sehe ich nicht, ich sehe nur das die CPU Verteilung wie sie uns Microsoft am 3dmark 11 (dx12) Benchmark vorgeführt haben,
nicht 1:1 auf Spiele umgesetzt werden kann noch schlimmer DX12 laufen immer noch schlechter als die DX11 version,
eigentlich hat Microsofts DX12 ausser ihren UWP nichts gebracht.
Vor 3 Jahre haben Sie (Nvidia und Microsoft) behaupte sie würde schon 4 Jahre eng an DX12 Arbeiten, daran glauben kann doch keiner mehr.
Nochmal zur Erinnerung:
http://www.legitreviews.com/wp-content/uploads/2014/03/3dmark-pre.jpghttp://www.legitreviews.com/wp-content/uploads/2014/03/3dmark-post.jpg
dildo4u
2016-10-14, 13:54:55
btw.
Die Performance der RX470 vs. GTX1060 ist schon recht ordentlich. Bin gespannt ob der Abstand so bleibt.
Bei der 1060 hackt was gewaltig in DX11 nur so schnell wie die 970.Vielleicht stellen Karten mit 4GB weniger Details da,das könnte erklären warum die 470 so gut ist.
Das Game hat den selben Memory Restriktion Schalter wie Mirror's Edge.
dargo
2016-10-14, 15:13:43
@Kartenlehrling
Denk doch mal bitte ein wenig nach bevor du dich lächerlich machst. Wie soll eine hohe CPU-Auslastung bei allen Threads zu sehen sein wenn die Grafikkarte limitiert? Die Russen hätten einfach den i7-6700 mit 2Ghz takten sollen wenn sie schon an keinen GP102 rankommen. Alternativ auf 720p runter.
Zu HT bei Sandy Bridge... i7 ist 38% schneller. Beim gleichen Takt sinds ca. 35-36%. Mehr ist mit HT bei gleichen Takt einfach nicht drin. Das mit GoW 4 ist eher eine Threadlimitierung. Ein ähnliches Verhalten wie damals zwischen 2C/2T und 2C/4T.
Bei der 1060 hackt was gewaltig in DX11 nur so schnell wie die 970.Vielleicht stellen Karten mit 4GB weniger Details da,das könnte erklären warum die 470 so gut ist.
In 1080p werden selbst auf 8GB Karten nur knapp 3GB belegt. Aber stimmt schon... gegenüber der GTX1070 ist die 1060 ein wenig zu langsam.
Megamember
2016-10-14, 15:15:18
*zu spät*
Jupiter
2016-10-14, 15:36:04
Praktisch das selbe wie der i7-4770K. Die 100-200Mhz Unterschied sind kaum von Relevanz.
Danke für die Information. Da hat sich wie ich sehe performancetechnisch mit den letzten Mainstream-CPUs "einiges" beim gleichen Takt getan. Vor Ice Lake sollte ich nicht wechseln.
HT zahlt sich wohl bei manchen Spielen aus.
Screemer
2016-10-14, 15:47:48
Wenn ich mir das so ansehe, dann bin ich auch froh noch mal nen sidegrade für 20€ von nem 2500k@4,5ghz auf nen 2600k@4,4ghz gemacht zu haben.
dildo4u
2016-10-14, 15:58:44
Da machen die Hardware Angaben auch halbwegs sinn wenn man sieht wo die 8 Core FX sind,wenn man das hochrechnet wird Zen ziemlich rocken bei dem Game.
Mehr GPU Benches DX11 vs 12 mit AMD 480.
https://nl.hardware.info/reviews/7015/7/battlefield-1-review-benchmarks-met-13-videokaarten-dx11-vs-dx12
1440p GPU Benches:
https://nl.hardware.info/reviews/7015/5/battlefield-1-review-benchmarks-met-13-videokaarten-testresultaten-wqhd-2560x1440-+-frametimes
390X läuft sehr gut die 480 weniger scheint an der Bandbreite zu hängen das Game.
dargo
2016-10-14, 16:44:10
Ich würde eher sagen szenenabhängig. Bei den Russen ist die RX480 ein gutes Stück vor der R9 290X. Und eine R9 390X ist vielleicht 5-10% schneller. Die Fury X schlägt sich echt gut hier, GTX1080 nur 15% schneller in 1440p @max.
PS: gegenüber Grenada liefert Fiji aber wieder zu wenig.
Nightspider
2016-10-14, 17:16:26
Die Battlefield Reihe hat doch schon immer enorm von SMT profitiert.
Schon Bad Company 2 brachte bei meinem Kumpel und mir damals ~30% mehr fps.
Aber schon extrem traurig wenn man sieht das ein uralter 2600K immer noch 105fps OHNE(!) oc schafft.
Das zeigt das die CPU Anforderungen seit 2009 mit BC2 kein Stück gestiegen sind.
Selbst der bald 3,5 Jahre alte 4770K ist schon ohne oc im GPU Limit und kaum schneller als der 2600K. Wahrscheinlich wäre auch schon ein uralter 3770K schon im GPU Limit gewesen.
Ein 6700K ist locker 50-60% schneller als ein 2600K in der Frostbite Engine (siehe BF4 Benchmark) und wenn man dann noch DX12 ranzieht sieht man eine riesige Menge verschenkten Potentials.
Wird Zeit das Star Citizen fertig wird und mal alle bloß stellt.
dildo4u
2016-10-14, 17:19:31
Das ist der Singleplayer warte einfach bis du 64 Player Matches zockst,das ist eine ganz andere Geschichte.
6600k@4.2GHz 980 Ti. 100% CPU Last 80fps.
https://abload.de/img/bf1trial_2016_10_14_0enl30.png
http://www.neogaf.com/forum/showpost.php?p=220131775&postcount=166
dargo
2016-10-14, 17:22:51
Aber schon extrem traurig wenn man sieht das ein uralter 2600K immer noch 105fps OHNE(!) oc schafft.
Das zeigt das die CPU Anforderungen seit 2009 mit BC2 kein Stück gestiegen sind.
Nicht ganz... sowohl die Applicationen, APIs als auch Treiber sind deutlich effizienter geworden. Keine Ahnung wie man es traurig finden kann, dass mehr aus der vorhandenen Hardware rausgeholt wird.
grobi
2016-10-14, 17:28:53
So kann ich meinen übertakteten alten Xenon Xeon 6 Kerner noch ne ganze Zeit weiter betreiben. :D
Andron
2016-10-14, 17:32:04
Ich würde eher sagen szenenabhängig. Bei den Russen ist die RX480 ein gutes Stück vor der R9 290X. Und eine R9 390X ist vielleicht 5-10% schneller. Die Fury X schlägt sich echt gut hier, GTX1080 nur 15% schneller in 1440p @max.
PS: gegenüber Grenada liefert Fiji aber wieder zu wenig.
Wenn die Russen (was ich seit längerem vermute) die Referenzdesigns der 290er Karten benutzen, welche bekanntermaßen ihren Takt nicht halten können, liegen teilweise deutlich mehr als 5-10% zwischen 290X und 390X.
Das ist das Ärgerliche, wenn keine Taktraten bei Benchmarks angegeben sind.
dargo
2016-10-14, 17:33:25
Wenn die Russen (was ich seit längerem vermute) die Referenzdesigns der 290er Karten benutzen, welche bekanntermaßen ihren Takt nicht halten können, liegen teilweise deutlich mehr als 5-10% zwischen 290X und 390X.
Guter Punkt. (y)
soLofox
2016-10-14, 17:33:51
So kann ich meinen übertakteten alten Xenon 6 Kerner noch ne ganze Zeit weiter betreiben. :D
und ich dachte bei bi-xenon ist schluss :eek:
Slipknot79
2016-10-14, 17:42:05
Die Battlefield Reihe hat doch schon immer enorm von SMT profitiert.
Schon Bad Company 2 brachte bei meinem Kumpel und mir damals ~30% mehr fps.
Aber schon extrem traurig wenn man sieht das ein uralter 2600K immer noch 105fps OHNE(!) oc schafft.
Das zeigt das die CPU Anforderungen seit 2009 mit BC2 kein Stück gestiegen sind.
Selbst der bald 3,5 Jahre alte 4770K ist schon ohne oc im GPU Limit und kaum schneller als der 2600K. Wahrscheinlich wäre auch schon ein uralter 3770K schon im GPU Limit gewesen.
Ein 6700K ist locker 50-60% schneller als ein 2600K in der Frostbite Engine (siehe BF4 Benchmark) und wenn man dann noch DX12 ranzieht sieht man eine riesige Menge verschenkten Potentials.
Wird Zeit das Star Citizen fertig wird und mal alle bloß stellt.
Hab auch noch nen 2600k in da house, was man da an Kohle spart durch Verzicht auf CPU-Tausch, kann man in G-SYNC+dicke GPU etc reinballern. :cool:
Nightspider
2016-10-14, 17:48:01
Nicht ganz... sowohl die Applicationen, APIs als auch Treiber sind deutlich effizienter geworden. Keine Ahnung wie man es traurig finden kann, dass mehr aus der vorhandenen Hardware rausgeholt wird.
Lern lesen.
Ich habe gesagt das es traurig ist wenn das ganze Potential nicht genutzt wird und nicht den Schund den du mir unterstellst.
Oder damit auch du es verstehst:
2011: 2600K absolutes Highend
2016: 2600K absolute lowend - 6700K mind 50% schneller, 6800K mind. 110% schneller, mit DX12 alleine wären mind. Faktor 2-3x mal schneller drin
-> Wer gut in Mathe ist: BF1 steht theoretisch mind. 3 mal so viel CPU Rechenleistung zu Verfügung wie damals BC2 mit dem 2600K, davon genutzt wird nullkommagarnix,niente, nada.
dargo
2016-10-14, 17:57:34
Dann formuliere ich es extra für Nightspider damit der es auch versteht. Den kleinsten gemeinsamen Nenner geben bei Multitiplattform die XB1 und PS4 vor. Erst recht wenn das Target bei denen 60fps beträgt.
2011: 2600K absolutes Highend
2016: 2600K absolute lowend
:lol:
Du hast schon eine ziemlich schräge Vorstellung der Fakten.
Jupiter
2016-10-14, 18:02:41
Deshalb freue ich mich schon wenn in Star Citizen Trägerschiffe, Kreuzer und Zerstörer, welche teilweise größer als Karten aus Battlefield sind und jeweils hundert Räume haben können, mit etlichen Besatzungsmitgliedern Schlachten führen. Am besten noch wenn sie in einen Planeten mit Atmosphere eintreten. Wie in Star Wars halt.
Die Gameplaymöglichkeiten werden durch die unzureichende Nutzung der vorhandenen CPU-Leistung aktuell zu sehr eingeschränkt. Es gibt zu wenig Innovationen.
Nightspider
2016-10-14, 18:03:50
Den kleinsten gemeinsamen Nenner geben bei Multitiplattform die XB1 und PS4 vor.
Captain Obvious Sie erzählen nichts Neues.
Schon mal was von PC exclusiven Features gehört? Selbst wenn es nur Effektphysik ist, feinere Partikel in höherer Anzahl, höhere Objektdichte, mehr Polygone...da ist so unvorstellbar viel möglich. Selbst Leuten wie dir würden irgendwann Ideen einfallen was man mit der ganzen Leistung anstellen kann. Zu teuer?...uhhh, stimmt ja die BF Serie hat sich ja so schlecht verkauft und ist ja nur auf dem PC groß geworden. :rolleyes:
Du hast schon eine ziemlich schräge Vorstellung der Fakten.
Selbst ein Skylake DualCore kann es schon mit dem 2500K aufnehmen. Für den 2600K braucht man nicht viel mehr.
grobi
2016-10-14, 18:11:59
Captain Obvious Sie erzählen nichts Neues.
Schon mal was von PC exclusiven Features gehört? Selbst wenn es nur Effektphysik ist, feinere Partikel in höherer Anzahl, höhere Objektdichte, mehr Polygone...da ist so unvorstellbar viel möglich. Selbst Leuten wie dir würden irgendwann Ideen einfallen was man mit der ganzen Leistung anstellen kann. Zu teuer?...uhhh, stimmt ja die BF Serie hat sich ja so schlecht verkauft und ist ja nur auf dem PC groß geworden. :rolleyes:
Selbst ein Skylake DualCore kann es schon mit dem 2500K aufnehmen. Für den 2600K braucht man nicht viel mehr.
Kannst du das mit Benchmarks untermauern? Ich denke das der Leistungsunterschied nicht so gravierend ist wie du ihn darstellst.
Nightspider
2016-10-14, 18:13:59
60% Peakabstand im DigitalFoundries Test und das sogar schon im SP.
http://abload.de/img/skylake6ptj6s.jpg
Die Meisten behaupten ja immer das Skylake kaum schneller wäre was eben daran liegt, das die Games keine CPU Leistung mehr brauchen. BF1 ist das beste Beispiel mit einem bald 6 Jahre alten Prozessor der noch locker >100fps schafft.
Um da Unterschiede aufzeigen zu können müsstest du schon ne Titan X Pascal @2Ghz und/oder reduzierte Auflösung haben aber jetzt wirds Offtopic.
Das wurde schon dutzende Male im Skylake-Thread diskutiert auch wenn einige Leute es anders sehen und es als Cherrypickung betrachten oder ihre Religion es verhindert Benchmarks in 720p zu akzeptieren.
grobi
2016-10-14, 18:23:00
Es sind aber keine 110% zwischen Skylake und Sandy wie du weiter oben geschrieben hattest.
Natürlich ist absolut gesehen die neue Architektur schneller das bestreitet auch niemand.
Nightspider
2016-10-14, 18:29:19
Hast du dich verlesen?
Der 6700K ist grob 40-60% schneller wenn er darf und der 6800K (http://geizhals.de/intel-core-i7-6800k-bx80671i76800k-a1394467.html)ist ein bezahlbarer HexaCore und damit locker mind. 100% schneller wenn alle 6 Kerne gleichmäßig ausgelastet werden.(was BF1 kann!)
grobi
2016-10-14, 18:50:05
Dann vergleiche aber 6 gegen 6 Kerne. Man kann ja einige Infos in BF1 einblenden und da steht das nur 4 Threads aktiv sind. Ist die Anzeige dann falsch? ("Render.DrawScreenInfo 1" ist der Consolenbefehl dafür)
aufkrawall
2016-10-14, 18:51:53
Offenbar, sonst würde es ja nicht entsprechend mit mehr Kernen skalieren (wobei bei DX11 ein Teil sicher vom Treiber kommt, insbesondere bei Nvidia).
Nightspider
2016-10-14, 18:57:58
Dann vergleiche aber 6 gegen 6 Kerne.
Wieso sollte ich? Ich vergleiche keine Architekturen sondern kaufbare/bezahlbare der oberen Liga.
Damals gab es nichts schnelleres als den 2600K. Mit dem bezahlbaren HexaCore habe ich noch einen humanen Vergleich gemacht und gar nicht erst die übertrieben teuren 8 und 10 Kern CPUs von Intel erwähnt.
Du kannst meinetwegen auch einen uralten Sandy Bridgeoder Ivy Bride HexaCore nehmen. Selbst die alten Schinken können in der Frostbite Engine ihre Muskeln spielen lassen.
Es geht wie gesagt nur darum das heutzutage im CPU Bereich viel mehr Leistung verfügbar ist und selbst DICE, als einer der Technologieführer, hier die PC Gemeinde links liegen lässt. Das finde ich einfach nur traurig.
dargo
2016-10-14, 18:58:26
Schon mal was von PC exclusiven Features gehört?
Ja... sind schon lange tot. Das einzige was Devs auf CPU-Seite machen ist ein weniger agressiveres LoD am PC. Verursacht auch praktisch keine Kosten für die Entwickler.
Selbst ein Skylake DualCore kann es schon mit dem 2500K aufnehmen. Für den 2600K braucht man nicht viel mehr.
Nettes Gerücht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11176584&postcount=190
Sobald eine Engine mehr in die Breite geht hat selbst ein Skylake i3 keine Chance gegen einen deutlich älteren 8 Threader. Zudem die Frametimes bei einem i3 nicht aus den Augen verlieren.
60% Peakabstand im DigitalFoundries Test und das sogar schon im SP.
http://abload.de/img/skylake6ptj6s.jpg
Und jetzt bitte den gleichen Test nochmal für alle CPUs bei identischer Speicherbandbreite.
Nightspider
2016-10-14, 19:01:59
Nettes Gerücht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11176584&postcount=190
Sobald eine Engine mehr in die Breite geht hat selbst ein Skylake i3 keine Chance gegen einen deutlich älteren 8 Threader.
Ein 2600K 95% schneller als ein 2500K?
Sieht eher nach schlechter Programmierung für Prozessoren mit wenigen Kernen/Threads aus. Engine skaliert gut nach oben mit vielen Kernen aber grauenhaft nach unten.
->sieht nach reiner Konsolenoptimierung (auf viele Kerne) aus-> Vergleiche sind sinnlos.
grobi
2016-10-14, 19:02:39
Ich freue mich das mein alter 6Kerner noch weiter am Leben bleiben kann. Das Upgrade hat mich ca 70€ gekostet um meinem S1366 noch mal ein bisschen Schub zu verleihen.
gruß grobi
Nightspider
2016-10-14, 19:04:39
Dein Gulftown hat dich über die Jahre viel mehr als 70 Euro gekostet, gemessen an den Stromkosten. :D
dargo
2016-10-14, 19:06:29
Ein 2600K 95% schneller als ein 2500K?
Sieht eher nach schlechter Programmierung für Prozessoren mit wenigen Kernen/Threads aus. Engine skaliert gut nach oben mit vielen Kernen aber grauenhaft nach unten.
->sieht nach reiner Konsolenoptimierung (auf viele Kerne) aus-> Vergleiche sind sinnlos.
Weil es nicht in dein Schema passt? Sobald eine Software mehr in die Breite geht wirds für CPUs mit wenig Threads immer schwieriger. Einfach mal heutige Dualcores (2C/2T) mit einer Application starten die mindestens 4 Threads verlangt (sofern sie natürlich überhaupt startet).
PS: es müsste auch erstmal geklärt werden wieviele Ressourcen diese Echtzeitverschlüsselung bei UWP-Titeln verschlingt.
grobi
2016-10-14, 19:14:25
Dein Gulftown hat dich über die Jahre viel mehr als 70 Euro gekostet, gemessen an den Stromkosten. :D
Ne du der läuft mit 1.15v und 3.6Ghz. Ich denke so viel Strom verbrauch der da nicht. :freak:
Nightspider
2016-10-14, 19:17:42
Mein Schema? Dein GoW Test macht einen Vergleich >alter QuadCore gegen neuen DualCore< einfach total wertlos.
Schau dir FarCry 4 an, dort ist ein Skylake DualCore mit SMT so schnell wie ein 2500K:
https://www.youtube.com/watch?v=YwB1KRMpFdw
Der i3 6100 dürfte also locker BF1 flüssig darstellen können.
Wir sind jetzt aber vom Thema abgekommen dargo.
Tatsache ist: ProMhz Leistung, Leistung pro Euro, mögliche CPU Auswahl nach oben (HexaCore, OctaCore, usw) haben zugenommen und mit DX12 wäre erst recht deutlich mehr möglich.
BF1 verschenkt massiv (Hardware)Potential:
[ ]ja
[ ]nein
[ ]wayne
Bitte setzen Sie ihr Kreuz jetzt! Ich denke zu dem Thema wurde alles gesagt.
grobi
2016-10-14, 19:23:23
Ss ist auch schade das DX12 unter BF1 noch verbugt ist. Oder gibt es Kombis unter denen es besser als unter DX11 läuft?
dargo
2016-10-14, 19:24:20
Mein Schema? Dein GoW Test macht einen Vergleich >alter QuadCore gegen neuen DualCore< einfach total wertlos.
Schau dir FarCry 4 an, dort ist ein Skylake DualCore mit SMT so schnell wie ein 2500K:
https://www.youtube.com/watch?v=YwB1KRMpFdw
Wir betrachten jetzt also nur ältere Software weil es besser in deine Argumentation passt? Du bist echt putzig. :tongue: Dein Video ist übrigens recht sinnlos, hatte ich oben schon gesagt. Dem i3 steht die doppelte Bandbreite zur Verfügung bei sicherlich etwas höheren Latenzen.
Nightspider
2016-10-14, 19:26:41
Dann ergänze ich: heutzutage kriegst du auch deutlich mehr Bandbreite für den Euro als früher und jetzt hör auf zu heulen *kurz vorm facepalmen ist*
In BF1 schlägt sich der Skylake DualCore auch hervorragend also komm mir nicht mit alten Games.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_proz_12.png
aufkrawall
2016-10-14, 19:29:03
Der Gears 4-Vergleich ist nicht aussagekräftig, weil es mit NV-GPUs offenbar ein Problem mit CPU-Limits gibt.
Womöglich würde mit AMD-GPUs der Abstand zwischen 4 und 8 Kernen nicht so groß sein.
dargo
2016-10-14, 19:54:32
Dann ergänze ich: heutzutage kriegst du auch deutlich mehr Bandbreite für den Euro als früher...
Das ändert nichts an den Fakten. Wenn du CPU A einen größeren Flaschenhals fürs Rendering zur Verfügung stellst als CPU B ist die Vergleichbarkeit für den Anus. Fürs Framerendering ist etwas mehr als nur reine CPU-Leistung nötig.
N0Thing
2016-10-14, 19:59:18
60% Peakabstand im DigitalFoundries Test und das sogar schon im SP.
http://abload.de/img/skylake6ptj6s.jpg
Die Meisten behaupten ja immer das Skylake kaum schneller wäre was eben daran liegt, das die Games keine CPU Leistung mehr brauchen. BF1 ist das beste Beispiel mit einem bald 6 Jahre alten Prozessor der noch locker >100fps schafft.
Um da Unterschiede aufzeigen zu können müsstest du schon ne Titan X Pascal @2Ghz und/oder reduzierte Auflösung haben aber jetzt wirds Offtopic.
Das wurde schon dutzende Male im Skylake-Thread diskutiert auch wenn einige Leute es anders sehen und es als Cherrypickung betrachten oder ihre Religion es verhindert Benchmarks in 720p zu akzeptieren.
Wäre schön, bei diesen Vergleichen auch noch einen übertakteten 2500K oder 2600K dabei zu haben, immerhin dürften dies die langlebigsten CPUs der letzten Jahre gewesen sein und für viele ist neben den Standardtaktraten auch ein Vergleich OC Sandy gegen OC Skylake interessant.
Mit jeder Generation 5-10% oben drauf, ergibt nach ein paar Jahren schon einen deutlichen Unterschied bei den passenden Anwendungen.
Das ändert nichts an den Fakten. Wenn du CPU A einen größeren Flaschenhals fürs Rendering zur Verfügung stellst als CPU B ist die Vergleichbarkeit für den Anus. Fürs Framerendering ist etwas mehr als nur reine CPU-Leistung nötig.
Es ist nun mal ein Vorteil der Plattform. Solange auf beiden Seiten eine realistische Auswahl bei den Speichermodulen getroffen wurde, ist das eben der Lauf der Dinge und gehört zur CPU-Entwicklung dazu. Was zählt ist auf dem Bildschirm.
dargo
2016-10-14, 20:03:22
Der Gears 4-Vergleich ist nicht aussagekräftig, weil es mit NV-GPUs offenbar ein Problem mit CPU-Limits gibt.
Womöglich würde mit AMD-GPUs der Abstand zwischen 4 und 8 Kernen nicht so groß sein.
Hat denn bisher niemand das Spiel mit einer AMD Graka und einem 4 Threader zum Vergleich getestet?
aufkrawall
2016-10-14, 20:07:10
Hm, bei CB ist die Performance auch mit dem 8350 mit GeForces ziemlich hinüber.
Vielleicht doch kein Problem mit vier Kernen.
Kartenlehrling
2016-10-14, 20:44:01
Ich würde gern eine 32er Map mit einem Xeon E3-1230@3,8mhz gegen einen i5-3570k@4,4mhz sehen mit einer ten70.
dargo
2016-10-14, 21:48:06
3,8-4,4Mhz ist aber extrem wenig. :devil:
Spaß bei Seite... was erwartest du von dem Vergleich so Besonderes?
Es ist nun mal ein Vorteil der Plattform.
Genau das und nichts Anderes. Und selbst hier muss man noch differenzieren. Es gibt genug DDR3 Skylake Bretter. Ich möchte gar nicht wissen wieviele schlecht informierte Spieler sich DDR3-1333 (weils so schön billig ist, gleiches gilt für DDR4-2133 bei entsprechenden DDR4-Brettern) in die Skylake Plattform stecken.
Nightspider
2016-10-14, 23:04:39
Das ändert nichts an den Fakten. Wenn du CPU A einen größeren Flaschenhals fürs Rendering zur Verfügung stellst als CPU B ist die Vergleichbarkeit für den Anus. Fürs Framerendering ist etwas mehr als nur reine CPU-Leistung nötig.
Und das interessiert hier wen?
Es ist genau so wie Nothing gesagt hat.
Keine Ahnung was so einer wirrer Gedankengang hier zu suchen hat, das es paar wenige Hanseln da draußen gibt die DDR3 Bretter für Skylake gekauft haben. Was interessiert uns das hier bei der Diskussion? Rein gar nichts.
Wenn du meinst das der 2600K durch fehlenden DDR4 ausgebremst wird dann quetsch dir den DDR4 in deinen alten Sockel oder alten DDR3 zu deinem Skylake wenn das für DICH irgendeine Relevanz hat. Hier gehts nicht um Kaufempfehlungen oder darum wie viele Leute sich falsch ihre Hardware zusammengestellt haben.
Zieh dir doch gedanklich die paar zusätzlichen Prozente an Leistungsgewinn ab die bei den neueren Plattformen durch schnelleren RAM realisiert werden wenn das für dich so wichtig ist. Das ändert trotzdem 0 an meiner Aussage das du heutzutage deutlich mehr CPU Leistung zu Verfügung hast als 2011. Ich habe eh nur ganz grobe Werte bzw. Wertebereiche angegeben. Natürlich hast du heute auch ganz automatisch höhere Speicherbandbreite bei einer moderneren Plattform und das ein Teil des Leistungsgewinns durch den schnelleren RAM kommt ist wahrscheinlich den meisten klar. Nur Quatschköpfe machen da ein extra Drama draus wenn es nichts mit dem Thema an sich zu tun hat. Das ist doch ne Sack-Reis-Meldung das der i3 6100 zum Teil durch den RAM schneller ist als ein 2500K. :rolleyes:
dargo
2016-10-14, 23:20:17
Und das interessiert hier wen?
Diejenigen die etwas Ahnung von der Materie haben und nicht an einem Äpfel/Birnen Vergleich interessiert sind.
Nightspider
2016-10-14, 23:30:06
https://media.giphy.com/media/d2W7bwXOhEstrR0Q/giphy.gif
Achill
2016-10-14, 23:38:38
Es scheint auf jeden Fall gut unter DX11 und DX12 zu laufen ...
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b1_2560.png
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b12560_12.png
Wirklich viel scheint es den AMD CPU Besitzern etwas zu bringen:
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_proz_12.png
dildo4u
2016-10-14, 23:42:01
DX12 ist kaputt auch auf AMD.
https://nl.hardware.info/reviews/7015/7/battlefield-1-review-benchmarks-met-13-videokaarten-dx11-vs-dx12
Linmoum
2016-10-14, 23:44:32
DX12 ist kaputt auch auf AMD.
https://nl.hardware.info/reviews/7015/7/battlefield-1-review-benchmarks-met-13-videokaarten-dx11-vs-dx12
Kann ich bei meinem 4690 und 'ner Fury nicht bestätigen, dass DX12 kaputt ist und schlechter läuft.
Kartenlehrling
2016-10-15, 01:39:04
52/64+dx11 56/66+dx12 rx480-8gb
65/80+dx11 66/81+dx12 r9nano-4gb
aber auch nicht wirklich durch dx12 profitiert,
und laut aussagen hier im Forum nicht nachvollziehbare Ruckler unter dx12.
dildo4u
2016-10-15, 01:55:18
Kann ich bei meinem 4690 und 'ner Fury nicht bestätigen, dass DX12 kaputt ist und schlechter läuft.
Mit der CPU müsste DX12 massiv besser laufen im Multiplayer nicht ca gleich,im Neogaf liest man öfter das Intel 4 Core's unter DX11 auf 100% laufen.
aufkrawall
2016-10-15, 03:07:47
Toll, dass man das Spiel mit DX12 schon spielen kann, aber Dice überhaupt nichts zu dessen technischem Stand sagt. :rolleyes:
http://abload.de/img/skylake6ptj6s.jpg[/URL]
Hams och e link zu dem Video?
Vom Posting #197
grobi
2016-10-15, 09:56:59
Toll, dass man das Spiel mit DX12 schon spielen kann, aber Dice überhaupt nichts zu dessen technischem Stand sagt. :rolleyes:
Man muss aber auch sagen das DX11 so gut läuft das es nicht weiter schlimm ist.
Man muss aber auch sagen das DX11 so gut läuft das es nicht weiter schlimm ist. Aber eigentlich sollte ja gerade DX12 besser laufen, sehr enttäuschend das ganze.
Slipknot79
2016-10-15, 11:37:08
Toll, dass man das Spiel mit DX12 schon spielen kann, aber Dice überhaupt nichts zu dessen technischem Stand sagt. :rolleyes:
Es gibt nunmal nix zu berichten, wohl nur nen Schalter für DX12 eingebaut und das wars. :cool:
grobi
2016-10-15, 11:49:58
Aber eigentlich sollte ja gerade DX12 besser laufen, sehr enttäuschend das ganze.
Was soll besser werden wenn man genug FPS hat? Beim nächsten BF wird es bestimmt mehr Auswirkungen haben.
fondness
2016-10-15, 18:03:18
Sieht ja ein weiteres mal ganz gut aus für AMD unter DX12:
https://s12.postimg.org/gqabcnb8d/chart.jpg
https://s10.postimg.org/xk23qyp61/Battlefield_1_1440p_Performance_per_dollar_Nvidi.png
https://uk.hardware.info/reviews/7020/5/battlefield-1-review-benchmarks-with-13-graphics-cards-testresultaten-wqhd-2560x1440-+-frametimes
dildo4u
2016-10-15, 18:12:40
Was für ein Sinnloser Preisvergleich im High End Bereich,die 1080/1070 FE sind teurer und langsamer als die Custom Modelle.
dargo
2016-10-15, 18:17:57
Sieht ja ein weiteres mal ganz gut aus für AMD unter DX12:
https://s12.postimg.org/gqabcnb8d/chart.jpg
https://s10.postimg.org/xk23qyp61/Battlefield_1_1440p_Performance_per_dollar_Nvidi.png
Naja, nicht ganz.
Die R9 280X bleibt unter den Erwartungen. Mir wäre neu, dass eine R9 290 63% und eine R9 390X ganze 99% schneller wäre. Für ein entgültiges Fazit ist es imho noch zu früh. Mal paar Spielupdates und Treiber abwarten.
Kartenlehrling
2016-10-15, 18:22:15
Ja lass mal die neue Radeon Software kommen,
ob wir dieses Jahr ausser auf der Console HDR auf einer AMD Grafikkarte noch sehen?
aufkrawall
2016-10-15, 18:23:54
Bei Fiji halte ich es auch für möglich, dass die Frametimes in WQHD DX12 wegen VRAM-Mangel leiden.
1080p DX11 mit 3GB liefen in der Beta jedenfalls nicht ohne Spikes.
mkh79
2016-10-15, 22:03:38
Schön, dass auch in Battlefield 1 DX12 richtig gut ist für AMD :)
Jetzt noch die störenden Ruckler weg bitte, dann passts.
dargo
2016-10-15, 22:14:22
Erfreulich finde ich die allgemeine Performance in 1440p @Ultra. Ca. 70fps mit Grenada Pro können sich sehen lassen und reichen mir auch im SP. Für den MP brauche ich schon eher 100+fps, da heißt es einzelne Details runter schrauben, kann ich mit leben. Bis ich das Game spiele könnte es schon Vega geben. Sollten die 12 TFLOPs tatsächlich stimmen wird die GTX1080 in BF1 vernichtet. :D Nach meiner Hochrechnung wird Vega eher schon GP102 angreifen. Wenn alles nach Plan läuft wird Vega wie Grenada und nicht wie Fiji die Leistung auf die Straße bringen. Sprich... Grenada XT *Faktor ~2.
Bei Fiji halte ich es auch für möglich, dass die Frametimes in WQHD DX12 wegen VRAM-Mangel leiden.
Hmm... nach diesem Test (99% Frametimes) sieht es nicht danach aus.
https://nl.hardware.info/reviews/7015/5/battlefield-1-review-benchmarks-met-13-videokaarten-testresultaten-wqhd-2560x1440-+-frametimes
aufkrawall
2016-10-15, 23:04:52
Das muss sich überhaupt nicht in Benchmarks widerspiegeln, wenn es erst nach mehreren Minuten Spielzeit auftritt.
Schnoesel
2016-10-15, 23:16:31
Dafuq warum performen immer die Spiele recht gut die mich nicht interessieren. ;D
Kartenlehrling
2016-10-15, 23:47:20
... oder man läst den Wein reifen, hin und wieder kann man sogar Essig trinken.
dargo
2016-10-16, 09:08:56
Das muss sich überhaupt nicht in Benchmarks widerspiegeln, wenn es erst nach mehreren Minuten Spielzeit auftritt.
Naja... wer für WQHD eine 4GB Karte kauft dem dürfte klar sein, dass er recht schnell hier und da eine Texturstufe reduzieren wird müssen.
https://s10.postimg.org/xk23qyp61/Battlefield_1_1440p_Performance_per_dollar_Nvidi.png
In diesem Beispiel fehlt mir diese Karte. ;)
http://geizhals.de/sapphire-radeon-r9-fury-nitro-11247-03-40g-a1373816.html?hloc=at&hloc=de
Die dürfte 3%, max. 5% langsamer sein als die Fury X.
Karümel
2016-10-16, 11:12:24
V9m05O9xDFQ
Karümel
2016-10-16, 17:24:31
Battlefield 1 PC: Tolle Optik, saubere Performance- erste Benchmarks der Release-Version
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Battlefield-1-Technik-Test-Benchmarks-1210394/
Edit. ne 106 wieder schnelle als ne 480?
Eigentlich wollte ich mir ja ne 480 kaufen, so langsam kommt wohl aber ne 1060 als Alternative in Frage.
Da günstiger und zur Zeit schneller.
Edit_ Leider wieder keine 470 mit 8GB mit bei :(
TurricanM3
2016-10-16, 18:36:21
Endlich zieht das Feuer die FPS nicht mehr auf ein Drittel runter.
Das ist 1440p Ultra:
Iv5p5WSKoS0
Hatte bislang in den 12h Spielzeit auch noch keine Effekte die genauso mies performen wie in BF4 (und das nicht mal @Ultra). Will mich aber nicht zu früh freuen.
dargo
2016-10-16, 19:42:26
Edit. ne 106 wieder schnelle als ne 480?
Ist doch nur DX11.
https://nl.hardware.info/reviews/7015/5/battlefield-1-review-benchmarks-met-13-videokaarten-testresultaten-wqhd-2560x1440-+-frametimes
http://gamegpu.com/action-/-fps-/-tps/battlefield-1-test-gpu
Edit:
Wobei bei den Russen die RX480 auch vor der GTX1060 in DX11 ist. PCGH hat wohl ein gutes Händchen Szenen zu finden die den Geforces besser schmecken. :upara:
AnnoDADDY
2016-10-16, 21:18:08
Pcgh nimmt nur das was am fordersnten ist. Wenn da AMD grade schlecht performt ist das gerade schlecht. Wo sowieso genug fps sind juckt das doch niemand :D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.