Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 970 Speicherbug durch Treiber optimiert?
garfunkel74
2015-10-07, 07:43:26
Hallo,
da ich gerne von AMD (bisher 7950) auf Nvidia umsteigen will, hab ich die MSI 970 GTX im Auge, da mir eine 980 zu teuer ist.
Nun liest man ja viel davon, da manche Karten ruckeln anfangen, wenn auf die letzten 0,5 GB Ram der Karte zugegriffen wird. Andere sagen aber dass die aktuellen Nvidia Treiber das optimiert haben, sodass nur die 3,5GB angesprochen werden. Meine Frage: ist das denn so?
MartinRiggs
2015-10-07, 07:51:47
Natürlich probiert der Treiber rauszuholen was geht, wenn der Speicher aber ausgeht dann muss auf die letzten 0,5 GB zugegriffen werden und dann ruckelt es heftig.
Ob man für so nen Mist über 300€ ausgeben will muss jeder für sich entscheiden.
Dann lieber eine R9 390 die zwar mehr Strom verbraucht dafür aber besser läuft.
garfunkel74
2015-10-07, 07:54:10
Natürlich probiert der Treiber rauszuholen was geht, wenn der Speicher aber ausgeht dann muss auf die letzten 0,5 GB zugegriffen werden und dann ruckelt es heftig.
Ob man für so nen Mist über 300€ ausgeben will muss jeder für sich entscheiden.
Dann lieber eine R9 390 die zwar mehr Strom verbraucht dafür aber besser läuft.
Hast eigentlich schon recht...... muss überlegen :biggrin:
StefanV
2015-10-07, 08:25:35
1. Warum sprichst du hier von 'Bug'?!
Ein Bug ist etwas unabsichtliches, was zu Fehlfunktionen führt.
Hier haben wir es aber mit einer Designentscheidung zu tun...
Entsprechend ist es hier schlicht falsch, von Bug/Fehler zu sprechen, denn das ganze geschah absichtlich!
Irgendjemand, der für die Produkte verantwortlich ist, muss die Anweisung für diese Kastration gegeben haben...
Ähnlich wie bei VWs aktuellem Abgas Skandal.
2. Bei der GTX 970 bist du, wie bei keiner anderen Karte, die es sonst jemals gab, darauf angewiesen, dass:
a) der Treiber von nVidia für die Anwendung besonders optimiert ist
b) das Spiel auch Rücksicht auf die GTX 970 nimmt...
Und wenns ganz blöd läuft, hast auch nur ~30% mehr Leistung als deine 7950 (=280) hat.
Ganz ehrlich:
Diese ~350€ solltest dir sparen und versuchen mit der aktuellen Karte noch etwa ein Jahr auszukommen.
Ansonsten wäre eine R9-390 die bessere Alternative, insbesondere wenn du vor hast, DX12 Titel zu spielen...
Und jetzt überlege mal bitte kurz, was passieren könnte/wird, wenn die GTX 970 einen Nachfolger erhalten hat...
Richtig, das gleiche wie bei den Kepler Karten, z.B. eine GTX 780 auf Niveau einer R9-280X gefallen ist, wie z.B. beim aktuellen Hexer (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/)...
Das ist IMO ein weiterer Sargnagel im Leben der GTX 970, die nur einem was nutzt: nVidia.
Du als Kunde wirst früher oder später ziemlich blöd aus der Wäsche schauen, wenn nVidia keinen Bock mehr hat, die ganzen Spiele für die 970 anzupassen...
garfunkel74
2015-10-07, 08:30:13
Sorry - mir fiel kein anderes Wort als bug ein. Mein Fehler.
deine Erklärung Stefan ist wirklich sehr hilfreich. Werde mich dann mal im 390 Lager umschauen die Tage.
Megamember
2015-10-07, 10:15:07
Im Moment ist von dem "Speicherbug" sogut wie nie auch nur ansatzweise etwas zu spüren. Im Moment heisst es von den AMD Fans immer nur "könnte", "in Zukunft", "evt" zu Problemen kommen. Im Moment gibts es ausser 1-2 AUsnahmen von schlechten Ports wirklich nichts wo die 970 Probleme zeigt, absolut nichts. DIe etwa 100W Mehrverbrauch und die höhere Lautstärke ist aber etwas was man immer spürt.
Und was DX12 bringt und welche letztendlich vorne liegt weiss auch noch niemand genau.
Match-Maker
2015-10-07, 10:20:36
Die R9 390 hat "echte" 8 GB und profitiert tendenziell mehr von DX12 --> klare Wahl
Btw sind die Hexer-Benchmarks, die Stefan verlinkt hat, nicht repräsentativ für den aktuellen Stand (Kepler-Performance ist mittlerweile ganz passabel): Link (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/)
Edit: Wie lange hast du eigentlich vor, deine Neuanschaffung zu nutzen?
Korfox
2015-10-07, 10:37:42
Ich muss hier den AMD-Argumentierern Recht geben. Inzwischen ist es meines Erachtens einfach nicht mehr sinnvoll, eine 970 zu holen (vor allem, wenn man von einer 280 kommt). Die 970 bietet freilich aktuell immernoch ein gutes P/L, die Tage der aktuellen Generation sind aber absehbar gezählt.
Entweder noch ein jahr bei der 280 bleiben und schauen, was es dann in der neuen Generation für 350€ rum gibt (ich denke, man kann einen recht großen leistungssprung erwarten), oder in Richtung einer größeren AMD-Karte (oder 980Ti - hier ist aber die D3D12-Zukunftssicherheit ungewisser, als bei AMD) schauen, die dann länger Dienst tun muss, als ein Jahr.
Die 970 wird sich wahrscheinlich nicht länger performant einsetzen lassen, als die 280/7950 (, denke ich).
BlacKi
2015-10-07, 10:47:24
ich würde die 7950 ebenfalls solange nutzen wie es geht. nicht das du mit einer 970 wohl die nächsten jahre probleme bekommen würdest, aber die 3,5gb sind nächstes jahr nur noch standard und könnten limitieren.
eine 390 verbraucht abartig viel strom, aber wenn dir der stromverbrauch egal ist und dessen lautstärke, dann sind die 8gb einfach das schlagende argument.
ich hab hier schon ein jahr lang eine 970 und hatte bisher keine probleme und als best verkaufsteste karte wird noch lange an ihr optimiert werden, sodass keine probleme auftreten werden.
Blaire
2015-10-07, 10:48:35
Zum Glück ist am PC alles frei konfigurierbar, man mag es kaum glauben sogar die Grafikdetails lassen sich im Jahre 2015 noch immer den Gegebenheiten anpassen. :D Und dann kommen Leute und wollen dir irgendwelche Tests mit deaktivierten GameWorks Effekten unterjubeln... welche auch noch als Argument herhalten sollen... Verrückt nicht wahr? ;D
Und dann auch noch Titan Classic mit 900mhz "Fixed Boost" da brauch ich garnicht erst weiterzulesen... den Rest spar ich mir...
StefanV
2015-10-07, 12:16:53
Im Moment ist von dem "Speicherbug" sogut wie nie auch nur ansatzweise etwas zu spüren. Im Moment heisst es von den AMD Fans immer nur "könnte", "in Zukunft", "evt" zu Problemen kommen. Im Moment gibts es ausser 1-2 AUsnahmen von schlechten Ports wirklich nichts wo die 970 Probleme zeigt, absolut nichts. DIe etwa 100W Mehrverbrauch und die höhere Lautstärke ist aber etwas was man immer spürt.
Und was DX12 bringt und welche letztendlich vorne liegt weiss auch noch niemand genau.
1. Frag mal aufkrawall
2. Innerhalb der letzten 24h habe ich mir über STEAM eigens 46GB für CoD: AW runtergeladen (bei maximal 5Mbit/s), um mir die Problematik zu verdeutlichen. Nun bin ich wegen der Krüppelkarte stocksauer und bin klar der Meinung, dass nVidia hier mit Vorsatz den Kunden betrogen hat! Ein derartiger Sachverhalt MUSS dem potentiellen Käufer bei der Produktvorstellung eindeutig dargelegt werden!
Bis vor dem Spielen von CoD: AW war ich mit meiner GTX970 auch SEHR zufrieden - aber das ist nun Geschichte!
3. Warum versuchst DU diesen Zustand immer runter zu spielen und schön zu reden?!
Es gibt jetzt sehr wohl einige Dinge, die gegen die 970 sprechen und auch einige Spiele, bei denen der 970 die Puste ausgeht.
Einen Beitrag, der das entsprechende darlegt, habe ich ja zitiert.
Und aufkrawall, dem man ja nun wirklich nicht unterstellen könne, dass er ein AMD Fan wäre, sieht das seltsamerweise eher wie die 'AMD Fans'...
Btw sind die Hexer-Benchmarks, die Stefan verlinkt hat, nicht repräsentativ für den aktuellen Stand (Kepler-Performance ist mittlerweile ganz passabel): Link (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/)
Korrekt.
Aber das wurde erst nach einem mittelprächtigem Shitstorm im Geforce Forum behoben...
Der Hexer ist da leider auch nicht alleine, es gibt noch einige andere Beispiele, in denen die Kepler einen eher unoptimierten EIndruck hinterlassen....
Mal ist die 780 auf Niveau der R9-280X. Mal schlägt sich die GTX 770 mit 'ner 270X (Pitcairn) rum...
Also die Situation für Kepler Nutzer ist jetzt alles andere als schön. Wenn ich mir damals 'ne Kepler Karte geholt hätte, würd ich mich jetzt so ein wenig Verarscht vorkommen.
Insbesondere wenn man sich anschaut, wo die gleichwertige Radeon 7970 steht...
Thunder99
2015-10-07, 13:09:36
Zum Glück ist am PC alles frei konfigurierbar, man mag es kaum glauben sogar die Grafikdetails lassen sich im Jahre 2015 noch immer den Gegebenheiten anpassen. :D Und dann kommen Leute und wollen dir irgendwelche Tests mit deaktivierten GameWorks Effekten unterjubeln... welche auch noch als Argument herhalten sollen... Verrückt nicht wahr? ;D
Und dann auch noch Titan Classic mit 900mhz "Fixed Boost" da brauch ich garnicht erst weiterzulesen... den Rest spar ich mir...
Das stimmt :wink:
Aber man sollte durchaus hier darauf hinweisen das wenn ein Spiel 4GB anfordert die Grafik aber nur 3,5+0,5 liefern kann und oder um das Problem zu umschiffen Frametimeschwankungen hervorrufen werden, das suboptimal für das Spielgefühl ist. Es gibt Beispiele wo sie es vom Spiel aus gepatcht hatten aber das im Falle bei FarCry 4 eher schlecht für alle (diese Begrenzung unter 4GB auf 3,5). Also wenn der Treiber angepasst wird und das Spiel entsprechend optimiert sowie nicht wahnwitzige Speicherfressende Einstellungen gefahren werden dann könnte es klappen mit den 3,5+0,5GB. Falls das nicht der Fall ist siehe die Beispiele aus meiner Signatur bevor sie es angepasst hatten.
Ob das 2016 öfters vorkommt weiß keiner. Aber persönlich wäre mir die negativen Auswirkungen dieser Limitierungen zu riskant ein durchweg gutes Spielgefühl (in Form vom flüssigen Spielen) nicht zu haben.
Beide Lager haben ihre Vor- und Nachteile.
Megamember
2015-10-07, 13:13:43
1. Frag mal aufkrawall
2.
3. Warum versuchst DU diesen Zustand immer runter zu spielen und schön zu reden?!
Es gibt jetzt sehr wohl einige Dinge, die gegen die 970 sprechen und auch einige Spiele, bei denen der 970 die Puste ausgeht.
Einen Beitrag, der das entsprechende darlegt, habe ich ja zitiert.
Was hat Byteschlumpf da überhaupt getestet? Was soll mit COD AW denn los sein, er macht ja überhauptkeine Details? Das Spiel hab ich damals sogar noch mit meiner 7870 in Full HD problemlos gespielt. Schon lange nichtmehr installiert. Soll das jetzt plötzlich auf der 970 kacke laufen oder wie?
Und was heisst hier schön reden? Ich schreib meine eigenen Erfahrungen. Im schön bzw. schlechtreden bist ja eher du der Weltmeister.
Korfox
2015-10-07, 13:18:51
2.
Und direkt der nächte Beitrag:
[...] ich hab auch letztens erst CoD: AW angezockt und keine probleme gehabt, vermutlich weil ich unter 3,5gb geblieben bin[...]
Und nun? Beides Aussagen von Usern der 970, beides ohne weitere Informationen. Der eine ist zufrieden, der andere nicht.
Einfach so aus der Luft gegriffen sind diese Aussagen komplett ohne Mehrwert. ich weiß nicht, ob Byteschlumpf 120fps als Zielwert bei aktiviertem AA, 4k, SuperDuperDolleGrafikEinstellung hat und ich weiß nicht, ob BlacKi als Zielwert 20fps bei 640x480 hat.
Ich weiß bisher auch nur von wenigen Spiele (2-3? Konsolenports), bei denen die 970 heute schon unter realistischen Bedingungen an ihrem Speicherproblem knabbert. Realistische Bedingungen heißt bei mir, dass man als Zielframerate mal min. 30-40 hat. Alles darunter ist eh eine Ruckelorgie, da spielen die Freezes durch den Speicher auch keine Roller mehr.
Trotzdem sinkt die Empfehlbarkeit der 970 mit jedem Tag, den die neue Generation und D3D12 näher rücken, denke ich. (Ersteres sicher, bei D3D wissen wir ja noch nicht wirklich bescheid, man kann es nach jetzigem Stand des Wissens aber vermuten)
dargo
2015-10-07, 13:32:54
eine 390 verbraucht abartig viel strom...
Das ist Blödsinn und wird nicht richtiger je öfter ihr es wiederholt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10778987&postcount=55
Es gibt nicht die 390. Da gibt es große Unterschiede was das PT angeht.
aufkrawall
2015-10-07, 13:36:30
Man weiß nicht, was da im Treiber optimiert ist oder nicht, NV teilt ja nichts diesbezüglich mit. Ich behaupte, es ist reine Glückssache.
Bei Battlefront scheint Hawaii Pro schon wieder schneller zu sein als eine übertaktete 970:
http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Beta-Technik-Benchmarks-1173656/
Ist anzunemen, dass das bei den anderen neuen Frostbite-Spielen auch so ist. Ubisofts Anvil Next Engine läuft mittlerweile auch sehr schnell auf Hawaii:
http://gamegpu.ru/action-/-fps-/-tps/rainbow-six-siege-beta-test-gpu.html
Bei UE4 Fable Legends Beta mit DirectX12 hat Hawaii auch eine extrem gute Figur gemacht:
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/
Der 970 geht auch ohne VRAM-Probleme schon die Luft aus. ;)
garfunkel74
2015-10-07, 14:22:21
hätte nicht gedacht dass sich das so entwickelt hier ......
geplant habe ich die Karte maximal 3 Jahre zu nutzen
aufkrawall
2015-10-07, 14:24:34
Für den langen Zeitraum ist ganz klar eine Karte mit mehr VRAM zu favorisieren, das dürften selbst die meisten 970-Anhänger hier so sehen. :)
garfunkel74
2015-10-07, 14:32:29
es gibt einen Thread von mir wo ein Spiel (the elder scrolls online) Probleme macht. Alle die auch davon betroffen sind, nutzen eine AMD der 7er Serie. Deshalb war mein Gedanke auch in das Nvidia Lager zu wechseln, jedoch spricht das mit den 3,5GB der 970er und der unverschämte Preis der GTX 980 dagegen.
Interessant wäre bei AMD zu bleiben und zu "hoffen" dieses Problem taucht bei der 390er NICHT auf.....
Mich nervt dieses Problem und es fällt mir schwer damit zu "leben" :freak:
garfunkel74
2015-10-07, 14:41:14
zur Info noch: ich spiele momentan Witcher 3 und the Elder Scrolls online in Full HD. Mehr Auflösung brauche ich nicht.
-/\-CruNcher-/\-
2015-10-07, 15:07:47
Schalt die Details runter und warte jetzt lohnt es sich nicht mehr umzusteigen der Performance boost mit Pascal und Next AMD da solltest du drauf hinsparen da 3 Jahre von jetzt an mit der 970 rumzutuckeln das bringt es nicht, es sei den du bleibst bei 1080p selbst mit komplexem GI ereichst du da noch 30 FPS und das sehr stabil mit DX12 je nach implementation.
Das erste was du machen solltest PP disablen dort kannst du fast immer das meiste an Speed rausholen ohne das du es sonderlich vermissen wirst bei AMD tesselation runter schmertzt auch nicht wirklich wenn es nicht ordentlich eingesetzt wird ;)
Bei Nvidia das erste AA load veringern soweit wie möglich, bei Kepler Compute load minimieren bei Maxwell Compute load optimieren ;)
XmZMbUC5z-g
Das läuft über einen externen PCI-E Amplifier ;)
MasterElwood
2015-10-10, 12:37:54
Ich bin sehr zufrieden mit meiner 970er.
Trotzdem würde ich zum JETZIGEN Zeitpunkt keine mehr Vollpreis kaufen, wenn du vor hast sie mehrere Jahre lang zu nutzen. Dazu ist die nächste NV Generation zu nahe (Q2 2016?) und die soll ja einen anständigen Leistungsschub bringen...
Wenn du jedoch eine gebrauchte zu einem guten Preis bekommst und 1080p dein Ziel ist: Schlag ruhig zu. :cool:
Generell kann man sagen, es war wohl noch nie so schwierig eine GraKa empfehlung zu geben, weil noch niemand hat wirklich eine Ahnung:
1. Wie stehen AMD/NV in DX12 da
2. Welches VR Framework (Liquid/Gameworks VR) ist effektiver.
Auch diese beiden Fragen sollten spätestens Anfang nächsten Jahres beantwortet sein.
Arschhulio
2015-10-10, 14:25:48
Also ich bin auch sehr zufrieden mit meiner G1 Gaming 970 von Gigabyte.
Bisher bin ich von allen geschilderten "Speicherproblemen" verschont geblieben, die so oft wild Diskutiert werden. Kann daran liegen das ich den Speicher von 3.5 Ghz auf 4 übertaktet habe oder schlicht an meiner Wahl der Spiele.
Trotzdem finde ich es eine Frechheit was nVidia sich da geleistet hat und wie es vor allem dann entschuldigt wurde!
Dennoch ist die Performance für mich "noch" ausreichend, kann sich natürlich alles noch ändern.
Wenn ich jetzt entscheiden müsste und meine Karte länger behalten möchte, würde ich allerdings nicht zur GTX 970 greifen. Eher würde ich auf die neue Generation warten oder aber eine 980 oder ähnliche von AMD kaufen!
Zum Glück ist am PC alles frei konfigurierbar, man mag es kaum glauben sogar die Grafikdetails lassen sich im Jahre 2015 noch immer den Gegebenheiten anpassen. :D Und dann kommen Leute und wollen dir irgendwelche Tests mit deaktivierten GameWorks Effekten unterjubeln... welche auch noch als Argument herhalten sollen... Verrückt nicht wahr? ;D
Und dann auch noch Titan Classic mit 900mhz "Fixed Boost" da brauch ich garnicht erst weiterzulesen... den Rest spar ich mir...
Nvidia steht es offen, die angeblich immer viel doller boostenden Karten mit höheren Basisfrequenzen auszustatten, dann hört diese ewige Diskussion endlich auf. Wie, das geht nicht, weil die Hälfte der GPUs dann abschmieren würde? Dann haben die Tests mit den typischen Boosts also doch Recht? Cool. :up: ;)
MfG,
Raff
dildo4u
2015-10-10, 16:57:47
Star Wars zeigt wohin die Reise geht Tesselation und POM bringen die Details, die Texturauflösung wird nicht mehr drastisch erhöt.
http://abload.de/img/5vzbne.jpg
Eher limitiert dort die GPU Power 1440p kann man schon vergessen,obwohl MSAA gestrichen wurde.
http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Beta-Technik-Benchmarks-1173656/
aufkrawall
2015-10-10, 17:03:33
Nicht jede Engine ist so gut optimiert wie Frostbite, deine Aussage ist mal wieder unseriös.
Davon ab läufts trotzdem auf Hawaii schneller.
Hallo,
da ich gerne von AMD (bisher 7950) auf Nvidia umsteigen will, hab ich die MSI 970 GTX im Auge, da mir eine 980 zu teuer ist.
Nun liest man ja viel davon, da manche Karten ruckeln anfangen, wenn auf die letzten 0,5 GB Ram der Karte zugegriffen wird. Andere sagen aber dass die aktuellen Nvidia Treiber das optimiert haben, sodass nur die 3,5GB angesprochen werden. Meine Frage: ist das denn so?
Also das ist irgendwie wiedersinning...die 7950 läuft sauber mit Leistungsoptimierung 20+ auf 1200Mhz /du kannst dir sogar noch ein eigenen Bios zurechtfriemlen - bis Tahiti geht das noch), oder du hast irgendeine Krücke erwischt. Dann ist sie fast so schnell wie die 780 und eben auch wie die 970, was soll der Tünnüff. Warte dann lieber die nächste Generation ab. Die bringt auf jeden Fall mehr DX12 in Hardware mit.
Die 280 halten doch immer noch ganz gut mit. Ich würde mal einen alternativen Kühler draufklatschen, vielleicht auch eine AiO mit Kraken und richtig Gas geben - die 7950 ist mit die beste OC-Karte von AMD. Hab selbst noch eine. Die reicht auch noch wenns nicht UHD sein soll. VSR 1440p macht die auch mit. Nur Freesync kann sie eben nicht. Derzeit ist Hardware immer noch viel zu teuer.
Nvidia steht es offen, die angeblich immer viel doller boostenden Karten mit höheren Basisfrequenzen auszustatten, dann hört diese ewige Diskussion endlich auf. Wie, das geht nicht, weil die Hälfte der GPUs dann abschmieren würde? Dann haben die Tests mit den typischen Boosts also doch Recht? Cool. :up: ;)
MfG,
Raff
Lese ich da nV-Kritik raus...:freak:
maguumo
2015-10-10, 17:06:03
Star Wars zeigt wohin die Reise geht Tesselation und POM bringen die Details, die Texturauflösung wird nicht mehr drastisch erhöt.
http://abload.de/img/5vzbne.jpg
Eher limitiert dort die GPU Power 1440p kann man schon vergessen,obwohl MSAA gestrichen wurde.
http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Beta-Technik-Benchmarks-1173656/
Und Spiele wie Arkham Knight und Black Ops 3 wird's natürlich nicht mehr geben weil jeder Dev plötzlich viel Zeit und Geld in effizientes Streaming und sonstige Optimierung steckt?
Du kannst dir nicht ein paar Paradebeispiele raussuchen und daran zwanghaft versuchen eine Entwicklung in diese Richtung vorherzusehen. Es gibt mehr als genug Spiele die komplett gegenteiliges Verhalten zeigen.
BlacKi
2015-10-10, 17:07:24
ich kann battlefron mit qhd mit 40-50fps genießen. reicht mir zwar nicht aus, aber es soll viele spieler geben denen 40 fps in 4k reicht.
eine 980ti könnte die 60fps wohl halten, kostet halt aber auch mehr das doppelte.
Star Wars zeigt wohin die Reise geht...
Dice wird schon ordentlich für AMD optimiert haben, traurig aber wahr. Man wird es erst unter DX12 sehen.
EA ist doch auch die letzte Schlampenfirma...diese Scheiß Optimierungen gehören irgendwann mal verboten. Auf beiden Seiten.
Das ist nichts anderes als mit Treiberoptimierungen bei der Bildquali zu bescheißen. Dem Spieler bringt das rein gar nichts, weil das Subsystem drumherum verteuert wird. Wer damit angefangen hat ist mir egal. Ich kaufe den Schrott nicht und SW BF ist mir völlig egal. Blödes hirnloses BF4 Geballer im SW Look. Da verlier ich nicht mal einen Gedanken...nach 5min völlig langweilig.
dargo
2015-10-10, 17:30:11
Star Wars zeigt wohin die Reise geht Tesselation und POM bringen die Details, die Texturauflösung wird nicht mehr drastisch erhöt.
http://abload.de/img/5vzbne.jpg
Du willst jetzt ernsthaft die Minimaps von einem MP-Titel mit den (Openword)-Titeln @Singleplayer vergleichen? :usweet:
Eher limitiert dort die GPU Power 1440p kann man schon vergessen,obwohl MSAA gestrichen wurde.
http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Beta-Technik-Benchmarks-1173656/
Komisch... ich kann in 1440p mit einer R9 390 mit 60+fps @max. Details spielen und hier werkelt noch nicht mal DX12 mit Async Compute. Wie alt sieht die 970 dann erst aus? ;)
aufkrawall
2015-10-10, 17:32:49
Du willst jetzt ernsthaft die Minimaps von einem MP-Titel mit den Openword-Titeln @Singleplayer vergleichen? :usweet:
Durch OW wird der VRAM-Verbrauch nicht auf einmal explodieren, Stichwort Streaming.
dargo
2015-10-10, 17:36:49
Ja... das sehe ich besonders gut beim neuen CoD und Batman.
aufkrawall
2015-10-10, 17:38:03
Cherry Picking ala Dildo?
Dass das Argument Quatsch ist, hätte dir durch Witcher 3 schon klarwerden müssen.
dargo
2015-10-10, 17:44:24
Cherry Picking ala Dildo?
Zwei Beispiele.
aufkrawall
2015-10-10, 17:46:58
...wovon das eine ja nicht mal Open World ist.
Was denn nun? Es gäbe allgemein Speicherfresser, oder sei Open World besonders betroffen?
Deine Argumentation widerspricht sich.
dargo
2015-10-10, 17:49:52
Ich habe jetzt extra für aufkrawall "Openworld" in Klammern gesetzt. Sonst wird mir das mit dir wieder zu anstrengend.
aufkrawall
2015-10-10, 17:53:19
Das vermeidest du in Zukunft am besten, indem du an dich einfach die gleichen Maßstäbe wie an andere anlegst.
dargo
2015-10-10, 17:59:24
Ich muss immer das letzte Wort haben.
/aufkrawall
Komisch... ich kann in 1440p mit einer R9 390 mit 60+fps @max. Details spielen und hier werkelt noch nicht mal DX12 mit Async Compute.
Was sollte dir das dort bringen, besonders schöne Schatten auf Tatooine und welche PhysX-effekte bescheunigen? Wenn Luke ein paar der Strumtruppenhirnlosies (die KI Heinis sind echt hirnlos) durch die Gegend schleudert? Ich weiß ja nicht was du alles in AC reininterpretierst, wobei man aufpassen muss das Dice das nicht auch wieder verbockt wie beim BF4-Mantlepart. Das Ganze hängt bei Programmierer poppt nicht einfach so auf...
dargo
2015-10-10, 19:11:28
Was sollte dir das dort bringen...
Mehr Leistung, ganz einfach.
Die zukunftssichere und schon in der Gegenwart gute Antwort auf die oben gestellte Frage lautet: Sapphire R9 390 Nitro. Der leiseste Kühler unter den 390-Karten, Leistung auf dem Niveau einer GTX 970 @ ~1,3 GHz und voll angebundene 8 GiB. Da gibt es bis auf die Leistungsaufnahme zwischen 250 und 300 Watt nichts zu motzen. Eine gebrauchte GTX 980, die ebenfalls eine vollwertige Speicherschnittstelle besitzt, wäre nochmal ein Eck schneller und deutlich sparsamer, gibt's aber nicht unter 400 Euro.
MfG,
Raff
dargo
2015-10-10, 20:59:43
Die zukunftssichere und schon in der Gegenwart gute Antwort auf die oben gestellte Frage lautet: Sapphire R9 390 Nitro. Der leiseste Kühler unter den 390-Karten, Leistung auf dem Niveau einer GTX 970 @ ~1,3 GHz und voll angebundene 8 GiB. Da gibt es bis auf die Leistungsaufnahme zwischen 250 und 300 Watt nichts zu motzen.
Das glaube ich nicht Tim. ;)
http://i.imgur.com/fqaE7cM.png
Gleiches gilt für den Stromverbrauch.
Mehr Leistung, ganz einfach.
Weil ein Benchmark das suggeriert? Beschäftige dich mal mit der Frostbiteengine3.0, wenn man bestimmte Prozesse ordnet müssen andere warten. Das ist überhaupt kein Heilsbringer - wird wieder nur so publiziert. Bei Nvidia habt ihr bestimmte dedizierte Feature noch kritisert, macht es AMD geht es i.O., das arme, arme AMD...
AsyncCompute kann genau Computebasirendes beschleunigen, dann hört es auch schon auf. Eine DrawCall Optimierung kann DrawCalls beschleunigen, eine Nvidia Cuda vs PhysX Optimierung kann PhysX beschleunigen. Kann AsyncCompute jetzt Tile-based Deferred Shading, Morphological Antialiasing+Postprocessing und Analytical Ambient Occlusion beschleunigen? Wenn ja mit welchem Faktor? und welche andere Option muss dann warten. Wie macht Nvidia dies?
AMD verkauft mal wieder alle für blöd. Es lebe DX10, es lebe DX11.3, es lebe TR_Tier_3, es gibt kein DX mehr nach 11, es lebe Mantle, es lebe Vulkan, jetzt lebe eben AsyncCompute...wie lange, bis es wie die anderen Blasen verpufft? Fällt dir was auf? Es lebt immer genau so lange wie das Marketing es braucht, dann ist es denen scheißegal.
Kontiunität sieht anders aus. Wer weiß schon wie es morgen heisst.
dargo
2015-10-10, 21:45:36
Ich liebe trollende Gäste. (y)
MartinRiggs
2015-10-10, 21:51:02
Das glaube ich nicht Tim. ;)
http://i.imgur.com/fqaE7cM.png
Gleiches gilt für den Stromverbrauch.
Naja nicht jeder will rumbasteln, allein das die HIS nicht passiv im Idle ist, ist schon albern.
Mein Kumpel hat die Sapphire Nitro, die ist schon ein schönes Stück Hardware.
captain_drink
2015-10-10, 21:58:31
Die Powercolor 390 PCS+ ist übrigens auch nicht lauter/heißer als die Nitro, sofern man die Lüfterkurve anpasst oder beim Hersteller lieb nach dem neuen BIOS fragt.
aufkrawall
2015-10-10, 21:59:11
Du weißt nicht zufällig die minimale Drehzahl derer Lüfter?
dargo
2015-10-10, 22:01:25
Naja nicht jeder will rumbasteln, allein das die HIS nicht passiv im Idle ist, ist schon albern.
Ich bezog mich dabei eher auf die Lautstärke bei Last. Das mit Idle hat HiS in der Tat verbockt. Es muss nicht gleich passiv sein, 800-900RPM hört man bei der Karte aus einem geschlossenem Gehäuse (kein schweizer Käse) auch nicht.
Das glaube ich nicht Tim. ;)
http://i.imgur.com/fqaE7cM.png
Gleiches gilt für den Stromverbrauch.
Im Gegensatz zur IceQ drosselt die Nitro nicht alle naselang, Powerlimit und Lüfterkurve sind bei HIS zu "zahm" eingestellt. Dass eine Hawaii-Karte bei voller Auslastung (Full HD leistet das nicht) die von mir genannte Energiemenge zieht, ist landläufig bekannt. Wie sich die PCS+ verhält, weiß ich mangels Muster nicht.
MfG,
Raff
dargo
2015-10-10, 22:15:20
Im Gegensatz zur IceQ drosselt die Nitro nicht alle naselang, Powerlimit und Lüfterkurve sind bei HIS zu "zahm" eingestellt.
Das ändert nichts daran, dass eben die HiS bei Last die leiseste R9 390 ist. Und eben dem habe ich widersprochen als ich dich zitiert habe. Die Sapphire R9 390 Nitro hat nicht den leisesten Kühler. ;) Die Lüfterkurve lässt sich dank stufenlosem TT bei HiS einwandfrei für jeden optimal einstellen. Das kann die Nitro nicht. ;) Wer mehr Leistung will stellt halt das PT etwas höher. Mit bis zu +50% hat man da jede Menge Spielraum. Was natürlich wieder mit höheren Lautstärke dank mehr Stromverbrauch verbunden ist. Man könnte fast sagen die HiS ist die Nano unter Grenada Pro. :D Viel näher am Sweetspot.
Siehst du. Ich empfehle vorwiegend Karten, die auch mit einem "normalen" Powerlimit was weggekühlt bekommen. Also leise. Mit 250 Watt kann das fast jeder Kühler, nicht aber mit 300+. :) Das ist ein sehr wichtiger Punkt, wenn man die R9 390 mit einer GTX 970 vergleicht: Die hohe Leistungsaufnahme ist die direkte Ursache dafür, dass diese Karten allesamt lauter sind als die Nvidia-Pendants, eben weil letztere zwischen 50 und idR sogar 70-80 Watt weniger verbrauchen.
MfG,
Raff
dargo
2015-10-10, 22:38:07
Siehst du. Ich empfehle vorwiegend Karten, die auch mit einem "normalen" Powerlimit was weggekühlt bekommen. Also leise. Mit 250 Watt kann das fast jeder Kühler, nicht aber mit 300+. :) Das ist ein sehr wichtiger Punkt, wenn man die R9 390 mit einer GTX 970 vergleicht.
Auf jeden Fall.
Die Customs die auf Teufel komm raus hohen Takt halten müssen sollte man meiden. Das wird nie schön leise weil man den Sweetspot schon längst weit überschritten hat. Ich habs ja schon mehrmals gesagt... es gibt nicht die R9 390. :) Ich amüsiere mich ständig hier wenn wieder einer (damit meine ich natürlich nicht dich) kommt mit "die GTX970 verbraucht um die 100W weniger als die R9 390". Dabei verbraucht die HiS um die 30W mehr als viele Customs GTX970.
StefanV
2015-10-10, 22:40:14
Naja nicht jeder will rumbasteln, allein das die HIS nicht passiv im Idle ist, ist schon albern.
Mein Kumpel hat die Sapphire Nitro, die ist schon ein schönes Stück Hardware.
Passiv im Idle ist albern, da das die Temps unnötig erhöht, die Lebensdauer daher unnötig verkürzt...
Verstehe nicht, warum das immer als Vorteil angesehen wird...
Nur damit der Hersteller billige/schrottige Lüfter nutzen kann, oder warum soll das toll sein?!
dargo
2015-10-10, 22:49:59
Passiv im Idle ist albern, da das die Temps unnötig erhöht, die Lebensdauer daher unnötig verkürzt...
Diese Verallgemeinerungen sind ebenso albern. Es hängt immer damit zusammen wieviel die Graka in Idle verbraucht und wie groß der Kühler dimensioniert ist. Als ich noch eine MSI GTX970 Gaming hatte lag die Idle Temperatur bei mir bei 38°C im passiven Betrieb. Du willst mir doch nicht ernsthaft erzählen das hätte in irgendeiner Weise die Lebensdauer der Komponenten verkürzt?
Verstehe nicht, warum das immer als Vorteil angesehen wird...
Nur damit der Hersteller billige/schrottige Lüfter nutzen kann, oder warum soll das toll sein?!
Dann erkläre ich dir das mal. ;)
Große Kühler führen zwangsläufig zu schweren Karten. Schon eine kleine Unwucht im Lüfter reicht manchmal je nach Gehäuse aus, dass dein Gehäuse zum Resonanzkörper wird. Bei stehenden Lüftern kann sowas logischerweise nicht passieren. Was glaubst du warum ich seit einiger Zeit so froh bin keine HDDs mehr nutzen zu müssen? Es liegt nicht nur am Speed der SSDs.
Megamember
2015-10-10, 22:55:29
Nur damit der Hersteller billige/schrottige Lüfter nutzen kann, oder warum soll das toll sein?!
Was hat denn das eine mit dem anderen zu tun? MAn kommt damit Silentfreaks entgegen und 60 Grad tun der Karte nun mal überhaupt nicht weh. Ausserdem verlängert das die Lüfterlebensdauer eher.
Ausserdem verlängert das die Lüfterlebensdauer eher.
glaubst aber nur du und dargo, der motzende Gast wieder...das ständige anlaufer der Lüfter schadet eher als wenn er standig durchläuft. Ist wie bei Automotor, wann ist die belastung angrößten? Wenn das Drehmoment am höchsten ist, das ist nicht am höchsten wenn man 250 fährt...kleiner Denkfehler von euch beiden. Von unten raus beschleunigen da ist die belastung am höchsten, bei Lüfter wenn er startet!
Ein Silentfreak hat mehr davon, wenn die Temperatur bei niedriger Drehzahl eben niedrig bleibt, 60°C dauerhaft im Gehäsue ist schon heftig, da braust der Lüfter mal so mir nichts dir nichts ganz los.
Aber erklärt es mir ruhig, lerne gerne etwas dazu.
captain_drink
2015-10-10, 23:49:11
Du weißt nicht zufällig die minimale Drehzahl derer Lüfter?
Der Powercolor? 0 (Zerofan).
aufkrawall
2015-10-10, 23:53:10
Ich meine die niedrigste Drehzahl, bevor die Lüfter abschalten. :)
BlacKi
2015-10-11, 00:10:05
überhaupt nicht ot^^
Birdman
2015-10-11, 03:56:32
Ein Silentfreak hat mehr davon, wenn die Temperatur bei niedriger Drehzahl eben niedrig bleibt, 60°C dauerhaft im Gehäsue ist schon heftig, da braust der Lüfter mal so mir nichts dir nichts ganz los.
Aber erklärt es mir ruhig, lerne gerne etwas dazu.
Armseeliger Versuch den wahnwitzigen Stromverbrauch von AMD Karten im 2D Betrieb zu rechtfertigen?
Also ich liebe meinen Fanless PC im idle/2D (muss man ja differenzieren, seit man weiss dass die Furys nur dann mir LowPower operieren wenn man die Maus nicht bewegt) Betrieb .
StefanV
2015-10-11, 10:10:11
Armseeliger Versuch den wahnwitzigen Stromverbrauch von AMD Karten im 2D Betrieb zu rechtfertigen?
Kannst du bitte mit deiner Pro-nVidia Propaganda aufhören?!
Weil das, was du hier behauptest, ist einfach nur FUD und entspricht NICHT der Realität...
Armseeliger Versuch den wahnwitzigen Stromverbrauch von AMD Karten im 2D Betrieb zu rechtfertigen?
Also ich liebe meinen Fanless PC im idle/2D (muss man ja differenzieren, seit man weiss dass die Furys nur dann mir LowPower operieren wenn man die Maus nicht bewegt) Betrieb .
Was ist an ~15 bis ~25 Watt, je nach Radeon und Herstellerdesign, "wahnwitzig" (gegenüber ~12 bis ~20 Watt bei Geforces)? Oder meinst du die höhere Tendenz zu zwischenzeitlichem Hochtakten?
MfG,
Raff
fondness
2015-10-11, 12:08:12
Ich poste ja normalerweise nicht im NV-Forum, aber nachdem es hier mittlerweile eh um AMD geht. :D
Die Powercolor 390 PCS+ ist übrigens auch nicht lauter/heißer als die Nitro, sofern man die Lüfterkurve anpasst oder beim Hersteller lieb nach dem neuen BIOS fragt.
Der Sapphire 390 Nitro-Kühler ist allerdings wohl trotzdem besser, wenn man Lautstärke im Verhältnis zu Temperatur und Leistungsaufnahme ansieht. Allerdings ist die PCS+ sehr attraktiv, schlicht da sie am wenigsten kostet.
@raff
Quer durchs Bett nehmen die auch mal bis zu 84w, dass ist schon richtig und sollte man auch so sagen, ihr geht immmer von Werten aus in denen der Desktop ruht (da liegt die PCS+ bei 15,9w)! Multimedia+HD und so sind das mehr, und danach kann man auch einen tatsächlichen Durchschnittsverbrauch errechnen (vielleicht macht ihr das mal bei der PCGH-denke der liegt dann bei ca 25-30 je nach Anwenderverhalten-nV hat dort noch Vorteile), daß weißt du aber selbst...Raffael.;)
@aufkrawall
Lüfterdrehzahl
Das lässt sich nicht so einfach feststellen, Powercolor (TUL) hat aber mit einem Nachfolge-Bios-Update nachgebessert (Games-Load max 304w-77°C vs 66°C-old), die Karte konnte daher die Lautstärke von ca. 43db auf 38db senken. Full-Load (Furmark) liegt sie jetzt bei 325 vs 345w-old. Selbst mit 77°C hätte man noch Reserven was die Lautstärke angeht. Ob die Lüfterprofile zum eigenen Geräuschempfinden passen, ist wieder eine andere Geschichte.
@dargo
Wieder der Behauptung schalten die Lüfter der PCS+ bei 65°C zu (0db-Idle Modus), sie bleibt also auch bei nicht anspruchsvollen Spielen geräuschlos, so auch - wie unter Desktop und Officeanwendungen. Nur im wirklichen 3D-Modus schalten die Lüfter zu. Mit den bis zu 84w Multimedia-HD-UDH kommt der Kühler gut klar und hat auch noch Reserven. Der Aufbau des Kühlers ist ähnlich zu dem der TriX.
Ich persönlich würde daher eher die PCS+ nehmen.
Ich habe es gerade nochmal nachgemessen (immer gesamtes System):
390x db0-Idle-Mode
ruhender Bildschirm=61w
Scrollen durch FF=bis zu 104w Peaks
MCP-HC x64 1080p MadVR-Lanczos, datei.m2ts=148w
Videowiedergabe (ST-Nemesis-Original 1080p über HDMI mit VLC)=115w
BR Laufwerk habe ich leider nicht.
i72700k@4.0Ghz (Boost off)
8GB Ram
Windows 8.1
1-SSD
1-HDD
CPU auf Wasserkühlung auf Basis der Eheim12v 1x240 Radiator 1046-4x120mm
390x bei -10/+5 Overdrive (läuft sehr stabil unter Gaming)
Netzteil bq SP 10 750w
Vielleicht hat jemand mal Vergleichswerte zur 980...aufkrawall vielleicht?
StefanV
2015-10-11, 13:20:46
MCP-HC x64 1080p MadVR-Lanczos, datei.m2ts=148w
Du darfst aber auch nicht unterschlagen, dass du mit madVR auch JEDE GPU bis auf Anschlag auslasten kannst.
Da kannst dann entweder das ganze auf unter 100W optimieren oder aber mit 'ner High End Karte auf 350W prügeln, alles eine Frage der Einstellungen...
BlacKi
2015-10-11, 13:29:24
@aufkrawall
Full-Load (Furmark) liegt sie jetzt bei 325 vs 345w-old.
und die karte alleine? mein haswell e mit der 970 verbraucht unter furmark 250w+-
Du darfst aber auch nicht unterschlagen, dass du mit madVR auch JEDE GPU bis auf Anschlag auslasten kannst.
Da kannst dann entweder das ganze auf unter 100W optimieren oder aber mit 'ner High End Karte auf 350W prügeln, alles eine Frage der Einstellungen...
Natürlich, daher habe ich ja um Vergleiche gebeten, weil ich eben weiß das aufkrawall auch viel mit MadVR macht.
Wenn du aber genau guckst und vergleichst, kommen die bis zu 84w schon hin. Dabei von ruhenden Desktopwerten auszugehen ist ja Quatsch. Weißt du auch selbst. AMD muss da immer noch besser werden (meine Meinung). Woanderes haben sie wieder Vorteile.
Ich will hier auch keine fehlgeleitet Meinung verteidigen, es sollte aber bei der Wahrheit bleiben. So..."stimmt doch alles nicht was du schreibst" ist Bullshit, man sollte das schon belegen. Habe ich gemacht.;)
Eine 970 liegt im Gaming Mode bei max 188,1w (Referenz)...mal abgesehen vom verkrüppelten SI. Solltest du dir dann nochmal ansehen.
und die karte alleine? mein haswell e mit der 970 verbraucht unter furmark 250w+-
Das ist die Karte allein!
aufkrawall
2015-10-11, 14:15:50
Vielleicht hat jemand mal Vergleichswerte zur 980...aufkrawall vielleicht?
Ich hab das nicht mit einem Wattmeter gecheckt.
Auch die 980 taktet manchmal bei FF in den P0 State, laut TDP-Anzeige erreicht sie dabei ca. 43W Verbrauch.
Aber halt nicht ständig, bei Hawaii springt schon bei kleinsten Aktivitäten der VRAM-Takt hoch, was dann mit der passiven Belüftung für Idle mit der Tri-X hier schon zu viel war. Auch wenn ich mit der Tri-X New alle Lüfter habe langsam drehen lassen, sind die Temps während des Surfens trotzdem immer weiter angestiegen und irgendwann halt entsprechend die Lüfterdrehzahl.
Sehr, sehr nervig.
Ich hab das nicht mit einem Wattmeter gecheckt.
Auch die 980 taktet manchmal bei FF in den P0 State, laut TDP-Anzeige erreicht sie dabei ca. 43W Verbrauch.
Aber halt nicht ständig, bei Hawaii springt schon bei kleinsten Aktivitäten der VRAM-Takt hoch, was dann mit der passiven Belüftung für Idle mit der Tri-X hier schon zu viel war. Auch wenn ich mit der Tri-X New alle Lüfter habe langsam drehen lassen, sind die Temps während des Surfens trotzdem immer weiter angestiegen und irgendwann halt entsprechend die Lüfterdrehzahl.
Sehr, sehr nervig.
Jupp kann ich bestätigen, hier springt der GPU-Takt im FF von 300, gleich auf 385mhz und der Speichertakt von 150 grundsätzlich auf 1250Mhz und das geht dann nur über die Leistungsaufnahme (ist dann immer noch so, AMD hat sich da ja mal lapidar zu geäußert-man liefert das beste was die Hardware hergibt-blablabla)
Also die Lüfter starten hier nicht, aber ich hab einen Bigtower, da wird mehr Luft sein. Kleine Gehäuse werden da sicher in Bedrängnis kommen.
Werde mal versuchen den Speichertakt festzunageln....Moment.
Habs einfach mal über Overdrive manuell festgenagelt und was soll ich sagen-die Sig bleibt bei 67w, ohne das das Bild zusammenbricht. (probiert es einfach mal aus). Die GPU taktet dann auf 425mhz.
Denke es ist der Speichertakt, der dann auch heizt. Müsste AMD mal erklären wozu das gut sein soll.
-/\-CruNcher-/\-
2015-10-11, 14:51:22
Wenn man solche Browser tests macht sollte man sie generel aber nur mit Microsofts Browser unter Windows durchführen weil der optimal abgestimmt ist auf das OS und die genutzten APIs (Direct2D,Directwrite,Direct3D) und im WHQL teils berücksichtig wird ;)
Nvidia hat schon einige Performance und Stabilitätsprobleme mit Firefox 3D Engine und Direct2D implementation fixen müssen in ihrem Treiber über die Jahre ;)
Wenn man solche Browser tests macht sollte man sie generel aber nur mit Microsofts Browser unter Windows durchführen weil der optimal abgestimmt ist auf das OS (Direct2D,Directwrite,Direct3D) und im WHQL teils berücksichtig wird ;)
OK hab ich gemacht, das Gleiche der Speichertakt springt bei jedem scrollen auf 1250mhz. Das ist ein AMD internes Problem, bin der Meinung 300mhz würden es auch tun.
Ich probier jetzt mal eine DVD mit 300mhz zu gucken.
So, gesamte Sig wie oben:
max 79w beim DVD Video
max 115w bei MadVR
Schlappe bis zu 30w Unterschied.
Nu wisst ihr woran es liegt. Hatte per Overdrive 300mhz max Speichertakt eingestellt, lief alles super durch, kann über die Kapitel springen etc. alles problemlos möglich. Den Quatsch soll AMD mal erklären. Die kennen nur 150Mhz oder 1250Mhz, Schwachsinn. Und viel machen kann man nicht, als sich 2d und 3d Profile über eine Zusatzsoftware anzulegen. An das Bios kommt man ja kaum ran.
Sollten sie dann mal im Treiber implementieren.
aufkrawall
2015-10-11, 15:10:44
Mit HBM dürfte das allerdings egal sein.
-/\-CruNcher-/\-
2015-10-11, 15:10:47
@Gast
Welche website testest du hier beim "smooth" scrolling ?
@Gast
Welche website testest du hier beim "smooth" scrolling ?
Such dir eine aus, ist immer das gleiche, der Takt springt bei jeder Regung auf Höchstwerte, weil in der State auch kein anderer Takt hinterlegt ist, logisch.
Was sollte da der Treiber oder irgendeine WHQL zertifizierte Software anders machen?
Das liegt an der Hardware! Geh auf techpowerup und wühl dich durch die Bios'e - dann kommst du selbst drauf. Bei den 390x springt der Takt auf 1500mhz hoch.;)
Das ist auch nichts neues.
Mit HBM dürfte das allerdings egal sein.
Ja könnte sein, was man aber sparen könnte sagt das nicht aus - habe keine da, zu teuer. Bei über 500 Euro ist bei mir Schluss.
Mit 500mhz liegt man dann schon bei 91w. Ich denke das zeigt das Problem des Mehrverbrauchs deutlich auf. Nvidia Mhz-Werte verharren dort förmlich. Genau das muss AMD mal nachbessern, HBM hin oder her.
StefanV
2015-10-11, 16:03:09
Das 'Problem' ist, dass AMD das ja bei der 5k Serie gemacht hat.
Da gabs dann die sog. UVD Taktraten. (AFAIR sowas wie 300Mhz Core und 900MHz Speichertakt).
Das gab aber (leider) Probleme, wenn man 2 Schirme dran hatte. Denn jedes mal, wenn ein Video erkannt wurde, ging die Karte in den UVD Zustand...
Mit einem Schirm ist alles OK, aber mit 2 wars einfach zum brechen...
Das hat man dann wieder entsorgt, k/a, ob das schon bei der 6k Serie war oder erst bei der 7k...
aufkrawall
2015-10-11, 16:45:00
Das Problem ist, dass sie es nicht hinbekommen haben. Diskussion fertig.
Das 'Problem' ist, dass AMD das ja bei der 5k Serie gemacht hat.
Da gabs dann die sog. UVD Taktraten. (AFAIR sowas wie 300Mhz Core und 900MHz Speichertakt).
Das gab aber (leider) Probleme, wenn man 2 Schirme dran hatte. Denn jedes mal, wenn ein Video erkannt wurde, ging die Karte in den UVD Zustand...
Mit einem Schirm ist alles OK, aber mit 2 wars einfach zum brechen...
Das hat man dann wieder entsorgt, k/a, ob das schon bei der 6k Serie war oder erst bei der 7k...
Das erkennt die Grafikkarte aber und man hinterlegt eine State, wenn ich keine 3 Bildschirme und 7K fahre wozu denn den Speichertakt hochjubeln, man nimmt so den Silentfreaks und Downzising Typen die Wahl sich auch mal AMD Karten zuzulegen ohne AMD Hardware Studien abzuschließen. Das weißt doch selbst. Bißchen gestelle und die Karten werden so instabil...
Das Prinzip dahinter zu verteidigen ist ja schön und gut, aber es muss in gewisser Weise sachlich bleiben. AMD muss da was ändern...
Wenn ich diesen Scheiß hier lese wird mir übel, Troll gegen Troll???...https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10809157&postcount=984
Die G1 verbraucht zwar soviel wie die 390x (Peaks bis 400-425w) knallt aber 20-30% mehr fps auf den Bildschirm...was dann eine völlig andere Leistungscharkteristik ausmacht (fps/w) bei gleichem Verbrauch - das ist doch keine Diskussionsgrundlage mehr, sowas ist einfach nur Bullshit weil einem die Argumente ausgehen.
Die G1 ist sogesehen eine der geilsten 980ti weil man dir hier mal entfesseln darf! Ansonsten grenzt nV das doch alles ziemlich ein.
So eine Karte mit einer 390 zu vergleichen ist einfach lächerlich. Die ist schneller als die FuryX in UHD.
technisch gesehen ist es möglich die Hawaiis und Grenada auch im Idle-Mode sparsam hinzutrimmen, warum sollten das die Käufer machen. AMD soll lieber aufpassen das sie irgendwann mal keine Grafikkarten mehr in der EU verkaufen dürfen, wenn man das Effizienzverhalten nicht verbessert.
Das ist doch seit Powertune 2.0 so und AMD geht das wohl am Arsch vorbei.
AMDs überarbeitete Power-Tune-2.0-Technik, fand erstmals Einzug mit der Bonaire-GPU in Form der Radeon HD 7790. Bereits seinerzeit fielen uns die feinen Abstufungen der Taktschritte auf, bereits seinerzeit bemängelten wir dieses Verhalten bei der Blu-ray-Wiedergabe. Die finale Variante, wie sie nun auf R9 290 und R9 290X zum Einsatz kommt, zeigt jedoch eine weitere Schwachstelle. Sobald irgendetwas auf dem Desktop geschieht, steigen die Spannungen und die Taktraten an. Ob man nun Fenster von rechts nach Links verschiebt, ob man im Web surft und im Browser scrollt – die Taktraten schnellen je nach dargestelltem Inhalt nach oben und erreichen durchaus Taktstufen von über 500 MHz – selbst bei abgeschalteter GPU-Beschleunigung im Browser. Dabei wird die Spannung natürlich ebenfalls mit angehoben, denn so sieht es die Technik vor. Wir konnten dies gar mit Dokumenten mit Bildinhalten nachstellen. Ein solches Verhalten kannte man bislang weder von Power Tune in seiner ersten Fassung (also den Radeon HD 7000-Grafikkarten), noch vom Mitbewerber NVIDIA. Anfänglich hatte dort die GTX-600-Serie ein ähnlich eigenartiges Verhalten, welches jedoch relativ schnell beseitigt wurde.
Bild: AMDs Power Tune 2 patzt bei der Idle-Leistungsaufnahme bei R9 290 und 290X
Was bedeutet dies für die Praxis? Nun, während wir im komplett ruhenden Desktop die Leistungsaufnahme einer Radeon R9 290X* mit rund 20 Watt bestimmen konnte, schnellte die Leistungsaufnahme beim Scrollen im Browser-Fenster auf deutlich über 70 Watt nach oben – ein drastischer Unterschied wie wir meinen.
Wir haben natürlich AMD von diesem Verhalten sofort in Kenntnis gesetzt, wobei wir aber annehmen, dass AMD das Verhalten bekannt sein dürfte und bislang keinen Handlungsbedarf sah. Unsere Empfehlung an den Hersteller lautet natürlich, dass man mittels Firmware-Update oder Treibereingriffe, diese Sprunghaftigkeit beseitigen sollte, denn es braucht weder die höhere Grafikkartenleistung in solch einem Betrieb, noch eine solch hohe Leistungsaufnahme. Ob AMD hier reagieren wird, das bleibt abzuwarten.
http://ht4u.net/news/28822_amds_power_tune_2_patzt_bei_der_idle-leistungsaufnahme_bei_r9_290_und_290x/
Wie man liest könnten sie das schon mit einem treiber glattziehen, nur wollen sie das gar nicht, oder wie soll man das verstehen. Der Artikel ist von 2013.
Also die Situation für Kepler Nutzer ist jetzt alles andere als schön.
Alles unter als schön ist wie AMDs karten unter DX11 performen.
290x ist in Cpu-lastigen szenen oftmals langsamer als GTX680
http://forums.guru3d.com/showthread.php?t=398858
Kepler 780ti ist in praktisch allen Spielen schneller als die konkurrenzkarte von AMD (290X)
http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index44.php
Screemer
2015-10-12, 01:48:35
tackert eure karte halt bei niedrigstem speichertakt fest. das mach ich seit tahiti mit afterburner. da springt dann auch nix mehr. nutzt das tool eurer wahl. natürlich blöd, dass das nicht automatisch so ist. so what. diese 80w peaks machen das kraut auch nicht fett. im übrigen sollte es hier um potentielles geruckel von NV 970 karten gehen. 3 seiten reinerster ot-salat.
tackert eure karte halt bei niedrigstem speichertakt fest. das mach ich seit tahiti mit afterburner. da springt dann auch nix mehr. nutzt das tool eurer wahl. natürlich blöd, dass das nicht automatisch so ist. so what. diese 80w peaks machen das kraut auch nicht fett. im übrigen sollte es hier um potentielles geruckel von NV 970 karten gehen. 3 seiten reinerster ot-salat.
Das geht nicht bei allen, meine Asus ignoriert das vollstaendig egal mit welchem Tool.
Wenn ich das hier mal wieder lese schleicht sich mit langsam der Verdacht auf das AMD oder die Partner Presse und Eneerinhssample selektiert zu dem Gestern schicken. Mittlerweile verbieten sie ja mit Nichtachtung sogar die kritische Berichterstattung, siehe Nano - eine Sauerei...
Die Asus hier geht zurück, Abstürze in Mass inbegriffen, ein höllischer Krach beim Gaming und ein aufgeheiztes Gehäuse Innenleben, ich weiss nicht wer so einen Blödsinn empfiehlt. Da ist jede verkrüppelte 970 besser.
Bei jeder Map oder laden von einem anderen Speicherstand zum Beispiel in Skyrim lande ich auf dem Desktop, was ein Kram. AMD hat echt Probleme.
Wenn das Spiel mal läuft sieht recht ansprechend aus, ich hau meine GTX 680 wieder rein und warte was noch so kommt. Grenada ist für mich eine Totgeburt, da muss man wohl ein 700w Netzteil zu kaufen? Was ein Fail.
dargo
2015-10-12, 10:47:51
Quatsch... unter einem 1.500W NT läuft Grenada nicht. Immer wieder lustig wie die Trolle im 3DC angelockt werden.
Weil ihr hier euphorisch berichtet, aber die einzigen seit. Wenn man jetzt Spezi sein muss um eine 390x stabil hinzukriegen, wie bescheuert ist das denn. Das geht doch völlig am Markt vorbei. Ich hatte mich so gefreut. Aber dafür geb ich keine 450 Euro aus.
Ich habe es 3 Tage lang versucht, ich denke das reicht, verpackt und zurück. Ich habe auch keinen Bock in Foren anzufragen wie ich neu gekaufte Hardware stabil zu laufen bekomme oder irgendwelche Zweitanbietertools zu installieren um einem Anspruch gerecht zu werden. Das ist Problem des Herstellers. Die Asus kann man jedenfalls vergessen, alle Nase lang landet man unter Spielen auf dem Desktop ohne irgendeine Fehlermeldung.
Das mag dir ja drollig oder trollig vorkommen, ist aber hier so und blöd bin ich auch nicht, klemm Dir demnächst solche Aussagen.
Wenn Reviewer etwas anderes berichten hat das für mich einen faden Beigeschmack, da kann doch was nicht stimmen.
dargo
2015-10-12, 12:10:16
Weil ihr hier euphorisch berichtet, aber die einzigen seit. Wenn man jetzt Spezi sein muss um eine 390x stabil hinzukriegen, wie bescheuert ist das denn. Das geht doch völlig am Markt vorbei. Ich hatte mich so gefreut. Aber dafür geb ich keine 450 Euro aus.
Ich verstehe halt nicht wieso man so verbissen immer auf die 390x schaut? Die ist imho erstens nicht den Aufpreis gegenüber einer non X wert. Und zweitens natürlich auch schwieriger leise zu kühlen. Ich habe jetzt eine R9 390 non X und die ist praktisch genauso leise wie eine MSI GTX970 Gaming nachdem ich meine Gehäusebelüftung optimiert habe. Und nein... mit Optimieren meine ich nicht schnell drehende Lüfter.
Die Asus kann man jedenfalls vergessen, alle Nase lang landet man unter Spielen auf dem Desktop ohne irgendeine Fehlermeldung.
Meine letzte Erfahrung mit Asus (290x) war auch katastrophal. Die war sehr laut und extrem heiß. Außerdem hatte diese auch noch Grafikfehler in vielen Games produziert. Deshalb ging sie schnell zurück. Selbst ohne Grafikfehler war der Kühler eine Zumutung. Zum Glück produzieren nicht alle Hersteller so einen "Schrott".
anderer Gast
2015-10-12, 12:27:47
Ich verstehe halt nicht wieso man so verbissen immer auf die 390x schaut? Die ist imho erstens nicht den Aufpreis gegenüber einer non X wert. Und zweitens natürlich auch schwieriger leise zu kühlen. Ich habe jetzt eine R9 390 non X und die ist praktisch genauso leise wie eine MSI GTX970 Gaming nachdem ich meine Gehäusebelüftung optimiert habe. Und nein... mit Optimieren meine ich nicht schnell drehende Lüfter.
Die non-X verbraucht gerade mal 20w weniger - wenn überhaupt und braucht deutlich höhere Spannungen um den Takt zu halten, verbrät dann bei Hitze deutlich mehr. Ist eben die Achillesferse bei AMD. Hitze...und genauso ist auch PT2.0 aufgebaut....gib bis zum Schluss alles, Powerlimits egal. Das treibt so manchsn, sonst stabile Netzteil in den Wahnsinn.
Ich habe es 3 Tage lang versucht, ich denke das reicht, verpackt und zurück. Ich habe auch keinen Bock in Foren anzufragen wie ich neu gekaufte Hardware stabil zu laufen bekomme oder irgendwelche Zweitanbietertools zu installieren um einem Anspruch gerecht zu werden. Das ist Problem des Herstellers. Die Asus kann man jedenfalls vergessen, alle Nase lang landet man unter Spielen auf dem Desktop ohne irgendeine Fehlermeldung.
Als "Dau" kommt man mit AMD Hardware schon lange nicht mehr klar, wenn es Highend oder mehr sein soll. Ob CPU oder GPU egal. Fiji läuft dagegen stabil - ist aber viel zu teuer. Deren tatsächliche Chipfläche für den Wärmeübergang ist, was das Cooling betrifft eben größer.
Skyrim+Mods sind eher auf nVidia optimiert (bzw. gemoddet). Für AMD interssiert sich da wirklich niemand, weil deren Treiberperformance da nur hindert und lange Zeit unter aller Sau war (und heute noch ist). Die haben das lange einfach nur vernachlässigt und immer behauptet unter DX11 wäre man ja so viel schneller, was interessiert da DX9. Jetzt behaupten sie, es wäre unter DX12 so.
Kauf dir für weniger als 450 Euro eine gebrauchte Cutsom 980 (da gibt es genug die auf die 980ti wechseln), oder lege 30 Euro drauf und nimm eine Neue, dann hast du mndestens 2 Jahre Ruhe wenn dir die 680 jetzt auch noch reicht. Dann kannst du Skyrim auch in DSR-UHD (4k) daddelt, sieht richtig geil aus + ENB-Moddings.;)
Mehr gibt es dazu nicht zu sagen, das Forum mit Emotionen voll zu posten hilft niemandem. Sonst stelle eine Frage - bzw. schilder deine Probleme, damit man dir helfen kann. Asus ist keine gute Adresse, nimm eine Sapphire (die ist weniger grenzwertig), damit kommen auch Dau's klar (ist nicht böse gemeint)! Grenada ist Hawaii und die waren schon immer Kacka...
dargo
2015-10-12, 12:55:00
Die non-X verbraucht gerade mal 20w weniger - wenn überhaupt und braucht deutlich höhere Spannungen um den Takt zu halten, verbrät dann bei Hitze deutlich mehr.
Mal wieder Blödsinn³.
http://www.computerbase.de/2015-10/neun-radeon-r9-390-x-partnerkarten-test/4/
Die im Testparcour sparsamste R9 390 verbraucht 98W weniger als die schlechteste R9 390X. Und die PCS+ ist noch nicht mal die sparsamste Karte unter Grenada Pro.
anderer Gast
2015-10-12, 13:20:59
Es gibt kein Referenzdesign der 390 non-X - woran machst du das fest?
Tests sind dir also Latte? http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/
Schon mal was von fps pro Watt gehört. Wahrscheinlich nicht.
Dein "kauft doch alle AMD Hardware" den die ist "sooooooooooo guuuuuuuuut" nervt langsam. Kann mich noch an den Matrix Thread erinnern - wo du alle verrückt gemacht hast und dann die Karte zurückgeschickt? Soviel zu BS³...das kannst du gerne im AMD Blog ablassen.
Das der Abfall höhere Spannungen braucht weiß jede Sau. Wahrscheinlich ordert Asus den absolut billigen Krempel und knallt dann sonstwas auf's Board (1,2x mv+).
Weil AMD jetzt Hawaii neu verpackt, sich TBP (Typicalboardpower) ausdenkt, PCIe Spezifikationen auf den Rails missachtet und nochmal 25-50w draufhaut ist alles viel besser? Dann sollte man mal aufpassen das die Partner nicht die gleichen Kühler verbauen - die sonst auf 250w Boarddesigns kleben.:rolleyes:
Die 390 ist sparsamer als eine 290x weil sie genauso schnell ist, Effizienz wird nicht nur an der Leistungsaufnahme festgemacht, sondern was schlussendlich dabei raus kommt.
Eine 980 liefert bei gleicher Leistungsaufnahme deutlich mehr, ansonsten musst du es fps pro Watt zurechtrechnen.
Bei jeder Map oder laden von einem anderen Speicherstand zum Beispiel in Skyrim lande ich auf dem Desktop, was ein Kram. AMD hat echt Probleme.
Was plagt dich denn? Klick doch nochmal auf den Skyrimlauncher damit das Spiel nach der neuen Treiberinstallation die Settings wieder optimal setzen kann. Sonst geh nochmal zurück auf Standard und setze alles neu (ist bei AMD so).
Bei mir läuft es jedenfalls auch mit HD und dx10 Patch + neuem Treiber ziemlich stabil. Man darf nur nicht zu viele Mods installieren, besonders nicht unterschiedlicher Abstammung (die beißen sich manchmal). Trotzdem kannst du mit gestartetem Launcher unter der Rubrik "Datendateien" auch Häkchen setzen, zu und abwählen. Guck dir das mal an.
Hier die "schöne Lisette" (ENB, Vanilla, HD, dx10, Folllovers, Hair und und und Mod) alles auf AMD gerendert, völlig Problemlos :up::
http://abload.de/img/screenshot0-3dca8sm3.jpg (http://abload.de/image.php?img=screenshot0-3dca8sm3.jpg)
Grenada ist für mich eine Totgeburt, da muss man wohl ein 700w Netzteil zu kaufen? Was ein Fail.
Wenn du das Netzteil schon vermutest, welches ist es denn und wie alt? 600w sollten es für die Zukunft schon sein (dann bleibt es auch leise), wobei Skyrim bei weitem nicht soviel fordert. Du also instabiles OC (oder sowas bei Asus wegen vermurkstem Bios) auch deaktivieren kannst. Das brauchst du bei dem Spiel überhaupt nicht. Lade dir einfach Asus GPU Tweak II in v1.1.1.1 runter und setze "automatisch mit Windowsstart" (das flackert dann mal kurz) auf Silent Taktraten 980mhz übernehmen (Apply), dass reicht vollkommen.
Probier es doch einfach aus. Ich würde es mir nochmal überlegen, wer weiß schon was dergleichen Hardware morgen kostet. Mein PC liegt beim Verbrauch und Skyrim zocken weit unter 300w, ist also Blödsinn was man hier zuweilen liest. Das sind meiner Meinung nach viel zu viele Volllastwerte (da wird alles ducheinander geworfen), die liegen beim Gaming tatsächlich sehr selten und je nach Szene an. Wenn du die Framerate über den Treiber auf 61 Bilder pro sec beschränkst sowieso.
Geh dann gleich mal unter 3D Einstellungen auf Hohe Qualität + Supersampling und staune wie schön das Ganze dann ausssieht.;)
Zuletzt kann es auch eine beschädigtes Savegames sein, dass kommt bei Skyrim schon mal vor.
Screemer
2015-10-13, 00:01:04
Kann nicht mal ein mod hier aufräumen? Ist ja nicht auszuhalten. War ja schon vor meinem post völlig OT und ging danach fröhlich weiter.
Kann nicht mal ein mod hier aufräumen? Ist ja nicht auszuhalten. War ja schon vor meinem post völlig OT und ging danach fröhlich weiter.
Ja das hättest du gerne das es wieder um 970 Geruckel geht, davon gibt es auch schon eine Million Beiträge hier im Forum. Wie wäre es denn mit der Suchfunktion?
Danke Gast vs Gast - sehe ich mir gerne nochmal an. Geiles Bild. Ja so hätte ich das gerne.
Screemer
2015-10-13, 11:42:09
Was hälst du denn davon im passenden sub darüber zu diskutieren. Gibt hier auch eins für amd...
Birdman
2015-10-14, 11:05:32
@back2topic
Die imho einzig sinn- und nutzvolle Optimierung die nVidia für die 970 machen könnte, wäre dass man per default nur 3.5GB proklamiert und nur dann die vollen 4GB offenlegt, wenn der Treiber diese Applikation kennt, aka ein Profil dafür vorhanden ist. (vermutlich genau das Gegenteil von dem was jetzt gemacht wird, wo per se 4GB angepriesen werden und man für bekannte ProblemSpiele dann per Treiber mehr oder weniger auf 3.5GB limitiert)
Mal ne Verständnisfrage von mir:
Sagen wir mal nVidia hat sich die 970 als 3,5GB Karte gedacht. Weil das aber ein bissl wenig gegenüber der Konkurrenz klingt aber sie den Vorteil der vollen 4GB den teureren Karten zukommen lassen wollten, haben sie sich gedacht man pappt noch 0,5GB quasi als "schnellen" Cache mit dazu, bzw ist ja eh auf dem Board vorhanden.
1. Ist ein Zugriff auf den 32Bit Teil nicht immernoch schneller als auf den RAM oder gar SSD/HDD zuzugreifen?
2. Wenn ich mich recht entsinne kann der Controller immer nur auf 1 Teil des Speichers zugreifen und blockiert solange quasi den Zugriff auf schnelle Bereiche? Und wenn ja, ist das so ein Problem? Weil bevor die Daten nicht da sind kann ja eh nicht weitergearbeitet werden. Deswegen der kleine Boost zum Ram (sofern 1. stimmt).
So würd ich mir den evtl. Gedankengang von nVidia(-Ingenieuren) vorstellen... Unabhängig davon wie gut oder schlecht das nun in der Praxis funktioniert.
MasterElwood
2015-10-14, 12:03:37
@back2topic
Die imho einzig sinn- und nutzvolle Optimierung die nVidia für die 970 machen könnte, wäre dass man per default nur 3.5GB proklamiert und nur dann die vollen 4GB offenlegt, wenn der Treiber diese Applikation kennt, aka ein Profil dafür vorhanden ist. (vermutlich genau das Gegenteil von dem was jetzt gemacht wird, wo per se 4GB angepriesen werden und man für bekannte ProblemSpiele dann per Treiber mehr oder weniger auf 3.5GB limitiert)
???
Ich dachte das wird schon von Anfang an gemacht, dass der Treiber sich GENERELL als 3.5GB Karte ausgibt... :eek:
Nicht?
Birdman
2015-10-14, 12:31:55
???
Ich dachte das wird schon von Anfang an gemacht, dass der Treiber sich GENERELL als 3.5GB Karte ausgibt... :eek:
Nicht?
Nein, sicher nicht - damit würde nV ja quasi zugeben dass Sie hier nur eine 3.5GB Karte geliefert haben ;)
von Richthofen
2015-10-14, 13:20:18
1. Ist ein Zugriff auf den 32Bit Teil nicht immernoch schneller als auf den RAM oder gar SSD/HDD zuzugreifen?
2. Wenn ich mich recht entsinne kann der Controller immer nur auf 1 Teil des Speichers zugreifen und blockiert solange quasi den Zugriff auf schnelle Bereiche? Und wenn ja, ist das so ein Problem? Weil bevor die Daten nicht da sind kann ja eh nicht weitergearbeitet werden. Deswegen der kleine Boost zum Ram (sofern 1. stimmt).
Du beantwortest mit dem anfänglichen Teil von Frage 2 quasi deine erste:
Mit dem Zugriff auf den (zudem langsamer angebundenen) zweiten Speicherbereich wird der Zugriff auf den ersten währenddessen blockiert.
Kommt es beim Rendering zu diesem Szenario, ist eine unrunde Bildausgabe möglich. Stichwort Frametimespitzen.
Die Angabe "4GB Speicher" ist natürlich aus Marketinggesichtspunkten wichtig.
The_Invisible
2015-10-14, 13:22:11
Mal ne Verständnisfrage von mir:
Sagen wir mal nVidia hat sich die 970 als 3,5GB Karte gedacht. Weil das aber ein bissl wenig gegenüber der Konkurrenz klingt aber sie den Vorteil der vollen 4GB den teureren Karten zukommen lassen wollten, haben sie sich gedacht man pappt noch 0,5GB quasi als "schnellen" Cache mit dazu, bzw ist ja eh auf dem Board vorhanden.
1. Ist ein Zugriff auf den 32Bit Teil nicht immernoch schneller als auf den RAM oder gar SSD/HDD zuzugreifen?
2. Wenn ich mich recht entsinne kann der Controller immer nur auf 1 Teil des Speichers zugreifen und blockiert solange quasi den Zugriff auf schnelle Bereiche? Und wenn ja, ist das so ein Problem? Weil bevor die Daten nicht da sind kann ja eh nicht weitergearbeitet werden. Deswegen der kleine Boost zum Ram (sofern 1. stimmt).
So würd ich mir den evtl. Gedankengang von nVidia(-Ingenieuren) vorstellen... Unabhängig davon wie gut oder schlecht das nun in der Praxis funktioniert.
Zu 1: Limitieren tut der PCIe über den max. nur knapp 16GB/s drübergehen, bei älteren Systemen vielleicht auch RAM. Zudem wird man auch bessere Latenzen zum Speicher direkt auf der Karte haben.
Schade das Nvidia hier keine Infos rausrückt, so ist es eigentlich nur Kaffeesud lesen. Auch wie genau Nvidia den Speicher verwaltet bzw. Prioritäten setzt wäre interessant.
Also war die grundsätzliche Idee eines Puffers gar nicht mal so verkehrt um die Karte ein bissl zu beschleunigen ohne zu nahe an High End ranzurobben oder Speicher ganz brach liegen zu lassen. Nur der Speichercontroller macht die Sache zunichte. Aber das wird mal wohl nicht per Treiber lösen können :crazy:
von Richthofen
2015-10-14, 14:46:58
Nein, nVidia hat es durch mehrere Entschuldigungsversuche im nachhinein so aussehen lassen, als wäre es keine schlechte Idee.
In Wirklichkeit ist die Speicherseparierung eine Behinderung der Karte und ein klarer Nachteil für den Kunden.
Eine "echte" 3,5 GB Karte wäre für den Kunden besser und für den Hersteller marketingtechnisch schlechter gewesen.
Warum ist eine "echte" 3,5GB Karte besser? Daraufhin will ich hinaus. Ich behaupte ein Speicherkontroller der gleichzeitig auf 3,5GB und auf 0,5GB zugreifen kann wäre das beste.
Also ich zieh mal als Vergleich CPUs heran. Falls ich da was falsch verstehe, bitte Aufklärung! Auf einer CPU gibts ja auch L1, L2 und L3 Caches die immer langsamer werden. Wäre es tatsächlich nicht eine feine Sache 3,5GB sehr schnellen Speicher zu haben und dann nochmal 0,5GB quasi als L2-VRam für z.B. den Desktop etc?
Klar, die Umsetzung ist fehlerhaft und es mag durchaus sein das so gar nicht geplant war. Trotzdem finde ich das da (ungewollt) ein interessantes Konzept entstanden ist. Tatsächlich finde ich sogar spannend was nVidia daraus macht.
Momentan ist ja die Frage ob HBM2 für Pascal breit verfügbar wird. Wenn bis dahin z.B. Algorithmen dafür sorgen das Spiele den Speicher vernünftig priorisieren, wie wärs mit einer 1070 die 4GB HBM2 und 4GB GDDR5 Speicher hat? Damit wäre man bei Nominell 8GB Speicher, könnte aber Kosten sparen (k.A. wie kompliziert das mit 2 Speicherinterfaces dann wird. Da auch der Vergleich zu CPUs die DDR3 und DDR4 können). Das würde auch den Unified Memory Konzepten zulaufen die es bei der Konsole momentan gibt. Denn nicht alles was im Speicher verfügbar ist, ist zu jeder Zeit gleich wichtig und muss schnell zur Verfügung stehen.
P.S.
Ich merk selber das ich grad sehr pro-nVidia klinge. Bin ich aber nicht :tongue:
P.P.S.
Ich rede hier natürlich nur von der Technischen Seite der ganzen Geschichte. Das MarketingBlaBla dahinter lass ich mal grad aussen vor, weil was soll man da schon erwarten? Sie werden bestimmt nicht zugeben nen Fehler gemacht zu haben, was ich persönlich grundsätzlich auch glaube.
kruemelmonster
2015-10-14, 17:17:27
Warum ist eine "echte" 3,5GB Karte besser? Daraufhin will ich hinaus. Ich behaupte ein Speicherkontroller der gleichzeitig auf 3,5GB und auf 0,5GB zugreifen kann wäre das beste.
Und genau das kann der MC der GTX 970 nicht. Solange sich alles im ersten 3.5 GB Segment mit 192 GB/s abspielt ist die Welt in Ordnung. Wird dann zusätzlich das letzte Segment genutzt brechen während des Zugriffs darauf die gesamten 4 GB auf das 32 GB/s Limit des "TurboCache" runter...und genau deshalb wäre eine ehrliche 3.5 GB Karte besser gewesen.
maguumo
2015-10-14, 17:23:51
Und genau das kann der MC der GTX 970 nicht. Solange sich alles im ersten 3.5 GB Segment mit 192 GB/s abspielt ist die Welt in Ordnung. Wird dann zusätzlich das letzte Segment genutzt brechen während des Zugriffs darauf die gesamten 4 GB auf das 32 GB/s Limit des "TurboCache" runter...und genau deshalb wäre eine ehrliche 3.5 GB Karte besser gewesen.
Schlimmer, während aus dem lahmen Segment gelesen wird kann auf den Rest überhaupt nicht zugegriffen werden. XOR Situation, entweder du liest aus dem 3.5GB Segment mit (fast) voller Geschwindigkeit oder du liest aus dem 512MB mit 28GB/s.
aufkrawall
2015-10-14, 17:29:07
Würde das nicht bedeuten, dass es immer Render-Stalls geben muss, wenn auf die 0,5GB zugegriffen werden?
So ganz plausibel erscheint mir das nicht, weil ja auch manche Anwendungen bei voll belegten 4GB noch relativ sauber laufen.
Außer natürlich, der Treiber lügt einen an, und die 0,5GB werden gar nicht genutzt und stattdessen direkt über PCIe ausgelagert. Das könnte erklären, warum es manchmal schlimme Auswirkungen hat und manchmal nicht. Schlimm dann, wenn die Latenz gut sein muss.
Oder es kann doch auf beide Segmente gleichzeitig zugegriffen werden (nur wie?), und die Bandbreite sackt dann eben in dem Moment zusammen.
maguumo
2015-10-14, 17:50:08
Ich kenne mich nicht mal annähernd gut genug mit dem Kram aus um das beurteilen zu können, ich gebe nur wieder was ich aus den Erklärungen verstanden habe. Die Erklärung von Nvidia habe ich zumindest so verstanden das man eben nur aus einem der Segmente lesen kann, Anandtech schreibt das in ihrer Analyse ebenfalls explizit so. Du kannst selbstverständlich auf ein Segment schreiben und vom anderen lesen, nur von beiden lesen/auf beide schreiben geht eben nicht gleichzeitig.
Das man den Speicher tatsächlich in diese beiden Segmente geteilt hat wurde ja zumindest von Nvidia so angegeben. Grundsätzlich wäre es wohl auch möglich das ganze auf 3/1GB aufzuteilen, dann spart man sich die XOR Situation, büßt dafür aber noch mehr Bandbreite ein. Vielleicht wird da dynamisch gewechselt, ich weiß es nicht.
Es kommt einfach darauf an wie nVidia die Menge an Speicher füllt, der hängt ja nicht an einem MC sondern an mehreren. Wenn es möglich ist unwichtige Daten in den langsameren Teil auszulagern wird nVidia das versuchen, wenn nicht - wird es halt limitieren. Die MC sind ja sehr flexibel angebunden und können ggf. noch Daten untereinander verschieben, wenn die Crossbar nicht der Hinkefuss ist.
Ob nVidia ein 3,5 + 0,5 Segment anspricht ist nämlich gar nicht klar und die theoretischen Bandbreiten die man errechnet, müssen nicht mal gebraucht werden, dazu schweigen sich die IHVs aus - bzw. welche Bandbreite nun wirklich erreicht wird.
Das die 970 ruckelt könnte auch am Missverhältnis der SMMs liegen (bzw. welche von denen deaktviert werden oder müssen), da steht die 980 eben deutlich besser da. Solange nVidia das nicht publiziert (und da wären sie schön doof, weil man auch zur Architektur bestimmte Infos offenlegen müsste), tappt man eh im dunkeln.
L Caches sind im Übrigen besonders schneller Speicherbereiche, wäre hier genau umgekehrt und kann deshalb nicht aufgehen. Die 970 wird mMn durch mehrere Dinge limitiert, nicht allein wegen des 0,5 Ram Segment, die Shader-Einheiten könnten sich auch langweilen, weil nVidia die SMMs beschneidet und damit den Chip nicht mehr auslasten könnte (eben so wie vorgesehen, was bei Maxwellv2 ja ein großer Vorteil ist) und auch zu einem gewissen Effizienzvorteil führt. Die 970 kann man auch mit 120w betreiben und sie verliert dabei nicht mal massig an Leistung.
Grestorn
2015-10-14, 18:07:21
Faszinierend, wie gut ihr alle die technischen Details und Konsequenzen kennt. Man könnte glatt meinen, ihr wärt Experten...
Ich behaupte nicht, einer zu sein. Also ist alles, was ich schreibe eine reine Vermutung:
Die Frage ist doch die: Ist das Stalling im Fall des Falles größer, wenn Daten aus dem Hauptspeicher über den PCIe Bus abgerufen werden als wenn sie aus den 500 MB abgerufen werden.
Wenn man das mit "ja" beantworten kann, dann bringen die 500 MB in jedem Fall etwas. Denn bei dem Stalling ist es wurscht, ob man gleichzeitig aus den 3500 MB lesen kann oder nicht - die Karte stalled ja bereits.
Wenn man das mit "nein" beantworten muss, dann hätten es die nVidia Treiberentwickler auch sehr einfach: Sie müssten schlicht die Verwendung des Bereichs verbieten und gut ist. Es gäbe schlicht kein Szenario bei dem er Vorteile brächte.
Werden bestimmte Bereiche nicht gebraucht werden sie einfach schlafen gelegt, Auslastungsszenarien könnte man dann betrachten wie eine Art Kaskade...die Bereiche werden erst zugeschaltet - wenn die Auslastung gefordert wird und das könnten auch die Craossbar oder angebundene MC sein.
Dadurch wird das Design verdammt effizient und darauf hat man wohl Wert gelegt.
Schnoesel
2015-10-14, 18:13:54
Sie müssten schlicht die Verwendung des Bereichs verbieten und gut ist.
Den restlichen Speicher einfach zu keiner Zeit nutzbar zu machen lässt sich imo dann aber nicht mehr mit den beworbenen 4GB vereinbaren. Wenn der Speicher zu keiner Zeit nutzbar ist ist er schlicht nicht vorhanden.
Arcanoxer
2015-10-14, 18:15:43
Ich bin mir ziemlich sicher das die GTX970 noch lange bei mir im Rechner steckt.
Unnötigen Seitenhieb entfernt.
Grestorn
2015-10-14, 18:19:43
Den restlichen Speicher einfach zu keiner Zeit nutzbar zu machen lässt sich imo dann aber nicht mehr mit den beworbenen 4GB vereinbaren. Wenn der Speicher zu keiner Zeit nutzbar ist ist er schlicht nicht vorhanden.
Benchmark Balken sind wichtiger als etwas, was der Spieler ohnehin nicht wirklich prüfen kann. Erst mit DX12 kann der Treiber nicht mehr tricksen und das Spiel muss selbst wirklich genau wissen, wie viel Speicher die GPU tatsächlich hat.
MikePayne
2015-10-14, 18:29:14
Zitat von der 3DC-Mainsite:
...gleichzeitig auf AMD-Seite mit der Radeon R9 390 nun ein gutes Konkurrenzangebot existiert, welches diese Problematik mit ihren 8 GB Speicher natürlich gleich komplett erschlägt.
Es kommt nicht mehr häufig vor, aber in diesem Fall bietet AMD das bessere Produkt.
Ich bin mir ziemlich sicher das die GTX970 noch lange bei mir im Rechner steckt.
Gewagte Aussage bei einer von Einschnitten geplagten Grafikkarte des Jahres 2014, die schon bei Release nicht alles weggeputzt hat. Wär's eine Titan X, würde ich dir fast Recht geben, denn da gibt's bis auf die ungeklärte Async-Shading-Fähigkeit (die Nvidia wohl auch per Treiber "reworken" will) reichlich von allem. Fast vor allem deswegen, weil es in niemandes Interesse sein kann, wenn bei AMD in naher Zukunft (eigentlich: jemals) die Lichter ausgehen. DX12 ist sowieso der große Killer und ein großes Fragezeichen: Wenn die komplette Verantwortung bezüglich Ressourcenverwaltung & Co. zu den Spieleentwicklern schwappt, sind Probleme im wahrsten Sinne des Wortes programmiert. AMD steht mit der R9 390 wesentlich besser da als Nvidia mit der GTX 970, es kann eigentlich nur besser werden: Die GPU bietet viele ungenutzte, weil nicht ausgelastete Ressourcen. Und geht eine DX12-Applikation bald verschwenderisch mit Speicher um, juckt das die 390(X) keineswegs, selbst wenn die GPU mal wieder nicht ausgelastet wird. Ist der Speicher berstend voll, bringt alle Maxwell-Effizienz nichts.
Ich find's schlimm, wie wenig die meisten Nutzer aus Retrospektivbenchmarks lernen. Grafikkarten mit viel Speicher schlagen sich Jahre nach ihrem Launch wesentlich besser als solche, die schon bei Release an der Füllgrenze arbeiteten. Derzeit zeigt die Radeon HD 7970, wie man's macht – dieses Modell ist ein wahrer Langläufer, der einst von den meisten Nutzern für die GTX 680 und später die GTX 770 links liegen gelassen wurde. Begründung damals wie heute: 50 Watt. Spätestens jetzt rächt sich das. Von dieser Regel ist übrigens auch die Fiji-Reihe nicht ausgenommen. Die mögen heute relativ wenig sucken, aber das wird mit den Jahren natürlich auch nicht besser. "Speicherkrüppel" haben einen kürzeren Atem als gut bestückte Modelle. Schlechter Software begegnet man nicht am besten mit dem Schrei nach Effizienz, sondern mit Hardware, die das wegsteckt. ;)
MfG,
Raff
Arcanoxer
2015-10-14, 19:16:45
Gewagte Aussage
Ich bin zu 99% unter Linux unterwegs, weshalb meine Prioritäten woanders liegen. (OpenGL Performance und Vulkan aussitzen)
Da kann die Grafikkarte noch so viel Speicher haben, wenn sie nicht richtig supportet wird (wie im Moment alle AMD Karten unter Linux) nützt mir das nichts.
Es wird noch einiges an Zeit ins Land ziehen, bis DX12 von Bedeutung wird.
Spiele wie AoS versuchen damit nur günstige PR zu bekommen und es scheint ja auch zu funktionieren. ;)
2015 kann man doch mit ein RTS kein Blumentopf mehr gewinnen, aber Moment... da ist ja noch DX12! *und alle so yay*
Die Frage ist doch die: Ist das Stalling im Fall des Falles größer, wenn Daten aus dem Hauptspeicher über den PCIe Bus abgerufen werden als wenn sie aus den 500 MB abgerufen werden.
Wenn man das mit "ja" beantworten kann, dann bringen die 500 MB in jedem Fall etwas. Denn bei dem Stalling ist es wurscht, ob man gleichzeitig aus den 3500 MB lesen kann oder nicht - die Karte stalled ja bereits.
Wenn man das mit "nein" beantworten muss, dann hätten es die nVidia Treiberentwickler auch sehr einfach: Sie müssten schlicht die Verwendung des Bereichs verbieten und gut ist. Es gäbe schlicht kein Szenario bei dem er Vorteile brächte.
Genau darauf wollte ich hinaus. Ich gehe mal schwer von "ja" aus wie weiter oben schon bestätigt wurde. Manchmal frage ich mich auch wenn ein Spiel anfängt zu ruckeln, ob die Karte gesammt dann nicht einfach zu langsam für das gewählte Setting ist? Ich mein, ja 4K mit 4xMSAA bei Farcry 4 und Talos Principle... genau dafür wurde die 350 Euro Karte konzipiert.Hier (http://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/3/). Hat schonmal jemand ne 390 mit 8GB bei diesen Settings gebencht? würde mich interessieren ob man mit der in spielbare fps kommt :rolleyes:
Desweiteren denke ich auch jetzt schon mit DX12 zu argumentieren ist ein bischen früh. Bis da alles ausgenutzt wird dauerts noch ein paar Jahre und bis dahin werden nur 1-2 Features eingebaut um den Stempel zu bekommen, die aber keinen Unterschied machen werden. Und dann sind die aktuellen Karten eh für so ziemlich alles zu langsam. So schnell wie im 3DC geht die Win10 Adaption nicht im Massenmarkt.
Godmode
2015-10-15, 09:53:16
Ausgemistet. Bleibt beim Thema, ansonsten gibt es Konsequenzen.
Edit:
Da es immer noch nicht verstanden wurde: Das Thema ist GTX 970 Speicherbug
MasterElwood
2015-10-15, 12:54:45
Und genau das kann der MC der GTX 970 nicht. Solange sich alles im ersten 3.5 GB Segment mit 192 GB/s abspielt ist die Welt in Ordnung. Wird dann zusätzlich das letzte Segment genutzt brechen während des Zugriffs darauf die gesamten 4 GB auf das 32 GB/s Limit des "TurboCache" runter...und genau deshalb wäre eine ehrliche 3.5 GB Karte besser gewesen.
NVidia´s Weasel Antwort war ja "3.5GB Full Speed - plus 0.5GB EXTRA für Programme die das brauchen können".
Also wäre doch das beste: Karte gibt sich lt. Treiber mal prinzipiel als 3.5GB Karte aus, hat aber eine WHITELIST für Programme bei denen Menge wichtiger ist als Speed (After Effects, Premiere, Photoshop...).
Wo ist das Problem es so zu machen?
maximus_hertus
2015-10-15, 13:07:53
NVidia´s Weasel Antwort war ja "3.5GB Full Speed - plus 0.5GB EXTRA für Programme die das brauchen können".
Also wäre doch das beste: Karte gibt sich lt. Treiber mal prinzipiel als 3.5GB Karte aus, hat aber eine WHITELIST für Programme bei denen Menge wichtiger ist als Speed (After Effects, Premiere, Photoshop...).
Wo ist das Problem es so zu machen?
Weil es nicht funktioniert. Spätestens in Fable Legends und Co (DX12) kann der Treiber afaik nichts mehr bzgl. der Speicherbelegung unternehmen bzw. "tricksen".
MasterElwood
2015-10-15, 13:32:06
Wenn ein AAA Game ABSICHTLICH drüberfährt was der Treiber will, dann ist aber der Entwickler schuld.
Nvidia arbeitet mit allen großen Entwicklern an Optimierungen für die Games (so wie AMD auch) - an mangelnder Unterstützung oder Unwissenheit kanns wohl kaum liegen...
StefanV
2015-10-15, 13:35:47
Wenn ein AAA Game ABSICHTLICH drüberfährt was der Treiber will, dann ist aber der Entwickler schuld.
Nein.
Unter DX12 hat der Treiber nicht mehr ins Speichermanagment des Spieles reinzupfuschen.
Das ist einfach in der Spezifikation der API so vorgesehen, dass die Grafikkarte eine Speichergröße meldet und das Programm sich selbständig um den Speicher kümmert...
Der Treiber hat hierbei diese Befehle nur durchzureichen und nicht irgendeinen voodoo zu machen...
Nvidia arbeitet mit allen großen Entwicklern an Optimierungen für die Games (so wie AMD auch) - an mangelnder Unterstützung oder Unwissenheit kanns wohl kaum liegen...
Was soll diese sinnlose Marketingsprech Worthülse?!
Und wenn ein Entwickler keinen Bock auf die GTX970 Extrawurst hat, dann hat er halt keinen Bock darauf...
Es kann/darf doch nicht die Schuld vom Anwendungsentwickler sein, wenn der Hardwarehersteller irgendwas ganz komisches macht...
Godmode
2015-10-15, 13:40:06
Nein.
Unter DX12 hat der Treiber nicht mehr ins Speichermanagment des Spieles reinzupfuschen.
Das ist einfach in der Spezifikation der API so vorgesehen, dass die Grafikkarte eine Speichergröße meldet und das Programm sich selbständig um den Speicher kümmert...
Der Treiber hat hierbei diese Befehle nur durchzureichen und nicht irgendeinen voodoo zu machen...
Der Treiber würde dabei auch nicht ins Speichermanagement eingreifen, sondern eben nur 3,5 GB melden.
aufkrawall
2015-10-15, 13:54:12
Dann wär es allerdings juristisch heikel.
maximus_hertus
2015-10-15, 13:57:00
Nicht nur heikel, sondern ein Selbstmord von nV. Dabei spielt es keine Rolle, welche Einstellungen / Meldungen schneller sind / wären. 4 GiB sind 4 GiB sind 4 GiB.
nV's "Glück" ist, dass die 970 spätestens im nächsten Sommer eh keine große Relevanz mehr haben wird. Die GTX 1070, oder wie auch immer die benannt wird, wird dann direkt mit 8 GiB kommen (gehe ich mal von aus) und damit sollte das Problem gegessen sein. Schnellere Performance als die Titan X, doppelte Energieeffizienz, halber Preis, oder so ähnlich :D
MasterElwood
2015-10-15, 14:16:10
Nicht nur heikel, sondern ein Selbstmord von nV.
Warum? Eine zusätzliche Einstellung in die NV-Systemsteuerung
"Speicher optimieren für ""Performance/Größe/Auto"" und gut isses :cool:
StefanV
2015-10-15, 15:08:57
Warum? Eine zusätzliche Einstellung in die NV-Systemsteuerung
"Speicher optimieren für ""Performance/Größe/Auto"" und gut isses :cool:
Nein, weil nVidia dann gelogen/betrogen hätte und Schadenersatzpflichtig werden würde...
Weiß hier jemand gerade den Zustand von der GTX970 Sammelklage?
Arcanoxer
2015-10-15, 16:47:00
Weiß hier jemand gerade den Zustand von der GTX970 Sammelklage?Derek Smart hat auch eine GTX970 gekauft oder wer hat die eingereicht? ;D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.