Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HyperThreading vs. DualCore in Spielen
Leonidas
2007-07-31, 23:37:45
Link zum Artikel:
http://www.3dcenter.org/artikel/2007/07-31_a.php
Ganxsta
2007-08-01, 00:13:38
Interresant und danke für den Test. Kleine Kritik am Rande, das Fazit solltet ihr lieber trennen Übersichlichkeits halber.
anddill
2007-08-01, 00:46:25
Interessant. Wieviel Anteil an dem Gewinn durch HT haben wohl die heutigen mutithread-optimierten Grafiktreiber?
Ich kann mich dunkel entsinnen, daß damals bei der Einführung von HT durch Intel die meisten Spiele mit Performanceverlusten reagierten - bis zu 30%. Vielleicht könntet Ihr nochmal einen kurzen Check mit einem Grafiktreiber von ca. 2004 machen, falls Ihr ein Spiel damit zum laufen bekommt?
Habt ihr Supreme Commander mit oder ohne Sound getestet?
Es gibt bei Supreme Commander einen Bug, der mit manchen Soundkarten auf Single Core CPUs die Performance extrem verschlechtert (deutlich über 50% Einbruch bei stressigen Szenen, tw. sogar an die 90%! ). Ein Thread über Soundprobleme (http://forums.gaspowered.com/viewtopic.php?t=295) ist immer noch Sticky im gpgnet-Forum. Sollte dieser Bug bei euch aufgetreten sein, dann sind die Werte für die Single Cores in eurem Artikel verfälscht.
Deshalb würde ich mir wünschen, wenn ihr zur Sicherheit noch einmal mit dem A64 die Benches "Stärkere Schlacht auf mittlerer Karte" und "Größere Basis auf mittlerer Karte" mit dem "/nosound"-Parameter wiederholen könntet. Sollte sich die Performance beim Single Core radikal verbessern (also um annähernd 100% oder mehr), dann wäre es besser die SupCom-Benches nochmal mit einer anderen Soundkarte zu wiederholen. Falls nicht, dann ist ja alles in Ordnung :-).
(del)
2007-08-01, 02:11:17
Gut und verständlich gemacht. Der Einwurf von anddill fnd ich super.
Alles gut also.
Außer der Tabelle. Zu der hab ich Unmenge an Fragen.
Wir hatten schonmal Tabellen mit besserem Design oder irre ich? Eine ähnliche diskussion erinner ich mich noch ganz schwach. Sollte das Ergebnis der Diskussion nicht zum Standard werden?
Möglichst schmale Balken mit möglichst fettem Hintergrund für die Legende war glaub ich nicht das Ergebnis.
Ist einer von euch arabischer Abstammung oder so? Die Balken "liest" man von oben nach unten. Oder bin ich diesbezüglich ein Sonderling?
Die dazugehörende Legende verläuft aber - den Farben in der Tabelle von oben nach unten nach - von rechts nach links. Hat das einen tieferen Sinn? Umgekehrtes Koordinatensystem oder so?
Gibt es dazu auch eine passende Verschwörungstheorie? :cool:
edit:
Viel hat sich ja nicht geändert. XP mit HT und ohne HT mit dabei
http://www.computerbase.de/artikel/hardware/prozessoren/2003/bericht_hyper-threading_windows_xp_windows_2000/5/#abschnitt_games
Plage
2007-08-01, 02:39:05
Entschuldigung falls das hier nicht hingehört, aber mir sind 3 Rechtschreib- bzw. Tippfehler aufgefallen, die vielleicht gefixt werden sollten: (rot = ausgebessert)
Anstatt Messungen des eher durchschnittlichen Gameflusses mittels Timedemos stellen unsere Messungen ausgewählter kurzer Szenen über den Weg der Savegames somit eher Worstcase-Benchmarks dar: Wir messen dann, wenn die Hardware wirklich unter Stress gerät - und eben auch nur die jeweilige Stress-Szene und nicht noch jede Menge Leerlauf oder gleich eine andere Szene mit hinzu. Die von uns benutzten Savegames stellen dann verschiedene Anforderungsvarianten dar - von geringen Anforderungen bis zu extrem fordernden.
Ein deutlich anderes Bild sehen wir dagegen bei Need for Speed: Carbon. Hier gewinnt der DualCore-Prozessor mit im Schnitt 43 Prozent und in der Spitze 49 Prozent wiederum sehr gut, während dagegen der HyperThreading-Prozessor keine guten Leistungsgewinne vorzuweisen hat: HyperThreading gewinnt hier gerade einmal 7 Prozent im Schnitt und 8 Prozent in der Spitze, was gerade angesichts des hohen Leistungsgewinns durch DualCore etwas enttäuschend ist.
Das hindert uns natürlich nicht daran, Intel nachträglich noch ob der mittels HyperThreading erworbenen Verdienste bezüglich dem Anschub von HyperThreading- und damit gleichzeitig auch DualCore-optimierter Programmierung zu würdigen, ohne welche die heutzutage zu verzeichnenden Leistungsgewinne durch DualCore gerade im Spielebereich kaum möglich wären (bzw. erst in einiger Zeit anstehen würden). Womit die Arbeit der Prozessorenhersteller natürlich noch lange nicht beendet ist: Denn es sind bitte noch viel mehr Spieleentwickler davon zu überzeugen (und zu unterstützen), daß diese ihre Software gleich auf ManyCore-Prozessoren auslegen, denn die heutzutage verkauften Dual- und QuadCore-Modelle langweilen sich natürlich bei Tabellenkalkulation und Internetsurfen und wollen ihre fraglos vorhandene Power auch irgendwann einmal unter wirklich vordernder fordernder Software voll ausspielen ;).
Ansonsten finde ich den Artikel wirklich gut gelungen und äußerst interessant. :up:
Henroldus
2007-08-01, 08:44:05
durchaus interessant wenn auch vielleicht etwas spät in Zeiten wo die Core Duos bereits an der 100€ Marke kratzen und einen alten Pentium damit gänzlich uninteressant machen.
Nvidia5
2007-08-01, 10:03:06
Sehr interessant. So nen Test hätte ich heute begonnen zu suchen^^
3Dc is einfach the best.
Turiz
2007-08-01, 10:09:30
durchaus interessant wenn auch vielleicht etwas spät in Zeiten wo die Core Duos bereits an der 100€ Marke kratzen und einen alten Pentium damit gänzlich uninteressant machen.
Kann ja als Entscheidungshilfe bei einem geplanten Umstieg dienen.
blackbox
2007-08-01, 10:19:06
Auf der anderen Seite ist dieses gute relative Ergebnis für HyperThreading leider in vielen Fällen nicht mehr mit einem praktischen Nutzen verbunden. Wie unsere Benchmarks auch gezeigt haben, ist selbst ein hochgetakteter Pentium 4 für viele der heutigen Spiele nicht mehr schnell genug, um noch überall spielbare Frameraten liefern zu können. Dies fällt insbesondere dadurch stärker ins Gewicht, als daß man durch das Absenken der Bildqualitätsoptionen im Spiel zumeist keine höhere CPU-Leistung erreichen kann (im Gegensatz zu Grafikkarten), um dadurch noch irgendwie spielbare Frameraten zu bekommen. Zudem ist von den kommenden Spielen zu erwarten, daß dort der Pentium 4 nicht mehr nur bei ausgewählten Hardware-Krachern, sondern bei einer breiteren Masse an Games nicht mehr für vernünftige Frameraten sorgen wird. Die Zeit dieses Prozessor inklusive auch der gesamten Netburst-Architektur läuft bezüglich Computerspielen klar ab.
Dieser Abschnitt ist übertrieben dargestellt und als Fazit halte ich den auch für falsch.
Natürlich lässt es sich auch heute noch mit älteren Prozessoren als C2D und X2 spielen. Man muss Abstriche machen in den Details, das ist klar.
Wenn man in jedem Spiel die maximale Einstellungen wählt, nur dann ist euer Fazit richtig.
Im letzten Satz am Ende des Fazits wird gefordet, dass Spieleentwickler künftig ihre Software auf "Many Core" (BTW: Warum diese Bezeichnung und nicht "Multi Core"? - laut google geht das Duell 0,2M zu 3,7M zu Gunsten von "Multi Core" aus ...) optimieren mögen, "[...]denn die heutzutage verkauften Dual- und QuadCore-Modelle langweilen sich natürlich bei Tabellenkalkulation[...]". Habt ihr das mal überprüft? Gerade das aktuelle Excel 2007 profitiert enorm von MultiCore-CPUs, so dass "[...]die fraglos vorhandene Power[...]" durchaus bereits heute sinnvoll genutzt werden kann. Selbst bei augenscheinlich anspruchslosen Office-Programmen. ;)
zuerst möchte ich auf einen wirklich augenmordenden vertipper aufmerksam machen:
[quote]denn die heutzutage verkauften Dual- und QuadCore-Modelle langweilen sich natürlich bei Tabellenkalkulation und Internetsurfen und wollen ihre fraglos vorhandene Power auch irgendwann einmal unter wirklich vordernder Software voll ausspielen ;).
ansonsten ist der test verdammt interessant, vor allem da es sowas in der form meines wissens noch nie gab.
interessant auch dass der P4 mit HT oft sogar mit einem A64-SC ganz gut mithalten kann.
BUGFIX
2007-08-01, 18:49:05
Hallo
ich hab da meine Bedenken:
a) War der HT Rechner ein Single Proc ?
Wenn ja, sind hier 2 verschiedene Scheduler gegeneinander angetreten, auf verschiedenen "Architekturen" das macht den Vergleich ziemlich unnütz.
Da der HT Scheduler die Aufgabe nur unter Berücksichtigung der jeweiligen Einheiten richtig machen kann. Der einfachere SMP Scheduler braucht das nicht zu beachten er kann sich sicher sein immer 2 gleichwertige Kerne vor sich zu haben. Insofern stimmen hier also die Relationen nicht. Bei Dualcore (wie auch dual Proc) kann man davon ausgehen, dass bei einer Idealen Software die Performance nahezu verdoppelt wird. Das kann SMT aber gar nicht leisten.
b) Hat man vorher getestet ob der SW Unterbau (also das OS und die zusätzlichen laufenden Prozesse) HT erkennen und möglicherweise anders reagieren als bei Dualcore
MfG
BUGFIX
Wenn ja, sind hier 2 verschiedene Scheduler gegeneinander angetreten, auf verschiedenen "Architekturen" das macht den Vergleich ziemlich unnütz.
Da der HT Scheduler die Aufgabe nur unter Berücksichtigung der jeweiligen Einheiten richtig machen kann.
das wäre theoretisch zwar ganz gut, ist aber praktisch nicht möglich, das OS weiß ja im moment der zuordnung eines prozessorkerns (egal ob virtuell oder real) nicht welche befehle in diesem thread als nächstes anstehen, und selbst wenn es das wüsste würde es den scheduler dermaßen verkomplizieren, dass damit jeder performancevorteil zunichte gemacht würde.
das betriebssystem weist jedem virtuellen kern einfach einen thread zu (sofern genug threads bereit sind). benutzen diese dann unterschiedliche hardwareeinheiten gibt es einen performancevorteil, sonst eben nicht.
dass einzige was das betriebssystem wissen kann (aber nicht muss) ist die unterscheidung von echten und virtuellen kernen bei multicore-systemen mit HT-technologie.
BUGFIX
2007-08-01, 20:20:22
das betriebssystem weist jedem virtuellen kern einfach einen thread zu (sofern genug threads bereit sind). benutzen diese dann unterschiedliche hardwareeinheiten gibt es einen performancevorteil, sonst eben nicht.
Richtig deshalb ist der vergleich auch unglücklich, weil die Skala nicht stimmt.
ein SMT kann eben nie 100% mehr bringen, wie es SMP bei idealer SW könnte.
Gebencht wurde aber nur das Game, nicht ob andere Hintergrund SW die "Restregister" des virtuellen 2ten Kerns nutzen können. das game jedenfalls KANN sie garnicht nutzen , weil diese dann ja schon im der ersten virtuellen CPU benutz wären und nicht zur verfügung stünden.
Den einzigen Perfomancevorteil den HT bieten kann ist dass es die Aufgaben die sonst das Game kurzfristig bei der Ausführung unterbrechen auf die noch freien Einheiten der CPU verteilt.
dass einzige was das betriebssystem wissen kann (aber nicht muss) ist die unterscheidung von echten und virtuellen kernen bei multicore-systemen mit HT-technologie.
Da muss das "muss" aber aus den klammern raus ;-)
Die performance eines HT systems mit einem Scheduler der nicht weiß dass es ein HT ist ist schlecht - unter dem strich haste sogar nen Performanceverlust.
Wie schnell sich Windows durch HT durcheinander bringen lässt , zeigt sich wenn man bei einen dual Xeon HT anschaltet und unter Win dann 4 kerne hat.
MfG
BUGFIX
Interessant. Wieviel Anteil an dem Gewinn durch HT haben wohl die heutigen mutithread-optimierten Grafiktreiber?
Ich kann mich dunkel entsinnen, daß damals bei der Einführung von HT durch Intel die meisten Spiele mit Performanceverlusten reagierten - bis zu 30%. Vielleicht könntet Ihr nochmal einen kurzen Check mit einem Grafiktreiber von ca. 2004 machen, falls Ihr ein Spiel damit zum laufen bekommt?
Nee, das waren mitnichten "die meisten". Eher ein paar Ausreißer, die mal bis zu 30% verloren.
Habt ihr das mal überprüft? Gerade das aktuelle Excel 2007 profitiert enorm von MultiCore-CPUs, so dass "[...]die fraglos vorhandene Power[...]" durchaus bereits heute sinnvoll genutzt werden kann. Selbst bei augenscheinlich anspruchslosen Office-Programmen. ;)
Solange die Leute nicht richtig "arbeiten" fällt das kaum auf. Für die meisten hört Excel ja bereits bei der monatlichen Haushaltsgeldabrechnung oder einem Benchmarkdiagramm auf.
"Richtiges" Exceln kennen die Leute hier kaum - ebensowenig andere ernsthafte Office-Anwendungen.
RavenTS
2007-08-02, 01:05:24
Dieser Abschnitt ist übertrieben dargestellt und als Fazit halte ich den auch für falsch.
Natürlich lässt es sich auch heute noch mit älteren Prozessoren als C2D und X2 spielen. Man muss Abstriche machen in den Details, das ist klar.
Wenn man in jedem Spiel die maximale Einstellungen wählt, nur dann ist euer Fazit richtig.
Das hängt wohl vom Spiel ab bzw. den genauen Einstellungen. KI, Physik etc. lassen sich oft nicht "runterschalten", sondern eben nur Auflösung, Texturgröße, Sichtweite, AA etc... Von daher kann das schon passen, aber eben nur bei bestimmten Titeln...
Hallo!
Also ich möchte auch hinzufügen, dass man bei Quake 4 viel größere Performancesprünge gemacht hat mit Dualcore und auch HT, könntet ihr das nicht hinzufügen bzw nachtesten?
Des weiteren ist die Aussage ein HT Pentium 4 brachte damals kaum was in Spielen oder wenn nur minimal, falsch. Denn ihr habt die Spiele vielleicht auf einem gerade frisch aufgesetzten System getestet. So ein System hat man aber nicht immer. Beim Spielen arbeitet bei mir im Hintergrund die Firewall, Virenscanner, Chatprogramme (ICQ, Xfire, Skype), Taktungsprogramme usw... also ziemlich viel im Hintergrund. Beim Wechsel zum P4 HT (bzw eher beim Testweisen Einbau) habe ich eine STANDARDMÄSSIGE 30 %ige Erhöhung der Leistung gehabt.
Theoretisch kann man außerdem beim HT /Dualcore nebenbei Rendern und gambeln, was für die Uni ganz praktisch war ^^.
Dieser Abschnitt ist übertrieben dargestellt und als Fazit halte ich den auch für falsch.
Natürlich lässt es sich auch heute noch mit älteren Prozessoren als C2D und X2 spielen. Man muss Abstriche machen in den Details, das ist klar.
Wenn man in jedem Spiel die maximale Einstellungen wählt, nur dann ist euer Fazit richtig.
Des weiteren kenne ich kaum ein Spiel, dass mit einem 3 GHZ P4 HT nicht ordentlich läuft. SELBST WENN, ist dieser Prozessor auch schon 5 Jahre alt, es wäre also nichtmal verwunderlich... stell sich mal einer vor, man testet ein Spiel von 2000 mit einer 5 Jahre alten CPU... insofern war es gut, dass man zwischen 3 und 4 ghz mal ein bisschen auf der Stelle getreten ist. Ich persönlich fühle mich mit meinem (wakü) Athlon 64 3500+ sehr wohl beim Spielen, da er lautlos ist und aufgrund der Wakü gerne mal übertaktet werden darf... wobei noch kein Bedarf dazu besteht...
Cyphermaster
2007-08-02, 16:48:53
Ich finde es auch etwas abwertend gegenüber den HT-CPUs, sie übergreifend als nicht mehr zeitgemäß zu klassifizieren. Mit genügend RAM ausgestattet, erlauben sie für viele Spiele noch erträgliches Zocken. Umgekehrt kann ich euch nur beipflichten: Wenn man Excel normal nutzt (also es nicht als Datenbankersatz o.ä. mißbraucht), dann braucht man keinen Dualcore - denn 1-2 Sekunden mehr pro Berechnung, ja sogar 10-20 Sekunden, sind im Büroalltag oft verschmerzbar. Da, wo im Büro mehr gebraucht wird (CAD, FEM, CFD, ...) stehen ohnehin praktisch schon immer Workstations, die mit mehr Dampf ausgestattet sind, und auch seit P2-Tagen 2 Prozessoren tragen können (jetzt halt nur nicht mehr auf 2 separaten Sockeln).
Da muss das "muss" aber aus den klammern raus ;-)
soweit ich weiß kann es Win2000 beispielsweise nicht.
um einen multicore mit HT vernünftig nutzen zu können sollte das betriebssystem diese unterscheidung natürlich kennen.
Gebencht wurde aber nur das Game, nicht ob andere Hintergrund SW die "Restregister" des virtuellen 2ten Kerns nutzen können. das game jedenfalls KANN sie garnicht nutzen , weil diese dann ja schon im der ersten virtuellen CPU benutz wären und nicht zur verfügung stünden.
die register sind bei HT-cpus mehrfach vorhanden und in jedem registersatz sind immer nur die daten des gerade ausgeführten threads gespeichert, es ist nicht möglich dass irgendeine weitere anwendung irgendwelche register benützt die zufällig noch frei sind.
was bei HT nicht mehrfach vorhanden ist, sind die ausführungseinheiten.
wenn bei beiden laufenden threads also die gleichen ALUs benutzen kann HT nichts bringen. wird dagegen in beiden threads eine andere ALU benutzt (z.b. INT und FP-berechnungen parallel, oder INT und Load/Store) kann HT unter umständen auch 100% mehrleistung bringen.
da die ausführungseinheiten beim P4 sowieso höchstens zu 1/3 (wenn es irgendwelche anbhängigkeiten gibt noch weniger) ausgelastet sind, ist die wahrscheinlichkeit allerdings nicht so klein dass der 2. thread eine freie einheit findet.
Mich würde mal interessieren, wie die Auslastung und der Vergleich bei nem Renderer aussehen würde. Vor allem ob man nen 3ghz P4 mit HT und nen Core 2 Duo mit 3GHz dann als gleichschnell bezeichnen kann, oder ob es dann Nachteile für den P4 gibt, da die Architektur anders ist.
Als Beispiel ein Bild rendern, ma mit dem einen, mal mit dem anderen - es sollte die gleiche Zeit rauskommen, oder nicht?
Hat das mal jemand getestet?
Merkor
2007-08-02, 20:01:06
Mich würde mal interessieren, wie die Auslastung und der Vergleich bei nem Renderer aussehen würde. Vor allem ob man nen 3ghz P4 mit HT und nen Core 2 Duo mit 3GHz dann als gleichschnell bezeichnen kann, oder ob es dann Nachteile für den P4 gibt, da die Architektur anders ist.
Als Beispiel ein Bild rendern, ma mit dem einen, mal mit dem anderen - es sollte die gleiche Zeit rauskommen, oder nicht?
Hat das mal jemand getestet?
Die Netburst-Architektur eines P4 unterscheidet sich grundlegend von der eines C2D. Ein C2D ist schon auf einem Kern bei gleicher Taktrate massiv schneller. Ein C2D mit entsprechend zwei Kernen würde in einer entsprechend an Multithreading angepassten Umgebung einen Single-Core P4 auch mit HT in Grund und Boden stampfen.
Zudem ist von den kommenden Spielen zu erwarten, daß dort der Pentium 4 nicht mehr nur bei ausgewählten Hardware-Krachern, sondern bei einer breiteren Masse an Games nicht mehr für vernünftige Frameraten sorgen wird. Die Zeit dieses Prozessor inklusive auch der gesamten Netburst-Architektur läuft bezüglich Computerspielen klar ab.
Ein sehr interessanter Artikel der mich als Käufer (und immer noch Nutzer ;-) ) eines P4 3,06 HT sehr freut, wirklich gut.
Aber die jeweiligen Schlussfolgerungen sind schon etwas hanebüchen.
Selbst mit meinen 3 Ghz auf 533er FSB kann ich (vor allem wenn man das Alter der CPU bedenkt) noch recht gut C&C3 zocken (und wenn ich durch HT 14% mehr Leistung bekomm freuts mich :D ).
Wenn man bedenkt dass es noch CPUs dieser Architektur mit zwei "echten" Kernen, höheren FSBs, Caches & viel höheren Taktraten gibt... Dann ist die Aussage "zum Spielen nicht mehr zum gebrauchen" doch wirklich einfach nur Unfug.
(Dass ich hier nicht von Neukäufern spreche, sondern von Leuten die evtl. wissen wollen wie lange sie mit ihrem Rechenknecht noch auskommen ist klar).
Und vom Pentium D Extreme Edition mit Dual Core, HT, 3.73 Ghz, FSB 1066, 2x1MB and 2x2MB L2 Cache & 64 Bit meines Kumpels (ja, er hat zuviel Geld ^^) reden wir hier noch gar nicht... ;-)
BUGFIX
2007-08-05, 05:53:19
die register sind bei HT-cpus mehrfach vorhanden und in jedem registersatz sind immer nur die daten des gerade ausgeführten threads gespeichert, es ist nicht möglich dass irgendeine weitere anwendung irgendwelche register benützt die zufällig noch frei sind.
was bei HT nicht mehrfach vorhanden ist, sind die ausführungseinheiten.
Meinte ich auch , sorry , da hab ich mich falsch ausgedrückt.
Danke für die Richtigstellung.
wenn bei beiden laufenden threads also die gleichen ALUs benutzen kann HT nichts bringen. wird dagegen in beiden threads eine andere ALU benutzt (z.b. INT und FP-berechnungen parallel, oder INT und Load/Store) kann HT unter umständen auch 100% mehrleistung bringen.
Merhleistung ja , aber kaum für die bereits Laufende Anwendung.
Was mich an der Sache so stört ist , dass HT und SMP die gleiche Messlatte verpasst bekommen. Die maximalleistung von SMP ist nun mal (bei idealer 100% Nutzung) 2 mal single Core Leistung. Die HT CPU wird ihre Ausführungs-Einheiten aber nicht verdoppeln können, ihr Maximum ist (wieder ideale Nutzung vorrausgesetzt) die volle Einheitennutzung (also ein Kern).
Wenn ich nen Prozess habe der mehrheitlich ALU nutzt wird er sich nicht durch eventuel freie FPU Einheiten beeindrucken lassen. Also kann ich auch nicht sagen das maximum wäre die volle Auslastung (also 100%). Eine Aussage über Effizienz der Nutzung kann man bei HT eben nur dann geben wenn man weiß welche und wieviele Einheiten das Testprogramm nutzt.
da die ausführungseinheiten beim P4 sowieso höchstens zu 1/3 (wenn es irgendwelche anbhängigkeiten gibt noch weniger) ausgelastet sind, ist die wahrscheinlichkeit allerdings nicht so klein dass der 2. thread eine freie einheit findet.
So gesehen wäre Intel besser beraten gewesen aus zwei 3 virtuelle CPUS zu machen.
Obwohl ich die genauen Zahlen der Einheiten bei den P4 Prozessoren nicht kenne halte ich 1/3 doch für etwas pessimistisch.
MfG
BUGFIX
BUGFIX
2007-08-05, 06:03:00
soweit ich weiß kann es Win2000 beispielsweise nicht.
um einen multicore mit HT vernünftig nutzen zu können sollte das betriebssystem diese unterscheidung natürlich kennen.
Richtig Windows 2000 hat bei HT auch massive Probleme, weil der Scheduler mit den virtuellen CPUs so umgeht als seien sie immer Gleichwertig (von der mächtigkeit der Ausführungseinheiten gesehen)
Ähnliche Probleme begegnen einem (leider) immer noch dann wenn SMP und SMT zusammen im System vorkommen (dual Xeon auf P4 basis). hier kann man teileweise sogar Geschwindigkeitseinbußen im verglich zu HT = off feststellen.
MfG
BUGFIX
Leonidas
2007-08-05, 08:58:14
"Many Core" (BTW: Warum diese Bezeichnung und nicht "Multi Core"? - laut google geht das Duell 0,2M zu 3,7M zu Gunsten von "Multi Core" aus ...)
MultiCore ist eine Bezeichung aus der Programmierung und schon länger in Benutzung und daher weiter verbreitet. ManyCore hat Intel diese 80-Core-Prozessoren selber so genannt. In Bezug auf die Prozessoren selber dürfte das wohl die richtigere Bezeichnung sein.
Hervorragender und interessanter Test. Überhaupt gefielen mir die Tests der letzten Zeit sehr gut, wo die Thematik Single- vs Multicore sehr gut beleuchtet wurde... bald dann wahrscheinlich noch mit 'nem Quadcore dazwischen.
Erstaunlich finde ich die sehr guten Ergebnisse des Dualcores im Vergleich zum Singlecore, obwohl Multithreading in der Software sicher noch nicht mal besonders konsequent genutzt wird und sich auch nicht alles beliebig parallelisieren läßt. Da sind 50% Mehrleistung zum jetzigen Zeitpunkt mehr als ordentlich.
moeb1us
2007-08-09, 10:08:37
Bitte bitte legt mehr Wert auf Rechtschreibung, Leo. Der Text liest sich wirklich grauenhaft, so interessant der Inhalt auch sein mag. Es sollte doch kein Problem sein, das Produzierte von ein, zwei Personen Korrektur lesen zu lassen wie bei jeder anderen redaktionellen Arbeit üblich? Schließlich wird damit ein Bild gezeichnet für die Öffentlichkeit...
Bin jetzt nur kurz über die erste Seite geflogen und:
dachte kaum jemand an eine bessere Spieleperformance durch dieses Feature und war natürlich die derzeitig laufende Entwicklung
> natürlich war
Schnell wurde zudem auch klar, daß
> dass
Spiele gehören von Anfang an nicht zu den Lieblingen von HyperThreading, hier zeigten sich selbst nach
> gehörten (sonst verschiedene Zeiten)
hätten es die ersten DualCore-Prozessoren wohl noch schwieriger gehabt
> schwerer
Nun hat sich die Zeit inzwischen stark gedreht
> nette Wendung, aber die Verhältnisse drehten sich wohl eher
Gerade die eher einfachen Optimierungen wie das Auslagern abgetrennter Teilaufgaben (wie K.I., Sound, Physik) auf den zweiten Kern ist problemlos auch von HyperThreading-Modellen mit einer gewissen Leistungssteigerung handelbar
> Plural, sind problemlos auch...
> wenn schon Wortschöpfungen, dann richtig: handlebar
und demzufolge im Fall eines HyperThreading-Modelle auch auf einem
> Modells
So zumindestens die Theorie
> das Wort gibt es nicht, zumindest
Hierzu haben wie zwei verschiedenen Prozessoren
> wir
welcher die Tests mit aktivierten und mit deaktiviertem HyperThreading durchlief
> aktiviertem
welcher die Tests als sowohl als Dual- als auch als SingleCore durchlief.
> als
zu erkennen, wieviel HyperTreading heutzutage in DualCore-optimierten Spielen an Gewinn bringen kann
> bisschen undurchsichtig, die Betonung sollte auf Gewinn liegen:
wieviel Gewinn HT in DC-o Spielen heutzutage bringen kann...
entering wurden-Zone:
Bei allen Savegames wurden jeweils immer die ersten fünf Sekunden zur Messung benutzt, welche dabei immer mittels Fraps durchgeführt wurden. Dabei wurde jedes Savegame
Die für diesen Artikel zum Einsatz kommenden Savegames wurden
da es bereits hier umfassend ausgeführt wurde. Als Prozessoren für diesen Test wurden jedoch
in den Test-Spielen selber wurde immer
Im Sinne eines CPU-limitierten Tests wurde jedoch
> generell ist wurde-Verwendung in Berichten zu vermeiden, da es als schlechter Stil gilt. Lieber Substantivierungen und Wörter wie "erfolgen" verwenden.
Beispiel:
"Es wird gemessen, die Werte werden als Kurve dargestellt und werden dann ausgewertet. Dann wird festgestellt, daß die Werte nicht verwendet werden können".
besser:
"Nach der Messung und der Darstellung der Werte erfolgt die Auswertung. Hierbei ist festzustellen, daß die Messungen zu keinen plausiblen Ergebnissen führen."
Bitte nicht persönlich nehmen, das soll nur konstruktive Kritik sein :)
Öhm, sagt 'mal, kann das sein: C&C3 gespielt in einer 800*600er Auflösung auf einem X2 4600+ und nicht einmal 20fps?
Madkiller
2007-08-10, 15:05:41
Natürlich kann das sein.
Ist ja auch ne stressige Szene.
Ein bisschen off-topic, aber es kam mir gerade in den Sinn. Weshalb hat noch keine Spieleschmiede sowas wie ein dynamisches Setting eingeführt? Dh. man gibt die Wunschframerate an und das Spiel schraubt dann selber die Details hoch oder runter je nach Spielsituation...
Denniss
2007-08-13, 00:11:03
Bitte mal HyperThreading im Artikel ersetzen durch die korrekte Schreibweise Hyper-Threading. Das wird nicht zusammen geschrieben wie HyperTransport.
http://www.intel.com/technology/platform-technology/hyper-threading/index.htm
AnarchX
2007-08-13, 10:14:45
Ein bisschen off-topic, aber es kam mir gerade in den Sinn. Weshalb hat noch keine Spieleschmiede sowas wie ein dynamisches Setting eingeführt? Dh. man gibt die Wunschframerate an und das Spiel schraubt dann selber die Details hoch oder runter je nach Spielsituation...
Gab es bei UT99 bzw. Unrealengine1 schon in Gründzügen -> "MinDesiredFrameRate". Da wurde AFAIR die Anzahl der Partikel angepasst.
Ein bisschen off-topic, aber es kam mir gerade in den Sinn. Weshalb hat noch keine Spieleschmiede sowas wie ein dynamisches Setting eingeführt? Dh. man gibt die Wunschframerate an und das Spiel schraubt dann selber die Details hoch oder runter je nach Spielsituation...Das war ziemlich lange sogar recht häufig. Z.B. die meisten Spiele von Shiny passen die Grafik so an, dass die gewünschten FPS bei rauskommen. Allerdings hat das ganze auch einen Pferdefuß: Meist wurden alle Detaileinstellungen angepasst, so dass eine bei Maximaleinstellungen gelangweilte GPU noch weniger zu tun bekam, wenn die CPU bereits am Röcheln war, umgekehrt genauso. Außerdem setzt jeder unterschiedliche Prioritäten und verschiedene Hardware reagiert auch unterschiedlich. Auf ner GF3 bis GF5 kann man durch Reduktion des AFs z.B. eine Menge Tempo rausholen, während die gleiche Einstellung bei einer GF8 kaum Tempounterschiede erzeugt. Gilt natürlich nicht nur für verschiedene Generationen eines Herstellers, sondern erst recht für unterschiedliche Hersteller auch innerhalb einer Generation bei jeweilsa unterschiedlichen Detailoptionen. Ums Rumgefrickel bis einem alles passt kommt man halt nicht rum, wenn man auf Stärken und Schwächen der Hardware Rücksicht nehmen will.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.