PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 16 CPUs - 3 GHz - 1 Kern


TB1333
2011-07-12, 20:30:38
Bei TH gibts einen Test, der die Performance verschiedener CPUs mit nur einem Kern bei 3GHz untersucht. (http://www.tomshardware.de/x86-Prozessoren-Pro-Takt-Performance-Effizienz,testberichte-240831.html)

Raff
2011-07-12, 20:41:22
Sehr nette Sache. Leider viiiel zu wenige Tests.

Und sehr bitter: Thuban ist pro Kern langsamer als Conroe. Nur der P4 ... OMG, ist das ne lahme Kiste (wobei das nicht neu ist).

MfG,
Raff

y33H@
2011-07-12, 20:43:14
Super ... 3DM11 und alle Scores abgebildet, nur den CPU-Score ("Physics Test") nicht :uclap:

Davon ab bestätigt der Test das, was im Großen und Ganzen jeder weiß: Pro Takt und Kern ist AMD derzeit auf Höhe von Intels Core 2 von 2006.

boxleitnerb
2011-07-12, 21:01:59
Aber ehrlich gesagt: So die 50%, die man sonst so sieht, z.B. bei Computerbase, sehe ich hier nicht.

dildo4u
2011-07-12, 21:03:08
Es wurden auch kaum Games gestest sondern fast nur Anwendungen,da ist der Abstand nicht ganz so krass.CB hat beim X6 vs Sandy ein Vorsprung für Intel von 46% bei Games und 36% bei Anwendungen.

Naitsabes
2011-07-12, 21:03:49
warum ist der Windsor und Brisbane zum Teil schneller als ein Propus oder Regor? Kommt mir irgendwie komisch und unglaubwürdig vor :freak:

dargo
2011-07-12, 21:03:51
Super ... 3DM11 und alle Scores abgebildet, nur den CPU-Score ("Physics Test") nicht :uclap:

Davon ab bestätigt der Test das, was im Großen und Ganzen jeder weiß: Pro Takt und Kern ist AMD derzeit auf Höhe von Intels Core 2 von 2006.
Erfreulich ist hier wenigstens zu sehen, dass es sich hier tatsächlich um einen CPU-Test handelt (mal den 3DMark ausgeschlossen). Hätten die noch Games genommen, hätten sie es garantiert versemmelt. :ugly:

Coda
2011-07-12, 21:04:31
warum ist der Windsor und Brisbane zum Teil schneller als ein Propus oder Regor? Kommt mir irgendwie komisch und unglaubwürdig vor :freak:
Haben die vielleicht mehr Cache?

Edit: Ne, haben sie nicht. Das ist echt komisch.

Ronny145
2011-07-12, 21:05:42
Aber ehrlich gesagt: So die 50%, die man sonst so sieht, z.B. bei Computerbase, sehe ich hier nicht.

Es sind auch eher 40%. Ich weiß jetzt nicht woher die 50% kommen.

Naitsabes
2011-07-12, 21:08:10
@ Coda
Brisbane hat 512kb, Windsor 1024kb, Regor auch 1024kb und Probus 512kb :biggrin:
Und die Architekturverbesserungen im k10/k8l sollten doch schon um die 15-20% bringen. Darüberhinaus wurden die K8 selbstverständlich mit DDR2 und die K10 mit DDR3 getestet...


edit.

könnte es sein, dass C´n´Q dazwischenfunkt und bei Regor und Propus vielleicht zu aggressiv ist?

Coda
2011-07-12, 21:14:59
Möglich. Regor kann runtertakten bis 200 Mhz ;)

fondness
2011-07-12, 21:43:13
Möglich. Regor kann runtertakten bis 200 Mhz ;)

Sollte deaktiviert sein:
"Neben der Beschränkung der aktiven Kerne auf lediglich einen Kern haben wir die Taktgeschwindigkeit aller Prozessoren auf 3,0 GHz festgelegt und sämtliche Energiesparmechanismen wie AMD Cool’n’Quiet oder Intel SpeedStep ausgeschaltet sowie auf AMD Turbo Core bzw. Intel Turbo Boost verzichtet. "

Botcruscher
2011-07-12, 21:43:26
Nette Idee, Abzüge in der B-Note(zu wenig Tests).

schmacko
2011-07-12, 22:05:59
statt lauter phenomII-derivate mitzutesten, hätten sie einen phenomI mit tlb-fix und einen mit abgeschaltetem tlb mittesten sollen, dann hätte man auch bei amd ein bisschen mehr generationen gehabt. (oder hatten die angst, dass er bei 3ghz verglüht?)

y33H@
2011-07-12, 22:47:47
Agenas, die wirklich stabil unter Luft die 3,0 GHz packen, sind vergleichsweise selten - und das bei wahnwitzigen Spannungen. Aber ja, ein Phenom I fehlt mir auch.

samm
2011-07-12, 22:49:56
warum ist der Windsor und Brisbane zum Teil schneller als ein Propus oder Regor? Kommt mir irgendwie komisch und unglaubwürdig vor :freak:
Brisbane hat 512kb, Windsor 1024kb, Regor auch 1024kb und Probus 512kb
Und die Architekturverbesserungen im k10/k8l sollten doch schon um die 15-20% bringen. Darüberhinaus wurden die K8 selbstverständlich mit DDR2 und die K10 mit DDR3 getestet...Jo, das ist in der Tat merkwürdig... :confused:

Shink
2011-07-13, 09:25:38
Schade dass da kein P4 Northwood dabei ist. Ich wäre gespannt ob der mit heutigen Anwendungen langsamer (so wie damals) oder schneller als der Prescott ist.

Raff
2011-07-13, 09:30:43
Agenas, die wirklich stabil unter Luft die 3,0 GHz packen, sind vergleichsweise selten - und das bei wahnwitzigen Spannungen. Aber ja, ein Phenom I fehlt mir auch.

Och, mit einem Kern könnte das (besser) klappen. 4-Kern-Volllast ist eine andere Last-Welt.

MfG,
Raff

Spasstiger
2011-07-13, 09:46:15
Ich find ja solche Rückschlüsse aus einem Single-Core-Test interessant: AMD und Intel haben es fertiggebracht, die Bearbeitungszeit fürs Audio-Transcoding von einer Prozessorkern-Generation zur nächsten zu reduzieren. Auch hier lässt sich erkennen, dass ein großer und intelligenter Cache sehr hilfreich ist. Zudem verweist Intels Core-Prozessorfamilie das AMD-Portfolio deutlich in seine Schranken. Die Modelle von AMD sind im Gegenzug dafür preiswerter.
In erster Linie profitiert AMD unter realen Bedingungen aber natürlich von den zwei zusätzlichen Kernen, die man im Preissegment eines Core i5 bietet.

Der Phenom I sollte sich pro Takt und Kern nicht viel mit den Phenom II nehmen. Ich denke mal weniger als 5% langsamer gegenüber Deneb und das auch nur wegen dem kleineren L3-Cache. Propus und Regor dürften Agena (Phenom I) bei gleichem Takt in der Regel hinterherhinken.

Pirx
2011-07-13, 10:07:29
Sowas müßte man mal mit Open Source-Anwendungen/Spielen machen, wo wirklich sichergestellt ist, daß die AMDs nicht noch auf dem 486er;)-Pfad rumrechnen müssen.

Schnitzl
2011-07-13, 11:23:10
hahaha
Im Vergleich zu allen anderen CPUs ist der Pentium 4 ein echter Verlierer.
Die Ergebnisse des Pentium 4 sind erneut wenig erfreulich.
Über die Performance des Pentium 4 müssen wir an dieser Stelle wohl nichts mehr sagen.
;D

/EDIT: nix gegen Intel, ist einfach lockerer Schreibstil...

Wuge
2011-07-13, 11:32:52
Toll, man könnte ja auch mal einen Max.-Takt-Vergleich durchführen, bei dem dann ein 6 Jahre alter P4 alles > 32nm platt macht.

Der Test mag ja interessant sein aber so eine Schlussfolgerung ist sinnlos wenn man vollkommen unterschiedliche Designansätze vergleicht.

Cyphermaster
2011-07-13, 11:39:10
Einer is immer der Looser... ;)

Ich find die Quantifizierung dessen, was eigentlich schon allgemein lange bekannt (und bis zum Erbrechen durchdiskutiert) ist, nämlich die relative pro-MHz-Schwäche von AMDs Prozessoren gegenüber den neueren Intels, ganz interessant - auch wenn's praktisch gesehen für den Anwender natürlich nicht besonders aussagekräftig ist.

Der macht die "bessere" CPU statt an der Pro-MHz-Leistung im Normalfall an der Performance pro Euro und in verschiedensten Kombinationen von Programmen fest und ist deswegen auch nicht die Ziel-Lesergruppe, denke ich.
Und in genau dieser Praxisrelevanz wirds dann undurchsichtig, weil Intel-CPUs mit weniger Kernen aber höherer Taktleistung mit AMD-CPUs mit mehr Kernen konkurrieren, und der Käufer meist nicht einschätzen kann, was besser zu seinen installierten (mal mehr, mal weniger Multicore-fähigen bzw. -optimierten) Programmen paßt. Man könnte sagen, es ist die alte Frage "Was ist besser, hochgetakteter Zwei- oder niedriger getakteter Vierkerner?", reloaded - und immer noch nicht klar beantwortbar.

Raff
2011-07-13, 11:39:30
Das ist Nerdwissen par excellence: interessant, aber irgendwie sinnlos. :)

MfG,
Raff

mapel110
2011-07-13, 11:42:27
Warum soll das nicht klar beantwortbar sein? Weniger Kerne mit mehr Leistung sind immer vorzuziehen. Die meisten Anwendungen profitieren nicht von Multicore.

V2.0
2011-07-13, 11:54:59
Und auch die Aussage kann schon bald falsch sein

dargo
2011-07-13, 11:55:30
Warum soll das nicht klar beantwortbar sein? Weniger Kerne mit mehr Leistung sind immer vorzuziehen. Die meisten Anwendungen profitieren nicht von Multicore.
Das kann man auf Games zwar (momentan) pauschalisieren, auf viele Anwendungen aber eher nicht. Für ernsthaftes (sprich, möglichst schnelles) Videoencoding ist mir mein i5-750@3,7Ghz eigentlich immer noch viel zu langsam. Manchmal hätte ich schon gern einen SB @6 oder noch besser 8 Cores mit 4-5Ghz.

Cyphermaster
2011-07-13, 12:38:07
Warum soll das nicht klar beantwortbar sein? Weniger Kerne mit mehr Leistung sind immer vorzuziehen. Die meisten Anwendungen profitieren nicht von Multicore.Das ist deswegen nicht klar beantwortbar, weil du bei einem Kauf dann wissen müßtest, wie gut gerade die für dich (= individuell, nicht pauschalisierbar) relevanten Programme mit der Kernzahl skalieren. Und sogar das ändert sich teilweise mit dem nächsten Patch/Update der Programme wieder...

Für ein paar recht beliebte Programme mag man da noch immer wieder aktualisierte Infos aus Tests ziehen können, aber mehr schon auch nicht.

blackbox
2011-07-13, 12:39:54
Naja, irgendwo hört das auch auf, bzw. je höher der Verwaltungsaufwand ist, desto weniger bringen mehr Kerne etwas.

Haben wir eigentlich jetzt schon:
Hier :http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/28/#abschnitt_x264_hd_benchmark_319
ist ein I7 980x mit 6 Kernen und 12 Threads im Test 1 langsamer als ein I7 2600K mit 4 K/T.
Und auch der Vorsprung im Test 2 hält sich arg in Grenzen.

Spasstiger
2011-07-13, 12:43:58
Toll, man könnte ja auch mal einen Max.-Takt-Vergleich durchführen, bei dem dann ein 6 Jahre alter P4 alles > 32nm platt macht.
Das ist Quatsch, einen Prescott bekommst du für den Parcour tauglich vielleicht auf 6 GHz, einen Core 2 Duo 65 nm auf 4,5-5 GHz. Und dann ist der Core 2 Duo immer noch weit schneller.

dargo
2011-07-13, 12:56:55
Naja, irgendwo hört das auch auf, bzw. je höher der Verwaltungsaufwand ist, desto weniger bringen mehr Kerne etwas.

Haben wir eigentlich jetzt schon:
Hier :http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/28/#abschnitt_x264_hd_benchmark_319
ist ein I7 980x mit 6 Kernen und 12 Threads im Test 1 langsamer als ein I7 2600K mit 4 K/T.
Und auch der Vorsprung im Test 2 hält sich arg in Grenzen.
Lol... im ersten Test liegt der SB mit nur 5% vorne. Im zweiten Test liegt der 6 Kerner wiederum ganze 28% vorne und für dich ist das "hält sich in Grenzen". :ulol:

Du weißt schon, dass der SB minimal höher taktet und eine etwas höhere IPC hat? Wie man im zweiten Test sieht bringt das dem SB bei weitem nicht genug um die fehlenden 2 Kerne auszugleichen. Der 6 Kerner @Gulftown läuft dem SB locker davon.

PS: der i7 2600K hat 4 Kerne und 8 Threads.

Matrix316
2011-07-13, 13:52:46
Das interessanteste ist eigentlich WIE langsam der Pentium 4 ist. Da kann ja fast ein Atom Konkurenz machen. ;)

Raff
2011-07-13, 14:01:39
Das wirkt so, täuscht jedoch. Der Atom ist, speziell ohne SMT, wirklich unfassbar langsam. Und bekomm den mal auf 3 GHz. :D

Passend dazu der Cinebench 11.5 mit 1,6 und mit OC @ 2 GHz: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7856333&postcount=35 :ulol:

MfG,
Raff

Shink
2011-07-13, 14:08:26
Das wirkt so, täuscht jedoch. Der Atom ist, speziell ohne SMT, wirklich unfassbar langsam.
Naja, wie du schon sagst: Der Atom ist auch aufgrund des Taktes lahm.
Die Pro-MHz-Leistung ist, wenn man die Architektur berücksichtigt, durchaus OK. Mit einem Willamette o.ä. wird er bei aktuellen Anwendungen schon mithalten können.

hmx
2011-07-13, 14:37:39
Und auch die Aussage kann schon bald falsch sein

Des haben sie schon vor 3 Jahren gesagt. Bislang aber komme ich mit einem C2D E8400 noch zu gut zurecht, als dass 4 kerne ein Muss sind. Ausnahmen wie GTA4 mal außen vor und welcher Normalverbraucher Encodiert am laufendem Band Videos? Bei Spielen hat doch ein 4-Kerner von AMD immer noch Probleme mit den schnellen 2-Kernern von Intel. Und auch der nicht-native Core2Quad sieht da gegen die neuen AMD 4-Kerner immer noch gut aus.

Cyphermaster
2011-07-13, 15:09:10
Ein praktisches und nicht zu seltenes Beispiel für Multicore-User: Hobbyfotografen. Die haben relativ häufig viele GB Bilddaten, die über z.B. Adobe Lightroom nach einer Foto-Tour/Session verwurstet werden wollen.

Es ist wirklich die Frage, welches Anwendungsprofil man hat, und welche Software, was dann wie viel besser/schlechter ist. Und genau deshalb läßt sich nur schlecht verallgemeinern, was insgesamt besser ist. Außer natürlich mehr Leistung/Takt, höhere Taktrate und mehr Kerne GLEICHZEITIG für's selbe Geld. ;)

Schnitzl
2011-07-13, 16:44:41
Des haben sie schon vor 3 Jahren gesagt. Bislang aber komme ich mit einem C2D E8400 noch zu gut zurecht, als dass 4 kerne ein Muss sind. Ausnahmen wie GTA4 mal außen vor und welcher Normalverbraucher Encodiert am laufendem Band Videos? Bei Spielen hat doch ein 4-Kerner von AMD immer noch Probleme mit den schnellen 2-Kernern von Intel. Und auch der nicht-native Core2Quad sieht da gegen die neuen AMD 4-Kerner immer noch gut aus.
hm, lebst du in der Vergangenheit? ;)
wenn ich mir das_hier (http://www.pcgameshardware.de/aid,822771/AMDs-neues-Quadcore-Flaggschiff-Phenom-II-X4-980-Black-Edition-im-Test/CPU/Test/) so anschaue, dann ist bei mehr als der Hälfte der Spiele ein Quad deutlich im Vorteil

mapel110
2011-07-13, 16:51:38
Ich sehe da nur Vorteile bei Anno und BC2.

hmx
2011-07-13, 17:35:52
Ich sehe da nur Vorteile bei Anno und BC2.

Ich auch.
In Starcraft ist zB sogar der Core i3 mit 2,93 GHz schneller als ein AMD 6-Kerner mit 2,8 GHz. Der nicht-native 4C Core2Quad versägt selbst mit niedrigeren Takt einen AMD 6C.
In Anno ist ein Core2Duo mit hohem Takt immer noch fast so schnell wie ein AMD 4C. Zudem sind in BC2 auf mit einem Core2Duo die Bildraten hoch genug.

Schnitzl
2011-07-13, 18:19:45
Ihr müsst schon in einer Firma bleiben.
Einfach den E8400 mit dem Q9550 vergleichen...
Und da ist der Quad in 4 von 6 Spielen eben schneller trotz niedrigerem Takt.
Komisch bei Dragon Age dachte ich immer gelesen zu haben dass mehr Kerne deutlich was bringen (vielleicht verwechsel ich das auch mit DA2?)

Raff
2011-07-13, 18:34:17
(vielleicht verwechsel ich das auch mit DA2?)

Yep. Das skaliert mit bis zu 4 Kernen gut.

MfG,
Raff

Wuge
2011-07-13, 19:56:36
Das ist Quatsch, einen Prescott bekommst du für den Parcour tauglich vielleicht auf 6 GHz, einen Core 2 Duo 65 nm auf 4,5-5 GHz. Und dann ist der Core 2 Duo immer noch weit schneller.

Ich habe geschrieben Max-Takt-Vergleich (in Analogie zum IPC-Vergleich). Und da sieht ein Conrore gegen einen Presler (aber auch schon gegen Prescott) alt aus.

hmx
2011-07-13, 22:00:49
Ihr müsst schon in einer Firma bleiben.
Einfach den E8400 mit dem Q9550 vergleichen...
Und da ist der Quad in 4 von 6 Spielen eben schneller trotz niedrigerem Takt.
Komisch bei Dragon Age dachte ich immer gelesen zu haben dass mehr Kerne deutlich was bringen (vielleicht verwechsel ich das auch mit DA2?)

Ja, schneller. Aber um wie viel? Das einzige Spiel in dem sich eine Wechsel halbwegs lohnen würde ist Anno. Beim Rest sind die Unterschiede marginal.

y33H@
2011-07-13, 22:28:20
In vielen Fällen 40 Prozent und weit mehr. Von "marginal" würde ich hier nicht sprechen.

AnarchX
2011-07-13, 22:44:31
Ich habe geschrieben Max-Takt-Vergleich (in Analogie zum IPC-Vergleich). Und da sieht ein Conrore gegen einen Presler (aber auch schon gegen Prescott) alt aus.
Waren es denn mehr als 25% die ein Presler geschafft hat? Ich habe da 4GHz für einen guten E6850 und fast 5GHz für eine 965XE im Kopf. Damit sieht es auch nicht soviel besser aus.

Der HeinZ
2011-07-13, 23:09:45
Täuschen die Ergebnisse nicht ein wenig? Hier wird ja nur auf einen Kern eingegangen, aber sind die dinger nicht mittlerweisel so komplex, das man aufjedenfall die Gesamtarchitektur berücksichtigen muss? ich meine doch das der 2nd Level Cache beim core2duo beispielsweise für eine Prozessor vollständig zur Verfügung steht, wenn ihn der andere nicht adressiert. Das erklärt doch schon zum großteil den IPC vorteil. Der Phenom aber auch K8 bzw. auch der i5-i7 hauen doch erst so richtig rein wenn alle Kerne zusammenspielen. Dann kommen noch so klamotten wie der HT vs FSB, was sich auch erst im multicore bereich auswirkt. Hmmm. nur malzum nachdenken ob ipc pro kern überhaupt noch so aussagekräftig ist wie früher, als man die IPCxtaktrate quasi als Leistungsindikator alleine hatte.

Gruss Matthias

Konami
2011-07-13, 23:28:08
Das kann man auf Games zwar (momentan) pauschalisieren, auf viele Anwendungen aber eher nicht. Für ernsthaftes (sprich, möglichst schnelles) Videoencoding ist mir mein i5-750@3,7Ghz eigentlich immer noch viel zu langsam. Manchmal hätte ich schon gern einen SB @6 oder noch besser 8 Cores mit 4-5Ghz.
Nicht mal beim Videoencoding sind mehr Kerne unbedingt besser. Denn je parallelisierter man encodet, desto mehr wird das Video "zerhackt", sodass die Effizienz der Komprimierung leidet. Bei 2 bis 4 Threads mag das noch nicht viel ausmachen, aber je mehr Threads es werden und je kürzer (bzw. weniger Einstellungen/Bewegung) das Video ist1, desto schlimmer wirds.


1 Da hab ich mich geirrt, denn das Video wird nicht zeitlich zerteilt, sondern jedes einzelne Frame wird aufgeteilt.

dargo
2011-07-14, 10:38:59
Nicht mal beim Videoencoding sind mehr Kerne unbedingt besser. Denn je parallelisierter man encodet, desto mehr wird das Video "zerhackt", sodass die Effizienz der Komprimierung leidet. Bei 2 bis 4 Threads mag das noch nicht viel ausmachen, aber je mehr Threads es werden und je kürzer (bzw. weniger Einstellungen/Bewegung) das Video ist, desto schlimmer wirds.
Momentan sind bei mir alle 4 Cores zu 99,xx% ausgelastet und die Zeit beim Encoding halbiert sich auch mit 4 Cores vs. 2 Cores. Wie das mit 6 oder sogar 8 Cores aussieht kann ich jetzt nicht testen weil mir eine entsprechende CPU fehlt. Aber wie man bei CB sieht skaliert der Sechskerner perfekt gegenüber dem Vierkerner.
40232

http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/28/#abschnitt_x264_hd_benchmark_319

Bei so einer perfekten Skalierung wird denke ich selbst noch ein 8 Kerner gut zulegen, sodass man einiges an Zeit einspart.

seaFs
2011-07-14, 10:50:07
Momentan sind bei mir alle 4 Cores zu 99,xx% ausgelastet und die Zeit beim Encoding halbiert sich auch mit 4 Cores vs. 2 Cores. Wie das mit 6 oder sogar 8 Cores aussieht kann ich jetzt nicht testen weil mir eine entsprechende CPU fehlt. Aber wie man bei CB sieht skaliert der Sechskerner perfekt gegenüber dem Vierkerner.
40232

http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/28/#abschnitt_x264_hd_benchmark_319

Bei so einer perfekten Skalierung wird denke ich selbst noch ein 8 Kerner gut zulegen, sodass man einiges an Zeit einspart.

Wobei es Konami nicht um die zeit geht, sondern wohl eher um die erreichte Bildqualität bei einer vorgegebenen Datenrate. Und die fällt nunmal beim "zerhacken" des Videos in 2/4/6/8 Teile durch Überschneidungen ab. Interessant wäre in dem Zusammenhang mal ein Vergleich, wieviel Overhead das denn bei gleichbleibender Qualität erzeugt.

dargo
2011-07-14, 10:56:28
Wobei es Konami nicht um die zeit geht, sondern wohl eher um die erreichte Bildqualität bei einer vorgegebenen Datenrate. Und die fällt nunmal beim "zerhacken" des Videos in 2/4/6/8 Teile durch Überschneidungen ab. Interessant wäre in dem Zusammenhang mal ein Vergleich, wieviel Overhead das denn bei gleichbleibender Qualität erzeugt.
Hä? Das musst du mir genauer erklären. Ein Video ist nichts weiter als eine Folge von einzelnen Frames. Und solange die einzelnen Frames für sich bearbeitet werden... wie soll da die Qualität leiden? :confused:

PS: wenn ich das hier richtig deute:
40233

unterstützt der Mediacoder sogar CPUs mit bis zu 16 Cores. Ob die dann noch gravierende Speedvorteile bringen ist natürlich eine andere Geschichte.

AnarchX
2011-07-14, 11:18:38
Hä? Das musst du mir genauer erklären. Ein Video ist nichts weiter als eine Folge von einzelnen Frames. Und solange die einzelnen Frames für sich bearbeitet werden... wie soll da die Qualität leiden? :confused:

Bei einer modernen und effektiven Videokompression ist das nicht mehr der Fall. Zum Beispiel Bewegungskorrektur: http://de.wikipedia.org/wiki/Videokompression#Bewegungskorrektur

Wuge
2011-07-14, 11:19:33
Waren es denn mehr als 25% die ein Presler geschafft hat? Ich habe da 4GHz für einen guten E6850 und fast 5GHz für eine 965XE im Kopf. Damit sieht es auch nicht soviel besser aus.

Wir dzwar immer mehr OT aber was solls ;) Die letzten Exemplare (D0) haben die 5 Ghz luftgekühlt geschafft. Hatte so ein Teil hier, da hat letztlich der FSB limitiert (hatte nur Multi 15). Ich weiß natürlich nicht, wie der weiter mit der Spannung skaliert hätte aber es war noch einiges an Luft bis zur Taktmauer.

Mein C1 (965 XE), ist ein ES direkt von Intel - also einer der ersten. Der kommt in etwa in die 5 GHz Richtung ohne Sub-Zero. Leistungsmäßig zwar immernoch hinter einen C2D aber wenn man nur die Variable Takt betrachtet einsame Spitze *ggg*.

dargo
2011-07-14, 11:23:12
Bei einer modernen und effektiven Videokompression ist das nicht mehr der Fall. Zum Beispiel Bewegungskorrektur: http://de.wikipedia.org/wiki/Videokompression#Bewegungskorrektur
Ok... mir leuchtets aber immer noch nicht ein aus welchem Grund die Qualität durch eine höhere Anzahl von Cores leiden sollte.

AnarchX
2011-07-14, 11:23:40
Beim Takt ist ein 8GHz Celeron D auch Spitze, trotzdem wird er von der Leistung wohl schon von einem ULV SNB geschlachtet. :D

seaFs
2011-07-14, 13:01:44
Ok... mir leuchtets aber immer noch nicht ein aus welchem Grund die Qualität durch eine höhere Anzahl von Cores leiden sollte.
Soweit ich das verstanden habe, ist diese einfach Abfolge der Frames nicht mehr unabhängig voneinander, sobald die Bewegungsabschätzung ins Spiel kommt. Des weiteren wird ein Frame für Multithreadunterstützung in verschiedene Teile zerlegt. An den Rändern der Teile müssen Pixel des jeweils angrenzenden Teils für die Brechnung mit einbezogen werden, was in einer Überschneidung und damit einem Datenoverhead resutliert, den man mit weniger Threads/Frameteilen nicht hätte.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8744231#post8744231

The Nemesis
2011-07-14, 13:26:19
Ihr müsst schon in einer Firma bleiben.
Einfach den E8400 mit dem Q9550 vergleichen...
Und da ist der Quad in 4 von 6 Spielen eben schneller trotz niedrigerem Takt.
Komisch bei Dragon Age dachte ich immer gelesen zu haben dass mehr Kerne deutlich was bringen (vielleicht verwechsel ich das auch mit DA2?)

In Dragon Age 1 hat man mit einem Quad definitiv mehr Spaß (In Mass Effect übrigens auch).
Hab den direkten Vergleich von meiner Quad-Kiste mit dem von mir gebauten Dual-Core meiner Freundin mit gleicher Grafikkarte.

Ja, schneller. Aber um wie viel? Das einzige Spiel in dem sich eine Wechsel halbwegs lohnen würde ist Anno. Beim Rest sind die Unterschiede marginal.
Macht in max Details definitiv den Unterschied bei uns, sowohl in DA 1 als auch Mass Effect.
Ich Q6600@3,2ghz, Freundin E6550@3,3ghz, beide GTX 260.

Aber gut, sind aber auch schon ein wenig älter die Kisten.

dargo
2011-07-14, 14:44:22
Soweit ich das verstanden habe, ist diese einfach Abfolge der Frames nicht mehr unabhängig voneinander, sobald die Bewegungsabschätzung ins Spiel kommt. Des weiteren wird ein Frame für Multithreadunterstützung in verschiedene Teile zerlegt. An den Rändern der Teile müssen Pixel des jeweils angrenzenden Teils für die Brechnung mit einbezogen werden, was in einer Überschneidung und damit einem Datenoverhead resutliert, den man mit weniger Threads/Frameteilen nicht hätte.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8744231#post8744231
SavageX bezieht sich dort auf 4 Threads wo es kaum zu Qualitätsverlusten kommen soll. Auf 16 Threads geht er gar nicht ein. Und selbst wenn, über wieviel % sprechen wir hier? Ich wette den Unterschied siehst man gar nicht. Bei 10% Qualitätsverlust (was schon hochgegriffen ist, ich glaube kaum, dass der Verlust so hoch ist) nehme ich dann halt 11 anstatt 10Mbit. Wen jucken da schon paar MB mehr. Bei einem 20Mbit-File halt 22Mbit.

Als weiteres sagt er, dass nicht beliebig viele Threads verwendet werden können. Was ist "beliebig viel"? 16, 32, 64 oder 128 Threads? Das ist mir alles zu allgemein gehalten.

x-force
2011-07-14, 14:52:49
Bei 10% Qualitätsverlust (was schon hochgegriffen ist, ich glaube kaum, dass der Verlust so hoch ist) nehme ich dann halt 11 anstatt 10Mbit. Wen jucken da schon paar MB mehr. Bei einem 20Mbit-File halt 22Mbit.


weißt du wie viel ein mbit auf filmlänge ist? bei 120 minuten sind das eben mal 900mb datenmüll!

dargo
2011-07-14, 14:57:55
weißt du wie viel ein mbit auf filmlänge ist? bei 120 minuten sind das eben mal 900mb datenmüll!
Ja und? Eine 25GB BD kriege ich heute für einen Euro. Billiger werden die Dinger mit der Zeit auch noch. Und wie gesagt, ich will erstmal sehen, dass du den +/- 1Mbit Unterschied siehst wenn die Ausgangsbasis 10 oder 20Mbit war. :tongue:

PS: denk dran, die 10% von mir sind völlig aus der Luft gegriffen. Es könnten genauso 1% sein.

seaFs
2011-07-14, 15:31:31
Ja und? Eine 25GB BD kriege ich heute für einen Euro. Billiger werden die Dinger mit der Zeit auch noch. Und wie gesagt, ich will erstmal sehen, dass du den +/- 1Mbit Unterschied siehst wenn die Ausgangsbasis 10 oder 20Mbit war. :tongue:

PS: denk dran, die 10% von mir sind völlig aus der Luft gegriffen. Es könnten genauso 1% sein.

Die andere Seite ist mehr von diesem Extrem betroffen, bspw. 320x240 mp4 für portable Geräte. Dort kommt es schon mehr auf Platzersparnis an. Auch bei Streams über Netzwerke (allgemein Onlinematerial) will man den Overhead möglichst gering halten (kommt mir jetzt nicht mit VDSL, ich hab's nämlich auch nicht). Und schon ist ein schneller Singlecore wieder im Vorteil.

Weiter oben schrieb ich aber auch schonmal, dass ein paar "handfeste" Zahlen aus Vergleichen interessant wären.

dargo
2011-07-14, 17:25:28
Die andere Seite ist mehr von diesem Extrem betroffen, bspw. 320x240 mp4 für portable Geräte. Dort kommt es schon mehr auf Platzersparnis an.

Hier wird das Problem noch wesentlich geringer. Bei so einer mickrigen Auflösung bist du mit ~1Mbit bestens bedient. Nehmen wir jetzt mal mein extremes Beispiel mit 10% sinds statt 1Mbit 1,1Mbit. Wayne... :cool: Oder du bleibst bei 1Mbit und hast "theoretisch" eine minimal geringere Bildqualität die du eh nicht sehen wirst.


Auch bei Streams über Netzwerke (allgemein Onlinematerial) will man den Overhead möglichst gering halten (kommt mir jetzt nicht mit VDSL, ich hab's nämlich auch nicht). Und schon ist ein schneller Singlecore wieder im Vorteil.

Hast du eigentlich dabei bedacht, dass das Encoden mit dem Singlecore 4x so lange dauert wie mit dem Quadcore gleicher Architektur? Da pfeife ich auf den geringen Overhead wenn ich 1/4 der Zeit zum Encoden brauche. Beim 8 Kerner ~1/8 der Zeit. Um es mal in Zahlen auszudrücken 15Min. vs. 2 Stunden. :freak:

Lokadamus
2011-07-14, 17:26:07
Soweit ich das verstanden habe, ist diese einfach Abfolge der Frames nicht mehr unabhängig voneinander, sobald die Bewegungsabschätzung ins Spiel kommt. Des weiteren wird ein Frame für Multithreadunterstützung in verschiedene Teile zerlegt. An den Rändern der Teile müssen Pixel des jeweils angrenzenden Teils für die Brechnung mit einbezogen werden, was in einer Überschneidung und damit einem Datenoverhead resutliert, den man mit weniger Threads/Frameteilen nicht hätte.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8744231#post8744231mmm...

Wenn ich es richtig verstehe, wäre eine Parallelisierung möglich, aber der Encoder müsste nach bestimmten Kriterien wie Kapitel oder Szenenwechsel losgehen. In dem Moment, wo das ganze Bild neu aufgebaut wird, würde ein neuer Thread sinnvoll sein. Von dem vorherigen Frame können keine brauchbaren Daten mehr übernommen können, weshalb alles neu berechnet werden muss.
Oder hab ich das falsch verstanden und es geht nicht darum, dass zum Beispiel eine weiße Wand im Hintergrund nicht dauernd neu berechnet werden soll?
http://www.patent-de.com/20070920/DE112004002977T5.html

Dante GTX
2011-07-16, 10:15:31
Nur der P4 ... OMG, ist das ne lahme Kiste (wobei das nicht neu ist).

Also bitte... man hätte den P4 da gar nicht mit reinnehmen dürfen, weil Netburst eben auf hohe Taktraten ausgelegt war, d.h. ein Vergleich der Pro-MHz-Leistung ist absolut sinnfrei (das war aber damals schon vielen nicht klar).
Zu Zeiten als der P4 mit 3 GHz verkauft wurde gab es ja keine andere CPU mit vergleichbarem Takt :wink:
Und ob ich die selbe Performance z.B. mit 3,06 GHz von Intel erreiche oder mit 2,167 GHz von AMD ("3000+"), bei vergleichbar hohem Stromverbrauch (der damals aber eh noch kaum jemanden interessiert hat)... Wobei zumindest bei Spielen und Multimedia-Anwendungen Intel damals sogar ein Stückchen schneller war...
Langer Rede kurzer Sinn, sie hätten einen PIII-Tualatin (-S) reinnehmen sollen, da wäre Pro-MHz-Unterschied interessant gewesen (gut, man hätte im Vergleichstest wsl. von 3 auf 2 GHz gehen müssen, die sollte ein Tualatin mit guter Kühlung erreichen können).

Was mich immer interessiert hätte: Zu C2D-Zeiten ein Vergleich zwischen Q6600 und Pentium D Extreme mit 2 Kernen, HT, Riesen-Caches und ca. 1 GHz höherem Takt... der Core hätte natürlich gewonnen, aber mit wieviel Vorsprung?

y33H@
2011-07-16, 10:34:24
Ich habe nur C2D E6600 vs. P4 EE 3,46 GHz ("Gallatin") im Kopf - also der schnellste Singlecore-Netburst. Und der packt es in seltenen Fällen fast auf Augenhöhe mit dem Conroe zu sein. Ich such mal das Heft ...

Wuge
2011-07-17, 20:16:56
Zwischen einem Core2-Kern und einem Presler-Kern mit HT liegen je nach Anwendung 60-100% Leistungsdifferenz bei gleichem Takt. Ein C2D mit 2,13 GHz ist im Schnitt in etwa so schnell wie ein Pentium 965 XE @ 4 Ghz wenn 4 Threads ausgelastet werden. Hatte beide mal hier.

OgrEGT
2011-07-17, 23:58:10
Also bitte... man hätte den P4 da gar nicht mit reinnehmen dürfen, weil Netburst eben auf hohe Taktraten ausgelegt war, d.h. ein Vergleich der Pro-MHz-Leistung ist absolut sinnfrei (das war aber damals schon vielen nicht klar).
Zu Zeiten als der P4 mit 3 GHz verkauft wurde gab es ja keine andere CPU mit vergleichbarem Takt :wink:
Und ob ich die selbe Performance z.B. mit 3,06 GHz von Intel erreiche oder mit 2,167 GHz von AMD ("3000+"), bei vergleichbar hohem Stromverbrauch (der damals aber eh noch kaum jemanden interessiert hat)... Wobei zumindest bei Spielen und Multimedia-Anwendungen Intel damals sogar ein Stückchen schneller war...
Langer Rede kurzer Sinn, sie hätten einen PIII-Tualation (-S) reinnehmen sollen, da wäre Pro-MHz-Unterschied interessant gewesen (gut, man hätte im Vergleichstest wsl. von 3 auf 2 GHz gehen müssen, die sollte ein Tualation mit guter Kühlung erreichen können).

Was mich immer interessiert hätte: Zu C2D-Zeiten ein Vergleich zwischen Q6600 und Pentium D Extreme mit 2 Kernen, HT, Riesen-Caches und ca. 1 GHz höherem Takt... der Core hätte natürlich gewonnen, aber mit wieviel Vorsprung?

Hust... "Tualatin". Ich hatte auch einen PIII-S 1400 / TUSL-2C seinerzeit :)

Edit: Der 815EP war zwar auf 512 MB Ram beschränkt hat damals aber noch gereicht... Alternative mit mehr RAM wäre nur ein 440BX Chipsatz gewesen, man hätte aber glaube ich mindestens 1 Pin der CPU abzwicken müssen :freak: Dafür war mir der P-III-S zu teuer :)

AnarchX
2011-07-18, 00:31:54
Was mich immer interessiert hätte: Zu C2D-Zeiten ein Vergleich zwischen Q6600 und Pentium D Extreme mit 2 Kernen, HT, Riesen-Caches und ca. 1 GHz höherem Takt... der Core hätte natürlich gewonnen, aber mit wieviel Vorsprung?
http://www.anandtech.com/bench/Product/93?vs=53

VooDoo7mx
2011-07-18, 01:23:21
Hast du eigentlich dabei bedacht, dass das Encoden mit dem Singlecore 4x so lange dauert wie mit dem Quadcore gleicher Architektur? Da pfeife ich auf den geringen Overhead wenn ich 1/4 der Zeit zum Encoden brauche. Beim 8 Kerner ~1/8 der Zeit. Um es mal in Zahlen auszudrücken 15Min. vs. 2 Stunden. :freak:
Ich frag mich hier warum du dauernd von Video Encoding schwafelst.
Da mit 8 oder mehr x86 Cores ranzugehen ist wie mit Kanonen auf Spatzen zu schießen. Langsam und ineffizient.
Das ist das Betätigungsfeld von GPGPU Computing. Die mickrige Grafikeinheit im Sandy Bitch erledigt so eine Aufgabe schneller als der CPU Teil der die 3fache Fläche an Silizium und das zig fache an Strom braucht.
Eine Mittelklasse Grafikkarte deklassiert problemlos einen fiktiven 8 Core Sandy Bridge.
Das ist die Zukunft in diesen Bereich. Und nicht noch mehr fette x86 Cores reinzudonnern, die für so eine Aufgabe schlechter geeignet sind.
In der nahen Zukunft schon, werden alle Consumer PCs CPUs mit intigrierten Grafikeinheiten haben, die alle GPU Computing fähig sind. Ivy Bridge wird schon in weniger als 9 Monaten nochmal 50% mehr Compute Leistung drauflegen. Trinity wird sicher auch nicht weniger als Llano bringen.

dargo
2011-07-18, 06:51:25
Ich frag mich hier warum du dauernd von Video Encoding schwafelst.

Weil dieser Anwendungsbereich gut parallelisierbar ist :uconf2:


Da mit 8 oder mehr x86 Cores ranzugehen ist wie mit Kanonen auf Spatzen zu schießen. Langsam und ineffizient.

Hast du für beides Tests parat? Speziell mit 8 Cores bitte.


Das ist das Betätigungsfeld von GPGPU Computing. Die mickrige Grafikeinheit im Sandy Bitch erledigt so eine Aufgabe schneller als der CPU Teil der die 3fache Fläche an Silizium und das zig fache an Strom braucht.
Eine Mittelklasse Grafikkarte deklassiert problemlos einen fiktiven 8 Core Sandy Bridge.
Das ist die Zukunft in diesen Bereich.

Ich hatte damals mit meiner GTX260 x264 über Cuda encoded. Das war zwar mit den Standardsettings etwas schneller als ein Quad (wobei ich mir hier nicht mehr sicher bin ob das damals der Q9550 @3,7Ghz oder der jetzige i5-750 @3,7Ghz war), die Qualität im Vergleich zum Encoding über die CPU war aber zum Würgen. Wenn das die Zukunft ist dann gute Nacht. Wie das bei der integrierten GPU-Einheit eines SB aussieht kann ich natürlich nicht sagen. Sowohl was den Speed als auch die Qualität angeht.


Und nicht noch mehr fette x86 Cores reinzudonnern, die für so eine Aufgabe schlechter geeignet sind.
In der nahen Zukunft schon, werden alle Consumer PCs CPUs mit intigrierten Grafikeinheiten haben, die alle GPU Computing fähig sind. Ivy Bridge wird schon in weniger als 9 Monaten nochmal 50% mehr Compute Leistung drauflegen. Trinity wird sicher auch nicht weniger als Llano bringen.
Eins musst du mir aber erklären. Wenn du der Meinung bist viele CPU-Cores wären beim Encoding ineffizient... aus welchen Grund soll das dann bei GPUs besser sein? GPUs sind heute auch nichts anderes als Multicore.

PrefoX
2011-07-18, 10:00:04
Ich frag mich hier warum du dauernd von Video Encoding schwafelst.
Da mit 8 oder mehr x86 Cores ranzugehen ist wie mit Kanonen auf Spatzen zu schießen. Langsam und ineffizient.
Das ist das Betätigungsfeld von GPGPU Computing. Die mickrige Grafikeinheit im Sandy Bitch erledigt so eine Aufgabe schneller als der CPU Teil der die 3fache Fläche an Silizium und das zig fache an Strom braucht.
Eine Mittelklasse Grafikkarte deklassiert problemlos einen fiktiven 8 Core Sandy Bridge.
Das ist die Zukunft in diesen Bereich. Und nicht noch mehr fette x86 Cores reinzudonnern, die für so eine Aufgabe schlechter geeignet sind.
In der nahen Zukunft schon, werden alle Consumer PCs CPUs mit intigrierten Grafikeinheiten haben, die alle GPU Computing fähig sind. Ivy Bridge wird schon in weniger als 9 Monaten nochmal 50% mehr Compute Leistung drauflegen. Trinity wird sicher auch nicht weniger als Llano bringen.Sag mir mal EIN Programm was GPU Encoding kann und mit ner CPU in Bezug auf Qualität mithalten kann? EINS!
x.264 high profile max lvl bitte.

robbitop
2011-07-18, 10:08:59
Laut Anand soll Quicksync eine wesentlich bessere Qualität erlauben als über ATI/NV Encoder, aber sie soll noch ein kleines Stückchen unterhalb CPU encoded sein. Da gibt es einen Test dazu. Quicksync ist laut ihm dadurch ein echt sinnvolles Stück Technologie. Deutlich schneller als eine CPU bei nahezu gleicher Qualität - und das mit einem Bruchteil an Transistoren und Leistungsaufnahme.

dargo
2011-07-18, 10:12:28
Laut Anand soll Quicksync eine wesentlich bessere Qualität erlauben als über ATI/NV Encoder, aber sie soll noch ein kleines Stückchen unterhalb CPU encoded sein. Da gibt es einen Test dazu. Quicksync ist laut ihm dadurch ein echt sinnvolles Stück Technologie. Deutlich schneller als eine CPU bei nahezu gleicher Qualität - und das mit einem Bruchteil an Transistoren und Leistungsaufnahme.
Auch wenn die Qualität nur etwas schlechter ist reicht das nicht. Oder anders ausgedrückt, wenn mir die Unterschiede auffallen ist das zumindest für mich keine Alternative. Ich kenne jetzt zwar dieses Quicksync nicht (muss ich mir bei Gelegenheit angucken) NV-Cuda war zumindest als ich es getestet habe grausam. Und ich habe bei der CPU noch bei weitem keine höchsten Qualitätssettings gefällt.

AnarchX
2011-07-18, 10:38:49
Bei Quicksync geht es ja auch eher darum Videos in wenigen Minuten im passenden Format auf seinem mobilen Abspielgerät zu haben.

Hoffentlich übersetz HW.fr irgendwann mal diesen Test ins Englische: http://www.hardware.fr/articles/828-1/encodage-h-264-cpu-vs-gpu-nvidia-cuda-amd-stream-intel-mediasdk-x264-test.html

L.ED
2011-07-18, 14:37:55
Durch Zufall darauf gestoßen (bei der Suche nach mehr Infos zu Quicksync),
Video-Transcoding unter der Lupe (http://www.tomshardware.de/video-transcoding-amd-app-nvidia-cuda-intel-quicksync,testberichte-240740.html).

Und scheint mir auch ganz brauchbar und ist weder fr noch eng sondern auf Deutsch :O

Crafty
2011-07-18, 23:46:38
Uff der gute alte P 4 kommt ja ganz schlecht weg beim Test.

Haben die da etwa einen kastrierten P4 mit Sdram getestet ?

Wenn ich mich recht erinnere waren spätere P 4 Modelle mit Rambusram eigentlich recht fix(besonders wenn man sie auf 3,6+ GHZ gedreht hatte).

mfg

AnarchX
2011-07-19, 00:22:36
Es ist natürlich ein Prescott 2M, mitt DDR2 bzw. gar DDR3.

Dante GTX
2011-07-20, 20:01:22
Hust... "Tualatin". Ich hatte auch einen PIII-S 1400 / TUSL-2C seinerzeit :)

Sorry, das war keine Absicht, weiß nich was mich da geritten hat (hatte mal nen Tualatin-Celeron, sollte es also wissen ;) )

Spirou
2011-07-21, 12:31:39
Was mich immer interessiert hätte: Zu C2D-Zeiten ein Vergleich zwischen Q6600 und Pentium D Extreme mit 2 Kernen, HT, Riesen-Caches und ca. 1 GHz höherem Takt... der Core hätte natürlich gewonnen, aber mit wieviel Vorsprung?
Hatte vor meinem Q6600 einen D940 (16*200). Zuletzt mit 4,7GHz (FSB290 statt FSB200) betrieben, weil er bei geringerem Takt immer noch in Spielen limitierte. Der Q lief nie @stock, sondern wurde vorm ersten Hochfahren auf gleichem Board +50% hochgetaktet. Im Schnitt ist er damit etwa drei mal so schnell wie der P4D. D. h. je Core bei 66% Takt 1,5 mal so schnell.

Didi Bouzul
2011-07-22, 01:40:27
Bei Quicksync geht es ja auch eher darum Videos in wenigen Minuten im passenden Format auf seinem mobilen Abspielgerät zu haben.

Hoffentlich übersetz HW.fr irgendwann mal diesen Test ins Englische: http://www.hardware.fr/articles/828-1/encodage-h-264-cpu-vs-gpu-nvidia-cuda-amd-stream-intel-mediasdk-x264-test.html

Folgendes Fazit wird gezogen: Die Encodierung via Gpu ist zwar schnell, aber qualitativ minderwertig. Dem Autor zufolge haben AMD, Nvidia und auch Intel nur die reine Encodierungszeit im Auge gehabt und die Marketingtrommel gewirbelt. Letztendlich gibt es noch keine brauchbare Lösung.

Dante GTX
2011-07-23, 21:38:05
Hatte vor meinem Q6600 einen D940 (16*200). Zuletzt mit 4,7GHz (FSB290 statt FSB200) betrieben, weil er bei geringerem Takt immer noch in Spielen limitierte. Der Q lief nie @stock, sondern wurde vorm ersten Hochfahren auf gleichem Board +50% hochgetaktet. Im Schnitt ist er damit etwa drei mal so schnell wie der P4D. D. h. je Core bei 66% Takt 1,5 mal so schnell.

Aber es war kein Extreme Edition mit HT sondern ein normaler Pentium D oder? Das hätt mich halt interessiert, da auch 4 Threads. Ein normaler Pentium D is gegenüber einem Q6600 so im Nachteil dass Taktrate allein nicht mal annähernd ausreicht...

seba86
2011-07-24, 07:40:38
Aber auch nur bei Extrem-Spielen.

Ich merk beim Arbeiten / Surfen blind kaum / keinen einen Unterschied zwischen einem P4 3,2Ghz @1GB und einem E6600 @4GB...

Raff
2011-07-24, 11:30:36
Dann bremst etwas anderes (Festplatte, Netzwerkzugriff, etc.) und/oder du hast wirklich nur Office offen. Da liegen bei der Reaktionszeit, auch abhängig vom Workload im Hintergrund, stellenweise Welten dazwischen. Sobald mehr als eine fordernde Applikation offen ist, rennt der Conroe nicht nur wegen seines zweiten Kerns davon. Das Problem an Singlecore-Systemen in Multithread-Umgebungen ist, dass da schnell Ende im Gelände ist, während schon Zweikerner viel mehr Aktionen des Nutzers parallel weghauen.

MfG,
Raff

AnarchX
2011-07-24, 12:00:02
Hyperthreading auf dem P4 konnte das noch etwas ausgleichen.

seba86
2011-07-24, 12:10:17
Ich denke es sind nur primitivste Arbeitsanwendungen. Max. ein Browser und 2 Dokumente gleichzeitig offen ^^
Denn der Win-Start geht beim C2D fast doppelt so schnell voran ohne Übertreibung.

Coda
2011-07-24, 21:38:45
Wenn ich mich recht erinnere waren spätere P 4 Modelle mit Rambusram eigentlich recht fix(besonders wenn man sie auf 3,6+ GHZ gedreht hatte).
Die späteren Modelle hatten keinen Rambus-Speicher mehr. Ab DDR2 war Schluss damit.

Wuge
2011-07-25, 20:39:44
Zu RAMBUS-zeiten war der P4 auch die schnellste CPU, nur sehr teuer und mit bestimmten Programmcodes ehr mäßig. Northwood war bis zum A64 die Top-CPU und konnte mit HT zumindest wieder gleichziehen.

Auch danach (vor Core2) waren die Dinger schnell wenn man auf den Stromverbrauch gesc****** und den Takt in die für P4 vorgesehenen Regionen (4 Ghz+) gebracht hat. Ich hatte 2004 schon einen auf 4 Ghz und der Pentium 965 XE konnte auf 4,8 Ghz auch mit den ersten Conroes mithalten. Aber das ging halt nur mit ner dicken Stromleitung und Wakü ;)

AnarchX
2011-07-26, 13:09:45
Und wo ist der Sinn in einem Vergleich von Non-OC gegen OC?
Ein guter E6600 hat auch 50% OCing mit Luft geschafft und kaum 1/3 des 965XE gekostet.

Da hätte Intel besser auf eine P3-Weiterentwicklung gesetzt und hier SMT unterstützen sollen.

robbitop
2011-07-26, 13:52:19
Man darf nicht vergessen, dass Intel aus dem P4 viel gelernt hat und es eine extrem fortschrittliche und komplexe Architektur am Ende war (nicht schnell - aber komplex) und was Intel dort für Ressourcen noch reingepumt hat. Sonst wäre der P4 nie konkurrenzfähig gegen den K7 und den K8 geblieben.
Ohne den P4 hätte es wohl keinen Nehalem gegeben und vermutlich auch keinen Core 2.

Core 2 ist, entgegen der Meinung vieler, kein P3. Er basiert auf ähnlichen Prinzipien, aber mMn ist kein wirklich großes Stück P3 in ihm. Genausowenig wie der P3 im K10 steckt. Es sind ähnliche Ansätze ja.

Mit dem P4 hat man sich halt einfach verrannt. Bzw das was damit geplant war, gab die Fertigungstechnik nicht her. P4 basierte nunmal auf hohen Taktraten. Dafür kann man gut erprobte und verbesserte Technologien in heutigen CPUs verbauen.

Wuge
2011-07-26, 21:50:36
@ AnarchX

Ich schrieb ja auch "vor Core2".

@robbitop

So sehe ich das auch.