Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel Dual-Core Benchmarks Pentium D 840 und Extreme Edition 840 „Technology Preview“
dildo4u
2005-04-04, 17:32:17
http://www.computerbase.de/artikel/hardware/prozessoren/2005/intel_dual-core_benchmarks/
Sher umfangreicher Bericht schon weit vor release der 3Dmark 2005 scheint schon auf Dualcore optemiert zu sein.
3DMark05 CPU
P4 EE 840 (3,2 GHz, Dual-Core, 90 nm, FSB800)
6.525
P4 EE 3,73 GHz (90 nm, FSB1066)
5.415
A64 FX-55 (2,6 GHz, 130 nm, HT1000)
5.218
P4 570J (3,8 GHz, 90 nm, FSB800)
5.206
P4 660 (3,6 GHz, 90 nm, FSB800)
5.124
P4 650 (3,4 GHz, 90 nm, FSB800)
5.036
P4 560 (3,6 GHz, 90 nm, FSB800)
5.003
P4 EE 3,46 GHz (130 nm, FSB1066)
4.926
A64 4000+ (2,4 GHz, 130 nm, HT1000)
4.867
P4 640 (3,2 GHz, 90 nm, FSB800)
4.803
Seti geht ja mal richtig geil auf dem Dual Core extreme
Seti@Home 3.03
Pentium XE 840 (3,20 GHz)
0:40
Pentium D 840 (3,20 GHz)
0:56
Pentium EE 3,73 GHz
1:05
Pentium 4 640 (3,20 GHz)
1:16
Rendern kann das ding auch wie die Hölle.
Lightwave
Lightwave 8.01
Skullhead Newest:
Pentium XE 840 (8 Threads)
1:29
Pentium D 840 (8 Threads)
1:40
Pentium XE 840 (3,20 GHz)
1:40
Pentium D 840 (3,20 GHz)
1:42
Pentium EE 3,73 GHz
2:10
Pentium 4 540 (3,20 GHz)
2:29
Pentium 4 640 (3,20 GHz)
2:30
Adam D.
2005-04-04, 17:37:56
Geil. Mal hoffen, dass ich an einen Ende des Jahres dran komme.
BvB123
2005-04-04, 18:03:42
Zeeig doch auch bitte die schlechten seiten von dem Teil und nicht nur die guten 2-3 benchmarks...
Zeeig doch auch bitte die schlechten seiten von dem Teil und nicht nur die guten 2-3 benchmarks...
word!
bsw. Aquamark oder sowas.
Quasar
2005-04-04, 18:06:41
"Schlechte" Seiten gibt's bis auf die Leistungsaufnahme wohl nicht. Das Ding ist immer (innerhalb der Meßgenauigkeit) so schnell, wie eine normaler P4-3,2 Prescott.
Freakazoid
2005-04-04, 18:09:19
Na da hast dir mal echt Schöne Samenkörner rausgepickt :D
Kann ich auch ;)
3Dmark 2001 Se
A64 FX-55 (2,6 GHz, 130 nm, HT1000)
25.456
A64 4000+ (2,4 GHz, 130 nm, HT1000)
24.543
A64 3800+ (2,4 GHz, 130 nm, HT1000)
23.596
P4 EE 3,73 GHz (90 nm, FSB1066)
22.538
P4 EE 3,46 GHz (130 nm, FSB1066)
22.448
A64 3500+ (2,2 GHz, 90 nm, HT1000)
22.417
A64 3500+ (2,2 GHz, 130 nm, HT1000)
22.370
PM 755 (2,0 GHz, 90 nm, FSB400)
22.185
P4 EE 3,40 GHz (130 nm, FSB800)
21.894
P4 660 (3,6 GHz, 90 nm, FSB800)
21.866
A64 3200+ (2,0 GHz, 90 nm, HT1000)
21.473
P4 570J (3,8 GHz, 90 nm, FSB800)
21.219
P4 650 (3,4 GHz, 90 nm, FSB800)
21.128
P4 560 (3,6 GHz, 90 nm, FSB800)
20.817
P4 640 (3,2 GHz, 90 nm, FSB800)
20.198
A64 3000+ (1,8 GHz, 90 nm, HT1000)
20.104
P4 550 (3,4 GHz, 90 nm, FSB800)
20.092
P4 EE 840 (3,2 GHz, Dual-Core, 90 nm, FSB800)
19.379
und
Aquamark 3
A64 FX-55 (2,6 GHz, 130 nm, HT1000)
67.038
A64 4000+ (2,4 GHz, 130 nm, HT1000)
65.522
A64 3800+ (2,4 GHz, 130 nm, HT1000)
64.745
P4 EE 3,46 GHz (130 nm, FSB1066)
63.236
A64 3500+ (2,2 GHz, 90 nm, HT1000)
63.223
P4 EE 3,73 GHz (90 nm, FSB1066)
63.083
A64 3500+ (2,2 GHz, 130 nm, HT1000)
63.019
P4 570J (3,8 GHz, 90 nm, FSB800)
62.663
P4 EE 3,40 GHz (130 nm, FSB800)
62.167
P4 660 (3,6 GHz, 90 nm, FSB800)
61.825
P4 560 (3,6 GHz, 90 nm, FSB800)
61.717
PM 755 (2,0 GHz, 90 nm, FSB400)
61.621
A64 3200+ (2,0 GHz, 90 nm, HT1000)
61.034
P4 650 (3,4 GHz, 90 nm, FSB800)
60.327
P4 550 (3,4 GHz, 90 nm, FSB800)
60.217
P4 640 (3,2 GHz, 90 nm, FSB800)
58.772
P4 540 (3,2 GHz, 90 nm, FSB800)
58.630
P4 EE 840 (3,2 GHz, Dual-Core, 90 nm, FSB800)
58.549
ach ja, interessant, dass der DC im 3dm. 05 im CPU ganz weit oben steht, aber gesamt ziehmlich verreckt
3DMark05
P4 570J (3,8 GHz, 90 nm, FSB800)
4.668
P4 EE 3,73 GHz (90 nm, FSB1066)
4.652
P4 560 (3,6 GHz, 90 nm, FSB800)
4.636
P4 660 (3,6 GHz, 90 nm, FSB800)
4.634
A64 FX-55 (2,6 GHz, 130 nm, HT1000)
4.620
P4 550 (3,4 GHz, 90 nm, FSB800)
4.618
P4 EE 3,46 GHz (130 nm, FSB1066)
4.612
A64 4000+ (2,4 GHz, 130 nm, HT1000)
4.611
P4 EE 3,40 GHz (130 nm, FSB800)
4.603
P4 650 (3,4 GHz, 90 nm, FSB800)
4.598
P4 EE 840 (3,2 GHz, Dual-Core, 90 nm, FSB800)
4.591
deekey777
2005-04-04, 18:10:27
Zeeig doch auch bitte die schlechten seiten von dem Teil und nicht nur die guten 2-3 benchmarks...
Klick auf den Link und such dir selbst raus.
Mit angepasster Software ist die Entwicklung mehr als deutlich und überragend.
€: OMG, der Doppel-D Pentium verliert in Benchmarks, die mit Multi-Core CPUs nichts anzufangen wissen, wie unerwartet.
Schlechte Seiten?
Höchstens unpassende Seiten.
So typische Homeanwendungen, welche die weit verbreiteten HomeGrafikDesigner Herzen höher schlagen lassen.
Die kleine Minderheit der Zocker verschwindet da schon mal im neuen Spezial Index.
Die Spielebenches findet man übrigens hier.
http://www.computerbase.de/artikel/hardware/prozessoren/2005/intel_dual-core_benchmarks/32/
Wie sieht eigentlich Intel den TDP beim Pentium D/EE 840? Ist dass wieder ein gemittelter durchaus in der Praxis überschreitbarer Wert? 130W finde ich da ziemlich besorgniserregend.
Grüsse
Avalox
dildo4u
2005-04-04, 18:16:27
Zeeig doch auch bitte die schlechten seiten von dem Teil und nicht nur die guten 2-3 benchmarks...
Klar hab ich das gemacht weil das die Progs sind die Dual core optemiert sind und da Dual Core die zukunft ist kann man hier schön sehen was Dual core auch bei games bringen kann wenn es dafür programmiert wurde hier gehts nicht um AMD vs Intel sondern um die zukunft der PC Prozesoren als solches.
Freakazoid
2005-04-04, 18:21:29
Klick auf den Link und such dir selbst raus.
Mit angepasster Software ist die Entwicklung mehr als deutlich und überragend.
€: OMG, der Doppel-D Pentium verliert in Benchmarks, die mit Multi-Core CPUs nichts anzufangen wissen, wie unerwartet.
@€ Also du meinst die Benchs zählen nicht, weil sie nicht auf DCs optimiert wurden? Also als nVidia ihr Karten optimierten, war das Geschrei immer sehr groß ;)
Der Vegleich hinkt etwas, aber du siehst worauf ich hinaus will. Für den großteil der Forenuser nehme ich einfach mal grob an, dass gaming im mittlepunkt steht und solange die bei den games so bleibt sehe ich schwarz. Ich glaube jedenfalls nicht, dass aktuelle games noch weiter auf DCs optimiert werden.
dildo4u
2005-04-04, 18:25:36
im mittlepunkt steht und solange die bei den games so bleibt sehe ich schwarz. Ich glaube jedenfalls nicht, dass aktuelle games noch weiter auf DCs optimiert werden.
Die zukünftigen schon z.B die Unreal Engine3 wird auch auf der X-Box2 und PS3 eingestezt und das sind ja bekannter maßen Multicore systeme.Also die zunkunft zeigt ganz klar Richtgung Dual Core Gameing.
deekey777
2005-04-04, 18:33:38
@€ Also du meinst die Benchs zählen nicht, weil sie nicht auf DCs optimiert wurden? Also als nVidia ihr Karten optimierten, war das Geschrei immer sehr groß ;)
Der Vegleich hinkt etwas, aber du siehst worauf ich hinaus will. Für den großteil der Forenuser nehme ich einfach mal grob an, dass gaming im mittlepunkt steht und solange die bei den games so bleibt sehe ich schwarz. Ich glaube jedenfalls nicht, dass aktuelle games noch weiter auf DCs optimiert werden.
Hallo? Der Pentium-D ist genau so schnell wie ein vergleichbarer Single-P4 mit 3.2 GHz und nicht langsamer. Der Vergleich zu den Optimierungen im Grafikkartenbereich ist Blah-Blah, denn die "DC"-Optimierung ist ganz was anderes. Alles andere ist irrelevant, oder hat der P4 mit HTT irgendwann in Spielen von HTT merkbar profitiert?
Und sollte ein halbwegs erfahrener 3DC-User hier rumschreien, daß ein P4D in Spielen langsammer ist als ein P4 3.7 EE, dann sollte er sich vorher ausloggen, bevor er das postet.
stickedy
2005-04-04, 19:04:17
Öh, warum sollte ein DualCore P4 denn auch langsamer als ein normaler P4 bei gleicher Taktfrequenz sein? Dafür gibts nun wirklich keinen Grund...
Und ansonsten ist es doch auch nix neues, das Dual-CPU oder in dem Fall Dual-Core CPUs unter günstigen Umständen schneller sind als Single-CPU/Core-Systeme mit höheren Taktraten... *schulterzuck*
Irgendwie entgeht mir die Relevanz dieser Benchmarks...
AtTheDriveIn
2005-04-04, 19:11:09
Eine Innovation im Prozessorsegment ist DC aber auf jedenfall.
stickedy
2005-04-04, 19:14:04
Was ist daran eine Innovation? IBM macht das schon seit Jahren...
Intels und AMDs DualCore ist einfach ne Notlösung weil sich die CPUs eben nicht so hoch takten lassen als vor einigen Jahren noch erhofft wurde.
-error-
2005-04-04, 19:14:08
Die Spielperformance ist ja sehr dürftig.
stickedy
2005-04-04, 19:16:25
Die Spielperformance ist ja sehr dürftig.
Auch das war bereits bekannt, dazu muss man sich nur Benchmarks mit Dual-CPU-Systemen anschauen.
Manche tun ja echt so, als wären die Benchmarks ne Offenbarung...
Adam D.
2005-04-04, 19:18:39
Guckt euch mal die Benches bei Gamestar an. Man kann einen DivX-Film rendern lassen während man spielt, komplett ohne Leistungsverlust. Nicht übel.
Hmm, nett, wenn auch net immer überragend. Bin aud AMDs DualCore CPU gespannt.
dildo4u
2005-04-04, 19:23:08
Die Spielperformance ist ja sehr dürftig.
Die Performance ist auf Games die für singel core cpus entwickelt wurden gleich eines P4 mit 3.2Ghz.Irgendwann muss der schritt zum Dual Core in einer cpu nunmal gemacht werden und das intel schon jetzt damit anfängt kann nur vom vorteile sein wenn man nästes jahr die umsetzungen der x-box2 oder PS3 auch noch anhembar auf dem pc zu laufen bekommen will.Und dann braucht man auch nicht solchen unsinn wie extra karten für Physikberechnung wennn man die Threads gut auf die einzelnen cores verteilt können wesentlich spektakuläre physik effekte und bessre KI möglich im zusammenspiel mit 64Bit ist da noch mächtig luft nach oben.Und da WinXP sogar in der kleinsten version Dualcoes unterstützt ist auch von BS seite die unterstützung gegeben.
Demirug
2005-04-04, 20:23:30
Man hätte vielleicht SC3 zum benchen nehmen sollen. Angeblich kann es von Multicore profitieren.
dildo4u
2005-04-04, 20:34:56
Man hätte vielleicht SC3 zum benchen nehmen sollen. Angeblich kann es von Multicore profitieren.
Interresant aber soll das game nicht noch teilweise auf der Unreal Engine der 2 generation aufbauen oder könnten schon teile der UE3 mit drinne sein?
ach ja, interessant, dass der DC im 3dm. 05 im CPU ganz weit oben steht, aber gesamt ziehmlich verreckt
ja wirklich sehr interessant, und wie unerwartet dass der unterschied zwischen der schnellsten und langsamster cpu mit 1,6% eigentlich schon fast in den bereich messungenauigkeit fällt.
dass ist ja in einem rein grafiklimitierten benchmark besonders interessant (achtung ironie)
und auch wirklich "interessant" dass der cpu-bench, der ja auch schon von hyper-threading profitiert von dual-core noch mehr profitiert, ist ja alles sehr unerwartet.
Demirug
2005-04-04, 20:38:31
Interresant aber soll das game nicht noch teilweise auf der Unreal Engine der 2 generation aufbauen oder könnten schon teile der UE3 mit drinne sein?
UBI hat das Teil kräftig verändert. Sonst hätten sie solche Scherze wie SM3 und HDR auch gar nicht einsetzten können. Desweiteren gibt es Gerüchte das die SCX Engine von UBI für einen Launchtitel für die XBox2 benutzt wird.
reunion
2005-04-04, 20:43:45
Kennt irgendjemand einen plausiblen Grund warum Intel beim Smithfield nur auf FSB800 setzt?
Gerade bei einem Dual-Core CPU wäre der höhere FSB wichtig.
tombman
2005-04-04, 21:06:05
Naja, klarer Fall. Wenns ned optimiert ist, rennt gar nix schneller...
Und der FX55 ownt die Spielebenchmarks noch immer...
Ein Dual Core A64 als Vergleich wär ned schlecht. Würde mich ned wundern wenn der die Intels wegputzt :cool:
p.s: die Zielgruppe von dual core is mir noch ned so ganz klar. Die Video und renderfreaks haben doch eh schon sicher echte dual cpu Systememit dual Opteron oder dual Xeon. Ok, dann habens eben 4 echte cores zum rendern :D:D
mapel110
2005-04-04, 21:08:50
Kennt irgendjemand einen plausiblen Grund warum Intel beim Smithfield nur auf FSB800 setzt?
Gerade bei einem Dual-Core CPU wäre der höhere FSB wichtig.
Weil Intel das noch exklusiv für die Extreme Expensive Edition braucht. =)
p.s: die Zielgruppe von dual core is mir noch ned so ganz klar. Die Video und renderfreaks haben doch eh schon sicher echte dual cpu Systememit dual Opteron oder dual Xeon. Ok, dann habens eben 4 echte cores zum rendern :D:D
Ich bin kein Video und Render-freak und hätte trotzdem gerne mal ein smoothes Windows.
dildo4u
2005-04-04, 21:10:54
Weil Intel das noch exklusiv für die Extreme Expensive Edition braucht. =)
Die wurde hier doch schon getestet unterschied zum normalen Pentium Dual Core er hat zusätzlich HT.
dildo4u
2005-04-04, 21:12:09
p.s: die Zielgruppe von dual core is mir noch ned so ganz klar. Die Video und renderfreaks haben doch eh schon sicher echte dual cpu Systememit dual Opteron oder dual Xeon. Ok, dann habens eben 4 echte cores zum rendern :D:D
Die Games der zukunft das ist die Zielgruppe X-Box 2 und PS3 games werden massiv auf multicore setzen.Unreal Engine 3 ist hier das stichwort wird whol aufn pc und den next Generation konsolen die Engine werden ID bringt ja whol so schnell keine neue Engine.
mapel110
2005-04-04, 21:12:33
Die wurde hier doch schon getestet unterschied zum normalen Pentium Dual Core er hat zusätzlich HT.
Wie wärs mit Kommata?! Ich versteh deinen Satz(Sätze?!) nicht. :(
dildo4u
2005-04-04, 21:15:08
Wie wärs mit Kommata?! Ich versteh deinen Satz(Sätze?!) nicht. :(
Ließ doch einfach mal die Überschrift des CB Artikels die Extreme Edition ist beim Test schon dabei.Die Extreme Edition Hat HT sonst ist sie exkat gleich zum normalen Pentium D.
Adam D.
2005-04-04, 21:16:49
Wie wärs mit Kommata?! Ich versteh deinen Satz(Sätze?!) nicht. :(
Das ist echt der Hammer bei Dildo. Der weiß ja wirklich was, aber es zu verstehen kostet Nerven uns Sehstärke... :(
Ich will mir auf jeden Fall 'nen Dual-Core kaufen, jedoch sehe ich keinen Sinn, wenn Ende dieses Jahres schon der Presler kommt. Dann warte ich lieber auf den :) Oder AMD zaubert wirklich eine Wunder-CPU :eek:
deekey777
2005-04-04, 21:20:32
p.s: die Zielgruppe von dual core is mir noch ned so ganz klar. Die Video und renderfreaks haben doch eh schon sicher echte dual cpu Systememit dual Opteron oder dual Xeon. Ok, dann habens eben 4 echte cores zum rendern :D:D
Ich hätte liebend gern eine DualCore-CPU, denn die Videobearbeitung bzw. Spielereien sind schon interessant. Der Preis für die günstigste Version ist sehr ansprechend.
onkel2003
2005-04-04, 21:21:13
der grosse gewinner in sachen nutzen von Dualcore wird wohl AMD sein.
schaut man sich die leistung von HT auf Dualcore an, muss man sehn ist nicht wirkliich viel trotz doppelter Mhz Zahl.
oder wurde der Test einfach nur zu milde ausgelegt, und die Dualcore nicht richtig gemolken.
schaue ich mir TMPGEnc 3.0 Express an so macht man mit HT ein sehr gut pluspunkt, von Ht auf Dualcore ist aber nicht mehr viel los.
wollen wir mal hoffen da kommt mehr noch bei raus.
AMD hat den vorteil, sie kennen kein HT und ein smoothes Windows.
mit dualcore, werden die AMD User ein neues gefühl in sachen reaktion von Anwendungen erfahren, was der intel user schon hat dank HT.
das games noch nicht das bringen werden war klar, dies wird bei AMD Dualcore nicht anders sein.
zumindest denke ich mal wird AMD wenn sie halbwegs gute Mhzahlen in ihr CPU hauen, sehr gut anstincken können gegen die Intel Dualcore CPU.
Aber mal sehn was noch kommen wird.
ende des jahres werden wir uns über dualcore und Win 64 Bit ganz erfreuen dürfen, was bei raus kommt sehn wir in ein paar monaten.
siojhd
2005-04-04, 21:29:49
In den Artikel von Cb kann man sehe wie ein Dual Opteron sich schlägt. Ich find eig genau so wie der DualCore Pentium
http://images.google.de/imgres?imgurl=http://pcweb.mycom.co.jp/news/2004/10/20/003e.jpg&imgrefurl=http://pcweb.mycom.co.jp/news/2004/10/20/003.html&h=150&w=200&sz=23&tbnid=8-75atTotUkJ:&tbnh=74&tbnw=99&start=13&prev=/images%3Fq%3Dnec%2Bsx%2B8%26hl%3Dde%26lr%3D%26sa%3DN
deekey777
2005-04-04, 21:35:28
schaue ich mir TMPGEnc 3.0 Express an so macht man mit HT ein sehr gut pluspunkt, von Ht auf Dualcore ist aber nicht mehr viel los.
.
Diesen Satz verstehe ich irgendwie nicht: Das DVD-Encoding mit TMPGEnc 3.0 iVm den beiden DC P4 profitiert mächtig von dem zweiten echten CPU-Kern, besonders wenn zusätzlich HTT ins Spiel kommt. Bei den beiden anderen Tests mit TMPGEnc 3.0 dient TMPGEnc als "Medium", denn es werden die Codecs von "auswärts" wie DivX 5.2.1 oder XviD verwendet.
onkel2003
2005-04-04, 21:40:18
Diesen Satz verstehe ich irgendwie nicht: Das DVD-Encoding mit TMPGEnc 3.0 iVm den beiden DC P4 profitiert mächtig von dem zweiten echten CPU-Kern, besonders wenn zusätzlich HTT ins Spiel kommt. Bei den beiden anderen Tests mit TMPGEnc 3.0 dient TMPGEnc als "Medium", denn es werden die Codecs von "auswärts" wie DivX 5.2.1 oder XviD verwendet.
zusätzlich Ht ist erst mal egal, dies wird nur die EE haben, und ich glaube das werden die wenigsten zahlen ;-)
ich hatte mal ein test gemacht mit TMPGEnc 3.0 mit und ohne HT, mit HT ist TMPGEnc 3.0 ca 70 % schneller wie ohne HT, schaue ich mir jetzt den sprung an von HT auf Dualcore, hätte ich aufgrund des doppelten Mhz zahl, also mindestens noch mal 70 % gewünscht.
onkel2003
2005-04-04, 21:43:52
TMPGEnc 3.0 Express (DivX 5.2.1)
Audio (192 kBit, 44,1 kHz) + Video:
Pentium EE 3,73 GHz 1:47
Pentium D 840 (3,20 GHz) 1:57
Pentium XE 840 (3,20 GHz) 1:59
Pentium 4 640 (3,20 GHz) 2:02
Pentium 4 540 (3,20 GHz) 2:04
Ohne HT hätte der 540 er ca 1 Minute länger gebraucht.
dualcore ist aber grade mal 7 sekunden schneller wie die HT 540 er.
finde ich ein wenig schlapp
dafür das er 2*3,2 Ghz hat.
oder TMPGEnc 3.0 Express (DivX 5.2.1) kommt mit HT besser klar als mit dualcore,
Kampfwurst87
2005-04-04, 21:49:53
preis/leistung für normalos (nicht SMP sys) = abnormal schlecht
preis/leistung für rendering (SMP sys) = gut aber nicht sehr gut bei 1000€ typsch Tintel T=teuer
denke mal die Dual Core von AMD werden mehr rocken da sie den gleichen takt haben wie non DC. und bei intel sind schonmal 600MHz weniger.
onkel2003
2005-04-04, 21:58:08
preis/leistung für normalos (nicht SMP sys) = abnormal schlecht
preis/leistung für rendering (SMP sys) = gut aber nicht sehr gut bei 1000€ typsch Tintel T=teuer
denke mal die Dual Core von AMD werden mehr rocken da sie den gleichen takt haben wie non DC. und bei intel sind schonmal 600MHz weniger.
kaum, amd wird auch nicht gleich mit voller leistung kommen.
und ich denke mal intel wird bis ende des jahres mehr als den 3,2 auf die welt los lassen.
wobei ich auch denke bei AMD update auf dualcore, würde sich mehr lohnen als von intel Ht auf dualcore.
BlackBirdSR
2005-04-04, 22:02:19
wobei ich auch denke bei AMD update auf dualcore, würde sich mehr lohnen als von intel Ht auf dualcore.
Das mein unwahrscheinlicher Freund, waren sehr weise Worte :)
deekey777
2005-04-04, 22:10:55
TMPGEnc 3.0 Express (DivX 5.2.1)
Audio (192 kBit, 44,1 kHz) + Video:
Pentium EE 3,73 GHz 1:47
Pentium D 840 (3,20 GHz) 1:57
Pentium XE 840 (3,20 GHz) 1:59
Pentium 4 640 (3,20 GHz) 2:02
Pentium 4 540 (3,20 GHz) 2:04
Ohne HT hätte der 540 er ca 1 Minute länger gebraucht.
dualcore ist aber grade mal 7 sekunden schneller wie die HT 540 er.
finde ich ein wenig schlapp
dafür das er 2*3,2 Ghz hat.
oder TMPGEnc 3.0 Express (DivX 5.2.1) kommt mit HT besser klar als mit dualcore,
Bist du dir auch ganz sicher, daß DivX 5.2.1 HTT unterstützt?
Wie gesagt, das DVD-Encoding mit TMPGEnc bzw. WM9 Enc profitieren sehr viel mehr vom DC als vom HTT allein.
tombman
2005-04-04, 22:16:04
jo sicher, smoothes windows wäre für AMD user neu, aber Intel user haben des jetzt schon mit HT (weiß ich aus eigener Erfahrung)
Naja, am liebsten wäre mir ja Gothic II und EQ II dual core patch :D
Kampfwurst87
2005-04-04, 22:26:19
@Naja, am liebsten wäre mir ja Gothic II und EQ II dual core patch
das wäre schön wenns so wäre, aber man darf ja noch dräumen :wink:
ich werde meinen 4000+ wohl erst 2006 gegen einen neuen tauschen, den da soll laut AMD der neue sockel mit 1207 pins releast werden :tongue:
onkel2003
2005-04-04, 22:42:21
Bist du dir auch ganz sicher, daß DivX 5.2.1 HTT unterstützt?
Wie gesagt, das DVD-Encoding mit TMPGEnc bzw. WM9 Enc profitieren sehr viel mehr vom DC als vom HTT allein.
quatsch ziehe es mal zurück, ich hatte das mit Mpeg2 getestet, und nicht divx 5.
hätte mich auch eigentlich gewundert, da teil in anderen test der dualcore ziemlich abgeht.
Kampfwurst87
2005-04-04, 22:49:00
rendering ja für chinbench oder wie dieser render programm hieß bringt es doch verbesserung in form verkürzter zeit. den zeit ist geld im buissness
Leonidas
2005-04-05, 05:41:56
Weil Intel das noch exklusiv für die Extreme Expensive Edition braucht. =)
Nein. Auch beim PEE wird es derzeit kein FSB1066 geben.
Nein. Auch beim PEE wird es derzeit kein FSB1066 geben.
ich denke mal die richtigen pentium ds extreme edition werden dann auch nochmal höher getaktet sein. das der pentium d ed in den spielebenches verliert ist klar. er hat ja auch deutlich weniger mhz als der pentium4 extreme edition 3733. ich denke bis zum release kriegen die dann auch die verlustleistung in den griff :)
Oblivion
2005-04-05, 10:49:20
ich denke bis zum release kriegen die dann auch die verlustleistung in den griff :)
Naja da wär ich ma nicht so sicher
auch wenn der Pentium D in 90nm verfahren gefertigt is, dürfte er trotzdem a ziemlich hohe Verlustleistung haben
CB_Jan
2005-04-05, 11:00:01
Alle von Intel genannten Spezifikationen sind final. Da wird sich jetzt nix mehr dran ändern.
Setzt Intel die selben Massstäbe an für den TDP, wie bei ihren Singlecore CPUs?
Oder hat Intel die Gunst der Stunde genutzt und diesen bei DualCore CPUs "anders" betrachtet um die TDP Angaben auf dem Papier zu senken?
Grüsse
Avalox
stickedy
2005-04-05, 11:14:27
Glaub ich nicht, Intel ist bei sowas schon sehr seriös und ändert net einfach mal so ein bestimmtes Verfahren
Es reicht ja vielleicht schon, wenn das Verfahren nicht geändert wird um trotzdem keine vergleichbaren Ergebnisse zu liefern.
DualCore CPUs verhalten sich nunmal nicht unbedingt gleich wie SingleCore CPUs bie identische Testsoftware.
Das ist die Crux an Intels Durchschnitts TDP.
Im Prinzip müssten beim DC, beide Kerne identisch nach gleichen Muster ausgelastet werden, wie vorher ein Kern.
Da aber Intel den eigenen TDP als Durchschnittswert sieht? Durchschnitt von was? Von der aktuellen nicht auf DC ausgerichteten Software?
Grüsse
Avalox
CB_Jan
2005-04-05, 11:59:57
Intels TDP ist kein Durschnittswert sondern die maximale Leistungsaufnahme, für die die CPU herhalten können muss. Im Endeffekt ist es der höchste Energieverbrauch, der beim Testen mit unterschiedlichsten Anwendungen ermittelt wurde und für die die CPU ausgelegt wird.
Hakim
2005-04-05, 12:50:18
ich überleg grad: wenn den die zukünftigen spiele auf Dualcore angepasst programmiert werden (physik, KI u.s.w), was ja für die Qualität an sich gut wäre, wie laufen die dann auf single core cpus ab? Es würde sich anfangs überhaupt net lohnen auf dualcore hin zu programmieren.
Leonidas
2005-04-05, 13:40:27
ich überleg grad: wenn den die zukünftigen spiele auf Dualcore angepasst programmiert werden (physik, KI u.s.w), was ja für die Qualität an sich gut wäre, wie laufen die dann auf single core cpus ab? Es würde sich anfangs überhaupt net lohnen auf dualcore hin zu programmieren.
Ja, sie laufen auch auf SingleCores.
Hakim
2005-04-05, 13:58:33
Ja, sie laufen auch auf SingleCores.
ja laufen werden sie sicher, aber ein spiel das auf 2 kerne ausgelegt wurde, sollte doch bei einem single core deutlich langsamer laufen oder? Vieleicht wird es ähnlich wie bei den Grafikkarten (DX9 games auf DX7 Grakas).
wuschel12
2005-04-05, 14:28:47
Kann man denn nicht mal ein Dual-Core-CPU gegen zwei gleichwertige CPUs auf einem Dual-System testen? Würde mich mal interessieren, was nun effektiver in Sachen Performance wäre.
Low Rider
2005-04-05, 14:51:23
p.s: die Zielgruppe von dual core is mir noch ned so ganz klar. Die Video und renderfreaks haben doch eh schon sicher echte dual cpu Systememit dual Opteron oder dual Xeon.
Zielgruppe? Ich! :D
Nicht nur Video- und Renderfreaks brauchen Dual Core. Laß einfach mal mehrere Aufwendige Programme gleichzeitig laufen! Wenn ich parallel an AutoCAD, MathCAD und Matlab arbeite und im Hintergrund noch was sauge, ICQ & Virenscanner anhabe und nebenbei per Winamp Musik höre, dann ist bei AMD Ende im Gelände. Das sind halt Sachen die kein Benchmark erfasst :rolleyes:
Um so gespannter bin ich auch auf AMDs DC CPUs :) Wäre doch geil, so ein smoothes, cooles und quietes AMD System :D
Adam D.
2005-04-05, 15:00:26
Wäre doch geil, so ein smoothes, cooles und quietes AMD System :D
Aua... ;(
BlackBirdSR
2005-04-05, 16:33:26
Intels TDP ist kein Durschnittswert sondern die maximale Leistungsaufnahme, für die die CPU herhalten können muss. Im Endeffekt ist es der höchste Energieverbrauch, der beim Testen mit unterschiedlichsten Anwendungen ermittelt wurde und für die die CPU ausgelegt wird.
ich kram vielleicht später noch eines der PDFs aus,
aber alle Angaben von Intel zum Thema TDP die ich zu gesicht bekommen habe, sprechen von TDP als Durchschnittliche Leistungsaufnahme bei Last.
Von maximaler Belastung ist keinerlei Rede, und die dürfte auch noch etwas höher liegen.
Muh-sagt-die-Kuh
2005-04-05, 17:33:58
Kann man denn nicht mal ein Dual-Core-CPU gegen zwei gleichwertige CPUs auf einem Dual-System testen? Würde mich mal interessieren, was nun effektiver in Sachen Performance wäre.Ein Pentium XE 840 verhält sich exakt genauso wie ein Dual-System mit zwei 3,2 Ghz Nocona/1M Xeons. Das ist prinzipbedingt so, deshalb ist ein Test auch komplett sinnlos.
Leonidas
2005-04-05, 18:21:09
Ein Pentium XE 840 verhält sich exakt genauso wie ein Dual-System mit zwei 3,2 Ghz Nocona/1M Xeons. Das ist prinzipbedingt so, deshalb ist ein Test auch komplett sinnlos.
Was aber in erster Linie an den bisherigen Intel-Chipsätze liegt, die den CPUs nur einen FSB zur Verfügung stellen. Der neue E8500 hat zwei FSBs, damit liegen die Xeons wieder etwas vorn.
srtune
2005-04-05, 19:01:15
Klar hab ich das gemacht weil das die Progs sind die Dual core optemiert sind und da Dual Core die zukunft ist kann man hier schön sehen was Dual core auch bei games bringen kann wenn es dafür programmiert wurde hier gehts nicht um AMD vs Intel sondern um die zukunft der PC Prozesoren als solches.
Das denke ich auch so.
Noch zu den AMD vs. Intel fans.
Ich kann euch da irgend wie nicht verstehen.
Ich würde nie bereitwillig mein Geld einfach einer Firma die so viel wie möglich den Kunden das Geld aus der Tasche zu ziehen versucht,
das Geld geben nur weil es ein Intel oder AMD ist.
Ich suche für mich die preisgünstigste und Effektivste CPU raus und da ist es mir egal ob es eine AMD o. Intel CPU ist.
So das war es was ich dazu sagen wollte.
Adam D.
2005-04-05, 19:03:29
Dito srtune. Ich finde dieses Fanboy-Geschreie auch so komplett hirnlos: Es wird einfach das Beste bzw. der Preiswerteste gekauft. Mir ist es so schnuppe, ob AMD oder Intel, Nvidia oder ATi. Hauptsache Speed.
Ich hoffe einfach nur, dass die AMD-DCs eine geringere Verlustleistung haben. 130W sind echt heftig.
ollix
2005-04-05, 19:47:57
die Zielgruppe von dual core is mir noch ned so ganz klar.Festplattenverschlüsselung wäre wohl ohne Geschwindigkeitsverlust beim normalen "Hantieren" nutzbar. Soll jetzt nicht das Killerfeature sein, aber ein kleiner Baustein von vielen. Aber ich bin zuversichtlich, daß mich das kommende AMD Angebot zu dem Thema mehr überzeugen wird.
Kampfwurst87
2005-04-05, 19:55:24
ich sehe auch ein vor ersten nutzen der dual cores NUR bei SMP anwendung wies schon der name halt sagt SMP.
bei servern ist so ein DC ganz intressant da mehr rechenleistung (bei SMP) auf weniger raum untergebracht werden kann. bei rendering stehen dual cores auf platz 1. vergleich dual opteron system und der AMD Dual core ist gleichschnell bei nur einem CPU, aber halt mit zwei kernen statt nur wie herkömmlich.
man könnte die dual cores noch dazu nutzen das der eine die ganzen system eigenen prozesse rechenzeit gibt und der andere ohne störung sich auf eine application "konzentrieren" kann. so kann man bei cpu lastigen dingen wie spiele oder benchs die nur einem cpu supporten auch was bringen aber bei gleichen takt gegenüber dem Single core, sonst kann man da auch kein gewinn machen höhsten im negativen sinne. bis allerdings eine normale alltags application die zwei cores für eine aufgabe einbinden kann vergehen bestimmt noch mehrere jahre wird wohl frühstens meiner meinung nach 2008
ich kram vielleicht später noch eines der PDFs aus,
aber alle Angaben von Intel zum Thema TDP die ich zu gesicht bekommen habe, sprechen von TDP als Durchschnittliche Leistungsaufnahme bei Last.
Von maximaler Belastung ist keinerlei Rede, und die dürfte auch noch etwas höher liegen.
das kann ich mir kaum vorstellen schließlich muss die stromversorgung am mainboard ja für das TDP ausgelegt werden, was ja nicht funktionieren würde, wenn die tatsächliche leistung darüber liegen würde.
BlackBirdSR
2005-04-05, 22:51:34
Ich hab nicht viel Lust zu schwafeln.
Schaut es euch selbst an:
http://download.intel.com/design/intarch/designgd/30599301.pdf
Seite 19
CB_Jan
2005-04-05, 23:15:56
Und da steht genau das, was ich gesagt habe :-) TDP ist die maximale Leistungsaufnahme einer CPU auf einer öffentlich verfügbaren Software unter normalen Bedingungen. Die muss von einem Kühler maximal abgeführt werden und die CPU ist maximal für die TDP ausgelegt.
Kommt es unter "abnormalen" Bedingungen zu einer höheren Leistungsaufnahme, tritt der Thermal Monitor der CPU in Aktion und senkt den Takt, um die Leistungsaufnahme innerhalb der TDP zu halten.
Wo ist da jetzt der Durchschnitt ;-) ?
mrdigital
2005-04-05, 23:25:58
Die Stromversorgung wird nicht nach TDP ausgelegt, sondern nach den Angaben Imax.
"Durchschnitt" ist hier vielleicht das falsche Wort, aber es trifft es eher, denn es ist eben nicht der maximale Spitzenwert (nach dem ja die Stromversorgung ausgelegt sein muss, da sonst der Rechner einfach abstürzen würde)
StefanV
2005-04-05, 23:26:32
Und wo steht da, wie die die TDP errechnet haben?!
WO steht, das dem so ist?!
WO steht, das nicht eher 'mittlere' Last gemeint ist?!
BlackBirdSR
2005-04-05, 23:37:03
Und da steht genau das, was ich gesagt habe :-) TDP ist die maximale Leistungsaufnahme einer CPU auf einer öffentlich verfügbaren Software unter normalen Bedingungen. Die muss von einem Kühler maximal abgeführt werden und die CPU ist maximal für die TDP ausgelegt.
Kommt es unter "abnormalen" Bedingungen zu einer höheren Leistungsaufnahme, tritt der Thermal Monitor der CPU in Aktion und senkt den Takt, um die Leistungsaufnahme innerhalb der TDP zu halten.
Wo ist da jetzt der Durchschnitt ;-) ?
Durschnittliche Verlustleistung unter Last, habe ich gesagt, denke ich.
Im Endeffekt ist es der höchste Energieverbrauch, der beim Testen mit unterschiedlichsten Anwendungen ermittelt wurde und für die die CPU ausgelegt wird.
das beschreibt die TDP IMO auch nicht korrekt.
Egal,
der Punkt ist, dass die CPUs auch mal darüber kommen können.
Gerade bei so schönen Sachen wie Prime/SuperPi oder leichten OC Versuchen findet man sich schnell mit steigender Verlustleistung konfrontiert.
GloomY
2005-04-06, 01:50:57
Intel sagt ja selbst, dass unter Umständen mehr als die TDP verbraucht werden kann:The processor’s power is specified as Thermal Design Power (TDP) for thermal solution design. TDP is defined as the worst-case power dissipated by the processor while executing publicly available software under normal operation conditions, at nominal voltages that meet the load line specifications. The Intel TDP specification is a recommended design point and is not representative of the absolute maximum power the processor may dissipate under worst-case conditions.(Quelle: BBSRs Link (http://download.intel.com/design/intarch/designgd/30599301.pdf))
Im Endeffekt ist es der höchste Energieverbrauch, der beim Testen mit unterschiedlichsten Anwendungen ermittelt wurde und für die die CPU ausgelegt wird.D.h. Intel verwendet eine (selbst getätigte) Auswahl an Programmen und nimmt dann das gemessene Maximum für den TDP Wert?!
Ich weiss ja nicht, wie viele und vor allem welche Software dort getestet wird, aber ich persönlich halte von diesem Vorgehen nicht sehr viel, besonders weil es der Manipulation Tür und Tor öffnet.
Was ist denn bitte eine "öffentlich verfügbare" Software?! Wird da jede auf der Welt erhältliche x86-Software getestet? Wohl eher nicht.
Oder woher will Intel wissen, dass in drei Monaten nicht eine Software entwickelt wird, die mehr Verlustleistung als die TDP verursacht? Ich erinnere mal an so Programme wie BurnK7, die merkbar mehr Wärme erzeugen als eine sonstige anspruchsvolle Anwendung, die die CPU scheinbar voll auslastet. Sicherlich geht das eher in Richtung Worst-Case, aber es zeigt doch klar, dass unterschiedliche Software unterschiedlich viel Wärme in der CPU produziert.
Wie kann man dann nach dem Testen von einer nur endlichen Menge an Programmen davon ausgehen, dass das in irgend einer Form repräsentativ für die Verlustleistung des Prozessors sein soll?
Ich bin der Meinung, dass diese ganze TDP Sache nur eine gewisse Notlösung ist, damit die nackten Zahlen nicht ganz so erschreckend aussehen.
Leonidas
2005-04-06, 09:32:06
Ich muß aber aus der Praxis anmerken, daß die unabhängige Messungen teilweise deutlich unterhalb der Intel-Angaben lagen.
Intel scheint schon ein relatives WorstCase-Szenario zusammenzubasteln und dann zur Sicherheit noch ein paar Watt draufzulegen. Denn auch bei Intel gehen diese Angaben immer mehr in die Richtung, Maßgabe für Dritthersteller zu sein und weniger eine exakte Angabe der Verlustleistung eines einzelnen Prozessors. Siehe auch PD 820/830, welche mit der identischen Verlustleistung (95W) angegeben wurden. In der Realität wird diese natürlich unterschiedlich sein.
Wie misst man aber bei einem Dualcore?
Misst man einen Kern bei praxisnaher Maximal Auslastung und multipliziert man die Leistung mit 2, oder geht man davon aus, dass es in der Praxis nie dazu kommt, dass beide Kerne identisch ausgelastet sind und zieht ein wenig Leistung ab?
Der TDP gerät immer mehr in den Fokus der Benutzer und wird damit auch zum Marketing Instrument.
Grüsse
Avalox
Wie misst man aber bei einem Dualcore?
Misst man einen Kern bei praxisnaher Maximal Auslastung und multipliziert man die Leistung mit 2, oder geht man davon aus, dass es in der Praxis nie dazu kommt, dass beide Kerne identisch ausgelastet sind und zieht ein wenig Leistung ab?
Der TDP gerät immer mehr in den Fokus der Benutzer und wird damit auch zum Marketing Instrument.
Grüsse
Avalox
Man belastet beide Kerne gleichzeitig möglichst voll und legt ein paar W drauf. Was soll daran so schwer sein?
Die TDP geht im Gegenteil sogar eher aus dem Marketing heraus. Intel bemüht sich ja um ähnliche Zahlen wie AMD und AMD lässt nun wirklich sehr hohe Toleranzen. Die TDP ist ein Richtwert für die Mainboardhersteller und somit wäre es ein ziemliches Eigentor sowas dem Marketing zu überlassen ;)
mrdigital
2005-04-06, 10:26:12
Die werden es durch die abgegebene Wärmemenge messen. Wenn man mit der CPU etwas aufheizt, dessen Wärmekapazität und Wärmeabgaberate bekannt ist, kann mit Hilfe des Temperaturverlaufs auf die Wärmeleistung der CPU schließen.
Dann wird die CPU durch einen Testparcours geschickt (mit "öffentlich verfügbarer Software" ;)) und schon hat man einen TDP Wert.
Das Verfahren unterscheidet sich also nicht von einer "konventionellen" Singlecore CPU, ausser dass der Testparcours angepasst wird.
VooDoo7mx
2005-04-06, 14:26:32
Ich will Yonah!
:usweet:
Aber mal im Ernst.
Ich frage mich, wieso Intel zumindestens beim Extreme Edition keinen FSB266 anbietet. Noch besser wäre ein 333er QDR FSB gewesen. :D
Oblivion
2005-04-06, 14:37:18
Ich will Yonah!
:usweet:
Aber mal im Ernst.
Ich frage mich, wieso Intel zumindestens beim Extreme Edition keinen FSB266 anbietet. Noch besser wäre ein 333er QDR FSB gewesen. :D
Is jetzt nur eine blöde vermutung:
wegen DDR2 !?
Wieso? Der EE3,73 hat doch auch DDR2 und 266MHz FSB. Es macht eigentlich garkeinen Sinn, dass der 840EX plötzlich wieder mit FSB800 um die Ecke kommt.
Hatten die Schwierigkeiten mit ihren Chipsätzen oder was? Finds schon seltsam.
Oblivion
2005-04-06, 14:53:55
Wieso? Der EE3,73 hat doch auch DDR2 und 266MHz FSB. Es macht eigentlich garkeinen Sinn, dass der 840EX plötzlich wieder mit FSB800 um die Ecke kommt.
Hatten die Schwierigkeiten mit ihren Chipsätzen oder was? Finds schon seltsam.
Kann auch Marketing Sache sein
sie bringen alles hintereinander auf jeweils neuen Prozessoren raus
zuerst DC
dann die EE mit HT
dann 840X mit 1066
klingt logisch obs der grund is :redface:
Kann auch Marketing Sache sein
sie bringen alles hintereinander auf jeweils neuen Prozessoren raus
zuerst DC
dann die EE mit HT
dann 840X mit 1066
klingt logisch obs der grund is :redface:
Das ist ein Grund mit dem man was anfangen kann :) klingt plausibel
Intel sagt ja selbst, dass unter Umständen mehr als die TDP verbraucht werden kann:
ist irgendwie logisch dass es rein theoretisch unter besonderen umständen zu höherem verbrauch kommen kann, man kann halt nicht immer alle eventualitäten abdecken.
intel schreibt aber auch dass es sich um ein worst-case-szenario handelt, und noch viel wichtiger dass das "thermal-monitor-feature" den tatsächlichen stromverbrauch immer unter diesen spezifikationen hält.
es muss sich um ein worst-case-szenario handeln, schließlich gehen third-party-hersteller davon aus dass dies die maximale leistungsaufnahme darstellt, wenn das nicht stimmen würde, wäre jeder intel-pc extrem instabil ;)
Oblivion
2005-04-06, 15:47:27
ist irgendwie logisch dass es rein theoretisch unter besonderen umständen zu höherem verbrauch kommen kann, man kann halt nicht immer alle eventualitäten abdecken.
intel schreibt aber auch dass es sich um ein worst-case-szenario handelt, und noch viel wichtiger dass das "thermal-monitor-feature" den tatsächlichen stromverbrauch immer unter diesen spezifikationen hält.
es muss sich um ein worst-case-szenario handeln, schließlich gehen third-party-hersteller davon aus dass dies die maximale leistungsaufnahme darstellt, wenn das nicht stimmen würde, wäre jeder intel-pc extrem instabil ;)
stimmt!
oder glaubt wer dass Intel dem normalverbraucher vorspielen will dass TDP eine gemogelte Sache is, damits besser ausschaut und die third-party anwender bekommen dann die richtigen Werte?
denke nicht, das wäre schon aufgeflogen
TDP hat seinen Sinn es is zwar net perfekt aber das geht auch praktisch nicht
Das macht die TDP aber immernoch nicht vergleichbar mit der von AMD, denn AMD setzt den Wert so hoch, dass er auch im schlimmsten Falle nicht erreicht werden kann. Intel nimmt einfach einen worst-case Wert, den sie ermittelt haben. Somit ist die TDP bei Intel tendenziell niedriger angesetzt.
Man sollte dabei bedenken, dass AMD kein Thermal Throttling hatte und somit auf eine andere TDP angewiesen war.
Oblivion
2005-04-06, 16:11:13
Das macht die TDP aber immernoch nicht vergleichbar mit der von AMD, denn AMD setzt den Wert so hoch, dass er auch im schlimmsten Falle nicht erreicht werden kann. Intel nimmt einfach einen worst-case Wert, den sie ermittelt haben. Somit ist die TDP bei Intel tendenziell niedriger angesetzt.
Man sollte dabei bedenken, dass AMD kein Thermal Throttling hatte und somit auf eine andere TDP angewiesen war.
Ich will mich jetzt hier nicht als Intel-fanatiker (oder wie ihr das nenne wollt ;) ) nennen, aber ich sehe es net ganz ein das Intel immer nur schlechte produkte machen soll und bei den Werten mogeln soll.
Intel setzt auf hohe Taktraten, warum? es verkauft sich besser, weils sichs besser anhört, dadurch entsteht mehr Abwärme, dadurch hat Intel schlechtere Zahlen - jedoch der schlimmste Fall (worst-case) wird vom Otto-Normalverbraucher ja praktisch nie erreicht (fast).
Aber wie stellst du dir den Test von Intel dann vor? sollen sie den AMD-test nehmen?
SKYNET
2005-04-06, 17:23:20
Ich bin kein Video und Render-freak und hätte trotzdem gerne mal ein smoothes Windows.
habe ich auch mit nem A64. :tongue:
Kampfwurst87
2005-04-06, 17:38:40
Intel setzt auf hohe Taktraten, warum? es verkauft sich besser, weils sichs besser anhört, dadurch entsteht mehr Abwärme, dadurch hat Intel schlechtere Zahlen - jedoch der schlimmste Fall (worst-case) wird vom Otto-Normalverbraucher ja praktisch nie erreicht (fast).
weils es immer noch viele leute gibt die glauben je mehr MHz desto besser.
neulich einer aus der klasse, gibt mit seinen P4 3.4 an und sagte das mein AMD 64 mit 2.4GHz keine chance hat. als ich ein paar bench mit dem 4000+ machte war er blötzlich ganz stille.
leider sind solche leute keine seltenheit aber AMD nennt doch auch seine CPUs z.b 4000+ was soll da großartig für den kunden ein unterschied sein von P4 3.8 und AMD 64 3800+?
und außerdem ist intel schlichtweg überteuert siehe P4 EE für schlappe 1000€ im großhandel.
Das macht die TDP aber immernoch nicht vergleichbar mit der von AMD
wie sollte es auch sein, da müsste man ja den gleichen testparcours und die gleiche messmethode in beiden fällen nehmen.
sicher ist bei beiden seiten einiges an sicherheit eingerechnet und gut möglich dass amd mehr sicherheit einrechnet.
onkel2003
2005-04-06, 20:09:22
leider sind solche leute keine seltenheit aber AMD nennt doch auch seine CPUs z.b 4000+ was soll da großartig für den kunden ein unterschied sein von P4 3.8 und AMD 64 3800+?
und außerdem ist intel schlichtweg überteuert siehe P4 EE für schlappe 1000€ im großhandel.
und die Kunden haben die verarschung durchaut ;-)
Und der EE ist nicht überteuert sondern hat ne andere ziel gruppe.
der FX ist auch teuer, aber es gibt nun mal leute die wollen so eine cpu haben.
hinzu solte man mal rechnen wieviel von den EE wirklich als EE auf den Markt kommen, die ausfall quote der EE´s wird nicht grade klein sein.
Oblivion
2005-04-06, 21:07:52
hinzu solte man mal rechnen wieviel von den EE wirklich als EE auf den Markt kommen, die ausfall quote der EE´s wird nicht grade klein sein.
Wieder blöde Frage: wieso?
IMO sind diese ganzen Fragen, warum das und das nicht dazugenommen wurde usw. meistens auf Marketing zurückzuführen:
weils es immer noch viele leute gibt die glauben je mehr MHz desto besser.
neulich einer aus der klasse, gibt mit seinen P4 3.4 an und sagte das mein AMD 64 mit 2.4GHz keine chance hat. als ich ein paar bench mit dem 4000+ machte war er blötzlich ganz stille.
sagt ja schon alles
eider sind solche leute keine seltenheit aber AMD nennt doch auch seine CPUs z.b 4000+ was soll da großartig für den kunden ein unterschied sein von P4 3.8 und AMD 64 3800+?
Weil dann im Media Markt oder Saturn oder was weiß ich gesagt wird "Der AMD Prozessor arbeitet nur so als hätte er 3.8 GHz in wirklichkeit hat er vie weniger"
so, und da nimmt man natürlich das Gerät mit mehr Gigahertz
Ich will mich jetzt hier nicht als Intel-fanatiker (oder wie ihr das nenne wollt ;) ) nennen, aber ich sehe es net ganz ein das Intel immer nur schlechte produkte machen soll und bei den Werten mogeln soll.
Intel setzt auf hohe Taktraten, warum? es verkauft sich besser, weils sichs besser anhört, dadurch entsteht mehr Abwärme, dadurch hat Intel schlechtere Zahlen - jedoch der schlimmste Fall (worst-case) wird vom Otto-Normalverbraucher ja praktisch nie erreicht (fast).
Aber wie stellst du dir den Test von Intel dann vor? sollen sie den AMD-test nehmen?
Ich glaube du interprätierst da mehr rein als da steht. Ich wollte nur damit sagen, dass die TDP nicht direkt vergleichbar ist.
Ob AMD da jetzt mehr Toleranz reinrechnet oder Intel ist doch vollkommen egal. Ich hab nur geschrieben, wie ich das sehe, warum das zustandekommt.
Das sollte jetzt nicht wie Intel gebashe wirken. Das liegt mir fern. mich stört nur, dass diese Werte immer und immer wieder in Reviews gegeneinandergesetzt werden, obwohl ein direkter Vergleich nicht möglich ist.
wie sollte es auch sein, da müsste man ja den gleichen testparcours und die gleiche messmethode in beiden fällen nehmen.
sicher ist bei beiden seiten einiges an sicherheit eingerechnet und gut möglich dass amd mehr sicherheit einrechnet.
Exakt
Oblivion
2005-04-06, 21:17:57
Ich glaube du interprätierst da mehr rein als da steht. Ich wollte nur damit sagen, dass die TDP nicht direkt vergleichbar ist.
Ob AMD da jetzt mehr Toleranz reinrechnet oder Intel ist doch vollkommen egal. Ich hab nur geschrieben, wie ich das sehe, warum das zustandekommt.
Das sollte jetzt nicht wie Intel gebashe wirken. Das liegt mir fern. mich stört nur, dass diese Werte immer und immer wieder in Reviews gegeneinandergesetzt werden, obwohl ein direkter Vergleich nicht möglich ist.
Dann hab ich dich falsch verstanden ... sry :redface:
Hab aber auch nicht dich persönlich angegriffen sondern es allgemein gemeint :wink:
diese Fangruppen sind unnötig
mich interessiert das beste Preis/Leistungs Verhältniss, egal ob von intel oder AMD
Kampfwurst87
2005-04-06, 22:47:13
@onkel2003
der FX ist gut 200€ billiger als ein P4EE den man im großhandel pro 1000stück für 1000€ bekommt, im laden kostet der gut 1100€
und ist langsamer als der 570J mit 3.8GGHz *g* der ca. 500€ kostet wenn man sich nicht irrt
GloomY
2005-04-07, 01:14:39
Ich muß aber aus der Praxis anmerken, daß die unabhängige Messungen teilweise deutlich unterhalb der Intel-Angaben lagen.
Intel scheint schon ein relatives WorstCase-Szenario zusammenzubasteln und dann zur Sicherheit noch ein paar Watt draufzulegen. Denn auch bei Intel gehen diese Angaben immer mehr in die Richtung, Maßgabe für Dritthersteller zu sein und weniger eine exakte Angabe der Verlustleistung eines einzelnen Prozessors. Siehe auch PD 820/830, welche mit der identischen Verlustleistung (95W) angegeben wurden. In der Realität wird diese natürlich unterschiedlich sein.Das klingt beruhigend :) btw: Meinst du die Tests von HT4U?
ist irgendwie logisch dass es rein theoretisch unter besonderen umständen zu höherem verbrauch kommen kann, man kann halt nicht immer alle eventualitäten abdecken.
intel schreibt aber auch dass es sich um ein worst-case-szenario handelt, und noch viel wichtiger dass das "thermal-monitor-feature" den tatsächlichen stromverbrauch immer unter diesen spezifikationen hält.In dem Fall muss ich meine Einwände bezüglich der TDP Angabe zurückziehen.
Es ist halt nur schade, dass das wiederum bedeutet, dass ich nicht sicher sein kann, dass meine Anwendung das TDP Limit nicht überschreitet und gleichzeitig mit voller Geschwindigkeit (nicht gedrosselt) läuft. ;(
es muss sich um ein worst-case-szenario handeln, schließlich gehen third-party-hersteller davon aus dass dies die maximale leistungsaufnahme darstellt, wenn das nicht stimmen würde, wäre jeder intel-pc extrem instabil ;)Das ist a) nur eine Frage der Wahrscheinlichkeit und b) steht die Antwort ja oben: Der Thermal Monitor mit automatischem Throtteling.
tombman
2005-04-07, 03:41:55
habe ich auch mit nem A64. :tongue:
Nein, hast du nicht, du weißt ja gar ned was smooth ist, wenn du nie HT oder dual cpu hattest...
SKYNET
2005-04-07, 04:44:31
Nein, hast du nicht, du weißt ja gar ned was smooth ist, wenn du nie HT oder dual cpu hattest...
doch, habe ja genug kumpels mit inhell krücken. ;D
onkel2003
2005-04-07, 05:45:06
doch, habe ja genug kumpels mit inhell krücken. ;D
sag blos die haben dich mal den explorer öffnen lassen ;-)
änder deine signatur mal, oder soll das mit den 2,85 Ghz dein erst sein :cool:
tombman
2005-04-07, 08:16:11
sag blos die haben dich mal den explorer öffnen lassen ;-)
änder deine signatur mal, oder soll das mit den 2,85 Ghz dein erst sein :cool:
Seine Signaturen sind nur zum geringsten Teil was er wirklich hat und zum größeren Teil was er sich wünscht ;) Er liebt es noobs zu schocken ;)
SKYNET
2005-04-18, 12:13:31
http://www.theinquirer.net/?article=22603
;D ;D ;D
Kampfwurst87
2005-04-18, 12:16:18
da ist intel mal wieder in ein fettnäpchen getrette, wäre ja nicht das erste mal
SKYNET
2005-04-18, 12:23:31
darum habe ich es ja gepostet. ;)
Kampfwurst87
2005-04-18, 12:39:58
ja braver AMD fan :rolleyes: :love3: :comfort:
intels taktik weiterhin auf übergroße pipes, veralteten BUS system, zu große abwärme, etc. wird irgendwan mal intel in den rücken fallen
Lilebror
2005-04-18, 13:06:18
Ich weiß net so recht was ich von der Extremeedition mit 2 kernen halten soll, also ne Cpu die in Aktuellen Spielen und Benchs meinem AMD A64 3500+ nich mal annähernd ebenwürdig ist, interessiert mich ganz einfach nich, wenn Intel die dann wenigstens noch billiger anbieten würde, aber ich finde es echt Lächerlich wenn ich auf die Seite von GIGA geh und da son popup aufspringt mit der P4 EE:" will doch nur spielen", hallo, also die meisten Gamer dieser Welt werden keinen Bock haben für eine CPU zwischen 700€ und 1200€ alleine für die CPU auszugeben, klar ausnahmen gibts immer, aber dieser Preis ist bei WIETEM noch nie realistisch gewesen. Wenn die CPU ja nich mal schneller als ein vergleichbarer AMD prozessor ist, aber das doppelte oder dreifache kostet, HTT und DC hin oder her.
Wenns angeblich ne zocker CPU is, erwarte ich mehr davon.
Das einzige was mir an einer EE gefallen würde, wenn ich son fettes preiseiket bekomme so 2x2 Meter, damit lässt sich dann noch angeben aber für 700€ oder noch mehr is das wohl auch noch zu viel verlangt.
Ich glaube der Grund warum wir noch nich so viele benchs von dem Dualcore AMD gesehen is ganz einfach der das sich AMD darüber im klaren is das man damit imo noch kein Blumentopf gewinnen lässt, weil entsprechende Progs noch nich existitieren bzw. für den Desktop bereich einfach föllig unintetressant sind, wenn so weit ist werden die dinger kommen, aber imo . . .
Übrigens glaube ich nich das die EE von Intel in zukunft billiger wird spziell die DC version, sondern werden noch was oben drauf legen, für leistung die noch keiner brauchen kann etc . . .
Kampfwurst87
2005-04-18, 13:54:18
kürzgefasst:
typisch intel
Heise schreibt
"Offizieller Startschuss für den Doppelkern-Prozessor Pentium Extreme Edition"
Ferner wird im Artikel vom i955X Express Chipsatz berichtet.
Dieser kommt mit zwei PEG Slots. Einer ist ein x16. Die Lanes führen zur Nordbridge. Der zweite PEG Slot ist ein x4(!), dessen Lanes führen zur Southbridge. Also ein ganz schön merkwürdiges Ding dieser i955x Chipsatz.
http://www.heise.de/newsticker/meldung/58677
Grüsse
Avalox
dildo4u
2005-04-18, 16:20:51
Asus stellt Gleichzeitig ihr Luxus i955X Board vor mit Unterstützung von bis zu 8GB DDR2-800Speicher http://www.computerbase.de/news/hardware/mainboards/intel-systeme/2005/april/asus_i955x-board_dual-core/
Kampfwurst87
2005-04-18, 16:27:01
wer brauch bitte heut zu tage 8GB. ein server ja. eine renderingmachine reichen auch 4GB und videoschnitt auch
Bokill
2005-04-18, 16:35:54
Freu dich doch Kampfwurst87 ... jetzt ist Intel da, wo AMD nun schon länger mit dem Athlon 64/Opteron ist. :D
Ein moderner Profichipsatz darf ruhig auch mehr als 4 GB adressieren dürfen.
MFG Bokill
Kampfwurst87
2005-04-18, 16:37:30
ich glaube mal 8GB kann man erst richtig nützen bei win Longhorn :biggrin:
aber ohne dualchannel würde ich nicht fahren wollen, glaube wohl kaum das zur zeit 4GB riegel möglich sind und wenn dann nur unbezahlbar bleiben
onkel2003
2005-04-18, 16:39:34
Ich weiß net so recht was ich von der Extremeedition mit 2 kernen halten soll, also ne Cpu die in Aktuellen Spielen und Benchs meinem AMD A64 3500+ nich mal annähernd ebenwürdig ist, interessiert mich ganz einfach nich, wenn Intel die dann wenigstens noch billiger anbieten würde, aber ich finde es echt Lächerlich wenn ich auf die Seite von GIGA geh und da son popup aufspringt mit der P4 EE:" will doch nur spielen", hallo, also die meisten Gamer dieser Welt werden keinen Bock haben für eine CPU zwischen 700€ und 1200€ alleine für die CPU auszugeben, klar ausnahmen gibts immer, aber dieser Preis ist bei WIETEM noch nie realistisch gewesen. Wenn die CPU ja nich mal schneller als ein vergleichbarer AMD prozessor ist, aber das doppelte oder dreifache kostet, HTT und DC hin oder her.
Wenns angeblich ne zocker CPU is, erwarte ich mehr davon.
Das einzige was mir an einer EE gefallen würde, wenn ich son fettes preiseiket bekomme so 2x2 Meter, damit lässt sich dann noch angeben aber für 700€ oder noch mehr is das wohl auch noch zu viel verlangt.
Ich glaube der Grund warum wir noch nich so viele benchs von dem Dualcore AMD gesehen is ganz einfach der das sich AMD darüber im klaren is das man damit imo noch kein Blumentopf gewinnen lässt, weil entsprechende Progs noch nich existitieren bzw. für den Desktop bereich einfach föllig unintetressant sind, wenn so weit ist werden die dinger kommen, aber imo . . .
Übrigens glaube ich nich das die EE von Intel in zukunft billiger wird spziell die DC version, sondern werden noch was oben drauf legen, für leistung die noch keiner brauchen kann etc . . .
es war doch klar das die CPU nicht gegen ein A64 3500+ ankommt, auch eine Dualcore AMD CPU 3200+ würde nicht gegen den 3500+ ankommen.
aber ich weis garnicht, wofür ihr den Dualcore EE schelcht redet, kauft ihn einer von euch ? ganz bestimmt nicht, erst recht mehr AMD user Kommentare als Intel User.
Was möchte man verlangen ein Kommentar von jemanden, für den AMD alles ist.
Der EE ist von 99% hier nicht die zielgruppe.
ich finde die Leistung momentan auch noch schlecht , aber es wird der tag kommen, wo es Anwendungen gibt wo der EE ganz gewaltig führen wird.
Seht es einfach so was bringt euch zurzeit 64 Bit, auf windows XP nichts, und genauso wenig bringt es in moment auf den dualcore EE zu setzen, es sei man arbeitet mit programmen wie Cinema 4D.
abwarten tee trinken.
Und dabei noch gesagt bevor hier noch einige AMD User meinen auf Intel rum zu hauen.
Intel hat heute eine dualcore auf den markt geworfen,
Wo ist AMD seine ?
bevor man eine CPU schon in die tonne haut solte man erst mal abwarten, was die Firma rausbringt die man lieber hat, und dann kann man weiter motzen ;-)
Kampfwurst87
2005-04-18, 16:42:40
aber ich weis garnicht, wofür ihr den Dualcore EE schelcht redet, kauft ihn einer von euch
LOL wer denkt 1000€ für eine CPU ist gerechtfertigt muss auch zu viel davon haben.
Intel hat heute eine dualcore auf den markt geworfen,
Wo ist AMD seine ?
der kommt nur ein paar tage später, denkste davon wird er schneller wenn er eine hand voll tage eher releast wird?
onkel2003
2005-04-18, 16:47:36
LOL wer denkt 1000€ für eine CPU ist gerechtfertigt muss auch zu viel davon haben.
der kommt nur ein paar tage später, denkste davon wird er schneller wenn er eine hand voll tage eher releast wird?
sind über 700 euro für den FX OK ?
Der EE und FX ist nicht unsere zielgruppe, Und ja ich würde ihn kaufen, und ich denke auch schon drüber nach. will aber erst deutliche Tests sehn ;-) von board von Herstellern wie Asus und oder Abit.
Ja es macht ihn schneller, logisch den AMD hat keine Dualcore, und somit hat Intel die schnellste Dualcore auf den Markt. :P
Kampfwurst87
2005-04-18, 16:49:49
Ja es macht ihn schneller, logisch den AMD hat keine Dualcore, und somit hat Intel die schnellste Duacore auf den Markt.
was für eine kindische logick, wenn die gelauncht wurden. sind sie ja auch nicht sofort und überall erhälltlich das musst du ja auch bedenken.
komisch das ein 570J schneller als ein 3.73 EE ist. und dieser nur die hälfte kostet
onkel2003
2005-04-18, 16:51:44
was für eine kindische logick, wenn die gelauncht wurden. sind sie ja auch nicht sofort und überall erhälltlich das musst du ja auch bedenken.
komisch das ein 570J schneller als ein 3.73 EE ist. und dieser nur die hälfte kostet
seit wann ist der 3.73 EE eine dualcore ?
Kampfwurst87
2005-04-18, 16:53:29
seit wann ist der 3.73 EE eine dualcore ?
es geht nicht darum ob SC oder DC. sondern das die preis/leistung die mieseste überhaupt auf dem markt ist
onkel2003
2005-04-18, 16:56:32
es geht nicht darum ob SC oder DC. sondern das die preis/leistung die mieseste überhaupt auf dem markt ist
toll dann kannste ja alle CPU über 200 Okken in die tonne werfen,
und dein 4000+ ist dann ja auch tonne, den er hat ein auch extrem hohen preis.
Kampfwurst87
2005-04-18, 16:59:05
550€ schlägt 1000€ um es mal zu verdeutlichen.
und intel bleibt sturr und dickköpfig wie eh und je.
intel will einfach nicht zugeben das der pressi eine absolute pleite ist und XE auch.
onkel2003
2005-04-18, 17:02:38
550€ schlägt 1000€ um es mal zu verdeutlichen.
und intel bleibt sturr und dickköpfig wie eh und je.
intel will einfach nicht zugeben das der pressi eine absolute pleite ist und XE auch.
die dualcore EE wird 999 euro kosten, du glaubst doch nicht erst das du in 1 jahr noch schneller biste wie die CPU ?
sobald die ersten Anwendungen kommen, wird deine cpu gegen den EE ganz doll abstinken.
siehe Cinema 4D dort ist der dualcore schon jetzt 50 % schneller wie ein FX-55.
rechne dir mals elber aus was deine cpu in 1 jahr noch gegen den EE zu sagen hat.
onkel2003
2005-04-18, 17:05:55
intel will einfach nicht zugeben das der pressi eine absolute pleite ist und XE auch.
denke nicht, ein zeichen dafür das grade erst mal wieder Dell AMD nen arschtritt gegeben hat.
Intel währe nicht so erfolgreich, wenn sie ja angeblich nur scheisse bauen.
ich habe keine probs damit das Intel wärmer wird, ich habe keine probs damit das Intel mehr strom zieht.
ganz erlich das geht mir sogar am arsch vorbei, solange man die dinger kühlen kann ohne turbinen kühler, und mit den richtigen kühlern geht dies sogar leise.
also sehe ich kein grund um zu sagen intel währe scheisse.
Kampfwurst87
2005-04-18, 17:07:42
OMG.
deine argumente sind echt nur LOL.
jaja weil auch alle apps + OS in einem jahr auf SMP umprogrammiert sind, programmiere erstmal was selber dann weißte was für ein knochenjob das ist.
ich werde in einem jahr vieleicht auf M2 umsteigen + neue CPU dagegen sieht der EE alt aus :P
und ich frag mich echt du so als absoluter intelfanatiker hast ein AMD
dildo4u
2005-04-18, 17:09:09
und ich frag mich echt du so als absoluter intelfanatiker hast ein AMD
Naja er hats sichs besorgt und hat sich eine meinung gebildet.Viele sind vom XP auf der A64 umgestiegen und hatte nie ein Intel mit HT deshalb dürften sie sich gar keine Meinung über Intel bilden.Und die Prescott hat man mitlerweile in der 600 serie auf 95watt runter gebracht also nur 6watt mher als ein FX oder clawhammer A64.Unter real bedinungen hat Hardtecs4u sogar nur 77watt gemessen.
onkel2003
2005-04-18, 17:11:24
OMG.
deine argumente sind echt nur LOL.
jaja weil auch alle apps + OS in einem jahr auf SMP umprogrammiert sind, programmiere erstmal was selber dann weißte was für ein knochenjob das ist.
ich werde in einem jahr vieleicht auf M2 umsteigen + neue CPU dagegen sieht der EE alt aus :P
und ich frag mich echt du so als absoluter intelfanatiker hast ein AMD
ja siehste du wirst auf dualcore umsteigen , genau das ist es doch.
deine cpu ist aber jetzt überteuert.
oder möchtest du mir sagen 4000+ 570 euro währe OK, von preisleistung.
ist doch lächerlich
Kampfwurst87
2005-04-18, 17:11:42
der AMD 64 3500+ ist gut, sowohl preis/leistung, verlustleistung, preis.
er ist leichtgläubig und denkt alles ist in einem jahr auf SMP umgesapelt, darauf muss man erstmal kommen :crazy:
oder möchtest du mir sagen 4000+ 570 euro währe OK, von preisleistung.
tolles argument
wert=0
denkste dann erst der 999€ XE??? und dieser ist noch schwächer und hitziger
Botcruscher
2005-04-18, 17:12:31
denke nicht, ein zeichen dafür das grade erst mal wieder Dell AMD nen arschtritt gegeben hat.
Intel währe nicht so erfolgreich, wenn sie ja angeblich nur scheisse bauen.
Dell bekommt von Intel ja auch extreme Preisnachlässe. Intel wird da schon sanft gedrückt haben, damit das auch so bleibt.
Was den Erfolg von Intel betrifft, es gab ja genug Abmahnungen wegen "unsauberen" Methoden.
ich habe keine probs damit das Intel wärmer wird, ich habe keine probs damit das Intel mehr strom zieht.
ganz erlich das geht mir sogar am arsch vorbei, solange man die dinger kühlen kann ohne turbinen kühler, und mit den richtigen kühlern geht dies sogar leise.
also sehe ich kein grund um zu sagen intel währe scheisse.
Du verteidigst Intel sogar noch wenn der einzige Vorteil ein buntes Logo auf dem Rechner ist. ;)
onkel2003
2005-04-18, 17:15:29
der AMD 64 3500+ ist gut, sowohl preis/leistung, verlustleistung, preis.
er ist leichtgläubig und denkt alles ist in einem jahr auf SMP umgesapelt, darauf muss man erstmal kommen :crazy:
tolles argument
wert=0
denkste dann erst der 999€ XE??? und dieser ist noch schwächer und hitziger
komm zum thema zurück, und fang nicht an zu spielen.
ich habe nie gesagt in 1 jahr ist alles umgestelt.
und wieso redest du jetzt von ein 3500+ ?, du hast ein 4000+ und davon rede ich und dieser ist preisleistung keine 570 euro wert.
genuso wenig wie ein EE 999 euro wert ist.
GloomY
2005-04-18, 17:16:41
ich glaube mal 8GB kann man erst richtig nützen bei win Longhorn :biggrin: Wie gesagt kommt das auf den Einsatzzweck an.
Man muss nicht immer nur von sich aus ausgehen (und auch nicht immer nur von Windows).
aber ohne dualchannel würde ich nicht fahren wollen, glaube wohl kaum das zur zeit 4GB riegel möglich sind und wenn dann nur unbezahlbar bleiben8 GB und 4 Speicherslots ergibt üblicherweise 2 GB pro Modul. Das ist mit üblichen 512 Mbit Chips in 128Mx4 Organisation durchaus drin, auch wenn das Modul dann 32 Chips beherbergen muss. Das ist aber heutzutage technisch kein Problem, selbst bei normaler Bauhöhe (stacked DIMMs).
btw: Werden "x4"-Chips denn vom Chipsatz überhaupt unterstützt? Die i875/865 hatten hierzu ja die Unterstützung verweigert...
Außerdem geht es um die Möglichkeit der Adressierung. Das heisst ja nicht, dass man diese jetzt schon voll ausschöpfen muss. Da hat man für die Zukunft noch schön viel Spielraum zum Aufrüsten :)
kürzgefasst:
typisch intelIch würde dir mal empfehlen mehr auf Qualität (sprich: Inhalt) als auf Quanität deiner Beiträge zu setzen. Um es mal sanft auszudrücken: Ich schätze, dass ich nicht der einzige bin, den dein "Post-Verhalten" nachhaltig stört.
Kampfwurst87
2005-04-18, 17:16:43
seine argumente sind einfach voller ratlosigkeit
mehr kann man dazu nicht sagen
oh toll der intel hat jetzt nur noch 95W. der 4000+ clawhammer hat 89W. wenn man das auch wüsste @ dildo4u. erstmal infos sammeln dann posten. und der clawhammer ist ein auslaufprodukt.
nehmen wir mal den venice/san diego. 67W und noch leistungsstärker bei weniger Vcore, dagegen kann intel nix ansetzen.
und freut euch weiter bei teilweise 130W und dildos4u vermutung von lachhaften 95W
Außerdem geht es um die Möglichkeit der Adressierung. Das heisst ja nicht, dass man diese jetzt schon voll ausschöpfen muss. Da hat man für die Zukunft noch schön viel Spielraum zum Aufrüsten
jo schon, ja schon. aber bis dieses ausgeschöpft ist ist schon die nächste stufe greifbar. und es gibt eh serevr chips wo 8GB + reinpassen
Wie gesagt kommt das auf den Einsatzzweck an.
Man muss nicht immer nur von sich aus ausgehen (und auch nicht immer nur aus der Windows-Sicht).
hab ich ja auch gesagt je nach einsatz aber der normalo 8GB zu viel meiner meinung nach. selbst bei 1GB habe ich probs das alles voll zu bekommen.
onkel2003
2005-04-18, 17:19:08
Du verteidigst Intel sogar noch wenn der einzige Vorteil ein buntes Logo auf dem Rechner ist. ;)
Jo erst recht wenn einige AMD user meinen sie müssen zu ein thema wie Intel Dual-Core Benchmarks Pentium D 840 ...
ihr senf abgeben, und es schon sehr lange klar war das die dualcore cpu erst mal nicht gegen die singlecore cpus ankommen werden.
immerhin kommt 64 bit auch nciht gegen 32 bit an, solange es kein BS dafür gibt.
also kann man auch erst mit windows 64 bit sagen wow ich habe eine 64 bit cpu, und bin schneller.
und in ein paar monaten werden die ersten anwendungen für dualcore da sein, und dann werden diese auch an leistung gewinnen.
nur bis dahin ist es mehr quatsch zu sagen der EE dualcore bringt nix.
dildo4u
2005-04-18, 17:19:23
dildos4u vermutung von lachhaften 95W
Das ist keine vermutung sondern Hardtecs4u hat den 660mit 77watt gemessen das finde ich für 3.6GHZ und 2MBcache nicht wirklich viel 95watt ist die maximal Angabe von intel.Also vorher erstmal informieren.
"Grundsätzlich darf allerdings gesagt werden, dass nichts so heiß gegessen wird, wie es gekocht wird und unser Muster des Pentium 4 660 uns unter einer Prime95 & 3DMark2003 Last einen maximalen Verbrauch von 77 Watt präsentierte."
http://www.hardtecs4u.com/reviews/2005/intel_p4_6xx/index3.php
Ronny145
2005-04-18, 17:19:38
komm zum thema zurück, und fang nicht an zu spielen.
ich habe nie gesagt in 1 jahr ist alles umgestelt.
und wieso redest du jetzt von ein 3500+ ?, du hast ein 4000+ und davon rede ich und dieser ist preisleistung keine 570 euro wert.
genuso wenig wie ein EE 999 euro wert ist.
Den bekommt man übrigens für 480€ schon. Das wären dann also 500€ weniger. Trotzdem ist auch der 4000+ überteuert, gar keine Frage.
Kampfwurst87
2005-04-18, 17:22:37
und in ein paar monaten werden die ersten anwendungen für dualcore da sein, und dann werden diese auch an leistung gewinnen.
meiner meinung nach mehr wunsch denken.
die software firmen müssen wieder millionen und aber millionen in neue SMP software stecken und solange nur ein kleiner teil dieses abdeckt wirds auch erstmal keine neue SMP software geben. außer serevr und office teilweise.
Das ist keien vermutung sondern Hardtecs4u hat den 660mit 77watt gemessen 95watt ist die maximal Angabe von intel.Also vorher erstmal informieren.
naja wollen wirs mal gelden lassen
onkel2003
2005-04-18, 17:23:37
nehmen wir mal den venice/san diego. 67W und noch leistungsstärker bei weniger Vcore, dagegen kann intel nix ansetzen.
.
ach und was ist mit den pentium M ;-), sag jetzt nicht es ist eine mobile cpu.
das geht an arsch vorbei, solange man sie in desktop einsetzen kann.
es ist egal ob desktop, mobil cpu, oder in china felt ein sack reis um.
und dabei gesagt in wirklichkeit denke ich mal 90 % ist es egal ob eine cpu 60 oder 90 watt zieht, bei gleicher leistung.-
Kampfwurst87
2005-04-18, 17:24:06
Den bekommt man übrigens für 480€ schon. Das wären dann also 500€ weniger. Trotzdem ist auch der 4000+ überteuert, gar keine Frage.
ist nur die frage ob leistung oder preis/leistung zählt. das darf ja wohl jeder für sich entscheiden. aber ab 999€ wirds echt krank.
und was ein 3200+, 3500+ nur mit massiven OC schaft, habe ich bei default. also noch luft für OC
Kampfwurst87
2005-04-18, 17:25:29
ach und was ist mit den pentium M ;-)
dies ist meiner meinung nach das einzige was intel gut hinbekommen hat. den rest kann man vergessen.
besonders durch den asus apdapter ist nun der weg offen für mobile in destops
Botcruscher
2005-04-18, 17:26:40
Jo erst recht wenn einige AMD user meinen sie müssen zu ein thema wie Intel Dual-Core Benchmarks Pentium D 840 ...
ihr senf abgeben, und es schon sehr lange klar war das die dualcore cpu erst mal nicht gegen die singlecore cpus ankommen werden.
immerhin kommt 64 bit auch nciht gegen 32 bit an, solange es kein BS dafür gibt. also kann man auch erst mit windows 64 bit sagen wow ich habe eine 64 bit cpu, und bin schneller. und in ein paar monaten werden die ersten anwendungen für dualcore da sein, und dann werden diese auch an leistung gewinnen. nur bis dahin ist es mehr quatsch zu sagen der EE dualcore bringt nix.
Man könnte auch sagen das der EE DC bis dahin nichts bringt. ;) Alles eine Frage der Sichtweise und der technischen Entwicklung.
Bis dahin haltet denn Ball flach und spart euch solche Flameauswückse wie im OC Forum.
Kampfwurst87
2005-04-18, 17:27:51
und dabei gesagt in wirklichkeit denke ich mal 90 % ist es egal ob eine cpu 60 oder 90 watt zieht, bei gleicher leistung.-
will dich korigieren nicht wie viel er zieht sondern wie viel er ungenutzt als hitze von sich gbt, was sich wiederspiegelt bei der temp.
onkel2003
2005-04-18, 17:29:36
ist nur die frage ob leistung oder preis/leistung zählt. das darf ja wohl jeder für sich entscheiden. aber ab 999€ wirds echt krank.
und was ein 3200+, 3500+ nur mit massiven OC schaft, habe ich bei default. also noch luft für OC
ja wie gesagt alles über 200 euro ist tonne,
gehe ich von übertakten aus, aknn ich ja gleich den winni3000+ kaufen.
sorry 999 euro für EE ist krank, aber deine cpu für fast 600 euro ist Ok. ?
sie sind beide mehr als überteuert.
dildo4u
2005-04-18, 17:29:50
Man könnte auch sagen das der EE DC bis dahin nichts bringt. ;) Alles eine Frage der Sichtweise und der technischen Entwicklung.
Bis dahin haltet denn Ball flach und spart euch solche Flameauswückse wie im OC Forum.
DC und HT bringt mir aber jetzt schon was es reicht schon 2sachen gleichzeitig zu machen muss nicht mal HT optemiert sein aber 64bit bringt ohne BS treiber und angepaste Software gar nix und deshalb wirds auch nicht wie von AMD gehypt bei Intel obwhol alle neuen P4s 64Bit haben.
onkel2003
2005-04-18, 17:32:38
will dich korigieren nicht wie viel er zieht sondern wie viel er ungenutzt als hitze von sich gbt, was sich wiederspiegelt bei der temp.
was er ungenutzt an hitze in himmel haut geht mir am arsch vorbei ;-)
was er aus meiner dose zieht, ist wichtiger aber selbst da ist es ein bereich wo es mir auch am A... vorbei geht, den wegen 30 Watt mache ich mir nicht in die hose ;-)
oder in zahlenausgedrückt, mich jukt es nicht ob ich 60 euro in jahr mehr strom zahlen darf oder weniger.
Kampfwurst87
2005-04-18, 17:33:22
sorry 999 euro für EE ist krank, aber deine cpu für fast 600 euro ist Ok. ?
ich sagte ja auch nie das es ein schnächen gewesen ist/war.
ich wollte erst den FX-55 nehmen aber 800€ waren zu viel.
DC und HT birgt mir aber jetzt schon was es reicht schon 2sachen gleichzeitig zu mache muss nicht mal HT optemiert sein aber 64bit bringt ohne BS treiber und angepaste software gar nix und deshalb wirds auch nicht wie von AMD gehypt bei Intel obwhol alle neuen P4s 64Bit haben.
ich werde auch erstmal DC nutzen als lastenteiler des pcs. aber einige test haben gezeigt das der 660er mit 64bit teilweise langsamer sind als 32bit. aber dieses waren die ersten previews von der 6xx serie. aber das kann man nicht auf AMD übertragen. der AMD hat durch die 64bit eine extrem große anzahl speicheradressen
Kampfwurst87
2005-04-18, 17:35:41
was er ungenutzt an hitze in himmel haut geht mir am arsch vorbei ;-)
was er aus meiner dose zieht, ist wichtiger aber selbst da ist es ein bereich wo es mir auch am A... vorbei geht, den wegen 30 Watt mache ich mir nicht in die hose ;-)
oder in zahlenausgedrückt, mich jukt es nicht ob ich 60 euro in jahr mehr strom zahlen darf oder weniger.
geht mir genau so. außer das erste. aber es ist icht grade gesund wenn die cpu durch zu viel abwärme schon am limit arbeitet. das problem wurde bei THG mit dem 560J behandelt bei boxed kühler. nach 5min schon überhitzungsgefahr.
aber wie es scheint konnte das schon leicht von intel bein der 6xx serie bekämpft wurde
onkel2003
2005-04-18, 17:36:50
ich sagte ja auch nie das es ein schnächen gewesen ist/war.
ich wollte erst den FX-55 nehmen aber 800€ waren zu viel.
ich werde auch erstmal DC nutzen als lastenteiler des pcs. aber einige test haben gezeigt das der 660er mit 64bit teilweise langsamer sind als 32bit. aber dieses waren die ersten previews von der 6xx serie. aber das kann man nicht auf AMD übertragen. der AMD hat durch die 64bit eine extrem große anzahl speicheradressen
es wird auch sein wie jetzt, in den ein proggy ist amd schneller in den anderen Intel.
nur was es uns bringen wird 64 bit, werden wir mal sehn wenn es genug anwendungen dafür gibt.
alles was momentan zu lessen ist, ist immer das gleiche, und test immer mit einer beta windows 64 Bit.
ich glaube nicht dran das beispiel games, bis zu 50 % schneller werden in 64 Bit.
wenn den so währe dann währe 64 bit schon lange da.
Ronny145
2005-04-18, 17:37:50
ja wie gesagt alles über 200 euro ist tonne,
gehe ich von übertakten aus, aknn ich ja gleich den winni3000+ kaufen.
sorry 999 euro für EE ist krank, aber deine cpu für fast 600 euro ist Ok. ?
sie sind beide mehr als überteuert.
Wie kommst du immer auf 600€? Für 470€ ist der erhältlich.
onkel2003
2005-04-18, 17:38:37
Wie kommst du immer auf 600€? Für 470€ ist der erhältlich.
wo
onkel2003
2005-04-18, 17:39:41
Wie kommst du immer auf 600€? Für 470€ ist der erhältlich.
mmmm ja quatsch 479 euro, also die 600 auf 500 runter denken ;-)
Ronny145
2005-04-18, 17:40:39
was er ungenutzt an hitze in himmel haut geht mir am arsch vorbei ;-)
was er aus meiner dose zieht, ist wichtiger aber selbst da ist es ein bereich wo es mir auch am A... vorbei geht, den wegen 30 Watt mache ich mir nicht in die hose ;-)
oder in zahlenausgedrückt, mich jukt es nicht ob ich 60 euro in jahr mehr strom zahlen darf oder weniger.
Alle CPUs über 200€ sind für dich Schrott, aber 60€ Stromersparnis wären dir egal? Das passt überhaupt nicht zusammen.
Kampfwurst87
2005-04-18, 17:41:40
ich glaube nicht dran das beispiel games, bis zu 50 % schneller werden in 64 Bit.
wenn den so währe dann währe 64 bit schon lange da.
es wurde mal eine 64bit version von Far Cry gezeigt, da konnte man gut 30% leistungsgewinn bei gleichen system vor zeigen und das ist schon was.
und das speil sah komisch weise noch ein ticken besser aus.
damals haben sie auch gesagt 16bit reicht aus und heute ist 32bit garnicht weg zu denken. es wird eine ganze weile dauern bis der umstieg vollendet ist, wie nun bei 32bit. aber früher oder später musste es soweit seien. eigentlich schon recht überfällig.
wir wollen doch nicht in der technologie stehen bleiben.
die forschung und neu entwicklungen werden nie enden.
sonst wäre es mit dem menschen nicht so weit wie heute
onkel2003
2005-04-18, 17:42:52
Alle CPUs über 200€ sind für dich Schrott, aber 60€ Stromersparnis wären dir egal? Das passt überhaupt nicht zusammen.
nein für mich sind cpu ab 200 okken nicht schrott.
ich habe nicht umsonst geschrieben das ich über den kauf der 3,2 GH EE dualcore nachdenke, aber erst ordentliche Tests sehn will, u.a von boards.
und meine hat schon 250 gekostet, von daher.
Botcruscher
2005-04-18, 17:43:43
was er ungenutzt an hitze in himmel haut geht mir am arsch vorbei ;-)
was er aus meiner dose zieht, ist wichtiger aber selbst da ist es ein bereich wo es mir auch am A... vorbei geht, den wegen 30 Watt mache ich mir nicht in die hose ;-)
oder in zahlenausgedrückt, mich jukt es nicht ob ich 60 euro in jahr mehr strom zahlen darf oder weniger.
60 eus bei gleicher Leistung sind viel Geld. Dafür bekommte man schon 512 MB guten Ram.
Ich kann mich noch gut erinner wie tol die Besitzer des Nordwald die niedriege Temperatur fanden und auf dem armen A XP rumgehackt haben. ;)
Für den Silentbetrieb ist der Presskopf wirklich ungeeignet.
Kampfwurst87
2005-04-18, 17:44:52
ch habe nicht umsonst geschrieben das ich über den kauf der 3,2 GH EE dualcore nachdenke, aber erst ordentliche Tests sehn will, u.a von boards.
da kannste aber mit 1000€ rechnen denn so schnell wird die stärkere version nicht folgen. im klartext der preis sinkt leicht
onkel2003
2005-04-18, 17:45:29
es wurde mal eine 64bit version von Far Cry gezeigt, da konnte man gut 30% leistungsgewinn bei gleichen system vor zeigen und das ist schon was.
und das speil sah komisch weise noch ein ticken besser aus.
damals haben sie auch gesagt 16bit reicht aus und heute ist 32bit garnicht weg zu denken. es wird eine ganze weile dauern bis der umstieg vollendet ist, wie nun bei 32bit. aber früher oder später musste es soweit seien. eigentlich schon recht überfällig.
wir wollen doch nicht in der technologie stehen bleiben.
die forschung und neu entwicklungen werden nie enden.
sonst wäre es mit dem menschen nicht so weit wie heute
richtig :biggrin:
nur dieser farcry beispiel, ist auch wieder son ding, es gibt kein windows 64 Bit, bitte nicht auf die beta version verweisen ;-)
ich will doch kein test wo alles Beta ist :|
angeblich soll diesen monat win 64 bit raus kommen, dann hat ubisoft ja die möglichkeit eine farcry 64 bit auf den markt zu werfen, und dann können wir weiter sehn.
Kampfwurst87
2005-04-18, 17:46:46
Für den Silentbetrieb ist der Presskopf wirklich ungeeignet.
der name presskopf ist lustig
aber dabei hast du recht, zu viel verlustleistung. aber der winni hats drauf praxis hat der meisst max 40Wn und mit CnQ bei idle grade mal im bereich vom notebook. also silent tauglich. aber selbst mein 4000+ monster habe ich grade bei 18db :biggrin:
onkel2003
2005-04-18, 17:48:39
da kannste aber mit 1000€ rechnen denn so schnell wird die stärkere version nicht folgen. im klartext der preis sinkt leicht
ich rechne auch mit 1000 euro, will aber wie gesagt erst tests abwarten, und boards sehn.
u.a auch abwarten was mit amd dualcore ist.
den immerhin habe ich hoffe ich mal die möglichkeit eine dualcore auf mein bett zu kloppen.
solte diese eine gute reaktion in windows haben, kann es natürlich auch sein das ich auf den A64 bleibe.
da will ich aber erst mal noch 3 bis 4 monate abwarten.
jetzt ein Duacore EE zu kaufen ist nur irre, da man nicht weis was man kauft, und alles viel zu neu ist, und ein beta tester habe ich kein bock drauf, zumindest nicht bei den preis.
Kampfwurst87
2005-04-18, 17:49:28
nur dieser farcry beispiel, ist auch wieder son ding, es gibt kein windows 64 Bit, bitte nicht auf die beta version verweisen ;-)
ich will doch kein test wo alles Beta ist
jo kann ich auch nicht als testplattform zur zeit empfehlen. ich sags so too many bugs.
es soll diesen monat rauskommen, denke mal es wird dann nächsten monat voll verfügbar. aber ich steige dann wohl nicht auf Xp64 sondern eher gleich longhorn.
angeblich soll diesen monat win 64 bit raus kommen, dann hat ubisoft ja die möglichkeit eine farcry 64 bit auf den markt zu werfen, und dann können wir weiter sehn.
jo kann man dann erst sehen. aber einige parts des spieles sind in maschinensprache, dadurch können allerdings keine 30% + erfolgen. sondern nur rein von maschinensprache 10%
Botcruscher
2005-04-18, 17:50:37
OT
Giebts für die DC Prozies schon OC Tests?
onkel2003
2005-04-18, 17:52:33
der name presskopf ist lustig
aber dabei hast du recht, zu viel verlustleistung. aber der winni hats drauf praxis hat der meisst max 40Wn und mit CnQ bei idle grade mal im bereich vom notebook. also silent tauglich. aber selbst mein 4000+ monster habe ich grade bei 18db :biggrin:
winni hin winni her, selbst mein newcastle kann ich mit den zalman und 300 U/Min bändigen.
und es ist sogar noch schön zu zuschauen wie der mit 300 U/Min dreht ;D
aber nicht übertreiben die ersten presskotz, und silent naja, aber jetzt haben sie die temps ganz gut in griff, und silent solte auch jetzt ganz guz möglich sein.
nicht so wie beim A64, aber immerhin.
ShadowXX
2005-04-18, 17:52:40
Man muss nicht immer nur von sich aus ausgehen (und auch nicht immer nur von Windows).
8 GB und 4 Speicherslots ergibt üblicherweise 2 GB pro Modul. Das ist mit üblichen 512 Mbit Chips in 128Mx4 Organisation durchaus drin, auch wenn das Modul dann 32 Chips beherbergen muss. Das ist aber heutzutage technisch kein Problem, selbst bei normaler Bauhöhe (stacked DIMMs).
btw: Werden "x4"-Chips denn vom Chipsatz überhaupt unterstützt? Die i875/865 hatten hierzu ja die Unterstützung verweigert...
Außerdem geht es um die Möglichkeit der Adressierung. Das heisst ja nicht, dass man diese jetzt schon voll ausschöpfen muss. Da hat man für die Zukunft noch schön viel Spielraum zum Aufrüsten :)
Ich würde dir mal empfehlen mehr auf Qualität (sprich: Inhalt) als auf Quanität deiner Beiträge zu setzen. Um es mal sanft auszudrücken: Ich schätze, dass ich nicht der einzige bin, den dein "Post-Verhalten" nachhaltig stört.
Also bei uns in der Firma haben wir einen kleinen Opteron (150iger) auf einem Tyan-Board mit 8GB (sprich 4x2GB) unter Windows XP 64 (die Final, wir sind im MSDN) laufen.
Super Stabil und keine Probs....und als kleines Nachschlagen: Bei unserer SW (also die die wir Programmieren und Verkaufen) ist dieser Opteron (1.8GHz) schneller als ein P4 mit 3GHz.....(22 Stunden vs. 31 Stunden Laufzeit).
SKYNET
2005-04-18, 17:53:45
Naja er hats sichs besorgt und hat sich eine meinung gebildet.Viele sind vom XP auf der A64 umgestiegen und hatte nie ein Intel mit HT deshalb dürften sie sich gar keine Meinung über Intel bilden.Und die Prescott hat man mitlerweile in der 600 serie auf 95watt runter gebracht also nur 6watt mher als ein FX oder clawhammer A64.Unter real bedinungen hat Hardtecs4u sogar nur 77watt gemessen.
die 89W von den AMD's sind die angaben, die das mobo an stromversorgung packen muss, nicht die TDP, die TDP von einem FX55 liegt nämlich WEIT unter 89W.... ungefähr 27W weniger. :P
onkel2003
2005-04-18, 17:54:35
OT
Giebts für die DC Prozies schon OC Tests?
da hat es aber einer eilig ;-)
da wirste dich noch ca ein monat gedulden dürfen, es sei computerbase, erwischt ein schnell ;-)
dell soll sie an 25.4 haben.
Quasar
2005-04-18, 17:54:37
die 89W von den AMD's sind die angaben, die das mobo an stromversorgung packen muss, nicht die TDP, die TDP von einem FX55 liegt nämlich WEIT unter 89W.... ungefähr 27W weniger. :P
Quellennachweis?
Kampfwurst87
2005-04-18, 17:56:52
Giebts für die DC Prozies schon OC Tests?
denke mal dieser wird die gleichen eigenschaften haben als ein vergleichbarer core. aber das die zwei cores unterschiedliche qualitäten haben bzw., OC potenzial könnte die sache erschweren.
nicht so wie beim A64, aber immerhin.
mein vater kühlt seinen A64 2800+ komplett passiv mit einem XP-120 :biggrin:
feel the silence
laut TDP hätte ich jetzt 89W aber dank untervoltung wärens jetzt nur noch 82W
und -27W wären dann 50W :biggrin: bei dieser leistung einfach nur geil
onkel2003
2005-04-18, 17:57:49
die 89W von den AMD's sind die angaben, die das mobo an stromversorgung packen muss, nicht die TDP, die TDP von einem FX55 liegt nämlich WEIT unter 89W.... ungefähr 27W weniger. :P
sag mal bekommste für deine signatur eigentlich kohle ;-)
wenn ja gib mal anmeldeformular :cool:
Kampfwurst87
2005-04-18, 17:58:27
@Quasar
es wurde bei hardtest4u oder einer anderen seite beweise gestellt das der 3500+ unter last max. 40W hat und im idle bei CnQ grade mal 3-10W.
denke mal beim FX-55 sind dann die werte okey die skynet angegeben hat
onkel2003
2005-04-18, 17:59:53
@Quasar
es wurde bei hardtest4u oder einer anderen seite beweise gestellt das der 3500+ unter last max. 40W hat und im idle bei CnQ grade mal 3-10W.
denke mal beim FX-55 sind dann die werte okey die skynet angegeben hat
wieviel soll den der 3500+ newcastle haben ?
Kampfwurst87
2005-04-18, 18:00:57
er soll nur minimal mehr haben, in der spanne von 5-10W
aber 100pro kann ich dir das net sagen. müsste erst nach dem test suchen, was endlos viel zeit verschlingen würde
Quasar
2005-04-18, 18:02:09
@Quasar
es wurde bei hardtest4u oder einer anderen seite beweise gestellt das der 3500+ unter last max. 40W hat und im idle bei CnQ grade mal 3-10W.
denke mal beim FX-55 sind dann die werte okey die skynet angegeben hat
Your guess is as good as mine.
Mit anderen Worten, Skynets TDP ist eine grobe Schätzung quer über Produktionsprozesse, Taktraten und Die-Komplexität hinweg.
dildo4u
2005-04-18, 18:02:52
Warum wird hier eingentlich mein schöner Intel Dual core thread zugespammt?
Botcruscher
2005-04-18, 18:02:56
da hat es aber einer eilig ;-)
da wirste dich noch ca ein monat gedulden dürfen, es sei computerbase, erwischt ein schnell ;-)
dell soll sie an 25.4 haben.
Klar hab ich´s eilig. Das ist doch die wichtigste Frage überhaupt. Was nutzt einem ein mittlerer DC Prozi wenn man ihn nicht auf High End prügeln kann.
denke mal dieser wird die gleichen eigenschaften haben als ein vergleichbarer core. aber das die zwei cores unterschiedliche qualitäten haben bzw., OC potenzial könnte die sache erschweren.
Stöhrgrößen wie das Rauschen auf den Bussystemen oder Spannungsprobleme sollte man bei einer doppelt so hohen Komplexität nicht unterschätzen.
onkel2003
2005-04-18, 18:03:32
er soll nur minimal mehr haben, in der spanne von 5-10W
aber 100pro kann ich dir das net sagen. müsste erst nach dem test suchen, was endlos viel zeit verschlingen würde
würde bedeuten irgend wo an 60 bis 70 Watt in last.
weil ich habe ein stromzähler an PC.
in IDLE habe ich 120 watt mit TFT, in last habe ich 195.
also 75 zieht da die cpu min schon mal, + das was sie in C%Q zieht.
also müsste meine eigentlich in last deutlich mehr als 70 watt zieht.
onkel2003
2005-04-18, 18:04:56
Warum wird hier eingentlich mein schöner Intel Dual core thread zugespammt?
wir warten geduldig, bis sie zu kaufen ist, und bis dahin halten wir den thread immer schön oben, damit jeder weis wann es soweit ist. ;-)
onkel2003
2005-04-18, 18:06:02
Klar hab ich´s eilig. Das ist doch die wichtigste Frage überhaupt. Was nutzt einem ein mittlerer DC Prozi wenn man ihn nicht auf High End prügeln kann.
Stöhrgrößen wie das Rauschen auf den Bussystemen oder Spannungsprobleme sollte man bei einer doppelt so hohen Komplexität nicht unterschätzen.
aufgrund der 2 core denke ich mal, kann man nicht davon ausgehn, das man sie so hoch ziehn kann wie die singlecore cpus, aber wie immer ist da eine menge glück mit in spiel.
dildo4u
2005-04-18, 18:06:57
wir warten geduldig, bis sie zu kaufen ist, und bis dahin halten wir den thread immer schön oben, damit jeder weis wann es soweit ist. ;-)
Jo aber Watt angaben von Winne Pou Prozzis interresieren im Intel Thread nich ;-)
onkel2003
2005-04-18, 18:07:46
Jo aber Watt angaben von Winne Pou Prozzis interresieren im Intel Thread nich ;-)
:cool: oki
gut das ich kein Winne Pou Prozzis habe ;-)
Ronny145
2005-04-18, 18:23:28
würde bedeuten irgend wo an 60 bis 70 Watt in last.
weil ich habe ein stromzähler an PC.
in IDLE habe ich 120 watt mit TFT, in last habe ich 195.
also 75 zieht da die cpu min schon mal, + das was sie in C%Q zieht.
also müsste meine eigentlich in last deutlich mehr als 70 watt zieht.
Wie meinst du das mit "+das was sie in C%Q zieht?"
Ein Newcastle verbaucht gute 25 Watt unter Last mehr als ein Winchester. So 65 Watt bei deinem 3500+ verbraucht der bestimmt.
Kampfwurst87
2005-04-18, 18:24:06
er kann zwar immer noch 70W aus der steckdose ziehen, aber die verlustleistung die sich als hitze wieder gibts kann vermindert werden bzw, man kann die lüfter runterdrehen weils nicht mehr bnötigt wird.
Warum wird hier eingentlich mein schöner Intel Dual core thread zugespammt?
sorry wenns so ist, aber was ist ein forum ohne endlose diskusion :rolleyes:
onkel2003
2005-04-18, 18:46:53
Wie meinst du das mit "+das was sie in C%Q zieht?"
Ein Newcastle verbaucht gute 25 Watt unter Last mehr als ein Winchester. So 65 Watt bei deinem 3500+ verbraucht der bestimmt.
ich kann ja mit mein wattzähler nicht erkennen was meine cpu zieht, sondern nur was das ganze sys zieht.
habe ich in idle 120 watt dann zieht die cpu ja schon was, frage ist wieviel,
so von idle nis last sind es 75 watt mehr, also zumindest die 75 watt kann ich erst mal die cpu aufbrummen, ok noch ein wenig board, ram, aber dies wird denke ich mal das wenigste sein.
also zu den 75 watt kommt also noch zu was zieht die cpu in C&Q ?.
onkel2003
2005-04-18, 18:53:21
achso THG hat den Pentium D 3,2 Ghz Dualcore bis auf 4 Ghz mit Wasserkühlung übertaktet, bis 3,8 soll es mit luftkühlung möglich sein.
http://www.de.tomshardware.com/cpu/20050404/intel_dual_core-07.html
Ronny145
2005-04-18, 18:56:22
ich kann ja mit mein wattzähler nicht erkennen was meine cpu zieht, sondern nur was das ganze sys zieht.
habe ich in idle 120 watt dann zieht die cpu ja schon was, frage ist wieviel,
so von idle nis last sind es 75 watt mehr, also zumindest die 75 watt kann ich erst mal die cpu aufbrummen, ok noch ein wenig board, ram, aber dies wird denke ich mal das wenigste sein.
also zu den 75 watt kommt also noch zu was zieht die cpu in C&Q ?.
Im Idle zieht dein Newcastle mit C+Q um die 20 Watt.
onkel2003
2005-04-18, 19:04:40
Im Idle zieht dein Newcastle mit C+Q um die 20 Watt.
das würde ja bedeuten das der newcastle in last alleine ca 90 watt zieht ;D
rest hardware ca 110 watt. incl TFT
Ronny145
2005-04-18, 19:06:14
das würde ja bedeuten das der newcastle in last alleine ca 90 watt zieht ;D
rest hardware ca 110 watt. incl TFT
Nein, der zieht keine 90 Watt. Hast du denn C+Q aktiviert?
onkel2003
2005-04-18, 19:09:02
Nein, der zieht keine 90 Watt. Hast du denn C+Q aktiviert?
ja, und auch nix übertaktet, ich meine aber ca 90 watt, da ja mein wattzähler auch nicht 100 % genau ist, und das NT, ja auch noch was brauch.
Ronny145
2005-04-18, 19:10:11
ja, und auch nix übertaktet, ich meine aber ca 90 watt, da ja mein wattzähler auch nicht 100 % genau ist, und das NT, ja auch noch was brauch.
Also wie ist dein Verbrauch im Idle und unter Last mit dem TFT?
SKYNET
2005-04-18, 19:47:05
Quellennachweis?
dresden.
Quasar
2005-04-18, 19:48:27
dresden.
Also reines Fischen im Trüben.
SKYNET
2005-04-18, 19:49:32
Also reine Fischen im Trüben.
nö, AMD mitarbeiter aus dem testlabor.. der junge darf sogar schon mit dem K9 "spielen". X-D
Your guess is as good as mine.
Mit anderen Worten, Skynets TDP ist eine grobe Schätzung quer über Produktionsprozesse, Taktraten und Die-Komplexität hinweg.
ungefähr so geschätzt wie, die 31.6W vonnem 3500+ winchester unter last. :P
Quasar
2005-04-18, 20:05:21
Natürlich. X-D
edit:
Falls das zu "undeutlich" war: EOD für mich, bis du eine nachvollziehbare Quelle genannt hast. Das haben Quellen so an sich - Nachprüfbarkeit herzustellen. ;)
onkel2003
2005-04-18, 20:13:30
Also wie ist dein Verbrauch im Idle und unter Last mit dem TFT?
idle ( C&Q ) mit TFT 120 Watt, in Last mit Prime95 195 watt.
in last mit prime95, und 3dmark01 225 watt.
extrem
dvd1 kopiert auf hdd1
dvd2 kopiert auf hdd2
prime95 cpu test prime95 ram test, und 3dmark01
alles zusammen mit tft 245 watt.
nichts übertaktet
reunion
2005-04-18, 20:17:47
idle ( C&Q ) mit TFT 120 Watt, in Last mit Prime95 195 watt.
Ich hoffe dir ist klar, dass du den Differenzbetrag nicht ausschließlich auf die CPU schieben kannst.
reunion
2005-04-18, 20:21:03
Intel hat heute eine dualcore auf den markt geworfen,
Wo ist AMD seine ?
Als erster vorzustellen ist keine Kunst, die Frage ist wer zuerst liefern kann.
reunion
2005-04-18, 20:25:40
denke nicht, ein zeichen dafür das grade erst mal wieder Dell AMD nen arschtritt gegeben hat.
Intel währe nicht so erfolgreich, wenn sie ja angeblich nur scheisse bauen.
Zwei Gründe:
-Nur Intel kann ausreichende Stückzahlen liefern.
-Ist es nichts neues, dass Intel für die OEM Partner kräftig den Preis drückt.
onkel2003
2005-04-18, 20:29:42
Als erster vorzustellen ist keine Kunst, die Frage ist wer zuerst liefern kann.
sie liefern schon aus. dell und alienware werben schon damit und bei alienware bekommste ein system ab den 25.4.05
onkel2003
2005-04-18, 20:31:45
Zwei Gründe:
-Nur Intel kann ausreichende Stückzahlen liefern.
-Ist es nichts neues, dass Intel für die OEM Partner kräftig den Preis drückt.
zu 1. glaube ich kaum, siehe wieviel oem rechner mit amd kommen, also stückzahl muss da sein.
zu 2. natürlich um so mehr man kauft um so billiger, ist aber nicht seit gestern so.
onkel2003
2005-04-18, 20:33:40
Ich hoffe dir ist klar, dass du den Differenzbetrag nicht ausschließlich auf die CPU schieben kannst.
ja sagte ich ja auch schon, aber das ist minimal.
SKYNET
2005-04-18, 20:34:10
Natürlich. X-D
edit:
Falls das zu "undeutlich" war: EOD für mich, bis du eine nachvollziehbare Quelle genannt hast. Das haben Quellen so an sich - Nachprüfbarkeit herzustellen. ;)
genau, am besten noch mit namen und telefonnummer, damit der gute gleich zum spargelpflücken gehn kann. X-D
Kampfwurst87
2005-04-18, 20:35:37
ich kenne auch einen mitarbeiter von AMD und der sagt auch max 35W bei winni 35+
Botcruscher
2005-04-18, 20:39:44
ja sagte ich ja auch schon, aber das ist minimal.
Einen Großteil macht die Grafikkarte aus, da ist nichts mit minimal.
Von 190 Watt bleiben noch 75% - rund 35 Watt TFT übrig. (155 Rechner)
Das sind noch 115 Watt für alles. Wenn man für die Graka nur 50 rechnet, bleibt für die CPU und den Rest nicht viel.
Ronny145
2005-04-18, 21:02:06
Einen Großteil macht die Grafikkarte aus, da ist nichts mit minimal.
Von 190 Watt bleiben noch 75% - rund 35 Watt TFT übrig. (155 Rechner)
Das sind noch 115 Watt für alles. Wenn man für die Graka nur 50 rechnet, bleibt für die CPU und den Rest nicht viel.
Das stimmt. Noch dazu ein bisschen für die HDD, RAM, Mainboard. Da bleibt nicht mehr so viel übrig.
Quasar
2005-04-18, 21:11:24
ich kenne auch einen mitarbeiter von AMD und der sagt auch max 35W bei winni 35+
Prima, zusammen mit den Praxiswerten, die selbstverständlich nicht den Worst-Case repräsentieren, haben wir dann ja drei verschiedene Angaben für nur eine CPU. :|
onkel2003
2005-04-18, 21:20:55
sorry 195 watt ist nicht max wert
mit
dvd1 kopiert daten auf hdd1
dvd2 kopiert daten auf hdd2
prime95 cpu / prime95 ram und 3dmark01
habe ich gesammt mit tft 245 watt
der tft zieht 22 Watt von On auf standby.
bleiben also 223 watt für das sys über.
in last.
onkel2003
2005-04-18, 21:26:18
Einen Großteil macht die Grafikkarte aus, da ist nichts mit minimal.
Von 190 Watt bleiben noch 75% - rund 35 Watt TFT übrig. (155 Rechner)
Das sind noch 115 Watt für alles. Wenn man für die Graka nur 50 rechnet, bleibt für die CPU und den Rest nicht viel.
wieso grafikkarte ?, wenn ich das system mit prime in last bringe und ich 75 watt mehr angezeigt bekomme, was soll das den jetzt mit der graka zu tun haben ;-)
beispiel 3dmark01 sind es dann 225 watt, und da ist die graka mit drin.
aber nicht bei den 195 watt.
die 75 watt ergeben sich fast nur aus der cpu, und noch ein teil der durch die last von board,ram verbraten wird, und jetzt kann man noch abrechnen was das nt schluckt, das war es dann aber auch schon.
Ronny145
2005-04-18, 21:59:35
sorry 195 watt ist nicht max wert
mit
dvd1 kopiert daten auf hdd1
dvd2 kopiert daten auf hdd2
prime95 cpu / prime95 ram und 3dmark01
habe ich gesammt mit tft 245 watt
der tft zieht 22 Watt von On auf standby.
bleiben also 223 watt für das sys über.
in last.
120 Watt im Idle und 245 Watt unter Volllast. 225 Watt waren das mit prime95 und 3dmark01?
Das ist realistischer. Denn bei den 245 Watt verbrauchen die 4 Laufwerke mehr. Von den 225 Watt das TFT abgezogen, wären wir bei 200 Watt. Die Grafikkarte macht unter Last auch etwa 50 Watt. Dann noch deine beiden Festplatten, Lüfter, der Ram und das Mainboard. Noch was vergessen? Soundkarte vielleicht. Dann das Netzteil, der Wirkungsgrad. Dein Zähler wird auch nicht so genau gehen. Wenn du noch ein Soundsystem, Drucker etc. im Standby hattest, die verbrauchen auch ein paar Watt. Da wären wir schnell bei den 65 Watt. Das sagen auch diverse Tests. Da liegt so ein Newcastle bei 65 Watt. Eine sehr grobe Rechnung :biggrin:
BlackBirdSR
2005-04-19, 10:54:19
Schaut mal.
Vielleicht interessiert es jemanden:
http://www.vr-zone.com/?i=2028
One pretty interesting piece of information emerged from the R&D labs is that the 875P/865 chipsets can support Intel dual-core processors with just a BIOS flash. It has been tested and running well so far as we have learned. However, 925/915 series may poise a problem and a circuitry re-wiring on the PCB might be needed to support dual-core.
Botcruscher
2005-04-19, 11:05:39
Schaut mal.
Vielleicht interessiert es jemanden:
http://www.vr-zone.com/?i=2028
Rein zufällig!? :confused:
Scose
2005-04-19, 11:39:28
Schaut mal.
Vielleicht interessiert es jemanden:
http://www.vr-zone.com/?i=2028
Interessiert mich sogar sehr, doch die werden wohl kaum ebenfalls für Sockel 478 ausgeliefert oder?
Ansonsten wohl nur via Adapter wovon ich weniger begeister wäre.
Falls ja bin ich potentieller Käufer.
Aber irgendwie würde so auch die Geschichte mit dem Adapter von Asus und den zahlreichen Bios` viel mehr Sinn machen als nur den Betrieb der 600er Serie auf 865/875 zu ermöglichen.
GloomY
2005-04-19, 15:42:16
Noch mal ein paar Fakten zur TDP-Diskussion auf Seite 4/5:
Ich muß aber aus der Praxis anmerken, daß die unabhängige Messungen teilweise deutlich unterhalb der Intel-Angaben lagen.
Intel scheint schon ein relatives WorstCase-Szenario zusammenzubasteln und dann zur Sicherheit noch ein paar Watt draufzulegen. Denn auch bei Intel gehen diese Angaben immer mehr in die Richtung, Maßgabe für Dritthersteller zu sein und weniger eine exakte Angabe der Verlustleistung eines einzelnen Prozessors. Siehe auch PD 820/830, welche mit der identischen Verlustleistung (95W) angegeben wurden. In der Realität wird diese natürlich unterschiedlich sein.Test bei HT4U (http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/index7.php).
Die Messungen der Intel-Prozessoren liegen deutlich unter der TDP Angabe. :)
Erstaunlich ist für mich aber v.A. die 40W des 2,2 GHz A64 3500+ unter Vollast. Wahnsinn :)
StefanV
2005-04-19, 15:59:06
Interessiert mich sogar sehr, doch die werden wohl kaum ebenfalls für Sockel 478 ausgeliefert oder?
Nein, denn sonst würds ein paar unschöne braune Löcher im Sockel geben ;)
DrumDub
2005-04-19, 16:03:15
Erstaunlich ist für mich aber v.A. die 40W des 2,2 GHz A64 3500+ unter Vollast. Wahnsinn :) 38,6w :D
Kampfwurst87
2005-04-19, 17:35:29
daran kommt zur zeit kein intel ran, siehe hier http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/
drumdub gibts auch werte für einen 4000+ clawhammer?
hat sich grade erledigt
56,8W sind es troz imenser leistung
und er ist mit 17,4W sparsamer als ein 3800+ wie praktisch
reunion
2005-04-19, 17:42:05
Noch mal ein paar Fakten zur TDP-Diskussion auf Seite 4/5:
Test bei HT4U (http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/index7.php).
Die Messungen der Intel-Prozessoren liegen deutlich unter der TDP Angabe. :)
Erstaunlich ist für mich aber v.A. die 40W des 2,2 GHz A64 3500+ unter Vollast. Wahnsinn :)
"Bei den Lastwerten wurde jeweils der durch das Messinstrument ausgeworfene Spitzenwert beim Stromfluss und der Mindestwert bei der Prozessorspannung notiert. Bei den Idle-Messungen wurde in beiden Fällen der Spitzenwert notiert."
http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/index3.php
Ich bin ja kein Experte auf dem Gebiet, aber sollte man wenn man die max. Leistungsaufnahme messen will, nicht auch die max. Spannung verwenden?
Kampfwurst87
2005-04-19, 17:46:49
eigentlich schon, weil wenn sich der Vcore verdoppelt, vervierfacht sich die verlustleistung. um mal gleich ein Bsp einzuwerfen
GloomY
2005-04-19, 17:48:19
"Bei den Lastwerten wurde jeweils der durch das Messinstrument ausgeworfene Spitzenwert beim Stromfluss und der Mindestwert bei der Prozessorspannung notiert. Bei den Idle-Messungen wurde in beiden Fällen der Spitzenwert notiert."
http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/index3.php
Ich bin ja kein Experte auf dem Gebiet, aber sollte man wenn man die max. Leistungsaufnahme messen will, nicht auch die max. Spannung verwenden?So weit ich den Artikel verstanden habe, ist die Spannung lastabhängig, wobei diese im Idle auf "Normalniveau" liegt und bei Last absinkt (also z.B. um ~0,1V). D.h. man muss zur Berechnung der Verlustleistung im Idle-Betrieb den hohen Spannungswert und bei Last den niedrigen Spannungswert nehmen.
Insofern erscheint die Rechnung sinnvoll, auch wenn ich die Tatsache mit der Spannungsabsenkung nicht ganz verstehe (verstehen kann). Ich habe mir aber mal das dort empfohlene Buch in der Uni-Bib bestellt (dauert leider noch 2 Wochen), vielleicht kann ich dann mehr dazu sagen :)
38,6w :DJaja ;)
Ich wollte ja erst 38 W schreiben, aber dann wäre sicher jemand gekommen und hätte sich beschwert, dass ich 'was unterschlagen würde. Dann lieber in die andere Richtung aufrunden.
40W unter Vollast sind imho immer noch beeindruckend =)
Kampfwurst87
2005-04-19, 17:51:39
wird wohl so sein das man bei windows nicht ganz so viel saft auf die cpu geben muss, aus stabilitätsgründen und sicherlich ist dabei auch stromsparen drine auch wenns 0,01% weniger bei der stromrechnung ist :biggrin: bei last ist es besser wenn man ganz leicht erhöht grund wieder stabilität
@gloomy
und beim 3500+ winni sinds mit QnQ grade mal 5,5W
dann hat der S754 2800+ wohl um die 4-5W
GloomY
2005-04-19, 17:58:56
wird wohl so sein das man bei windows nicht ganz so viel saft auf die cpu geben muss, aus stabilitätsgründen und sicherlich ist dabei auch stromsparen drine auch wenns 0,01% weniger bei der stromrechnung ist :biggrin: bei last ist es besser wenn man ganz leicht erhöht grund wieder stabilitätEy Alder, kannst du nicht einfach mal still sein, wenn du nichts (gescheites) zum Thema beizutragen hast? :mad: Das wär' ja nicht der erst Thread, der von dir vollgesapmmt wird.
Inhaltlich ist das alles BS:
- Erstens hat das mit Windows rein gar nichts zu tun. Oder glaubst du, dass die Stromversorgung sich unter FreeBSD ändert? Ich zumindest nicht.
- Zweitens ist Stromsparen kein Thema, weil es hier um eine Eigenschaft der elektrischen Spannungsversorgung geht, also wie gut der Prozessor mit Strom versorgt werden kann (Laständerung usw.).
- Drittens hast du es nicht verstanden: Unter Last sinkt die Spannung anstelle dass diese erhöht wird - so wie du schreibst.
Kampfwurst87
2005-04-19, 18:03:21
Ey Alder, kannst du nicht einfach mal still sein, wenn du nichts (gescheites) zum Thema beizutragen hast? Das wär' ja nicht der erst Thread, der von dir vollgesapmmt wird.
mach mich mal nicht so dumm von der seite an, das geht auch besser :P
- Erstens hat das mit Windows rein gar nichts zu tun. Oder glaubst du, dass die Stromversorgung sich unter FreeBSD ändert? Ich zumindest nicht.
hab ich nicht gesagt
- Zweitens ist Stromsparen kein Thema, weil es hier um eine Eigenschaft der elektrischen Spannungsversorgung geht. Hier geht's darum, wie gut der Prozessor mit Strom versorgt werden kann.
kann ich aber nicht bestärken, bei mir steigts an statt zu sinken. und bei idle sinkt es. ich weiß ja nicht wie es bei dir ist.
GloomY
2005-04-19, 18:10:21
mach mich mal nicht so dumm von der seite an, das geht auch besser :P Gut, dann mal mit Fakten: 53 Beiträge pro Tag sind definitiv Spam. :down: Das schafft nicht mal annähernd ein Stefan Payne.
hab ich nicht gesagtAch nein? Da hab' ich aber 'was anderes in Erinnerung:wird wohl so sein das man bei windows nicht ganz so viel saft auf die cpu geben muss [...]Warum streitest du sowas noch ab, wo doch die Tatsachen offensichtlich sind?! :mad:
kann ich aber nicht bestärken, bei mir steigts an statt zu sinken. und bei idle sinkt es. ich weiß ja nicht wie es bei dir ist.Die Erklärung steht im HT4U Artikel. Intel benutzt zur Stromversorgung eine Schaltung, die eben genau die Eigenschaft besitzt, dass die Spannung unter Last abnimmt.
Bei mir habe ich es noch nicht gemessen. Ich würde es auch nicht machen, ganz einfach weil mir das Equipment dazu fehlt. Es geht hier schliesslich um Spannungsschwankungen von bis zu 10^-3 V, die gemessen werden müssen. Ein Messgerät, welches die dafür entsprechende Genauigkeit plus Eichung bietet, kostet ein Vermögen. Und ich bezweifle auch mal, dass du mit solch einem genauen Gerät bei dir nachgemessen hast...
Kampfwurst87
2005-04-19, 18:16:13
Ach nein? Da hab' ich aber 'was anderes in Erinnerung:
wenn ich mal gesagt habe unter windows habe ich xyz, dann meine ich wenn ich keine 3d app. laufen habe. die temp wäre die gleiche bei allen OS. wenn die CPU last gleich ist.
Warum streitest du sowas noch ab, wo doch die Tatsachen offensichtlich sind?!
wenn ich per cpu-z ausese bei idle 1.5Vcore wenn ich superpi 1M laufen lasse habe ich gut 1.52Vcore (standard)
also kann ich bei mir sagen das die spannung steigt und auch nicht sinkt. dazu brauche ich auch keine messgeräte sondenr nur tools zum auslesen
GloomY
2005-04-19, 18:25:00
wenn ich mal gesagt habe unter windows habe ich xyz, dann meine ich [...]Dann drück' dich klarer aus.
wenn ich per cpu-z ausese bei idle 1.5Vcore wenn ich superpi 1M laufen lasse habe ich gut 1.52Vcore (standard)
also kann ich bei mir sagen das die spannung steigt und auch nicht sinkt. dazu brauche ich auch keine messgeräte sondenr nur tools zum auslesenLol - Und wie groß ist dein Messfehler? Schon mal darüber nachgedacht? Ist die Messeinrichtung (meistens ein Chip auf dem Mainboard) auch richtig geieicht? Glaubst du, dass dir das Auslesen per Software reicht, um eine Spannungsänderung von 10^-3 Volt festzustellen, wenn dir CPU-Z nur zwei Stellen hinter dem Komma liefert?
Jedem Physiker sträuben sich die Haare, wenn er sowas ließt...
Kampfwurst87
2005-04-19, 18:28:45
die messgrößen sind aber nicht 10^-3 sondern eher 10^-2
klar ist ein arschteures gerät dafür besser. aber im idle habe ich weniger als bei last, deswegen kann ich bei der einen sache nicht grade zustimmen
GloomY
2005-04-19, 18:33:41
die messgrößen sind aber nicht 10^-3 sondern eher 10^-2Warum gibt Intel diese Größen dann mit drei Stellen Genauigkeit an?
http://www.hardtecs4u.com/images/reviews/2005/leistungsmessung_intel/loadline_bcpu.png
klar ist ein arschteures gerät dafür besser. aber im idle habe ich weniger als bei last, deswegen kann ich bei der einen sache nicht grade zustimmenWahrscheinlich hast du sogar im Idle weniger Spannung. Das kannst du aber aus den Daten von CPU-Z nicht herleiten, weil diese viel zu ungenau sind.
Und selbst wenn es stimmt, bleibt immer noch dei Frage, ob das bei den Intel Boards genauso ist...
starfish
2005-04-19, 19:43:56
Ich will an dieser Stelle mal fragen, ob die Chance besteht, dass die Dual Core Cpus in absehbarer Zeit auch im Mobilen Markt zu finden sein werden?
Ich hätte mir nämlich gerne ca. im September ein Notebook gekauft und möchte gerne einen Dual Core benutzen.
dirk.loesche
2005-04-19, 19:59:15
Ich will an dieser Stelle mal fragen, ob die Chance besteht, dass die Dual Core Cpus in absehbarer Zeit auch im Mobilen Markt zu finden sein werden?
Ich hätte mir nämlich gerne ca. im September ein Notebook gekauft und möchte gerne einen Dual Core benutzen.
Wird es bestimmt geben in Desktop-Replacement Geräten. Aber ob die damit Mobil bist...
An Kampfwurst und Onkel:
Wie kann man sich nur so gegenseitig auf den Keks gehen. :D
Oder macht ihr das nur aus langerweile? ;D
starfish
2005-04-19, 20:06:33
Wird es bestimmt geben in Desktop-Replacement Geräten. Aber ob die damit Mobil bist...
Das ist mir eigentlich herzlichst egal, weil man mit einer 6800er sowieso nicht sonderlich mobil ist.
Aber in die Glaskugel kann niemand schauen um mir zu sagen, ob ich im September einen Laptop damit finden könnte?
So weit ich den Artikel verstanden habe, ist die Spannung lastabhängig, wobei diese im Idle auf "Normalniveau" liegt und bei Last absinkt (also z.B. um ~0,1V). D.h. man muss zur Berechnung der Verlustleistung im Idle-Betrieb den hohen Spannungswert und bei Last den niedrigen Spannungswert nehmen.
durch den innenwiderstand den jede spannungsquelle besitzt muss die spannung unter last etwas absinken. eine geregelte spannungsquelle kann das in einem gewissen rahmen natürlich ausgleichen, aber nicht unbedingt ganz.
man kann das auch sehr einfach selbst testen. einfach die spannung einer taschenlampenbatterie mit ein- und ausgeschalteter lampe messen. das gleiche passiert bei der spannungsversorgung eines mainboards, natürlich im wesentlich kleineren rahmen.
onkel2003
2005-04-19, 20:07:42
Wird es bestimmt geben in Desktop-Replacement Geräten. Aber ob die damit Mobil bist...
An Kampfwurst und Onkel:
Wie kann man sich nur so gegenseitig auf den Keks gehen. :D
Oder macht ihr das nur aus langerweile? ;D
Kampfwurst87 hat sich schon ein neuen gegner gesucht, ich habe keine lust mehr, der prallt mir zu sehr mit sein 4000+ herum.
VooDoo7mx
2005-04-19, 21:13:33
Ich will an dieser Stelle mal fragen, ob die Chance besteht, dass die Dual Core Cpus in absehbarer Zeit auch im Mobilen Markt zu finden sein werden?
Ich hätte mir nämlich gerne ca. im September ein Notebook gekauft und möchte gerne einen Dual Core benutzen.
Ende 2005/ Anfang 2006 launcht Intel die 3. Centrino Generation mit dem Platformnamen "Napa".
Diese bietet einen neuen CPU "Yonah" samt Chipsatz "Callistoga".
Der Yonah wird mehr oder weniger ein Dual Core Pentium M mit FSB 667, verbesserten Data Prefetch und ner stärkeren FPU Einheit(en).
Da der Turion 64 nur ein speziell selektierter Athlon64 mit neuen Marketingnamen ist, wird es auch im nächsten Jahr einen Turion 64 X2 geben.
Solche CPUs sind auch schon auf den Roadmaps beider Hersteller verzeichnet.
Und zumindestens von Intel wirds wieder Varianten angefangen vom kleinsten unter 1kg 10" Notebook bis hin zum 17" Desktop Replacement geben.
@dirk.loesche
Du hast ziemlich viel falsches erzählt. :rolleyes:
starfish
2005-04-19, 21:32:34
über pentium d bzw. athlon 64 x2 ist ncoh nichts in notebooks bekannt?
also nicht die mobilen variaten.
VooDoo7mx
2005-04-19, 21:56:15
Schon mal darüber nachgedacht für was das D eim Pentium D und das M beim Pentium M steht?
Ich verrats dir!
Für
Desktop
und Mobile
Wozu bitteschön nen Pentium D im Notebook? Nen 2,17GHz Yonah Dual Core Pentium M dürfte es leistungstechnisch spielend einen 3,4GHz Presler Dual Core Pentium D in den Boden stampfen.
Intel will mit dem Pentium D noch deutlicher Desktop von Mobil-Prozessoren trennen. Der P4 Mobile wurde ja nicht umsonst eingestampft.
"Centrino" hat sich schon so sehr ins Hirn gebrannt, dass der Kunde gar nicht auf die Idee kommen könnte einen Pentium D im Notebook zu verlangen.
starfish
2005-04-19, 22:03:12
Meines Wissens nach steht D für Dual Core und nicht für Desktop.
Ein Pentium D daher in einem Notebook, weil es als Desktopreplacement gedacht ist.
Und Centrino hat sich keineswegs schon so eingebrannt, warum bekommt man den sonst in eben diesen Desktopreplacements auch immer einen P-4?
Super Grobi
2005-04-19, 22:10:20
Hallo,
bitte bitte nicht schlagen!!! Ich mag jetzt nicht alle 9347590375 Posts lesen. Bis ich die alle durch habe, hat Itel den Quad-P5 drausen.
Wann werde ich das Teil kaufen können? Ungefähr und schätzungsweisen, logisch... kann keiner hellsehen.
Was wird mich so ein Teil kosten? Was wird so ein Mobo kosten?
Gruss und dank
SG
onkel2003
2005-04-19, 22:11:43
Meines Wissens nach steht D für Dual Core und nicht für Desktop.
Ein Pentium D daher in einem Notebook, weil es als Desktopreplacement gedacht ist.
Und Centrino hat sich keineswegs schon so eingebrannt, warum bekommt man den sonst in eben diesen Desktopreplacements auch immer einen P-4?
Jo Pentium D steht für dualcore.
VooDoo7mx
2005-04-19, 22:23:43
Meines Wissens nach steht D für Dual Core und nicht für Desktop.
Ein Pentium D daher in einem Notebook, weil es als Desktopreplacement gedacht ist.
Und Centrino hat sich keineswegs schon so eingebrannt, warum bekommt man den sonst in eben diesen Desktopreplacements auch immer einen P-4?
Schon mal was vom Celeron D gehört, den es schon seit einem Jahr gibt?
Mit Dual Core, hat dieser verkrüppelte Prescott nichts am Hut.
Wenn D für Dual Core steht, für was steht dann das M? Für Mingle Core? Für Millenium Falcon? Oder vielleicht doch noch die Versteckten Initialen von Gordon Moore. Dessen Nachname fängt ja auch schließlich mit einen "M" an.
Es gibt keine wirklichen Desktop Replacements mehr. Alle Hersteller setzen bei ihren 2000+€ Notebooks mitlerweile auf den Pentium M mit mehr als 2GHz.
Nur bei Dell und HP hab ich noch vereinzelt nen paar Low-Cost Modelle mit P4 Mobile gesehen.
Selbst die Aldi, Lidl und die Blödmarkt Werbenotebooks sind ausschließlich mit "Centrino" ausgestattet.
Der Markt akzeptiert eigentlich kaum noch anders und die netten Mitarbeiter von den Elektronikfachmärkten werden auch dementsprechend geschult.
onkel2003
2005-04-19, 22:27:34
Schon mal was vom Celeron D gehört, den es schon seit einem Jahr gibt?
Mit Dual Core, hat dieser verkrüppelte Prescott nichts am Hut.
Wenn D für Dual Core steht, für was steht dann das M? Für Mingle Core? Für Millenium Falcon? Oder vielleicht doch noch die Versteckten Initialen von Gordon Moore. Dessen Nachname fängt ja auch schließlich mit einen "M" an.
Es gibt keine wirklichen Desktop Replacements mehr. Alle Hersteller setzen bei ihren 2000+€ Notebooks mitlerweile auf den Pentium M mit mehr als 2GHz.
Nur bei Dell und HP hab ich noch vereinzelt nen paar Low-Cost Modelle mit P4 Mobile gesehen.
Selbst die Aldi, Lidl und die Blödmarkt Werbenotebooks sind ausschließlich mit "Centrino" ausgestattet.
Der Markt akzeptiert eigentlich kaum noch anders und die netten Mitarbeiter von den Elektronikfachmärkten werden auch dementsprechend geschult.
der Celeron D kommt erst mitte des jahres raus, und wird auch eine dualcore sein.
soweit mich da jetzt nicht alles täuscht.
onkel2003
2005-04-19, 22:29:59
nun ja es gibt doch ne Celeron D mit Prescott-Core
aber auf computerbase ist ein bericht wonach das D jetzt für dualcore steht, nun ja vieleicht hat intel ja den überblich verloren ;-)
VooDoo7mx
2005-04-19, 22:38:21
Hallo,
bitte bitte nicht schlagen!!! Ich mag jetzt nicht alle 9347590375 Posts lesen. Bis ich die alle durch habe, hat Itel den Quad-P5 drausen.
Wann werde ich das Teil kaufen können? Ungefähr und schätzungsweisen, logisch... kann keiner hellsehen.
Was wird mich so ein Teil kosten? Was wird so ein Mobo kosten?
Gruss und dank
SG
Es wurde erst einmal nur der 999$ Pentium Extreme Edition 840 mitsamt dem i955X High-End Chipsatz vorgestellt.
Vom Pentium D und dem i945P/G keine Spur.
Selbst auf der Intel Homepage fehlt vom Pentium D jegliche Spur.
Und selbst den Pentium Extreme Edition wird es vorerst nur in Komplettsystemen geben.
Aber das kannst du sogar auf der 3D Center Startseite in den aktuellen News groß und breit nachlesen.
Also wann gibts den Pentium D zu kaufen? Frühstens in 1-2 Monaten.
Und ich glaube da bin isch schon viel zu optimistisch.
Einführungspreis:
Pentium D 820 2,8GHz 240$
Pentium D 830 3,0GHz 314$
Pentium D 840 3,2GHz 528$
Pentium Extreme Edition 840 3,2GHz 999$
Sind OEM Preise bei der Abnahme von 1000Stück.
i945 Boards werden sicher so 100€-130€ kosten, 955er Platinen mindestens 150€.
nun ja es gibt doch ne Celeron D mit Prescott-Core
aber auf computerbase ist ein bericht wonach das D jetzt für dualcore steht, nun ja vieleicht hat intel ja den überblich verloren ;-)
Ja und den gibts schon ne Ewigkeit. Der startet mit 2,26GHz.
Intel hat nicht den Überblick verloren, sondern der Computerbase Redakteur.
das "D" steht nicht für Dual Core
onkel2003
2005-04-19, 22:45:49
Es wurde erst einmal nur der 999$ Pentium Extreme Edition 840 mitsamt dem i955X High-End Chipsatz vorgestellt.
Vom Pentium D und dem i945P/G keine Spur.
Selbst auf der Intel Homepage fehlt vom Pentium D jegliche Spur.
Und selbst den Pentium Extreme Edition wird es vorerst nur in Komplettsystemen geben.
Aber das kannst du sogar auf der 3D Center Startseite in den aktuellen News groß und breit nachlesen.
Also wann gibts den Pentium D zu kaufen? Frühstens in 1-2 Monaten.
Und ich glaube da bin isch schon viel zu optimistisch.
Einführungspreis:
Pentium D 820 2,8GHz 240$
Pentium D 830 3,0GHz 314$
Pentium D 840 3,2GHz 528$
Pentium Extreme Edition 840 3,2GHz 999$
Sind OEM Preise bei der Abnahme von 1000Stück.
kann ich mir nicht vorstellen das der EE dualcore erst mal nur in Komplettsystemen kommen soll.
mal ganz erlich wer kauft den EE dualcore, das sind verrückte, und wer dieser verrückten kauft ein Komplettsystemen wie alienware oder bei Dell.
also wird dies wirklich sein das die EE dualcore nur in Komplettsystemen erst mal kommen wird, dann geh mal von aus das die auf ihren cpus sitzen bleiben.
und ich glaube auch kaum das die abnahme von 1000 stück, auch auf die EE CPUs gilt.
wer kauft 1000 EE´s ;-)
Super Grobi
2005-04-19, 22:47:15
Dann danke ich für die Info!
Ich frag deshalb weil ich gerne mal wieder einen Intel testen würde und ich mit dem Gedanken spiele mir einen 600er @ 4ghz zu kaufen. Das wäre ja dämlich wenn es diese Teile schon bald zu kaufen gibt. Dann guck ich mal was ich mache...
Gruss
SG
p.s.
das mit dem Celi D hab ich aber auch schon gelesen und das stand sogar auf den Aldi-PC-Karton druff!!!
VooDoo7mx
2005-04-19, 22:51:13
Schonmal was von Alienware oder Dell gehört?
Die nehmen locker mal mehrere 1000.
Ist dir desweiteren nie aufgefallen, dass die Preise immer für die Abnhame von 1000Stück stehen? Ist bei AMD genauso.
Versuche doch wenigstens mal die News auf der Startseite zu lesen. :(
Leo postet nie was falsches. Es sei denn, er verschreibt es als Spekulation.
Bei keinen Händler oder Vertrieb ist der Penium Extreme Edition gelistet.
Nicht einmal in Japan sind die bunten Kartons aufgetaucht.
onkel2003
2005-04-19, 22:53:11
Schonmal was von Alienware doer Dell gehört?
Versuche doch wenigstens mal die News auf der Startseite zu lesen. :(
Leo postet nie was falsches. Es sei denn, er verschreibt es als Spekulation.
Bei keinen Händler oder Vertrieb ist der Penium Extreme Edition gelistet.
Nicht einmal in Japan sind die bunten Kartons aufgetaucht.
alienware schreibt ja auch selber lieferung erst ab 25.4.05, also ist klar das noch keine dieser cpus in umlauf ist.
was aber nicht bedeutet das diese nicht doch ende des monats kommen werden in laden.
ob es so sein wird steht natürlich in den sternen.
dirk.loesche
2005-04-20, 20:43:01
@dirk.loesche
Du hast ziemlich viel falsches erzählt. :rolleyes:
Der normale Pentium wird nicht mehr in Laptops eingesetzt? Sozusagen gibt es nur noch den Pentium M in Laptops? Wenn das so ist finde ich das gut.
Danke für die Info.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.