Archiv verlassen und diese Seite im Standarddesign anzeigen : Yonah Core Duo Test (T2600 mit 2.16GHz)
Tarkin
2006-01-04, 20:22:01
http://www.hkepc.com/hwdb/yonah-dualcore-4.htm
sieht sehr vielversprechend aus!
PS: anscheinend wirds auch von Gigabyte ein Yona Desktop Board geben
http://www.hkepc.com/hwdb/yonah-dualcore/gbt-mb.jpg
Chrisch
2006-01-04, 20:35:08
klingt auf jedenfall interessant, jedoch würde ich das AOpen mitm i975er Chipsatz vorziehen ;)
Ich hoff mal die Boards dafür werden nicht so teuer :)
VooDoo7mx
2006-01-04, 21:46:27
Leistung ist doch schon recht ansehnlich.
Deutlich schneller als Smithfield und Presler und der 2,16GHz ist in der Leistung in etwa gleich auf wie der 2,2GHz Toledo. (mal schneller, mal langsamer)
Dabei hat er den niedrigsten Stromverbrauch von allen und kommt selbst mit so nen Minikühler nur auf 45°C unter Full Load.
Wenn der Conroe wirklich im Juli mit bis zu 3,33GHz startet könnte Intel nach langen mal wieder die Performancekrone an sich reisen.
StefanV
2006-01-04, 22:05:51
Dabei hat er den niedrigsten Stromverbrauch von allen und kommt selbst mit so nen Minikühler nur auf 45°C unter Full Load.
Er hat ja auch keine DAU Kappe...
Seraf
2006-01-04, 22:09:40
Er hat ja auch keine DAU Kappe...
Aber einen winzigen Kuehler ;)
http://www.hkepc.com/hwdb/yonah-dualcore/cooler.jpg
ich bin nicht ganz mitgekommen, aber läuft die neue cpu mit ddr1 ram?
dann wäre es vielleicht ne alternative zum am2 von amd
Chrisch
2006-01-04, 22:23:21
sieht nach DDR2 aus, hab auch noch kein 945er Board mit DDR1 gesehen ;)
Eigentlich kriegt man nur 80er lüfter ruhig: und je kühler desto besser - sehr gute wahl!
Endlich kommt bewegung in den markt - mal sehn, bin sehr gespannt!
VooDoo7mx
2006-01-04, 22:44:30
Das ist nen 70er Lüfter. :eyes:
Irgendwie sehen die Kühler der Pentium M Desktop Mainboards alle genauso aus. Egal ob für Banias, Dothan oder Yonah, der mitgelieferte Kühler ist irgendwie immer der gleiche. :|
Wurde "Napa" mit "Yonah" eigentlich jetzt offizielle vorgestellt? ich denke nicht oder? Bin schon auf die ersten DualCore Notebooks gespannt...
Toolman
2006-01-04, 22:46:32
Ich freu mich schon auf die ersten Tests nach dem erscheinen der CPUs und Mobos ! Vllt. kann man die CPU auch mit einem größerem Kühler auch Passiv betreiben , da mir der Lüfter sehr klein erscheint glaube ich das der nicht wirklich was bringt !
Das ist nen 70er Lüfter. :eyes:
Irgendwie sehen die Kühler der Pentium M Desktop Mainboards alle genauso aus. Egal ob für Banias, Dothan oder Yonah, der mitgelieferte Kühler ist irgendwie immer der gleiche. :|
Wurde "Napa" mit "Yonah" eigentlich jetzt offizielle vorgestellt? ich denke nicht oder? Bin schon auf die ersten DualCore Notebooks gespannt...
Dann 'muß' ein Papst 712 F/2L her :|
oder gleich ein 80er:
http://www.arctic-cooling.ch/pics/arcticfan8_02h.jpg
20.0 dB(A), 0.3 Sone :wink:
SKYNET
2006-01-04, 23:47:17
Leistung ist doch schon recht ansehnlich.
Deutlich schneller als Smithfield und Presler und der 2,16GHz ist in der Leistung in etwa gleich auf wie der 2,2GHz Toledo. (mal schneller, mal langsamer)
Dabei hat er den niedrigsten Stromverbrauch von allen und kommt selbst mit so nen Minikühler nur auf 45°C unter Full Load.
Wenn der Conroe wirklich im Juli mit bis zu 3,33GHz startet könnte Intel nach langen mal wieder die Performancekrone an sich reisen.
jaund, die AMD X2 mobile werden noch weniger als das intel dingens fressen.... weil nen mobile vs. desktop vom stromverbrauch zu testen ist apfel vs. birne!
alpha-centauri
2006-01-05, 00:02:26
benches ?
saaya
2006-01-05, 00:46:54
baeh... was ist denn das fuern gammel board...
2 ram slots und einen pciE 16x slot... pfff
das wirkt auf mich so als ob intel immernoch versucht pentium m ja nicht zur konkurenz fuer ihre netburst cpus werden zu lassen, war ja beim dothan das gleiche, da gab es auch nur gammel boards bis asus dan den adapter rausgebracht hat, und auch damit waren dothan rechner nur zweite klasse, wirklich interssant waere doch ein 775 dothan adapter gewesen...
macht doch alles keinen sinn, conroe ist doch ein weiterentwickelter yonah, warum lassen die nicht einfach die leute die es wollen yonah cpus im desktop nutzen?
warum gibts keinen 775 yonah?
den koennten sie doch teurer als mobile yonas machen und noch extra geld verdienen!
stattdessen noch einen neuen nicht backwards kompatiblen 480 pin socket und gammel boards, super...
sockel 423 478 479 478 argh!
/rant
:D
EDIT: wieso haben die nur nen 4400+ getestet und keinen 4800+?
BlackBirdSR
2006-01-05, 00:55:27
macht doch alles keinen sinn, conroe ist doch ein weiterentwickelter yonah,
Conroe und Meron sind keine weiterentwickelten Yonhas.
Es sind keine Pentium-M mehr.
Wieviel Technologie übernommen wird, muss sich zeigen.
das board ist matx, da ist ein 2ter pcie-slot sinnlos ;)
tombman
2006-01-05, 01:02:58
kann nix, da is das SLI/CF (!) Yonah mobo von Aopen schon viel geiler ;)
Faint86
2006-01-05, 03:13:47
@ BlackBirdSR
Weißt du schon mehr über Conroe un Co? Dachte immer des ist ein weiterentwickelter Pentium M.
Hat er dann ne ganz neue Architektur, oder is das "Grundgerüst" immernoch Pentium M?
A.Wesker
2006-01-05, 12:03:53
die leistung ist schon ziemlich genial für eine 166 MHz FSB cpu. oc sollte er wieder deutlich über der pro/mhz leistung des X2's liegen (wie es schon beim P-M und A64 singlecore war).
Undertaker
2006-01-05, 12:21:30
wobei du allerdings bedenken musst, dass die gegner des yonah nicht der aktuelle a64, sondern die modelle für m2 mit ddr2 usw. sein werden...
wirklich beeindrucken tut mich nur die super-pi zeit (29s... net schlecht), der rest liegt doch im bereich der erwartungen (und damit auch nicht soweit entfernt vom aktuellen dothan)
wird auf jeden fall ein spannendes frühjahr werden :)
SKYNET
2006-01-05, 12:59:50
die leistung ist schon ziemlich genial für eine 166 MHz FSB cpu. oc sollte er wieder deutlich über der pro/mhz leistung des X2's liegen (wie es schon beim P-M und A64 singlecore war).
jaund, dann zieht man den HT beim A64 auch nach oben und schon ist wieder ebbe mit überlegen und so... vergiss es einfach, intel hat AMD nix, aber auch GARNIX entgegenzusetzen!
nebenbei: in diesen jahr, wird AMD kleine monster auf uns los lassen.... 333MHz HT + DDR2 + verbesserter mem controller etc. etc. etc.
2007 kommt dann schon der K9...
Muh-sagt-die-Kuh
2006-01-05, 13:10:51
jaund, dann zieht man den HT beim A64 auch nach oben und schon ist wieder ebbe mit überlegen und so... vergiss es einfach, intel hat AMD nix, aber auch GARNIX entgegenzusetzen!
nebenbei: in diesen jahr, wird AMD kleine monster auf uns los lassen.... 333MHz HT + DDR2 + verbesserter mem controller etc. etc. etc.
2007 kommt dann schon der K9...Du könntst langsam mal anfangen, deine Behauptungen zu begründen. Dein Deutsch ist auch verbesserungswürdig.... :|
jaund, dann zieht man den HT beim A64 auch nach oben und schon ist wieder ebbe mit überlegen und so... vergiss es einfach, intel hat AMD nix, aber auch GARNIX entgegenzusetzen!
nebenbei: in diesen jahr, wird AMD kleine monster auf uns los lassen.... 333MHz HT + DDR2 + verbesserter mem controller etc. etc. etc.
2007 kommt dann schon der K9...
das sieht mir auch aus wie jemand der eine sehr fanatische sichtweise hat.
ich dachte immer das eine erhöhung des htt nicht sehr viel performance bringt,jedenfalls in meinen tests die ich gemacht habe.....
intel bringt 2007 auch die quadcores raus und auserdem ob der k9 wirklich 2007 kommt oder nicht wieder bis anno ultimo verschoben wird,wie damals beim classic athlon und dem hammer,bleibt noch abzuwarten.....
Undertaker
2006-01-05, 13:17:46
eine erhöhung des htt bringt praktisch nichts, ist aber notwendig um den ram (nämlich bald ddr2 667) 1:1 laufen zu lassen und damit die volle transverrate zu nutzen...
BlackBirdSR
2006-01-05, 13:39:20
2007 kommt dann schon der K9...
Es gibt intern keinen K9 mehr, der wurde gecancelt.
Es gibt einen K8L und der K10 wurde verschoben.
Chrisch
2006-01-05, 13:39:52
jaund, dann zieht man den HT beim A64 auch nach oben und schon ist wieder ebbe mit überlegen und so... vergiss es einfach, intel hat AMD nix, aber auch GARNIX entgegenzusetzen!
nebenbei: in diesen jahr, wird AMD kleine monster auf uns los lassen.... 333MHz HT + DDR2 + verbesserter mem controller etc. etc. etc.
2007 kommt dann schon der K9...
genau, AMD ist das beste was es gibt. Intel kann nichts und wird nie was
können.... :ulove2:
Geht es dir nicht selbst schon aufm Sack nur sonen scheiss zu schreiben?
BlackBirdSR
2006-01-05, 13:50:04
eine erhöhung des htt bringt praktisch nichts, ist aber notwendig um den ram (nämlich bald ddr2 667) 1:1 laufen zu lassen und damit die volle transverrate zu nutzen...
Den RAM 1:1 mit was?
Systemtakt, HT-Takt und Speichertakt haben nur über den Taktgeber etwas miteinander zu tun.
oh man skynet, sei einfach leise
so ein misst den du da schreibst
VooDoo7mx
2006-01-05, 15:38:38
wobei du allerdings bedenken musst, dass die gegner des yonah nicht der aktuelle a64, sondern die modelle für m2 mit ddr2 usw. sein werden...
Doppelt falsch.
1. Den Core Duo gibt es jetzt. Die A64 inkklusive M2 Sockel kommen noch. Nur weil der Konkurrent sein produkt noch nicht bereit hat, heißt das noch lange nicht das irgendein vergleich ungerechtfertigt ist. Siehe den frühen 7800GTX Launch im vergleich zur X1800XT.
2. Der Core Duo muss sich im Grunde genommen gar nicht mit irgendwelchen AMD Desktop Prozessoren messen. Bei den Notebook CPUs kann AMD keinen taktequivalenten CPU anbieten. Im Grunde genommen hat Intel sogar hier einen deutlichen Vorteil. Auch hier gilt wieder punkt 1.
Avalox
2006-01-05, 15:54:04
einen K8L
K8L. Keightl. Da hat sich doch nicht jemand persönlich verewigt?
StefanV
2006-01-05, 15:55:50
genau, AMD ist das beste was es gibt. Intel kann nichts und wird nie was
können.... :ulove2:
Geht es dir nicht selbst schon aufm Sack nur sonen scheiss zu schreiben?
Hm, war da nicht so eine Ankündigung von wegen Si-Ge (oder Ge_si), wo dann Tags drauf was ähnliches von Intel kam? :rolleyes:
Intel hat auch noch ein ganz großes, internes Problem, das man mit 'Größenwahn' bezeichnen könnte, auf jeden Fall arbeitet man bei Intel weitaus ineffizienter als man das bei AMD tut, siehe z.B. Itanic oder aber die Netburst Architektur, solche "Experimente" gibts öfter mal von Intel...
Undertaker
2006-01-05, 16:10:44
Doppelt falsch.
1. Den Core Duo gibt es jetzt. Die A64 inkklusive M2 Sockel kommen noch. Nur weil der Konkurrent sein produkt noch nicht bereit hat, heißt das noch lange nicht das irgendein vergleich ungerechtfertigt ist. Siehe den frühen 7800GTX Launch im vergleich zur X1800XT.
2. Der Core Duo muss sich im Grunde genommen gar nicht mit irgendwelchen AMD Desktop Prozessoren messen. Bei den Notebook CPUs kann AMD keinen taktequivalenten CPU anbieten. Im Grunde genommen hat Intel sogar hier einen deutlichen Vorteil. Auch hier gilt wieder punkt 1.
1. falsch. es gibt weder den core duo noch den m2 bis jetzt
2. das musst du mir erlären... der schnellste verfügbare pm taktet mit 2,26ghz, der schnellste turion mit 2,4ghz und dürfte den pm leicht überflügeln...
BlackBirdSR
2006-01-05, 16:25:56
auf jeden Fall arbeitet man bei Intel weitaus ineffizienter als man das bei AMD tut, siehe z.B. Itanic oder aber die Netburst Architektur, solche "Experimente" gibts öfter mal von Intel...
Ich wage einmal zu behaupten: Gäbe es solche "Experimente" nicht, und würde alles auf 100%-ige effizienz hinauslaufen, gäbe es weit weniger Fortschritt.
Viele Errungenschaften entstehen aus Experimenten, Versuchen auf gut Glück und Fehlern.
Bei Intel mag weitaus mehr ins Leere laufen, als bei AMD. Dafür treibt Intel insgesamt die Industrie mir mehr Ideen und Technologien vorran.
SKYNET
2006-01-05, 16:35:42
Ich wage einmal zu behaupten: Gäbe es solche "Experimente" nicht, und würde alles auf 100%-ige effizienz hinauslaufen, gäbe es weit weniger Fortschritt.
Viele Errungenschaften entstehen aus Experimenten, Versuchen auf gut Glück und Fehlern.
Bei Intel mag weitaus mehr ins Leere laufen, als bei AMD. Dafür treibt Intel insgesamt die Industrie mir mehr Ideen und Technologien vorran.
was für technologien? integrierter heizlüfter im PC?
ich bitte dich, die bisher besten technologischen sprünge kamen seit dem K6 von AMD, seitdem ist intel technologisch hinten drann!
Madkiller
2006-01-05, 16:38:59
Geht es dir nicht selbst schon aufm Sack nur sonen scheiss zu schreiben?
Sowas muß doch wirklich nicht sein...
Bitte verzichte in Zukunft darauf persönlich zu werden.
Fruli-Tier
2006-01-05, 16:47:20
was für technologien? integrierter heizlüfter im PC?
ich bitte dich, die bisher besten technologischen sprünge kamen seit dem K6 von AMD, seitdem ist intel technologisch hinten drann!
Welche Technologie meinst Du? Du redest vielleicht von Geschwindigkeit in Spielen. Technologisch von Vorsprung oder Rückstand zu sprechen, ist hier ein wenig gewagt, versucht doch jeder mit einer anderen Technik ein gewünschtes Ziel zu erreichen.
Außerdem gibt es noch mehr, als nur Desktop CPUs. Wie wäre es mit dem Notebook? Das ganze Centrino Paket... oder wie wäre es mit dem angekündigten Viiv (oder wie auch immer). Das sind so Bereiche, in denen AMD z.B. hinterherzieht, aber nicht vorlegt.
Es gibt immer 2 Seiten einer Medallie ;)
SKYNET
2006-01-05, 16:55:29
ich rede nicht von der geschwindigkeit, ich rede rein vom technologischen stand!
centrino? was war das noch? CPU + NB + w-lan?
wo ist da der technologische vorsprung? :|
also wenn ich mich recht erinnere sind die AMD turions bei gleichem apeed sparsamer... 25W vs. 27W
und die 25W sind die maximal angaben von AMD!
Fruli-Tier
2006-01-05, 17:00:50
Aber hat das ganze Centrino nicht dafür gesorgt, daß das Notebook immer beliebter wurde? Wurde dadurch nicht auch die Verbreitung von WLAN gefördert? Hatte AMD da etwas beizutragen? Im nachhinein ;)
Ich möchte ja definitiv nicht gegen AMD wettern, aber eben auch nicht gegen Intel. Wie gesagt, es gibt 2 Seiten einer Medallie und nicht alles was grün ist, ist auch Gesund :| ;D
gisbern
2006-01-05, 17:07:33
Intel hat schon seine Daseinsberechtigung, Skynet...
SKYNET
2006-01-05, 17:18:53
Aber hat das ganze Centrino nicht dafür gesorgt, daß das Notebook immer beliebter wurde? Wurde dadurch nicht auch die Verbreitung von WLAN gefördert? Hatte AMD da etwas beizutragen? Im nachhinein ;)
Ich möchte ja definitiv nicht gegen AMD wettern, aber eben auch nicht gegen Intel. Wie gesagt, es gibt 2 Seiten einer Medallie und nicht alles was grün ist, ist auch Gesund :| ;D
ich glaube nicht das es an centrino liegt, eher viel mehr dadrann das die leute mehr was kleines kompaktes wollen, und nicht sonen kasten! =)
Hm, war da nicht so eine Ankündigung von wegen Si-Ge (oder Ge_si), wo dann Tags drauf was ähnliches von Intel kam? :rolleyes:
Intel hat auch noch ein ganz großes, internes Problem, das man mit 'Größenwahn' bezeichnen könnte, auf jeden Fall arbeitet man bei Intel weitaus ineffizienter als man das bei AMD tut, siehe z.B. Itanic oder aber die Netburst Architektur, solche "Experimente" gibts öfter mal von Intel...
immerhin hat sich das experiment netburst 5 jahre gehalten,und war auch bis auf den willi und urprescott absolut konkurenzfähig mit amd.
mit dem cedarmill/presler wird netburst nochmal zu letzter blüte aufblühen.......
VooDoo7mx
2006-01-05, 18:02:33
was für technologien? integrierter heizlüfter im PC?
ich bitte dich, die bisher besten technologischen sprünge kamen seit dem K6 von AMD, seitdem ist intel technologisch hinten drann!
Ich bitte dich, dein Gehirn einzuschalten.
Ohne Intel währen wir niemals so weit was Mikroprozessoren angeht wie heute.
Und noch wichtiger: Ohne Intel würde es nie AMD geben.
AMD hat nämlich seine Firmegeschichte mit Nachbauten von Intel Prozessoren begonnen.
Und das Intel seit dem K6 technologisch hinten dran ist, ist Fanboyism pur. Selbst in der aktuellen Generation ergibt sich auf den 2. Blick keine technologieführerschaft.
Für dich, lieber Skynet, ist doch eine Technologie nur eine Technologie wenn sie dir irgendwelche Schnullerpunkte in irgendwelchen Benchmarks mehr gibt.
Alleine Fertigungstechnisch ist Intel AMD meist ein Jahr vorraus. Man muss sich doch einfach mal nur anschauen wie lange Intel schon mit 300mm Wafern arbeitet und das dies AMD heute noch nicht tut.
Desweiteren forciert Intel sehr viele neue Technologien und das besonders im mobilen Bereich. Als Beispiel sind z.b. neueartige Zinkmatrix Akkumulatoren, WiMax oder Wireless USB zu nennen.
Aber ging es hier nicht eiogentlich um die neuen Yonah CPUs?
Ich danke dir Skynet.
VooDoo7mx
2006-01-05, 18:13:09
ich glaube nicht das es an centrino liegt, eher viel mehr dadrann das die leute mehr was kleines kompaktes wollen, und nicht sonen kasten! =)
Doch gerade durch Centrino hat es den großen Notebookboom der letzten Jahre gegeben.
Und eigentlich hast du ja die Antwort selbst gegeben. :|
Centrino hat erstmals schlankere, leichtere und sparsame Normalo-Notebooks möglich gemacht.
Das alles gepaart mit einer guten Marketingkampagne und einen für die Hersteller attraktiven Komplettpaket hat die Notebookkäufe in den letzten Jahren um einiges nach oben getrieben.
StefanV
2006-01-05, 18:20:23
Und das Intel seit dem K6 technologisch hinten dran ist, ist Fanboyism pur. Selbst in der aktuellen Generation ergibt sich auf den 2. Blick keine technologieführerschaft.
Nein, es war eigentlich schon der K5, denn der P5 war ja bekanntlich noch ein 'echter' 'nativer' x86 Prozessor, ohne Decoder...
Das ganze schaffte Intel erst mit dem P6...
Dazu kommt noch 3DNow, das pendant von Indell kam auch erst wesentlich später...
Dazu die (lizensierte) Point to Point Verbindung ab K7, das ganze auch noch etwas schneller als bei Intel, was Intel bisher immer noch nicht so recht hat (angekündigt, ja)...
Dazu der integrierte Speichercontroller beim K8...
Also AMD ist definitiv fortschrittlicher als Indell :devil:
Hm, da Du nichtmal in der Lage bist Intel richtig zu schreiben, nehme ich an dich interessieren Argumente nicht wirklich.
Wenn Du mich fragst war Netburst der größte Entwicklungssprung seit dem P5 (hm, der war auch von Intel). Dass die Architektur letzenendes nicht das geschafft hat was einst vorgesehen war, liegt an Problemen die weniger mit dem logischen Design zusammen hängen (Leckströme waren bei 180nm kein so großes Problem). Dennoch brachte Netburst viele Neuerungen - ich denke da nur an den Instruction Cache hinter dem Decoder.
Und wer glaubt die neue Generation wird ein aufgebohrter Pentium M wird sich sicher täuschen. Intel wird mehr als genug Designelemente aus der Netburstarchitektur übernehmen. Ich bin besonders auf das Decoderkonzept gespannt. Vielleicht bekommen wir MacroOps im Tracecache?!?
Das Busprotokoll des P-M und der neuen Prozessorarchitektur basiert letzendlich auch auf Netburst.
Und wenn es Netburst nie gegeben hätte, wüssten wir heute nicht, dass man mit stark taktoptimierten aber weniger effizieten Designs bei der Ausführung komplexer und sprunghafter Programmcodes schlechte Karten hat. Das nennt man übrigens Forschung / Entwicklung, Payne.
BlackBirdSR
2006-01-05, 18:49:39
Nein, es war eigentlich schon der K5, denn der P5 war ja bekanntlich noch ein 'echter' 'nativer' x86 Prozessor, ohne Decoder...
Das ganze schaffte Intel erst mit dem P6...
Auch der P5 brauchte einen Decoder
Du weißt sicher auch, dass der P6 am 1.Nov 95 vorgestellt wurde.
Der K5 am 27. März 96.
Dazu kommt noch 3DNow, das pendant von Indell kam auch erst wesentlich später...
SIMD hin oder her.
Ob nun Integer oder FP.
Und MMX gab es wohl zuerst.
@Wuge:
MacroOps ist ein AMD Begriff.
Einen Trace-Cache wird man bei der nächsten Intelgeneration wohl nicht finden, schätze ich.
Bei der darauf vielleicht wieder.
Android
2006-01-05, 18:51:43
Hm, da Du nichtmal in der Lage bist Intel richtig zu schreiben, nehme ich an dich interessieren Argumente nicht wirklich.
Wenn Du mich fragst war Netburst der größte Entwicklungssprung seit dem P5 (hm, der war auch von Intel). Dass die Architektur letzenendes nicht das geschafft hat was einst vorgesehen war, liegt an Problemen die weniger mit dem logischen Design zusammen hängen (Leckströme waren bei 180nm kein so großes Problem). Dennoch brachte Netburst viele Neuerungen - ich denke da nur an den Instruction Cache hinter dem Decoder.
Und wer glaubt die neue Generation wird ein aufgebohrter Pentium M wird sich sicher täuschen. Intel wird mehr als genug Designelemente aus der Netburstarchitektur übernehmen. Ich bin besonders auf das Decoderkonzept gespannt. Vielleicht bekommen wir MacroOps im Tracecahe?!?
Das Busprotokoll des P-M und der neuen Prozessorarchitektur basiert letzendlich auch auf Netburst.
Zunächst zu dem von dir nicht verstandenen Wortspiel: Intel + Dell = Indell
Weiterhin:
Dieses bescheuerte Verhalten einiger Leute hier ist mit Abstand das primitivste was man in Sachen Fanatismus auftischen kann.
Es gibt keinen guten oder schlechten in der Frage AMD oder Intel.
Mal hat der eine ein gutes Produkt mal der andere. Ist doch völlig normal.
Mal baut Mercedes ein gutes Modell, mal Audi oder BMW oder VW ..........
Das heisst aber nicht das eine Firma scheisse ist, wenn sie mal ein mittelwertiges Produkt auf den Markt bringt.
Am Anfang (Einführung der 8086er) kopierte AMD bei Intel. ABER: Sie kopierten nicht nur Intel, sondern verbesserten die Prozessoren. Daher warscheinlich auch die Angst von Intel und der folgende Vertragsbruch.
Jetzt hat Intel AMD64 übernommen. Dafür bekam AMD SSE3 ............ blablabla
Sowohl Intel als auch AMD sind für den Fortschritt wichtig. Der eine mal mehr, der andere mal weniger.
Nur eine Sache hat Intel die AMD nie hatte: Marketing.
Und jetzt zurück on topic.
Das Wortspiel ist mir bekannt. Ich finde es einfach auf so primitiven Niveau, dass ich mal draufhauen musste ;)
Es geht auch nicht darum zu behaupten, Intel sei das Non-Plus-Ultra. Ich kann nur dieses unebgründete "Netburst ist Schrott" nichtmehr hören.
@BlackBirdSR
Hatte MicroOps fusion mit MarcoOps verwechselt. Das kommt davon wenn man schreibt ohne Quellen nachzulesen.
Ich finde es am erstaunlichsten, dass relativ kurz vor der Markteinführung so wenig über die neue Architektur bekannt ist!
MadManniMan
2006-01-06, 05:10:46
Blackbird, gib uns Hintergrunde über das Absägen des K9, was der Keightl darstellen soll und warum der K10 später kommt. Hurtig! Bitte...
Zum Yonah - die Performance ist gut, wenn auch im Rahmen des Erwarteten ... aber die Sache mit diesem Fitzelkühler ist m.E. atemberaubend!
Ohne Intel währen wir niemals so weit was Mikroprozessoren angeht wie heute.Ich wette dagegen, muss nur noch die Zeitmaschine dafür erfinden. Intel als reiner Monopolist wäre sehr träge und wir würden wahrscheinlich auch noch Tejas statt Conroe sehen.
Man muss sich doch einfach mal nur anschauen wie lange Intel schon mit 300mm Wafern arbeitet und das dies AMD heute noch nicht tut.Man muss sich auch mal anschauen wieviel Prozessoren Intel und AMD verkaufen und ob sich eine 300mm-Fab für AMD evtl. erst jetzt lohnt :rolleyes:
Und nein, ich glaube auch nicht dass Intels Fertigung soviel besser ist. Sie haben immer einen etwas früheren Die-Shrink, aber bei SOI und anderen Dingen ist AMD derzeit weiter.
Und wenn es Netburst nie gegeben hätte, wüssten wir heute nicht, dass man mit stark taktoptimierten aber weniger effizieten Designs bei der Ausführung komplexer und sprunghafter Programmcodes schlechte Karten hat. Das nennt man übrigens Forschung / Entwicklung, Payne.Das kann man auch sehr gut im Simulator nachvollziehen. Nein man muss dafür nicht das komplette Design fertigmachen.
Jetzt hat Intel AMD64 übernommen. Dafür bekam AMD SSE3Intel und AMD haben ein Cross-Licensing abkommen was den Befehlssatz betrifft. Sie können beide kopieren wie ihnen zumute ist.
alpha-centauri
2006-01-06, 08:51:18
Zum Yonah - die Performance ist gut, wenn auch im Rahmen des Erwarteten ... aber die Sache mit diesem Fitzelkühler ist m.E. atemberaubend!
nun, ein P4 hat auch mal klein angefangen... Hauptsache sie lassen genug Platz nach oben.
BlackBirdSR
2006-01-06, 08:58:21
Blackbird, gib uns Hintergrunde über das Absägen des K9, was der Keightl darstellen soll und warum der K10 später kommt. Hurtig! Bitte...
Zum Yonah - die Performance ist gut, wenn auch im Rahmen des Erwarteten ... aber die Sache mit diesem Fitzelkühler ist m.E. atemberaubend!
Du willst Informationen?
Es gibt keine.
Man hört nur aus verschiedenen Kreisen (was Inquirer dann natürlich in gleich 10 Stories ausschlachtet... keine Ahnung wie man so viel dazu schreiben kann), dass sich hier und da etwas verändert hat.
Leute gehen und interne Roadmaps ändern sich.
Gerüchten zufolge war der K9 als noch breitere CPU geplant. Mangels Performancevorteil wurde die Idee aber wie schon der original K8 eingemottet.
Der nächste Schritt wäre K10 gewesen, wurde nun allerdings aus irgendwelchen Gründen angeblich etwas verschoben.
Dafür taucht der Name K8L auf.
Das ist natürlich nicht verifizierbar.
Und wenn man es nicht weiß, bekommt man davon auch nie etwas mit.
Das kann man auch sehr gut im Simulator nachvollziehen. Nein man muss dafür nicht das komplette Design fertigmachen.
Man kann im Simulator nicht nachvollziehen wie sich die Marktbedürfnisse und vorallem die Software entwickelt. Compiler wurden ja auch in Richtung P4 optimiert, wohl nicht in dem Maße wie sich Intel das vorgestellt hat.
Intel musste dem Markt Netburst geben um zu sehen wie sich diese Architektur im Markt entwickelt bzw. durchsetzt.
StefanV
2006-01-06, 14:23:14
Man kann im Simulator nicht nachvollziehen wie sich die Marktbedürfnisse und vorallem die Software entwickelt. Compiler wurden ja auch in Richtung P4 optimiert, wohl nicht in dem Maße wie sich Intel das vorgestellt hat.
Intel musste dem Markt Netburst geben um zu sehen wie sich diese Architektur im Markt entwickelt bzw. durchsetzt.
Selbst wenn die Compiler P4 Optimiert wären, bei einigen DIngen ist der P4 dennoch ziemlich mies, dank Replay und der langen Pipeline.
Unvorhersehbare Sprünge gehen z.B. garnicht auf dem P4, was aber Spiele erfordern!
BlackBirdSR
2006-01-06, 14:35:48
Selbst wenn die Compiler P4 Optimiert wären, bei einigen DIngen ist der P4 dennoch ziemlich mies, dank Replay und der langen Pipeline.
Unvorhersehbare Sprünge gehen z.B. garnicht auf dem P4, was aber Spiele erfordern!
Ich würde es so ausdrücken:
Der Pentium-4 läuft bei einigen Sachen nicht so rund wie man es gewohnt wäre. Erkauft sich dafür aber einen Taktvorteil.
Ob das am Ende nun aufgegangen ist oder nicht, ist eine andere Sache.
Wäre dies und das gewesen, hätte es funktionieren können.
Gleiches galt doch auch für den K6 und andere CPUs.
Aber dass unvorhersehbare Sprünge beim Pentium-4 nicht funktionieren wäre mir neu?!? :confused:
Compiler wurden ja auch in Richtung P4 optimiert, wohl nicht in dem Maße wie sich Intel das vorgestellt hat.Selbst mit dem Intel-eigenen Compiler kann der P4 nicht wirklich was reißen in den Bereichen wo er schlecht dasteht. Das ist immer die schlechteste Ausrede.
Die Architektur hat enorme Probleme mit branchlastigem Code, an solchem kann ein Compiler gar nichts ändern. Außerdem wiegen Cache-Misses dank Replay doppelt so schwer. Manchmal läuft die Pipeline die ersten 10 Stufen über 2 mal im Kreis und rechnet jedesmal spekulativ ohne den Wert überhaupt schon in den Registern zu haben.
Intel weiß schon ganz genau warum sie sich beim Konkurenzdruck von AMD jetzt auf vernünftigere Dinge besinnen.
Intel musste dem Markt Netburst geben um zu sehen wie sich diese Architektur im Markt entwickelt bzw. durchsetzt.Intel hat vor allem das Marketing mit den hohen Frequenzen gesehen.
StefanV
2006-01-06, 14:49:33
Aber dass unvorhersehbare Sprünge beim Pentium-4 nicht funktionieren wäre mir neu?!? :confused:
Das war auch nicht im Sinne von 'geht nicht' gemeint sondern im Sinne von 'geht, aber ziemlich mies'...
Hamster
2006-01-06, 17:20:50
habe heute schon die c't 02/06 bekommen.
da wurde ein samsung x60 notebook mit nem core duo getestet.
BlackBirdSR
2006-01-06, 17:20:56
Es wäre sehr nett, wenn so manch indifferenzierter Post nicht mehr hier vor kommt. Das ist ein Diskussionsforum. Das beinhaltet schon einmal die Notwendigkeit mehr als wilde Thesen aufzustellen.
Wer trotzdem so weiter machen will kann das wie üblich hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3852446#post3852446
Danke
VooDoo7mx
2006-01-06, 18:02:39
habe heute schon die c't 02/06 bekommen.
da wurde ein samsung x60 notebook mit nem core duo getestet.
Und was ist dabei rumgekommen?
Hier mal was interessantes:
Verpackt ist all' dies weiterhin im mFCPGA478 (Sockel 479M) Package, welches jedoch nicht Pin-kompatibel mit dem bisherigen Sockel 479M sein wird. Ein paar kleinere Änderungen im Pin-Layout sorgen dafür, dass der Core Duo z.B. nicht auf dem Sockel-478-zu-Sockel-479M-Adapter CT-479 von Asus lauffähig sein wird.
Quelle: Computerbase (http://www.computerbase.de/artikel/hardware/prozessoren/2006/bericht_intels_core_solo_core_duo/)
Monsta
2006-01-06, 18:42:04
Die "schlechten" P4´s mit HT und 800Mhz FSB gab es schon deutlich vor dem A64 Launch. Und diese P4´s sind dem Athlon Xp deutlich überlegen. Und wenn man die Desktopperformance sieht, ist mein Aktueller Amd viel langsamer als mein alter P4 2,8 HT 800Mhz @ 3,4Ghz. Hyperthreading war der technologische Fortschritt bei Intel. Naja ich finde es ist ein Kopf an Kopf Rennen was Intel zuläst.
StefanV
2006-01-06, 18:52:34
Die "schlechten" P4´s mit HT und 800Mhz FSB gab es schon deutlich vor dem A64 Launch. Und diese P4´s sind dem Athlon Xp deutlich überlegen. Und wenn man die Desktopperformance sieht, ist mein Aktueller Amd viel langsamer als mein alter P4 2,8 HT 800Mhz @ 3,4Ghz. Hyperthreading war der technologische Fortschritt bei Intel. Naja ich finde es ist ein Kopf an Kopf Rennen was Intel zuläst.
Vielleicht nutzt du ja auch das falsche Betriebssystem :rolleyes:
PS: ersetze Hyperthreading bitte durch SMT!
Monsta
2006-01-06, 19:10:41
Vielleicht nutzt du ja auch das falsche Betriebssystem :rolleyes:
PS: ersetze Hyperthreading bitte durch SMT!
Hihi ich nutze MAC OSX. WINXP ist für mich eine biedere Oberfläche, von der ich Spiele starten kann.
1.Vielleicht nutzt du ja auch das falsche Betriebssystem :rolleyes:
PS: ersetze Hyperthreading bitte durch SMT!
1. bla!Windows,ist nun mal das Gamer-OS,und da bringt HTT auch viel.
-Linux mag vieleicht eine bessere Multitasking-Performance haben,er ist fuer Spiele nicht so gut geeignet.
p.s. weil mein PC z.Z. kaput ist,benutze ich meinen Notebook.Die hohe Leistung beim niedrigen Takt fasziniert mich (pentium m 1.6),fuer meine spiele ist der P4 (2.8) aber besser geeignet,dank HTT.(muz,TS2,irc,und werend ich eine Pause mache ist das Spiel im Hintergrund,und ich kann immer noch im Forum fuer Unruhe sorgen) :D
Hamster
2006-01-06, 19:18:53
Und was ist dabei rumgekommen?
steht nicht viel neues drin. dennoch ist der yonah mehr als überzeugend (gerade als gesamtplattform in verbindung mit dem 945g)
Hier mal was interessantes:
Verpackt ist all' dies weiterhin im mFCPGA478 (Sockel 479M) Package, welches jedoch nicht Pin-kompatibel mit dem bisherigen Sockel 479M sein wird. Ein paar kleinere Änderungen im Pin-Layout sorgen dafür, dass der Core Duo z.B. nicht auf dem Sockel-478-zu-Sockel-479M-Adapter CT-479 von Asus lauffähig sein wird.
Quelle: Computerbase (http://www.computerbase.de/artikel/hardware/prozessoren/2006/bericht_intels_core_solo_core_duo/)
das ist schon länger bekannt. als *hint* sei dir dieser thread ans herz gelegt: klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=253746&page=1&pp=50)
MadManniMan
2006-01-06, 19:59:53
Vielleicht nutzt du ja auch das falsche Betriebssystem :rolleyes:
Wie in Provo-Laune? Jedes XP freut sich über mehr als einen Core (welcher Art auch immer) - und daß dies das "Standard"-OS ist, kannste kaum bezweifeln, right?
PS: ersetze Hyperthreading bitte durch SMT!
Mit welchem Sinn? Jeder weiß, was gemeint is.
dildo4u
2006-01-07, 17:48:38
Intel Core Duo im japanischen Handel
http://pics.computerbase.de/news/12737/5.jpg
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/januar/intel_core_duo_handel/
Asus zeigt erstes Core-Duo-Mainboard
http://www.computerbase.de/news/hardware/mainboards/intel-systeme/2006/januar/asus_core-duo-mainboard/
alpha-centauri
2006-01-07, 18:04:09
1. bla!Windows,ist nun mal das Gamer-OS,und da bringt HTT auch viel.
wo bringt SMT in spielen viel ?
-Linux mag vieleicht eine bessere Multitasking-Performance haben,er ist fuer Spiele nicht so gut geeignet.
aha. sagt wer?
p.s. weil mein PC z.Z. kaput ist,benutze ich meinen Notebook.Die hohe Leistung beim niedrigen Takt fasziniert mich (pentium m 1.6),
toll. wirklich.
alpha-centauri
2006-01-07, 18:05:21
warum bringen se nicht denn den Core Duo endlich fürn Desktop raus??
Diese Heizbacken von 800+900er Dualcores sind doch wirklich nicht zu gebrauchen.
Der Single-Core T1300 (1,67 GHz) geht im fernen Osten für umgerechnet 195 Euro über die Ladentheke und ist damit nichtmal 40 Euro günstiger als ein Dual-Core mit identischem Prozessortakt. Damit macht Intel abermals eine klare Richtungsvorgabe, indem man die Dual-Cores preislich nur geringfügig über den Single-Core-Varianten ansiedelt. Bleibt nur zu hoffen, dass die neuen Prozessoren auch relativ schnell den europäischen Markt erreichen.
ich würd mich freuen, wenn das AMD auch so macht. denn ihre preis mit preisdualcore=2*preis-singlecore sind schon happig.
dildo4u
2006-01-07, 18:26:06
warum bringen se nicht denn den Core Duo endlich fürn Desktop raus??
.
Kommt bald im Form des Conroe für Sockel 775 2.4-3.2Ghz in 65Nm.
http://www.computerbase.de/artikel/hardware/prozessoren/2006/bericht_intels_core_solo_core_duo/6/#abschnitt_desktop
Der Conroe wird eine neue Architektur haben. Nix P-M!
StefanV
2006-01-07, 19:23:58
Wie in Provo-Laune? Jedes XP freut sich über mehr als einen Core (welcher Art auch immer) - und daß dies das "Standard"-OS ist, kannste kaum bezweifeln, right?
Es ist eher nicht so, das mehrere Cores sonstwas bringen, es ist eher so, das Windoof in diesem Punkt ziemlich vermurkst ist und nur deswegen ists so wie es ist.
Zumindest bisher, wie es mit Vista ausschaut, weiß noch keiner, ebenso ist es nunmal fakt, das es mit Linux anders ausschaut, da bringt SMT@P4 nur noch sehr wenig bis garnichts.
Mit welchem Sinn? Jeder weiß, was gemeint is.
1. man benutzt das richtigere 'Herstellerneutrale' Wort
2. das ändert nichts daran, das Hyper Threading (c) by Intel Corp ist, SMT der Technische Begriff dafür...
Etwas vergleichbares findet sich eigentlich nur noch in der KFZ Branche und wird gern von Audi (und atm auch BMW) benutzt, gemeint sind deren Marketingwörter zum Allradantrieb...
Muh-sagt-die-Kuh
2006-01-07, 20:13:29
Es ist eher nicht so, das mehrere Cores sonstwas bringen, es ist eher so, das Windoof in diesem Punkt ziemlich vermurkst ist und nur deswegen ists so wie es ist.
Zumindest bisher, wie es mit Vista ausschaut, weiß noch keiner, ebenso ist es nunmal fakt, das es mit Linux anders ausschaut, da bringt SMT@P4 nur noch sehr wenig bis garnichts.Wie wäre es mit einer Quelle für diese Behauptung? Gleiche Anwendung, gleiche Version, gleiche Plattform....nur einemal unter Linux und einmal unter Windows.
-error-
2006-01-07, 20:40:22
Also ich war eigendlich immer nur von AMD überzeugt, jedenfalls auf dem Desktopmarkt.
Doch das Intel im mobilen Bereich die Nase vorne hat, wird man kaum bestreiten können.
Der neu Core Duo ist mir gleich sympatisch, ganz im Gegensatz zum Prescott.
Nur schade, dass erst der Conroe 64 Bit unterstützen wird, warum ist das eigendlich so?
Und ja, es ist verdammt wichtig, dass 64 Bit unterstützt wird!
50% schneller mit WinRar x64 (bislang habe ich davon aber nichts mehr gehört)
33% schneller in Cinema 4D (schon jetzt der Fall)
Und wenn man mal beobachtet, dass 64 Bit Prozessoren in der Formel1 anscheinend unabdingbar geworden sind, ist das alles andere als Marketing! (Koperation zwischen Ferrari und AMD)
Was mich nur ankotzt ist die Sockelpolitik von Intel. Aber nich viel ärgerlicher ist, dass DDR2 wohl kaum lange leben wird.
Lebt XDR wirklich?
Denn AMD soll ich ja vor wenigen Tagen Lizenzen erworben haben, welche das auch immer sein mögen.
1. wo bringt SMT in spielen viel ?
2. aha. sagt wer?
3. toll. wirklich.
1.Nicht in Spielen,sondern auf dem Deskop waehrend des Multi-Taskings(und Quake4 :D ).
2.Sage ich.
3.Ja,in der Tat.
MadManniMan
2006-01-07, 21:25:07
Es ist eher nicht so, das mehrere Cores sonstwas bringen, es ist eher so, das Windoof in diesem Punkt ziemlich vermurkst ist und nur deswegen ists so wie es ist.
Überall, wo mehrere Applikationen parallel laufen, müssen mehrere Cores etwas bringen :|
Zumindest bisher, wie es mit Vista ausschaut, weiß noch keiner, ebenso ist es nunmal fakt, das es mit Linux anders ausschaut, da bringt SMT@P4 nur noch sehr wenig bis garnichts.
Quelle :|
1. man benutzt das richtigere 'Herstellerneutrale' Wort
2. das ändert nichts daran, das Hyper Threading (c) by Intel Corp ist, SMT der Technische Begriff dafür...
Jenes nennt sich Begriffsmonopol und verdeutlicht, daß Markennamen zum allgemeinen Sprachgebrauch benützt und nicht mehr zwangsläufig mit dem herstellerbezogenen Begriff in Verbindung gebracht werden.
Zumal "SMT" so nur von Intel für den Consumermarkt gebracht wurde.
Außerdem wirst Du gewiß nicht bestimmen, wer was wie bezeichnet, besonders in Anbetracht Deiner völlig substanzlosen Subjektivität.
Banshee18
2006-01-07, 22:17:19
Zumindest bisher, wie es mit Vista ausschaut, weiß noch keiner, ebenso ist es nunmal fakt, das es mit Linux anders ausschaut, da bringt SMT@P4 nur noch sehr wenig bis garnichts.
Es ist eher so, dass Linux in diesem Punkt ziemlich vermurkst ist und nur deswegen ists so wie es ist. :D ;)
Es ist eher so, dass Linux in diesem Punkt ziemlich vermurkst ist und nur deswegen ists so wie es ist. :D ;)Im Gegenteil. Der Scheduler von Linux 2.6 ist Windows um längen überlegen.
Quelle :|Stimmt schon. Der Windows-Kernel ist anscheinend nicht besonders gut preemted.
Die Reaktivität von Windows nimmt mit SMT zumindest viel mehr zu als in Linux (will heißen: Sie ist auch so schon gut in Linux).
Banshee18
2006-01-07, 22:36:10
Im Gegenteil. Der Scheduler von Linux 2.6 ist Windows um längen überlegen.
Der Satz ist von ihm so übernommen, nur Windows durch Linux ersetzt. Ich wollte Stefan aus der Reserve locken und eine Quelle sehen. :D
-error-
2006-01-07, 22:55:23
Der Conroe wird eine neue Architektur haben. Nix P-M!
Ist das wirklich so? Doch hoffendlich auch mit den Vorteilen eines Pentium M!
> Göttliche Pro/Mhz Leistung
> Sehr geringe Leistungsaufnahme/Verlustleistung
dildo4u
2006-01-07, 22:58:08
Ist das wirklich so? Doch hoffendlich auch mit den Vorteilen eines Pentium M!
> Göttliche Pro/Mhz Leistung
> Sehr geringe Leistungsaufnahme/Verlustleistung
Intel hat schon Festgelegt 65Watt soll die maximal Verlustleitung sein.Im gegensatz zum 130Watt TDP der P4 DC ein echter Fortschritt.
-error-
2006-01-07, 23:06:58
Hmm, Intel gibt ja immer nur den durchschnittlichen Verbrauch an, AMD den maximalen, oder?
Wo kann man denn etwas zum Sicherheitsfeature etwas erfahren, welches der Concore mitbringen wird?
alpha-centauri
2006-01-07, 23:56:11
Kommt bald im Form des Conroe für Sockel 775 2.4-3.2Ghz in 65Nm.
http://www.computerbase.de/artikel/hardware/prozessoren/2006/bericht_intels_core_solo_core_duo/6/#abschnitt_desktop
bin ich mal gespannt. 3,2 ghz dürften sicher mit amd mithalten können. aber warten wirs mal ab.
ich bin erst mal auf sockel m2, neuere AMD64 dualcore und ddr2 support gespannt.
und irgendwann will ich ja auch die heizplatte im computer wieder gegen ne richtige gamer-dualcorecpu austauschen
BlackBirdSR
2006-01-08, 00:42:12
Ist das wirklich so? Doch hoffendlich auch mit den Vorteilen eines Pentium M!
> Göttliche Pro/Mhz Leistung
> Sehr geringe Leistungsaufnahme/Verlustleistung
Geh mal von guter Leistung über Dothan bei Taktraten um 2.6GHz+ und ca 65W TDP für die Desktopversion aus.
So sagt Intel es zumindest.
dildo4u
2006-01-08, 01:25:54
Geh mal von guter Leistung über Dothan bei Taktraten um 2.6GHz+ und ca 65W TDP für die Desktopversion aus.
So sagt Intel es zumindest.
Kann man schon sagen was mann Ca an Takt erreicht wenn man die 65Watt und den Yonah mit 31Watt bei 2.16Ghz zu Grunde legt sind über 3Ghz Realistsich?
BlackBirdSR
2006-01-08, 02:39:19
Kann man schon sagen was mann Ca an Takt erreicht wenn man die 65Watt und den Yonah mit 31Watt bei 2.16Ghz zu Grunde legt sind über 3Ghz Realistsich?
Denke schon.
Aber ob er gleich mit solche einem Takt erscheint, oder erst nach einiger Zeit ist schwer abzuschätzen.
Intel wird die Taktraten so niedrig halten, wie sie nur können. Ist ja nur von Vorteil für Intel.
Solang man es irgendwie wegkühlen kann hat der Verbrauch da eh nix zu sagen.
alpha-centauri
2006-01-08, 03:01:36
Intel wird die Taktraten so niedrig halten, wie sie nur können. Ist ja nur von Vorteil für Intel.
und von vorteil für amd - da diese performancemässig davon ziehen.
BlackBirdSR
2006-01-08, 03:12:05
und von vorteil für amd - da diese performancemässig davon ziehen.
nein warum sollten sie?
Ich meinte damit, dass Intel Conroe so niedrig takten wird wie möglich, um nicht gegen AMD zu verlieren.
Ist doch logisch oder?
Und es wird sich zeigen müssen, ob der K8 so unverändert ein leichtes Spiel mit Conroe haben wird.
Ich gehe mal davon aus, dass Intel den Takt der neuen Generation etwas leichter anheben kann als AMD beim K8. Der fing ja mal mit 1.4GHz an und liegt jetzt knapp bei 3GHz.
Intel wird bei ca 2.6GHz anfangen und sich reichlich Spielraum nach oben lassen.
Und die Leistungsfrage steht natürlich auch noch offen. Ist aber unmöglich genauer einzuschätzen.
Wenn es nach Intel geht hat ja schon Yonah 30% bessere Multimedia Performance pro Kern als Dothan.
Das mag in speziellen Betrachtungen zwar stimmen. Aber im Gesamtpaket nicht.
Also kann man auch den 40% mehr Performance von Conroe nicht so einfach hinnehmen. Bin aber gespannt, was am Ende rauskommt.
Gandharva
2006-01-08, 11:18:36
Und es wird sich zeigen müssen, ob der K8 so unverändert ein leichtes Spiel mit Conroe haben wird.
Ich gehe mal davon aus, dass Intel den Takt der neuen Generation etwas leichter anheben kann als AMD beim K8. Der fing ja mal mit 1.4GHz an und liegt jetzt knapp bei 3GHz.
Intel wird bei ca 2.6GHz anfangen und sich reichlich Spielraum nach oben lassen.AMD wird mit dem shrink auf 65nm sicher auch einiges an spielraum gewinnen, da bis auf den speichercontroller wohl nicht wirklich viel geändert wurde.
Muh-sagt-die-Kuh
2006-01-08, 12:28:34
Im Gegenteil. Der Scheduler von Linux 2.6 ist Windows um längen überlegen.Um Längen? Konzeptionell unterscheiden sich beide praktisch nicht voneinander. Es werden jeweils Threads mittels Multilevel-Feedback-Queues gescheduled.Stimmt schon. Der Windows-Kernel ist anscheinend nicht besonders gut preemted.
Die Reaktivität von Windows nimmt mit SMT zumindest viel mehr zu als in Linux (will heißen: Sie ist auch so schon gut in Linux).Bezüglich der Reaktivität mag das stimmen.....hier merkt man Windows auf Single CPU Systemen noch deutlich seine Verwandschaft mit den VMS Systemen an. Ich glaube nicht, dass Microsoft an dem Verfahren großartig etwas ändern wird....die sitzen das eher aus, da Multicores in nicht allzu ferner Zukunft sowieo zum Standard werden.
Was allgemein den Nutzen von HyperThreading (als eine SMT Implementation) unter Linux angeht: http://www.2cpu.com/articles/41_1.html
Wenn das Teil mit 2,6 GHz startet, sollte es doch ein Kinderspiel sein, ihn mit einem größeren Kühler auf 3 - 3,5 GHz zu prügeln, oder? Wenn der ein ähnliches Taktpotenzial hat wie der Dothan ... huiuiui. =)
MfG,
Raff
VooDoo7mx
2006-01-08, 13:12:58
Wenn das Teil mit 2,6 GHz startet, sollte es doch ein Kinderspiel sein, ihn mit einem größeren Kühler auf 3 - 3,5 GHz zu prügeln, oder? Wenn der ein ähnliches Taktpotenzial hat wie der Dothan ... huiuiui. =)
MfG,
Raff
Woher weißt du das schon wieder?
Das einzige was ich gelesen habe ist das ein Core Duo T2500 von 2GHz auf 2,4GHz (FSB800) übertaktet wurde. Mit 2 X1800XT gab das 12500 im 3D Mark 05. Keine Ahnung obd as gut doer schlecht ist.
Da steht nirgends was von "wissen". ;) Nur spekulative Vorfreude, die eine Bestätigung erhofft.
MfG,
Raff
ste^2
2006-01-09, 01:23:37
Mal 'ne Frage:
Die Dual-Core-Implementierung ist doch beim Yonah hoffentlich besser gelöst als beim Pentium-D?!???
mocad_tom
2006-01-09, 18:42:09
>>Mal 'ne Frage:
>>Die Dual-Core-Implementierung ist doch beim Yonah hoffentlich besser
>>gelöst als beim Pentium-D?!???
>Ja. Viel besser.
Ja und nein.
Ja -> weil die beiden Kerne viel näher beieinander sind, ein Cache2Cache (http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2419&p=3) -Sync-Wert von 20 ns liegen im Bereich des möglichen.
Nein -> weil mit dem Smart-Cache wieder ein Pferdefuss eingebaut wurde. Die L2-Cache-Latenz steigt, die Single-Thread-Leistung des Yonah sinkt.
Grüße,
Tom
>>Mal 'ne Frage:
>>Die Dual-Core-Implementierung ist doch beim Yonah hoffentlich besser
>>gelöst als beim Pentium-D?!???
>Ja. Viel besser.
Ja und nein.
Ja -> weil die beiden Kerne viel näher beieinander sind, ein Cache2Cache (http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2419&p=3) -Sync-Wert von 20 ns liegen im Bereich des möglichen.
Nein -> weil mit dem Smart-Cache wieder ein Pferdefuss eingebaut wurde. Die L2-Cache-Latenz steigt, die Single-Thread-Leistung des Yonah sinkt.
Grüße,
Tom
Aus dem L1 des P4??
edit
Aus dem Register,dann speichern (L1),und read(L1).(kein Wunder das der P4 so schnell ist) :D *mutmasung*
VooDoo7mx
2006-01-09, 22:41:16
Mal 'ne Frage:
Die Dual-Core-Implementierung ist doch beim Yonah hoffentlich besser gelöst als beim Pentium-D?!???
Wenn man es genauer nimmt ist die Dual Core Realisierung im Yonah sogar fortschrittlicher als im derzeitigen K8 (Manchester/Toledo).
Trotz eines 2. Cores hat sich die Transitorenanzahl im Vergleich zum Dothan um nicht einmal 10% erhöht. Ich denke mal da wird einiges an Logik unter den beiden Kernen aufgeteilt.
Nein -> weil mit dem Smart-Cache wieder ein Pferdefuss eingebaut wurde. Die L2-Cache-Latenz steigt, die Single-Thread-Leistung des Yonah sinkt.
Das stimmt definitiv nicht. Die L"atenz wurde zwar erhöht dafür hat der Yonah im vergleich zum Dothan auch einige innere Verbesserungen erfahren.
So ist beispielsweise die FPU und SSE2 leistung stärker.
Im großen und ganzen beläuft sich das alles auf +- 0% im Vergleich zum Dothan.
In Spezialsituationen zeigt ein Yonah in Single Thread Anwendungen sogar eine bessere Pro MHz leistung als der Dothan.
Muh-sagt-die-Kuh
2006-01-09, 23:44:43
Wenn man es genauer nimmt ist die Dual Core Realisierung im Yonah sogar fortschrittlicher als im derzeitigen K8 (Manchester/Toledo).
Trotz eines 2. Cores hat sich die Transitorenanzahl im Vergleich zum Dothan um nicht einmal 10% erhöht. Ich denke mal da wird einiges an Logik unter den beiden Kernen aufgeteilt.Bilder des Kerns sagen mir etwas anderes.
Die geringe prozentuale Erhöhung der Transistoranzahl liegt daran, dass bei den 140 Millionen Transistoren von Dothan rund 126 Mio Cache und nur 14 Mio Logik sind ;)
mocad_tom
2006-01-10, 00:08:29
http://realworldtech.com/forums/index.cfm?action=detail&PostNum=3452&Thread=2&entryID=51339&roomID=11
Yeah, I noticed that too. It is probably related to the
fact that Dothan and its 2 MB L2 is based on Banias
which has a 1 MB L2 which means associativity
likely doubled too. Being designed with a 2 MB L2
from the start may mean Yonah's L2 has reduced
associativity vs Dothan. It is a non-trivial power
savings consideration for this class of processor.
I wouldn't expect the Dothan/Yonah core uses more
than ~15m transistors. With Dothan's 2 MB L2 using
~125m transistors it wouldn't take much organization
change to save 3 or 4m transistors.
Soll heissen - die niedrigere Assoziativität des L2-Caches spart Transistoren.
Ein Core 15mio Transistoren x 2
+ den Transistoren, die für den Arbiter(geschätzt 5,5Mio Transistoren) nötig sind = in Summe 35,5Mio Transistoren für "Logik".
151Mio - 35,5 Mio = 115Mio Transistoren für Cache
Der Cache des Dothan benötigt 125Mio Transistoren:http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=3&t=000015&p=3
Der Cache des Yonah benötigt nur 115Mio Transistoren.
Grüße,
Tom
//Edit:
Rein flächenmässige Aufteilung des Dies:
Ein Core 24%
der Arbiter 5,5%
der L2-Cache 46,5%
Ein Core hat ca 15mio Transistoren, angenommen der Arbiter ist etwa gleichdicht gepackt, damit ergibt sich für den Arbiter die 5,5,Mio Transistoren.
Wenn nun ein einzelner Yonah-Core noch mehr Transistoren beherbergt als angenommen(vielleicht ist der SSE3-Teil größer als zunächst angenommen) bleiben noch weniger Transistoren für den L2-Cache über.
VooDoo7mx
2006-01-10, 00:09:19
Bilder des Kerns sagen mir etwas anderes.
Die geringe prozentuale Erhöhung der Transistoranzahl liegt daran, dass bei den 140 Millionen Transistoren von Dothan rund 126 Mio Cache und nur 14 Mio Logik sind ;)
Sowas hab ich mir auch gedacht. Dann bitte mein oben geschriebenes revidieren. Vieviele Logiktransistoren hat nochmal ein Prescott?
Doch sicher mindestens doppelt so viel oder?
Aber schon erstaunlich wieviel leistung Intel aus so vergleichsweise wenig Logik zieht.
BlackBirdSR
2006-01-10, 00:21:03
Sowas hab ich mir auch gedacht. Dann bitte mein oben geschriebenes revidieren. Vieviele Logiktransistoren hat nochmal ein Prescott?
Doch sicher mindestens doppelt so viel oder?
Aber schon erstaunlich wieviel leistung Intel aus so vergleichsweise wenig Logik zieht.
Mach das 4x daraus.
Mach das 4x daraus.
Wieso hat er eigentlich so viele???
BlackBirdSR
2006-01-10, 06:24:13
Da steckt wohl eine Menge an Funktionen drin, die nicht fuktioniert oder aktiviert sind.
Da steckt wohl eine Menge an Funktionen drin, die nicht fuktioniert oder aktiviert sind.
Intel-Boys mussen doch arg krank sein.So viele Transistoren auf ungenutzte Features zu verschwenden.(VT im Presy,HT im Willy und Northwood;bis zum C Model und dem 3066)
p.s.
-Die haetten auch nur einen Northwood shrinken und SSE3 integrieren koennen.(nur so ein wirrer Gedankengang)
-Am Presy erscheint mir nichts logisch zu sein.Die high-latency-caches,die laengere Pipeline.Was haben sie sich nur dabei gedacht?Fuer mich ist das ein Wunder,dass er ueberhaupt so gut mit dem Northwood mithalten kann.(ok,ein Paar Verbesserungen gibt es:Branch-prediction,Mul in der Alu,HT,und die Load- und Store-Buffers)
-Ist der Cedar Mill nur ein Shrink,oder ist da etwas neues hinzugekommen???
-sry 4 ot
BlackBirdSR
2006-01-10, 10:05:06
Intel-Boys mussen doch arg krank sein.So viele Transistoren auf ungenutzte Features zu verschwenden.(VT im Presy,HT im Willy und Northwood;bis zum C Model und dem 3066)
Ich denke, die Krankheit hat Methode.
Viele Features sind derart in der Architektur verankert, dass man sie oft nicht eben so nachträglich einfügen kann.
Das gilt auch für Hyperthreading. Das war von Anfang an Bestandteil des Pentium4. Während der "reifephase" bis zum Northwood konnte man Bugs beseitigen und Abläufe optimieren. Und so viel Platz braucht SMT auch nicht.
Vanderpool (VT) ist auch so eine Geschichte. Besser man hat es jeder Zeit bereit, als man kommt zu spät. Nebenbei kann man sich aussuchen wann man es aktiviert (wenn es denn funktioniert) und wenn nicht, bugs beseitigen.
Wer weiß schon, ob VT bei dessen Entstehung nicht schon für den Prescott Launch gedacht war. Entweder war der Markt nicht reif, oder es funktionierte aber vielleicht dann doch nicht richtig.
Wie AMD das dann in die neuen K8 geschustert hat? Eventuell waren auch schon Teile davon enthalten. Das kann man unmöglich sagen.
Der Prescott hat sehr wahrscheinlich auch noch große Teile für DRM, die ja bisher ungenutzt sind.
Und 64Bit kommt auch noch dazu.
Und am ENde sollte man nicht vergessen: Die extra Pipelinestufen verschlingen auc sehr viele Transistoren.
p.s.
-Die haetten auch nur einen Northwood shrinken und SSE3 integrieren koennen.(nur so ein wirrer Gedankengang)
-Am Presy erscheint mir nichts logisch zu sein.Die high-latency-caches,die laengere Pipeline.Was haben sie sich nur dabei gedacht?Fuer mich ist das ein Wunder,dass er ueberhaupt so gut mit dem Northwood mithalten kann.(ok,ein Paar Verbesserungen gibt es:Branch-prediction,Mul in der Alu,HT,und die Load- und Store-Buffers)
-Ist der Cedar Mill nur ein Shrink,oder ist da etwas neues hinzugekommen???
-sry 4 ot
Ein Northwood Shrink hätte wohl die angepeilten 5-7GHz+ nicht erreicht. Deswegen startete man bereits nach dem Launch von Williamette den Nachfolger namens Prescott.
Klar hätte man retrospect einfach NW in 65nm auf 4GHz bringen können. Aber man hätte eine CPU mit mehreren Jahren Entwicklungszeit einfach weggeworfen. Dazu (DRM), VT, 64Bit... das Alles hätte Intel gefehlt, und man wäre sehr weit hinter AMD zurückgeflogen.
Ein NW ist also keine Option gewesen.
Prescott erscheint auf den ersten Blick total vermurkst in den Bereichen die du angesprochen hast. Das galt aber auch für den ersten P4 damals.
Bei 1.5GHz waren die Kompromisse an die Taktrate kaum zu verstehen. Schon eher wenn die CPU dann 3.4GHz erreicht bei 130nm.
Bei 3.6GHz ist auch Prescott nicht zu verstehen. Und das hätte man auch nicht müssen. Denn eigentlich sollten wir schon weit über 4GHz sein, und steil in Richtung über 5GHz.
Nur hat das nicht so geklappt. Und zurück bleibt eine CPU, die auf mehr ausleget ist, und dafür bei niedrigeren Taktraten etwas suboptimal arbeitet.
Die höheren Latenzen waren dazu einfach nötig. Die 2 Takte im Willy/NW waren extrem gut. Bei mehr als 5GHz waren die aber wohl nicht mehr zu halten. Gleiches gilt für den L2 Cache.
Auch die lange Pipeline war dazu wohl einfach nötig. Hilft der CPU jetzt nicht mehr viel. Aber wenigstens können sich OCler auf 5GHZ freuen ;)
Was man sich bei All dem gedacht hat? Anno 2000 hat man sich wohl gedacht, man benötigt diese Sachen um über 5GHz zu kommen.
Als man es dann besser wusste, war es wohl zu spät um die CPU neu zu entwickeln. Passiert...
Cedar Mill ist eigentlich nur ein Shrink. Intel hat aber angegeben, dass sie verschiedene Eingriffe auf Transistorebene durchgeführt haben.
So hat man z.B die FAST-ALUs überarbeitet, damit man weniger Verlustleistung bei höherem Takt erreicht.
Intel gibt an, damit 9GHz für die ALUs zu erreichen.
Man kann also davon ausgehen, dass Cedar-Mill und Presler locker 4.5GHz und mehr mit machen.
Ich denke, die Krankheit hat Methode.
Viele Features sind derart in der Architektur verankert, dass man sie oft nicht eben so nachträglich einfügen kann.
Das gilt auch für Hyperthreading. Das war von Anfang an Bestandteil des Pentium4. Während der "reifephase" bis zum Northwood konnte man Bugs beseitigen und Abläufe optimieren. Und so viel Platz braucht SMT auch nicht.
Vanderpool (VT) ist auch so eine Geschichte. Besser man hat es jeder Zeit bereit, als man kommt zu spät. Nebenbei kann man sich aussuchen wann man es aktiviert (wenn es denn funktioniert) und wenn nicht, bugs beseitigen.
Wer weiß schon, ob VT bei dessen Entstehung nicht schon für den Prescott Launch gedacht war. Entweder war der Markt nicht reif, oder es funktionierte aber vielleicht dann doch nicht richtig.
Wie AMD das dann in die neuen K8 geschustert hat? Eventuell waren auch schon Teile davon enthalten. Das kann man unmöglich sagen.
Der Prescott hat sehr wahrscheinlich auch noch große Teile für DRM, die ja bisher ungenutzt sind.
Und 64Bit kommt auch noch dazu.
Und am ENde sollte man nicht vergessen: Die extra Pipelinestufen verschlingen auc sehr viele Transistoren.
Ein Northwood Shrink hätte wohl die angepeilten 5-7GHz+ nicht erreicht. Deswegen startete man bereits nach dem Launch von Williamette den Nachfolger namens Prescott.
Klar hätte man retrospect einfach NW in 65nm auf 4GHz bringen können. Aber man hätte eine CPU mit mehreren Jahren Entwicklungszeit einfach weggeworfen. Dazu (DRM), VT, 64Bit... das Alles hätte Intel gefehlt, und man wäre sehr weit hinter AMD zurückgeflogen.
Ein NW ist also keine Option gewesen.
Prescott erscheint auf den ersten Blick total vermurkst in den Bereichen die du angesprochen hast. Das galt aber auch für den ersten P4 damals.
Bei 1.5GHz waren die Kompromisse an die Taktrate kaum zu verstehen. Schon eher wenn die CPU dann 3.4GHz erreicht bei 130nm.
Bei 3.6GHz ist auch Prescott nicht zu verstehen. Und das hätte man auch nicht müssen. Denn eigentlich sollten wir schon weit über 4GHz sein, und steil in Richtung über 5GHz.
Nur hat das nicht so geklappt. Und zurück bleibt eine CPU, die auf mehr ausleget ist, und dafür bei niedrigeren Taktraten etwas suboptimal arbeitet.
Die höheren Latenzen waren dazu einfach nötig. Die 2 Takte im Willy/NW waren extrem gut. Bei mehr als 5GHz waren die aber wohl nicht mehr zu halten. Gleiches gilt für den L2 Cache.
Auch die lange Pipeline war dazu wohl einfach nötig. Hilft der CPU jetzt nicht mehr viel. Aber wenigstens können sich OCler auf 5GHZ freuen ;)
Was man sich bei All dem gedacht hat? Anno 2000 hat man sich wohl gedacht, man benötigt diese Sachen um über 5GHz zu kommen.
Als man es dann besser wusste, war es wohl zu spät um die CPU neu zu entwickeln. Passiert...
Cedar Mill ist eigentlich nur ein Shrink. Intel hat aber angegeben, dass sie verschiedene Eingriffe auf Transistorebene durchgeführt haben.
So hat man z.B die FAST-ALUs überarbeitet, damit man weniger Verlustleistung bei höherem Takt erreicht.
Intel gibt an, damit 9GHz für die ALUs zu erreichen.
Man kann also davon ausgehen, dass Cedar-Mill und Presler locker 4.5GHz und mehr mit machen.
Mit einem NW-shrink meinte ich eigentlich die Features des Prescotts,in einem NW-Kern eingebaut.(SSE3,VT,64bit,das verbesserte BP,bessere FSB Ausnutzung,HT upgr.;aber auch die kleinere Pipeline,die low-lat.-caches,und natuerlich die Mul in der Alu(aus dem Presy))
-Damit haette die NetBurst in der neuen CPU eine bessere pro Takt Leistung als der NW.
-Wieso hatten sie bei der HTT keine weiteren Enheiten beruecksichtigt (eine 2. FPU z.B.);gerade bei anand gesehen das der P4 (wahrscheinlich Presy) nur 21 ns fuer das Speichern und das Lesen aus dem Cache (7x weniger als der DC Opternon;kein Wunder bei einem Core;der gleiche Cache.Bei den DCs muss C1>>C2,C2read)
-Ich koennte mir vorstellen das eine weitere FPU oder/und ALU noch mehr beim MT gebracht haette.(2 Threads in einem Core die aber verschiedene Einheiten benutzen)
-Vieleicht waere das sogar schneller als ein hypotetischer DC P4 der auf dem shared-Cache-Prinzip des Yonahs aufbaut.(schnellerer Zugriff auf die Daten des anderen Cores(HT-Core :tongue: ),oder der Zugriff auf die Daten die sich in den Registern des anderen Logic-Cores befinden. *ganzwirr*
Darüber hatte ich auch schon spekuliert. Die Veränderungen müssten nichtmal so weit reichen.
Dazu hatte ich ir auch schonmal was zurechtgelegt ;)
TraceCache 16kµOps bei gleicher Latenz (1T)
L1 Latenz um einen Takt senken
L2 wieder 1 MB mit deutlich niedrigerer Latenz
L3 mit 4 MB, shared für 2 Cores
mit der 65nm Fertigung dürfte das für die max. angepeilten 3.6 GHz locker reichen. Die Taktreserven der Logik will man ja offiziell eh nicht ausnutzen :(
Ich nehme an Intel will den Sicherheitsabstand zum Conore wahren. Sonst würde man aus dem Presler mehr rausholen (in Form von Takt).
BlackBirdSR
2006-01-10, 14:21:36
Immer schön solche Spekulationen und Forderungen zu sehen :)
Es gibt ganz sicher Gründe, warum man es so macht.
Darunter fallen Zeit, Kosten, Kompromisse und Entwicklungszeit.
Genau so könnte man für Yonah 64Bit fordern...
´
Wozu eigentlich nen Trace-Cache wenn man einfach nen Brute-Force-Decoder ala AMD nehmen kann der auch 3 Ops/Takt rausschmeißt?
Die Veränderungen müssten nichtmal so weit reichen.Das was du da vorschlägst ist verdammt weitreichend. Cache-Latenzen senken ist nicht einfach.
Man wird doch mal träumen dürfen ;)
Dass Intel die Taktreserven wohl nicht ausnutzen wird, macht mich nachdenklich im Bezug auf den Conroe. Wird der wohl doch keinen deutlichen Leistungsschub bringen?
Wozu eigentlich nen Trace-Cache wenn man einfach nen Brute-Force-Decoder ala AMD nehmen kann der auch 3 Ops/Takt rausschmeißt?
Der würde keinen so hohen Takt mitmachen und die Pipeline nochmal verlängern....
GloomY
2006-01-10, 18:57:34
Um Längen? Konzeptionell unterscheiden sich beide praktisch nicht voneinander. Es werden jeweils Threads mittels Multilevel-Feedback-Queues gescheduled.Und werden bei CPU-limitierten Prozessen auch deren Prioritäten mit der Zeit gesenkt wie bei Linux, um das Aushungern von anderen (z.B. I/O-limitierten) Prozessen zu verhindern?
Zudem gibt es noch andere Sachen neben dem reinen Scheduling-Algorithmus, der die Eignung für Mehrprozessormaschinen beeinflusst. So z.B. wie fein der Kernel gelockt ist uvm...
Wenn man es genauer nimmt ist die Dual Core Realisierung im Yonah sogar fortschrittlicher als im derzeitigen K8 (Manchester/Toledo).Ack. L1 <-> L1 Cache Transfer - also direkt von Core zu Core - soll ja beim Yonah möglich sein :)
Zum anderen muss man sagen, dass die gemeinsame Nutzung des L2 eine Sache ist, die nicht primäre besser oder schlechter ist. Das kommt auf das Szenario an und wie gut die von Intel entwickelte Technik der dynamischen Cacheaufteilung funktioniert (ist mir bisher noch ein Rätsel).
Es ist einfach eine Design-Entscheidung wie viele andere Dinge auch. Ob nun eher gut oder eher schlecht lässt sich imho hier nicht im Allgemeinen sagen.
Wozu eigentlich nen Trace-Cache wenn man einfach nen Brute-Force-Decoder ala AMD nehmen kann der auch 3 Ops/Takt rausschmeißt?Er dekodiert maximal drei x86-Ops aus (bis zu) 16 Bytes Code.
Der Trance Cache senkt die Kosten für einen falsch vorhergesagten Sprung. Man munkelt, dass es beim Northwood 4 oder 6 Pipelinestufen vor dem TC geben soll. Diese würden ohne TC noch dazukommen.
Aber du schreibst ja selbst: Brute Force. Das heisst, dass die Dekoder nicht nur eine Menge an Transistoren brauchen sondern auch ständig am Ackern sind und Strom verbrauchen. Man muss also durchaus überlegen, was man hier wählt. So offensichtlich wie du es schreibst sind die Dekoder des Athlons nicht überlegen.
Man wird doch mal träumen dürfen ;)Aber dabei bitte realistisch bleiben! ;)
GloomY
2006-01-10, 18:58:01
http://realworldtech.com/forums/index.cfm?action=detail&PostNum=3452&Thread=2&entryID=51339&roomID=11
Soll heissen - die niedrigere Assoziativität des L2-Caches spart Transistoren.
Ein Core 15mio Transistoren x 2
+ den Transistoren, die für den Arbiter(geschätzt 5,5Mio Transistoren) nötig sind = in Summe 35,5Mio Transistoren für "Logik".
151Mio - 35,5 Mio = 115Mio Transistoren für Cache
Der Cache des Dothan benötigt 125Mio Transistoren:http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=3&t=000015&p=3
Der Cache des Yonah benötigt nur 115Mio Transistoren.
Grüße,
Tom
//Edit:
Rein flächenmässige Aufteilung des Dies:
Ein Core 24%
der Arbiter 5,5%
der L2-Cache 46,5%
Ein Core hat ca 15mio Transistoren, angenommen der Arbiter ist etwa gleichdicht gepackt, damit ergibt sich für den Arbiter die 5,5,Mio Transistoren.
Wenn nun ein einzelner Yonah-Core noch mehr Transistoren beherbergt als angenommen(vielleicht ist der SSE3-Teil größer als zunächst angenommen) bleiben noch weniger Transistoren für den L2-Cache über.Sorry, aber ich glaube nicht, dass man da so viel sparen kann. Bei z.B. halbierter Assotiativität kann man die Hälfte der Tag-Vergleicher einsparen. Und ein Tag-Vergleicher ist nun wirklich nicht sehr komplex.
Das ist eine Schaltung, die als Input zwei Mal n Bits bekommt und diese paarweise vergleicht. Wenn diese an jeder Stelle übereinstimmen, gibt man eine 1 aus, sonst eine Null.
Diese N Vergleiche kann man mit einem einfachen XOR ausführen und die Ergbnisse dann alle mit AND verknüpfen. Die CMOS Schaltung dafür könnte ich wahrscheinlich auf ein paar Blatt DIN-A4 Papier zeichnen. Damit kann man keine 10 Mio. Transistoren einsparen.
Außerdem: Wie viel fach assotiativ sollte der L2 Cache von Yonah denn dann sein? Der Dothan ist 8-fach, damit müsste der Yonah höchstens 4-fach, vielleicht sogar 2-fach sein. Das halte ich für zu wenig, insbesondere weil sich die Cores bei Yonah den L2 ja auch teilen müssen und damit eine erhöhte Konfliktwahrscheinlichkeit besteht. Da müsste man eigentlich eher mehr als weniger Assotiativität verwenden...
VooDoo7mx
2006-01-10, 21:27:49
Zum anderen muss man sagen, dass die gemeinsame Nutzung des L2 eine Sache ist, die nicht primäre besser oder schlechter ist. Das kommt auf das Szenario an und wie gut die von Intel entwickelte Technik der dynamischen Cacheaufteilung funktioniert (ist mir bisher noch ein Rätsel).
Wann könnte sich denn 2MB SmartCache als Nachteil im vergleich zu 2x1MB erweisen?
Meinst du vielleicht wenn sich ein Execution Core mehr als 1MB nimmt un der andere zu kurz kommt?
Der Conroe soll ja 4MB L2 Smartcache haben.
Muh-sagt-die-Kuh
2006-01-10, 23:06:45
Außerdem: Wie viel fach assotiativ sollte der L2 Cache von Yonah denn dann sein? Der Dothan ist 8-fach, damit müsste der Yonah höchstens 4-fach, vielleicht sogar 2-fach sein. Das halte ich für zu wenig, insbesondere weil sich die Cores bei Yonah den L2 ja auch teilen müssen und damit eine erhöhte Konfliktwahrscheinlichkeit besteht. Da müsste man eigentlich eher mehr als weniger Assotiativität verwenden...Ich gehe von mindestens 8-fach, wenn nicht sogar 16-fach aus. Ansonsten ist, wie du auch sagst, die Anzahl der Conflict-Misses einfach viel zu hoch.
Muh-sagt-die-Kuh
2006-01-10, 23:14:02
Und werden bei CPU-limitierten Prozessen auch deren Prioritäten mit der Zeit gesenkt wie bei Linux, um das Aushungern von anderen (z.B. I/O-limitierten) Prozessen zu verhindern?
Zudem gibt es noch andere Sachen neben dem reinen Scheduling-Algorithmus, der die Eignung für Mehrprozessormaschinen beeinflusst. So z.B. wie fein der Kernel gelockt ist uvm...Windows senkt aus Prinzip keine Prozessprioritäten ab, es erhöht dafür die Priorität von Prozessen nach dem Abschluss einer I/O Operation für eine gewisse Zeit. Dazu werden die Queues regelmässig nach verhungernden Prozessen durchsucht und diese werden auch temporär mit einer erhöhten Priorität versehen.
Wie fein der Kernel gelockt ist, kann man ohne den Quellcode leider schwer sagen....ich gehe aber mal davon aus, dass es nicht so katastrophal schlecht wie bei Win9x gelöst ist ;)
mocad_tom
2006-01-11, 01:00:01
Sorry, aber ich glaube nicht, dass man da so viel sparen kann. Bei z.B. halbierter Assotiativität kann man die Hälfte der Tag-Vergleicher einsparen. Und ein Tag-Vergleicher ist nun wirklich nicht sehr komplex.
Das ist eine Schaltung, die als Input zwei Mal n Bits bekommt und diese paarweise vergleicht. Wenn diese an jeder Stelle übereinstimmen, gibt man eine 1 aus, sonst eine Null.
Die Komparatoren sind nicht das Aufwändige.
Die Verwaltung welcher Block nun rausgeschmissen werden soll ist das eigentlich Aufwändige.
http://www.sandpile.org/impl/pm.htm
http://de.wikipedia.org/wiki/Least_recently_used
Bei 64 Byte Blockgröße, 8-fach-assoziativ und 2097152Byte Cachegröße ergibt sich eine Tabelle für die Verwaltung von LRU mit 4096 Zeilen a 3x8Bit
= 98304 bit für die LRU-Liste
Bei 64 Byte Blockgröße, 4-fach-assoziativ und 2097152Byte Cachegröße ergibt sich eine Tabelle für die Verwaltung von LRU mit 8192 Zeilen a 2x4Bit
= 65536 bit für die LRU-Liste
Wohlgemerkt Angaben nur in Bit, noch nicht in Transistoren.
Die Verwaltungsinfrastruktur muss auch entsprechend größer werden.
Cache-Design ist kein Wunschkonzert, sonst würde es wohl nur 32-weg assoziative Caches geben.
Grüße,
Tom
Muh-sagt-die-Kuh
2006-01-11, 01:50:21
Cache-Design ist kein Wunschkonzert, sonst würde es wohl nur 32-weg assoziative Caches geben.
Grüße,
TomWohl eher vollassoziative...wenn schon, denn schon ;)
Allerdings ist schon der Unterschied zwischen 8-way und 16-way nicht wirklich groß, abnehmendem Grenznutzen sei Dank.
mocad_tom
2006-01-11, 08:07:41
>>Zitat von VooDoo7mx
>>Wenn man es genauer nimmt ist die Dual Core Realisierung im Yonah
>>sogar fortschrittlicher als im derzeitigen K8 (Manchester/Toledo).
Ack. L1 <-> L1 Cache Transfer - also direkt von Core zu Core - soll ja beim Yonah möglich sein :)
L1<->L1 Cache Transfer kommt erst mit dem Merom, Conroe, Woodcrest
Grüße,
Tom
Außerdem: Wie viel fach assotiativ sollte der L2 Cache von Yonah denn dann sein? Der Dothan ist 8-fach, damit müsste der Yonah höchstens 4-fach, vielleicht sogar 2-fach sein. Das halte ich für zu wenig, insbesondere weil sich die Cores bei Yonah den L2 ja auch teilen müssen und damit eine erhöhte Konfliktwahrscheinlichkeit besteht. Da müsste man eigentlich eher mehr als weniger Assotiativität verwenden...
Sicher, dass es 8-fach beim Dothan ist? Ich ging bisher von 4-fach aus, was mir zumindest bei meinem Celli-Dothan auch CPU-Z bestätigt. Der L1-Cache verfügt aber in der Tat über 8-fache Assozativität.
Oder wurde der Celli da auch beschnitten? Wäre mir zumindest neu.
MfG,
Raff
BlackBirdSR
2006-01-11, 09:06:36
Sicher, dass es 8-fach beim Dothan ist? Ich ging bisher von 4-fach aus, was mir zumindest bei meinem Celli-Dothan auch CPU-Z bestätigt. Der L1-Cache verfügt aber in der Tat über 8-fache Assozativität.
Oder wurde der Celli da auch beschnitten? Wäre mir zumindest neu.
MfG,
Raff
Wurde beschnitten, so wie alle Celerons.
Beim Deaktivieren des Caches geht auch die Hälfte der Assotiativität verloren.
Ah, so läuft das, wieder was gelernt. =) Naja, sonderlich viel spüren tut man davon aber nicht.
MfG,
Raff
robbitop
2006-01-11, 11:54:14
Wurde beschnitten, so wie alle Celerons.
Beim Deaktivieren des Caches geht auch die Hälfte der Assotiativität verloren.
Beim K7/8 ist das allerdings AFAIK nicht der Fall.
Beim K7/8 ist das allerdings AFAIK nicht der Fall.
Nein??Was ist mit einem Duron?? ;)
GloomY
2006-01-11, 14:26:42
Wann könnte sich denn 2MB SmartCache als Nachteil im vergleich zu 2x1MB erweisen?
Meinst du vielleicht wenn sich ein Execution Core mehr als 1MB nimmt un der andere zu kurz kommt?
Der Conroe soll ja 4MB L2 Smartcache haben.Wie immer bei gleichzeitiger Nutzung von Cache durch mehrere Threads kann es passieren, dass der eine Thread mit seiner Cache-Aktivität (Lesen, Schreiben) andere Cachelines verdrängt, die der andere Thread gerade braucht.
Die Caches sind üblicherweise eben nicht vollassotiativ, aber selbst wenn das der Fall wäre, gibt es andere Szenarien, wo ein Verdrängen denkbar ist:
Ein Thread hat ein sehr großes Working-Set (wesentlich größer als der Cache) und produziert damit ständig Cache-Misses, während der andere ein eher kleines hat. Bei getrennten Caches kann der mit dem kleinen Working-Set seinen Cache sehr gut nutzen, während bei einem gemeinsamen Cache beide Threads Misses haben, weil der mit dem großen Working-Set den gesamten Cache in Anspruch nimmt und damit die Daten des anderen verdrängt.
Hier kann dann eine dynamische Cache-Zuteilung helfen, wenn diese diesen Sachverhalt erkennt.
RealworldTech (http://www.realworldtech.com/page.cfm?ArticleID=RWT101405234615&p=2) hat die Vor- und Nachteile von gemeinsamen Caches (und auch I/O-Interfaces) gegenübergestellt.
L1<->L1 Cache Transfer kommt erst mit dem Merom, Conroe, Woodcrest
Grüße,
TomQuelle?
Nein??Was ist mit einem Duron?? ;)Der hat ebenfalls einen 16-fach assotiativen L2 Cache.
Wie immer bei gleichzeitiger Nutzung von Cache durch mehrere Threads kann es passieren, dass der eine Thread mit seiner Cache-Aktivität (Lesen, Schreiben) andere Cachelines verdrängt, die der andere Thread gerade braucht.
Die Caches sind üblicherweise eben nicht vollassotiativ, aber selbst wenn das der Fall wäre, gibt es andere Szenarien, wo ein Verdrängen denkbar ist:
Ein Thread hat ein sehr großes Working-Set (wesentlich größer als der Cache) und produziert damit ständig Cache-Misses, während der andere ein eher kleines hat. Bei getrennten Caches kann der mit dem kleinen Working-Set seinen Cache sehr gut nutzen, während bei einem gemeinsamen Cache beide Threads Misses haben, weil der mit dem großen Working-Set den gesamten Cache in Anspruch nimmt und damit die Daten des anderen verdrängt.
Hier kann dann eine dynamische Cache-Zuteilung helfen, wenn diese diesen Sachverhalt erkennt.
RealworldTech (http://www.realworldtech.com/page.cfm?ArticleID=RWT101405234615&p=2) hat die Vor- und Nachteile von gemeinsamen Caches (und auch I/O-Interfaces) gegenübergestellt.
Quelle?
Der hat ebenfalls einen 16-fach assotiativen L2 Cache.
Mit 64KB L2 Cache??Das ist doch pervers.
Wieso eine so hoche Assotiativität bei so einen kleinen Cache,und der geringen Abhaengigkeit einer K7/8 CPU vom L2 Cache??
GloomY
2006-01-11, 14:38:36
Die Komparatoren sind nicht das Aufwändige.
Die Verwaltung welcher Block nun rausgeschmissen werden soll ist das eigentlich Aufwändige.
http://www.sandpile.org/impl/pm.htm
http://de.wikipedia.org/wiki/Least_recently_used
Bei 64 Byte Blockgröße, 8-fach-assoziativ und 2097152Byte Cachegröße ergibt sich eine Tabelle für die Verwaltung von LRU mit 4096 Zeilen a 3x8Bit
= 98304 bit für die LRU-Liste
Bei 64 Byte Blockgröße, 4-fach-assoziativ und 2097152Byte Cachegröße ergibt sich eine Tabelle für die Verwaltung von LRU mit 8192 Zeilen a 2x4Bit
= 65536 bit für die LRU-Liste
Wohlgemerkt Angaben nur in Bit, noch nicht in Transistoren.
Die Verwaltungsinfrastruktur muss auch entsprechend größer werden.
Cache-Design ist kein Wunschkonzert, sonst würde es wohl nur 32-weg assoziative Caches geben.
Grüße,
TomDeine Rechnung ist richtig, aber die Frage ist, ob hier wirklich echtes LRU verwendet wird oder doch nur Pseudo-LRU (wie beim P4 oder Athlon).
Bei der eigentlichen Frage ging es um 10 Mio. Transistoren, die "fehlen". Sind 100 Transistoren / Bit (10^7 Transistoren / 10^5 Bit) nicht ein bisschen viel?
Zum anderen hast du mit deiner Rechnung oben ja aufgezeigt, was man hier sparen kann: 98304 - 65536 = 32768 [Bits]. Im Verhältnis zu den 10 Mio. Transistoren ist das wiederum nichts.
Das unterstreicht doch eigentlich nur meine These, dass diese 10 Mio. Transistoren nicht durch alleinige Reduzierung der Assotiativität zu stande kommen können.
Nein??Was ist mit einem Duron?? ;)Der Duron hatte doch voll Assoziativität beim Cache.
Der Duron hatte doch voll Assoziativität beim Cache.
Tja,das passiert wenn man zu viel trinkt. :ulol:
Ich glaubte mich daran erinern zu koennen,das Duron eigentlich ein Athlon mit 1/4 des Caches war/ist. :|
War er auch. Trotzdem hatte er die gleiche Cache-Assoziativität.
Was daran pervers sein soll weiß ich nicht. Verstehst du denn was Assoziativität ist?
GloomY
2006-01-11, 14:47:31
Mit 64KB L2 Cache??Ja.
Das ist doch pervers.
Wieso eine so hoche Assotiativität bei so einen kleinen Cache,und der geringen Abhaengigkeit einer K7/8 CPU vom L2 Cache??Ich denke, dass das einfach noch ein Überbleibsel vom normalen Thunderbird ist.
btw: Was ist leichter zu implementieren? Die Anzahl der Sets zu reduzieren und die Anzahl der Lines pro Set gleich zu lassen oder die Anzahl der Sets gleich zu lassen und deren Inhalt (Anzahl Lines pro Set) zu verkleinern? AMD hat mit dem Duron ersteres gemacht, Intel mit dem P4 Celeron letzteres.
War er auch. Trotzdem hatte er die gleiche Cache-Assoziativität.
Was daran pervers sein soll weiß ich nicht. Verstehst du denn was Assoziativität ist?
Nein,damit meinte ich die Deaktivierung der anderen 3/4 und die *Verkleinerung der Assoziativität.
edit:
Falsches Wort,Verringerung waere besser.
Kann es sein, dass du manchmal einfach nicht verstehst was wir schreiben? :|
Ja.
Ich denke, dass das einfach noch ein Überbleibsel vom normalen Thunderbird ist.
btw: Was ist leichter zu implementieren? Die Anzahl der Sets zu reduzieren und die Anzahl der Lines pro Set gleich zu lassen oder die Anzahl der Sets gleich zu lassen und deren Inhalt (Anzahl Lines pro Set) zu verkleinern? AMD hat mit dem Duron ersteres gemacht, Intel mit dem P4 Celeron letzteres.
Bei einem Duron ist die Assoziativität gleich geblieben (die Groesse des Caches aber nicht),bei einem Cely (von 256/512>>128,und von 8>2)ist beides nach unten gegangen.Hab ich Recht?
edit: @Coda
Kann sein,dich versteh ich eigentlich nur wenn ich dicht bin. ;D
Kann sein,dich versteh ich eigentlich nur wenn ich dicht bin. ;DWas soll das?
Was soll das?
Ein kleiner Schaerz meinerseits,du siehst wie ein lustiger Mensch aus und ich wollte dir eigentlich die Stimmung etwas aufpeppen.
GloomY
2006-01-11, 15:11:07
Bei einem Duron ist die Assoziativität gleich geblieben (die Groesse des Caches aber nicht),bei einem Cely (von 256/512>>128,und von 8>2)ist beides nach unten gegangen.Hab ich Recht?Ja, das schrieb ich doch :)
btw: Jetzt alle mal bitte etwas beruhigen und ganz genau lesen, was der andere geschrieben hat. Dann wird alles gut ;)
StefanV
2006-01-11, 15:19:05
AMD hat mit dem Duron ersteres gemacht, Intel mit dem P4 Celeron letzteres.
Nein, das haben sie schon mit dem Coppermine-128 Sellerie bzw Tuleron gemacht.
Gipsel
2006-01-11, 16:10:34
Darüber hatte ich auch schon spekuliert. Die Veränderungen müssten nichtmal so weit reichen.
Dazu hatte ich mir auch schonmal was zurechtgelegt ;)
TraceCache 16kµOps bei gleicher Latenz (1T)
[..]
Na, so einfach ist das nicht.
Zuerst werden für den TraceCache scheinbar (sehen auf einem Dieplot sehr ähnlich aus) die gleichen Speicherzellen genutzt, wie für den L2. Die Latenz liegt deswegen eher im Bereich von 7 bis 18(?) Takten. Das ist auch unkritisch, da auf den TC im Optimalfall nur sequentiell zugegriffen wird (das ist ja gerade ein Vorteil, daß die decodierten Instruktionen in der Reihenfolge, wie sie vermutlich ausgeführt werden, in traces abgelegt werden).
Außerdem läuft der TraceCache (oder das Interface) nur mit halbem CPU-Takt, es kommen also nur jeden zweiten Takt Instruktionen am Scheduler an. Dafür dann aber immer 6 auf einmal. Deswegen müßte die Größe des TC immer durch 6 teilbar sein (eine cacheline ist 6µOps lang). Die nächste "natürliche" TC-Größe wäre 18kµOps oder 24kµOps gewesen.
Intel hatte übrigens für den Prescott gerüchteweise anfangs 16kµOps als TC vorgesehen. Auch war für diese Größe bereits ein Descriptor für den CPUID-Befehl definiert worden. Das führte zusammen mit den ersten Die-Fotos vom Prescott und den dort erkennbaren sehr großen Veränderungen zum Northwood, der massiv angestiegenen Transistorzahl und der Ankündigung von Intel das HT zu verbessern zu Spekulationen, der Prescott könnte praktisch fast eine DualCore CPU sein. Zumindest sollten einige Ausführungseinheiten (zumindest die ALUs) verdoppelt worden sein. Der TraceCache hätte eine CacheLine von nur noch 4µOps gehabt, dafür aber mit vollem Takt gearbeitet (effektiv 33% mehr Durchsatz).
Dies hätte HT-tatsächlich stark geholfen, da dann nicht mehr nur jeden 4. Takt 6µOps eines Threads zum Scheduler gekommen wären, sondern jeden 2.Takt 4µOps, für die auch mehr Ausführungseinheiten zur Verfügung stünden (bei aktiviertem HT schaltet der TraceCache immer zwischen den beiden virtuellen CPUs um, wenn nicht eine per HLT, MWAIT oder so schlafen gelegt wird).
Im Nachhinein betrachtet, wäre dann allerdings der Stromverbrauch der Prescotts wohl noch einmal deutlich höher und damit nicht mehr beherrschbar gewesen.
So, genug von den alten Geschichten.
Sehr interessant Gipsel :)
Gipsel
2006-01-11, 19:28:23
So, genug von den alten Geschichten.
Sehr interessant Gipsel :)
Also dann doch noch ein wenig mehr ;)
Schaut man sich ein Die-Foto von Northwood im Vergleich zum Prescott an, so erkennt man tatsächlich, daß die Fast-ALUs offensichtlich verdoppelt wurden. Allerdings können diese nicht als zusätzliche Ausführungseinheiten angesprochen werden. Dies hätte einen deutlich aufwendigeren Scheduler erfordert. Außerdem wurde die AGU nicht verdoppelt. Der zweite ALU-Block (mit je 2 Fast-ALUs) dient beim Prescott wohl nur dazu, 64Bit Operationen auszuführen, die beiden arbeiten in einer "staggered" Konfiguration (ein Block rechnet die unteren 32Bit, der andere die oberen 32). Ziemlich aufwendig, aber wohl nötig für die sehr hohen angepeilten (aber jetzt nicht verwirklichten) Taktraten.
PS: Willamette und Northwood nutzen für ihre Fast ALUs den gleichen Trick. Eine Fast ALU besteht eigentlich aus 2 16Bit ALUs bei allerdings doppeltem Takt. Neu beim Prescott ist jetzt, daß man wirklich räumlich getrennt 2 ALU-Blöcke findet.
Diese Art der Erweiterung findet man beim Schritt K7->K8 nicht. Da sind die ALUs lediglich ein kleines bißchen größer geworden, um mit 64Bit klarzukommen.
Also das, dass die zwei Fast-ALUs angeblich für 64bit verwendet werden habe ich auch schon gehört.
Allerdings frage ich mich wie man mit räumlich getrennten Einheiten z.B. eine 64bit Multiplikation ausführen will.
Gipsel
2006-01-11, 19:56:38
Also das, dass die zwei Fast-ALUs angeblich für 64bit verwendet werden habe ich auch schon gehört.
Allerdings frage ich mich wie man mit räumlich getrennten Einheiten z.B. eine 64bit Multiplikation ausführen will.
Ich wollte auf das Körnchen Wahrheit hinaus, das in den ersten Gerüchten von den verdoppelten ALUs steckte. Von der Verbesserung des Hyperthreadings auf diese Weise blieb am Ende 64Bit Funktionalität.
Die Verdopplung betrifft ja nur die Fast ALUs. Und die können keine Multiplikation. Die können praktisch nur Addition/Subtraktion und logische Verknüpfungen (alles was sich gut in kleineren Bit-Häppchen abarbeiten läßt), deswegen können die auch mit doppeltem Takt laufen.
Willamette und Northwood hatten sogar überhaupt keine Integer-Multiplikationseinheit. Deswegen war das auch grottenlahm (14-18 Takte Latenz). Das wurde erst zur FP-Einheit geschickt und dann wieder zurück in das Integer-Registerfile. Erst mit dem Prescott zog eine richtige IMUL-Einheit in den P4 ein (die allerdings auch nicht bei doppeltem Takt läuft und mit 10 Takten Latenz arbeitet).
BlackBirdSR
2006-01-11, 20:06:21
Steht auch alles so auf Chip-Architect oder?
Schade, dass Hans momentan nichts neues bringt.
Die Verdopplung betrifft ja nur die Fast ALUs. Und die können keine Multiplikation. Die können praktisch nur Addition/Subtraktion und logische Verknüpfungen (alles was sich gut in kleineren Bit-Häppchen abarbeiten läßt), deswegen können die auch mit doppeltem Takt laufen.Stimmt, das hab ich nicht bedacht. Dann wirds wohl wirklich so sein :)
Gipsel
2006-01-12, 12:47:50
Steht auch alles so auf Chip-Architect oder?
Schade, dass Hans momentan nichts neues bringt.
Ja, und zum kleinen Teil in den Optimierungshandbüchern für den P4. Ich habe die Artikel damals regelrecht verschlungen. Wirklich schade, daß da praktisch seit zweieinhalb Jahren nichts mehr passiert ist. Der Kram mit den Leptonenmassen und der Feinstrukturkonstante ist ja eher etwas esoterisch (sage ich als Physiker).
mocad_tom
2006-01-13, 20:18:42
Mal wieder Back-2-Topic und auch bezugnehmend auf die heutigen News bei http://www.3dcenter.de/#2006-01-13 (habt ihr auch für die aktuellen news Direktlinks?)
Ich habe gestern auch mal verstärkt nach Performance-Reviews gesucht - bis auf Anandtech nichts.
Und selbst hier wirkt die Auswahl nicht allumfassend - zum Teil böswillig beschnitten.
Performancewerte auf dem Siziertisch - Fehlanzeige.
Wieso schnappt man sich nicht Quake 4 Patch 1.05?
Mit und ohne SMP mit Yonah, Dothan, Athlon X2 bei gleichem Takt.
Bei allen Pentium Extreme Reviews gehört dies zum guten Ton.
Single-Thread-Integer-Leistung?
Irgendwo muss sich dies bemerkbar machen:
Dothan L2-Cache-Latency 10 cycles
Yonah L2-Cache-Latency 14 cycles
Das ist keine kleine Erhöhung.
Grüße,
Tom
VooDoo7mx
2006-01-13, 20:39:40
Das liegt vielleicht daran, dass es die ensprechenden Prozessoren noch nicht am Markt gibt und Intel keine Presse-Kits verschickt hat. (ist auch nicht üblich bei Mobile CPUs)
So muss man warten bis die CPUs am Markt eintreffen.
In Japan kann man sie beispielsweise schon erwerben.
In Deutschland hat z.B. nur ein einzelner Händler die CPUs erst einmal gelistet.
Die Allgemeinheit der Core Duo Notebooks wird sowieso erst im Februar aufschlagen.
kann nix, da is das SLI/CF (!) Yonah mobo von Aopen schon viel geiler ;)
Genau, als schmankerl für dich:
http://www.computerdiy.com.tw/data/enita/102/aopen/t1.jpg
http://www.computerdiy.com.tw/modules/news/article.php?storyid=1834
AOpen plans to include some neat OC functions in the BIOS for users to tweak further such as CPU voltages from 0.7375 to 1.5V, DDR2 voltages from 1.8 to 2.15V as well as FSB adjustments from 166MHz to 266MHz or more.
http://www.vr-zone.com/?i=3086
Noch nie zuvor mussten Unternehmenskunden auf neueste Prozessoren länger warten als Lifestyle-Käufer. Nachteile drohen für Dell, HP und Co.
Grosse Unternehmenskunden, die auf Marken wie Dell und HP setzen, sind verärgert: die neueste Intel-Prozessorgeneration der Dual-Core Yonah-Chips ist in Apple Mac Computern zu haben - nicht aber in Notebooks und Desktop-PCs für Windows-Betriebssysteme, wie sie zu Zehntausenden von Unternehmen verwendet werden.
Wie die britische Presse berichtet, sind IT-Einkäufer grosser Unternehmen jetzt verstört über die subjektiv empfundene Benachteiligung.
http://www.gmx.net/de/themen/computer/hightech/technik-trends/1795942,cc=000000149100017959421nTlJk.html
Senior Sanchez
2006-01-17, 19:45:12
Weiß eigentlich jemand ob man die Abschaltung eines Cores erzwingen kann? Sodass Yonah, sofern es der Nutzer möchte, dann immer nur mit einem Core arbeitet? Das sollte ja den Stromverbrauch reduzieren, oder?
Die LV und ULV-Modelle (ich weiß, die heißen jetzt anders), sind diese bei gleichem Takt langsamer als die normalen Yonahs? Wie war es bisher beim pentium-m?
Die LV und ULV-Modelle (ich weiß, die heißen jetzt anders), sind diese bei gleichem Takt langsamer als die normalen Yonahs? Wie war es bisher beim pentium-m?
nö, die spannung hat nichts mit der geschwindigkeit zu tun, es sind lediglich speziell aussortierte cpus die auch mit niedriger spannung stabil laufen.
Senior Sanchez
2006-01-17, 20:48:48
nö, die spannung hat nichts mit der geschwindigkeit zu tun, es sind lediglich speziell aussortierte cpus die auch mit niedriger spannung stabil laufen.
So habe ich es mir auch gedacht, aber ich frag ja lieber nach :)
Kann man ungefähr abschätzen, um wieviel da die potenzielle Akkulaufzeit steigen könnte bei dem Einsatz einer LV/ULV CPU?
klutob
2006-01-17, 21:07:54
So habe ich es mir auch gedacht, aber ich frag ja lieber nach :)
Kann man ungefähr abschätzen, um wieviel da die potenzielle Akkulaufzeit steigen könnte bei dem Einsatz einer LV/ULV CPU?
(Wurzel der TDP in Watt geteilt durch Vcore der normalen CPU x Vcore der ULV CPU)².
Senior Sanchez
2006-01-17, 21:09:55
Wurzel der TDP in Watt geteilt durch Vcore der normalen CPU x Vcore der ULV CPU zum Quadrat.
Danke, war zu faul das Tafelwerk rauszusuchen *g*
VooDoo7mx
2006-01-17, 21:34:32
Danke, war zu faul das Tafelwerk rauszusuchen *g*
Willst du dich lächerlich machen, oder glaubst du das wirklich? :|
Man brauch auch nicht unbedingt immer Low Voltage CPUs. Beim Pentium M kann z.b. die Spannung auch manuell mit Software-Tools absenken.
Mein Pentium M730 braucht für seine 1,6GHz nicht unbedingt die vollen 1,356V. Der begnügt sich schon mit 0,908V für den vollen Takt.
Im Stromsparmodus sind auch keine 0.988V von Nöten. Hier reichen 0,700V. Leider geht es ab hier nicht weiter runter.
So habe ich es mir auch gedacht, aber ich frag ja lieber nach :)
Kann man ungefähr abschätzen, um wieviel da die potenzielle Akkulaufzeit steigen könnte bei dem Einsatz einer LV/ULV CPU?
(Uulv/Unorma)²; dann hast du den prozentuellen unterschied zwischen den leistungsaufnahmen der verschiedenen cpus.
für eine einfache betrachtung kannst du aber auch die TDP-werte miteinander vergleichen, wobei dieser bei der normalen variante wahrscheinlich tendenziell mehr toleranz enthält.
daraus auf die akkulaufzeit zu schließen ist aber recht schwierig, schließlich ist die cpu nicht der einzige stromverbraucher, zusätzlich macht es auch große unterschiede was man mit dem notebook macht.
Senior Sanchez
2006-01-18, 16:49:51
Willst du dich lächerlich machen, oder glaubst du das wirklich? :|
Was meinst du?
Sicher weiß ich, dass es noch andere Stromfresser gibt, mir ging es nur um den relativen Unterschied der CPUs beim Stromverbrauch.
das Datenblatt VT schon bei den aktuellen Core-Duo-Modellen als vorhanden auf. Auf Nachfrage bestätigte Intel gegenüber heise online, dass VT in den aktuellen Yonah-Kernen schon eingebaut sei, dass es sich aber um eine OEM-Option handele. Das bedeutet, die Notebook-Hesteller müssten VT bei ihren Geräten im BIOS einschalten. Derzeit ist jedoch kein Core-Duo-Notebook mit aktiviertem VT bekannt.
http://www.heise.de/newsticker/meldung/68506
Senior Sanchez
2006-01-18, 20:03:41
das Datenblatt VT schon bei den aktuellen Core-Duo-Modellen als vorhanden auf. Auf Nachfrage bestätigte Intel gegenüber heise online, dass VT in den aktuellen Yonah-Kernen schon eingebaut sei, dass es sich aber um eine OEM-Option handele. Das bedeutet, die Notebook-Hesteller müssten VT bei ihren Geräten im BIOS einschalten. Derzeit ist jedoch kein Core-Duo-Notebook mit aktiviertem VT bekannt.
http://www.heise.de/newsticker/meldung/68506
Ehm, das Vanderpool dabei ist, war doch schon länger klar. Das einzige was neu ist, ist die Sache mitm BIOS wobei das auch auf der Hand liegt, dass es dort ja irgendwo aktiviert werden müsste.
Juerg
2006-01-18, 20:45:01
Der Duron hatte doch voll Assoziativität beim Cache.Ausserdem ist er exklusiv. Das heisst bei einem L1 Cache-Miss gehts gerade ab ins RAM... deshalb ist die Abhängigkeit der Performance des K7 vom L2 (zumindest beim Duron) recht niedrig. Erinnere ich mich richtig?
Ausserdem ist er exklusiv. Das heisst bei einem L1 Cache-Miss gehts gerade ab ins RAM...
nö, bei einem L1-miss geht es auch erstmals in den L2 und erst dann in den RAM.
lediglich haben L1 und L2 immer unterschiedliche daten, wogegen bei intel die nächsthöhere cacheebene immer die daten der darunterliegenden ebenen enthalten sind.
Er hat recht. Wenn die Daten nicht im L1 liegen, dann liegen sie auch nicht im L2, also muss er sie aus dem Speicher holen.
StefanV
2006-01-18, 21:14:43
nö, bei einem L1-miss geht es auch erstmals in den L2 und erst dann in den RAM.
lediglich haben L1 und L2 immer unterschiedliche daten, wogegen bei intel die nächsthöhere cacheebene immer die daten der darunterliegenden ebenen enthalten sind.
Nein, das ist falsch, zumindest bei den AMD Prozessoren ab K7.
Es hat schon einen Grund, warum manch einer beim TBird/Palomino/T-Bred 384k L2 Cache angegeben haben, denn in diesem Falle kann man die Caches addieren, was bei Intel nicht geht, da hättest recht...
Oder kurz gefasst: er sprach von exklusiven Caches, du von inklusiven.
Muh-sagt-die-Kuh
2006-01-19, 00:23:11
Er hat recht. Wenn die Daten nicht im L1 liegen, dann liegen sie auch nicht im L2, also muss er sie aus dem Speicher holen.Wenn das so wäre, dann wären mehrere Cache-Ebenen vollkommen überflüssig.
Die Lookup-Reihenfolge ist sowohl bei exklusiven als auch bei inklusiven L2-Caches identisch. Erst wird der L1 überprüft, bei einem Miss der L2. Erst wenn auch dort ein Miss auftritt wird auf den Speicher zugegriffen. Ein exklusiver L2 Cache tauscht lediglich Speicherplatz im L2 gegen einen Victim-Buffer und die zugehörige Logik ein. Welche Verwaltungslogik sinnvoller ist hängt hauptsächlich von der L1 Größe ab.
Du hast natürlich recht. Der hat mich völlig durcheinander gebracht X-D
Juerg
2006-01-19, 10:21:24
Wenn das so wäre, dann wären mehrere Cache-Ebenen vollkommen überflüssig.Stimmt Du hast recht. :whistle: :sneak:
Gut erklärt in diesem Papier:
Performance Evaluation of Exclusive Cache Hierarchies
Ying Zheng Brian T. Davis Matthew Jordan
Seite 3, 3.2 Model Description
http://www.ece.mtu.edu/faculty/btdavis/papers/ispass04.pdf
Zitat (Übersetzung)
Wenn in einem zwei-stufigen exklusiven chache-design ein load-miss im L1 auftritt und eine load-hit im L2, dann wird der Inhalt des L1 und L2 gestauscht. Das heisst: Der victim-block aus dem L1 wird in den victim-buffer transferiert; danach werden die referenzierten Informationen aus dem L2 in den L1 transferiert. Nachdem dies abgeschlossen ist, wird der victim-block in den L2 transferiert.
Erst wenn ein load-miss in L1 und L2 auftritt, werden die benötigten Informationen direkt vom Hauptspeicher in den L1 gelesen. Die führt dazu, dass möglicherweise die Informationen die gerade dort im L1 waren über den victim-buffer in den L2 geschrieben werden.
Nach diesem Schema können Informationen nicht im L1 und im L2 vorkommen was auf den Begriff des exklusiven Cache hinweist.
Unterschied Core Duo Notebook Apple <-> Windows
Es scheint Probleme zu geben. Apple hat aber wahrscheinlich Glück, da Windows wohl mitschuld ist:
"Da es zum jetzigen Zeitpunkt so aussieht, als seien Microsofts Treiber zumindest mitverantwortlich für dieses Problem, ist es relativ wahrscheinlich, dass Apples kürzlich vorgestellten MacBook Pros - die ebenfalls den Core Duo Prozessor und den 945 Chipsatz nutzen - von dem Problem nicht betroffen sind. Andererseits haben wir derzeit noch kein MacBook Pro, um dies "am lebenden Objekt" nachprüfen zu können."
http://www.tomshardware.de/mobile/20060130/index.html
Schnipp und weg ist der Pentium D 940 und Athlon X2 4400+.
Ich weiss nicht ob ihr es mitbekommen habt ,aber techchannel hat am 9.2 einen Test mit dem Aopen I975Xa + core duo T2500 (2Ghz) gemacht.
Techchannel nennt als Einführungspreis ca. 230€ für das Board.
Auszug:
Intels Core Duo T2500 bietet die Performance auf dem Niveau eines Pentium D 940 und Athlon 64 X2 4400+. Besonders beeindruckend ist die Systemleistung mit SYSmark2004. Nur die wesentlich teureren Pentium Extreme Edition 955 und Athlon 64 FX-60 sowie Athlon 64 X2 4800+ haben hier noch Vorteile. Ein „kleines“ Defizit im Vergleich zu den Pentium-D- oder auch Athlon-64-X2-Prozessoren besteht wie schon beim Pentium M in der geringen SSE- und SSE2-Performance. In der Praxis wirkt sich diese Schwäche aber nicht dramatisch aus, wie beispielsweise die Ergebnisse von Cinema 4D oder Ligthwave 3D belegen.
Der Core Duo trumpft natürlich mit seinem niedrigen Energieverbrauch auf. So bleibt der im AOpen-Mainboard-Paket mitgelieferte Lüfter auf dem Core Duo stets leise. Selbst bei voller CPU-Auslastung hält sich das Kühlaggregat dezent zurück. Dies schaffen die Athlon-64-Prozessoren trotz Cool-'n'-Quiet und die Pentium-D-Serie mit SpeedStep nicht. Nur im Leerlauf können die Lüfter dieser CPUs ähnlich leise agieren. Der Core Duo ist somit für leise PCs prädestiniert – ohne Performance einzubüßen. Apple schwenkte nicht ohne Grund auf den Core Duo um.
Doch das Beste zum Schluss: Ein Core Duo T2500 kostet mit 423 US-Dollar (Intel-Preisliste, Stand 09.02.06) genauso viel wie ein Pentium D 940. AMDs Athlon 64 X2 4400+ steht gar mit 467 Dollar in der Liste. Bei vergleichbarer Performance muss beim Core Duo somit nicht tiefer in die Tasche gegriffen werden. Auch der angekündigte Mainboard-Preis des AOpen i975X- liegt auf dem Niveau ähnlich ausgestatteter Modelle für den Pentium D oder Athlon 64 X2.
Quelle: http://www.tecchannel.de/technologie/prozessoren/434536/
Uiuiui, das wird was geben. Mir scheint es so als ob das Board doch etwas schneller ist als das von anandtech getestete Board.
Beeindruckend ist das auf jeden Fall, allerdings würde ich dann doch eher auf den Conroe warten, der speziell für den Desktop gedacht ist und dann womöglich noch deutlich höhere taktraten aufweisen wird.
Zum Yonah:
http://www.oc.com.tw/article/0601/imgs/Aopeni975Xa-YDG-SLI-060112-04L.jpg
Damit sollte er schon einiges wegrocken können. ;-)
Blacksoul
2006-02-13, 07:46:35
it sollte er schon einiges wegrocken können. ;-)
Fragt sich nur wie lange ;)
t.blacksoul.d
Senior Sanchez
2006-02-13, 16:47:58
Beeindruckend ist das auf jeden Fall, allerdings würde ich dann doch eher auf den Conroe warten, der speziell für den Desktop gedacht ist und dann womöglich noch deutlich höhere taktraten aufweisen wird.
Zum Yonah:
http://www.oc.com.tw/article/0601/imgs/Aopeni975Xa-YDG-SLI-060112-04L.jpg
Damit sollte er schon einiges wegrocken können. ;-)
Das ist doch nen Core Solo, ne? kein Dual Core, weil T1500 bedeutet doch eigentlich durch die 1 dass er nur einen Core hat.
Das lässt, wie ich finde dieses Übertaktungspotenzial doch wieder in etwas anderem Licht erscheinen.
mhmmmm, warum ist dann das Feld Processor Selection aktiviert? bzw wenn man nur eine CPU/Core hat, ist es deaktiviert, zumindest bei mir....
Das ist doch nen Core Solo, ne? kein Dual Core, weil T1500 bedeutet doch eigentlich durch die 1 dass er nur einen Core hat.
Das lässt, wie ich finde dieses Übertaktungspotenzial doch wieder in etwas anderem Licht erscheinen.
Wird falsch ausgelesen.
Der Test war mit einem core duo T2500,kann man bei http://www.oc.com.tw/ nachlesen.
Ausserdem ist unten das mit core1 auswählbar (nicht grau staffiert),das bedeutet logischerweise das man noch einen core auswählen kann.
DonniPredi
2006-02-13, 18:06:07
Hier gibts auch das MB dafür:
;) :
http://www1.hardwareversand.de/6ValT4GKg8z39b/1/articledetail.jsp?aid=6636&agid=539&ref=105
http://www1.atelco.de/6AkV3lR8bn6axU/1/articledetail.jsp?aid=6636&agid=539&ref=105
gruss
YfOrU
2006-02-14, 12:04:21
wenn die Boards nicht so abartig teuer wären...aber so bekommt ma immernoch nen vergleichbaren K8 mit Board n ganzes Stück billiger.
Seltsame Spekulation: Versteckte Features wie 64Bit bei Yonah?
http://www.hexus.net/content/item.php?item=4604
BlackBirdSR
2006-02-15, 16:15:51
Seltsame Spekulation: Versteckte Features wie 64Bit bei Yonah?
http://www.hexus.net/content/item.php?item=4604
Halte ich für Hexus ähm Hoax ;)
Erstens geben sie keinerlei Quellen an, dazu auch nichteinmal die Art und Weise wie man an diese Infos gekommen sein, und dann auch Hyperthreading das nur nicht aktiviert wurde?
Ich finde das ist alles sehr luftig.
Gouvernator
2006-02-15, 16:50:56
Ich möchte wissen wie sich kleinere modelle übertakten lassen , so ein Yonah für 200-250€ ist an sich schon nicht schlecht , aber dazu noch ein teures MoBo und DDR2 Speicher - das wird teuer.
Halte ich für Hexus ähm Hoax ;)
Erstens geben sie keinerlei Quellen an, dazu auch nichteinmal die Art und Weise wie man an diese Infos gekommen sein, und dann auch Hyperthreading das nur nicht aktiviert wurde?
Ich finde das ist alles sehr luftig.
abgesehen davon macht das keinen sinn. wieso sollte intel diese features verstecken...
Merkor
2006-02-16, 12:23:29
abgesehen davon macht das keinen sinn. wieso sollte intel diese features verstecken...
...um sie dann Stück für Stück nachträglich bei neueren Modellen zu aktivieren und die Aufrüstspirale erneut anzukurbeln. Der Vorteil ist dann, dass sie mit einem vernünftigen Ausgangsdesign eine längere Zeit ohne große Veränderungen auskommen würden...
...um sie dann Stück für Stück nachträglich bei neueren Modellen zu aktivieren und die Aufrüstspirale erneut anzukurbeln. Der Vorteil ist dann, dass sie mit einem vernünftigen Ausgangsdesign eine längere Zeit ohne große Veränderungen auskommen würden...
Yep. Hyper-Threading war ja auch schon im Willamette enthalten, wurde aber erst im letzten FSB533-Northwood aktiviert.
MfG,
Raff
Das mit "64 bit beim Yonah" hab ich auch mitbekommen,aber anders.
Irgendwo mal aufgeschnappt das Intel es so machn wird wie damals bei den Pentium 4 Prozessoren ,die mit anderen Steppings 64bit irgendwann boten.
Liegt im Bereich des möglichen.
Undertaker
2006-02-17, 11:16:42
aber warum schaltet man 64bit jetzt noch nicht frei? wenn der yonah 64bit hätte und es eine auswahl guter und bezahlbarer boards gäbe, würde ich ihn mir sofort kaufen...
BlackBirdSR
2006-02-17, 11:20:19
aber warum schaltet man 64bit jetzt noch nicht frei? wenn der yonah 64bit hätte und es eine auswahl guter und bezahlbarer boards gäbe, würde ich ihn mir sofort kaufen...
Ich bin immernoch nicht überzeugt, dass er wirklich 64Bit hat.
Gibt es irgendwo ein paar Infos dazu?
Abseits der "wir haben gehört, das Gerüchten zufolge, 64Bit in Yonah sein könnte"
?
aber warum schaltet man 64bit jetzt noch nicht frei? wenn der yonah 64bit hätte und es eine auswahl guter und bezahlbarer boards gäbe, würde ich ihn mir sofort kaufen...
Wenn das überhaupt stimmt (hab ich nur aufgeschnappt -> Gerücht),denke ich Intel hält es nicht für nötig. (btw. windows 64 ist schon draussn oder und die ganzen Programme dafür auch ?!)
Damals beim P4 war auch HT schon in den ersten Versionen miteingebaut, kamen sie unter Zugzwang haben sie es eingeschaltet.
War bei Intel immer so das sie immer das zeug nicht von vornerein aktiviert haben,ist vielleicht denk ich auch Geschäftspolitik.
CharlieB
2006-02-20, 22:53:44
Das ist doch nen Core Solo, ne? kein Dual Core, weil T1500 bedeutet doch eigentlich durch die 1 dass er nur einen Core hat.
Das lässt, wie ich finde dieses Übertaktungspotenzial doch wieder in etwas anderem Licht erscheinen.
Das ist kein Auslesefehler und auch keine Core Solo CPU.
Der Yonah mit 2,0 GHZ und Dual Core war ursprünglich als T1500 benannt, so wurden auch die Engineering Samples ausgeliefert.
Aber dann hat wohl die Werbeabteilung der Namensgebung einen Strich durch die Rechnung gemacht,
und aus dem T1500 wurde der T2500
das gleiche bei den höher/niederer getakteten Modellen.
CB
Senior Sanchez
2006-02-20, 22:55:18
Das ist kein Auslesefehler und auch keine Core Solo CPU.
Der Yonah mit 2,0 GHZ und Dual Core war ursprünglich als T1500 benannt, so wurden auch die Engineering Samples ausgeliefert.
Aber dann hat wohl die Werbeabteilung der Namensgebung einen Strich durch die Rechnung gemacht,
und aus dem T1500 wurde der T2500
das gleiche bei den höher/niederer getakteten Modellen.
CB
Stimmt, das hatte ich neulich auch gelesen. Trotzdem danke, dass de es hier noch erwähnt hast.
Spasstiger
2006-02-20, 23:06:14
Wird es eigentlich sowas wie einen Core MX mit weniger Cache geben als Pendant zum Celeron M?
CharlieB
2006-02-21, 02:20:33
nö man geht da einen anderen Weg und kastriert einen der 2 Cores
CB
http://www.hardspell.com/pic/2006/3/9/6f808512-4669-46d1-b388-1b60cf09591a.jpg
Epox kommt mit einem Yonah-matx-mobo mit i945g, also auch fur core-duo :smile:
Gefällt mir sehr gut!
CharlieB
2006-03-09, 20:54:12
Seltsame Spekulation: Versteckte Features wie 64Bit bei Yonah?
http://www.hexus.net/content/item.php?item=4604
Der Yonah Core an sich ist SMP Fähig und hat PAE
womit dann 64GB adressierbar sind.
kennt man noch vom IA32 ;)
Allerdings ist der Core Duo um diese Features kastriert,
das bleibt dem Sossaman vorbehalten.
CB
Senior Sanchez
2006-03-09, 21:55:51
Der Yonah Core an sich ist SMP Fähig und hat PAE
womit dann 64GB adressierbar sind.
kennt man noch vom IA32 ;)
Allerdings ist der Core Duo um diese Features kastriert,
das bleibt dem Sossaman vorbehalten.
CB
Öhm, 64 Bit CPUs benutzen doch gar kein PAE, oder?
PAE ist ja ne 36 bittige Speicheranbindung für 32 Bit CPUs die aber diversen Einschränkungen unterliegt.
Die 64 Bit CPUs, zumindest der A64 hat doch ne 40-Bit Anbindung und das ist eben kein PAE.
Oder habe ich das jetzt irgendwie falsch verstanden?
dildo4u
2006-03-11, 16:46:40
Ein paar super pi Werte inklusiwe core solo dem neuen Celeron-M
http://www.xtremesystems.org/forums/showthread.php?t=92161
dann hoffen wir mal das die mbs in EU ab 22.03 verfügbar sein werden
Ein paar super pi Werte inklusiwe core solo dem neuen Celeron-M
http://www.xtremesystems.org/forums/showthread.php?t=92161
haben die coro solos echt nur 133Mhz fsb oder wird das irgendwie falsch ausgelesen ? O_o
irritiert mich etwas.
Chrisch
2006-03-15, 14:29:39
haben die coro solos echt nur 133Mhz fsb oder wird das irgendwie falsch ausgelesen ? O_o
irritiert mich etwas.
das sind Celerons ;)
normaler Core Solo hat 166FSB, da gibbet aber auch nur den T1300 mit 1.66Ghz
Öhm, 64 Bit CPUs benutzen doch gar kein PAE, oder?Nein aber sie unterstützen es. Müssen sie sogar, denn bevor man in den AMD64-Modus wechselt muss PAE aktiviert werden.
PAE ist ja ne 36 bittige Speicheranbindung für 32 Bit CPUs die aber diversen Einschränkungen unterliegt.Nix Speicheranbindung. Das hat nur was mit dem virtuellen Addressraum zu tun.
Die 64 Bit CPUs, zumindest der A64 hat doch ne 40-Bit Anbindung und das ist eben kein PAE.Das hat miteinander nix zu tun. Siehe oben.
Oder habe ich das jetzt irgendwie falsch verstanden?Ja. Benütz die Suchfunktion, da gibts einen großen Thread darrüber.
Das der Yonah PAE unterstützt macht ihn aber noch lange nicht zur 64 bit CPU. Alle Intel-CPUs seit dem Pentium Pro können das.
das sind Celerons ;)
normaler Core Solo hat 166FSB, da gibbet aber auch nur den T1300 mit 1.66Ghz
warum steht dann bei dem Link bzw. den Bildern ein fsb von 133Mhz nur dran ?
die von den besagten link haben nur 1mb cacha daher sind das keine yonahs sonder celerons
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.