Archiv verlassen und diese Seite im Standarddesign anzeigen : Core Duo 2 - Zukunft und Gegenwart
BlackBirdSR
2006-07-17, 00:25:02
Gast[/POST]']Momentan ...
Conroe ist nicht nur für heute gedacht, sondern für die Zukunft. Der wird noch ein paar Jährchen am Markt bleiben, also da sollte sich niemand so weit aus dem Fenster lehnen :)
Ich glaube nicht, das du in ein paar Jahren noch das gleiche sagen wirst.
Hmm da würde ich dagegen wetten.
Netburst war für die Jahre entwickelt worden. Ich behaupte einmal, dass Core2 nur ein Lückenfüller ist.
Mailwurm
2006-07-17, 00:30:18
BlackBirdSR[/POST]']Hmm da würde ich dagegen wetten.
Netburst war für die Jahre entwickelt worden. Ich behaupte einmal, dass Core2 nur ein Lückenfüller ist.
Der Core 2 vielleicht. Aber nicht das Design an sich. Wie ich in meinem Artikel bei HT4U geschrieben hab, ist der Core 2 eine konsequente Weiterentwicklung des P6-Designs, also quasi schon 15 Jahre alt. Es ist nicht davon auszugehen, dass Intel da nicht weiterentwickelt. Sie haben ja selbst angekündigt im 2-Jahres-Rhytmus ein Technologieupdate zu bringen.
Core 2 ein Lückenfehler? Glaube ich eher nicht, dafür ist er zu gut.
Ein Lückenfüller wäre nicht so viel schneller und würde nicht mit Milliarden von Euro in den Markt gedrückt werden.
Core 2 ist genauso wie Netburst ein Prozessor für mehrere Jahre, doch was bedeutet das in einem Business schon? Nicht mal Netburst hätte ewig gelebt. Irgendwann bei jeder Architektur schluss.
Quad Cores setzen auf genau den gleichen Kern, somit werden wir 2007 und 2008 garantiert noch "Conroe"-Kerne in der heutigen Form erleben, vielleicht mit mehr Cache und höherem Takt.
Bis jetzt sehe ich noch keinen Core 3 am Himmel, Du vielleicht? :)
BlackBirdSR
2006-07-17, 00:34:38
Mailwurm[/POST]']Der Core 2 vielleicht. Aber nicht das Design an sich. Wie ich in meinem Artikel bei HT4U geschrieben hab, ist der Core 2 eine konsequente Weiterentwicklung des P6-Designs, also quasi schon 15 Jahre alt. Es ist nicht davon auszugehen, dass Intel da nicht weiterentwickelt. Sie haben ja selbst angekündigt im 2-Jahres-Rhytmus ein Technologieupdate zu bringen.
Aber wie weit geht das noch? Core2 ist ein hoch optimiertes Design. Noch mehr Leistung herauszuholen dürfte zunehmend schwieriger werden.
Eine neues Design mit all den neuen Tricks und einem fortschrittlichen Grunddesign könnte einfacher zu bewerkstelligen sein.
Mit CSI steht in naher Zukunft ein ähnliches Konzept wie AMDs Hypertransport vor der Tür.
Wie stark kann Core skalieren, und wie sehr ist die Architektur auch für Server geeignet?
Alles hängt davon ab, ob Nehalem und dessen Nachfolger eigene Projekte geblieben sind, oder Intel den PentiumM/Core2 als neuen Grundbaustein genommen hat.
Es würde mich nich wundern, wenn Core2 einfach die Zeit überbrückt, bis Intel den 8x86 präsentiert.
(del)
2006-07-17, 00:34:39
BlackBirdSR[/POST]']Hmm da würde ich dagegen wetten.
Netburst war für die Jahre entwickelt worden. Ich behaupte einmal, dass Core2 nur ein Lückenfüller ist.
Nur wie lange soll die Lücke dauern? Erstmal heißt es ja von Intel, daß Netburst bis mind Ende 1Q2007 den Großteil des Stückzahlen ausmachen wird. Oder ist das ne Ente? Müßte der Core nicht eine Mainstream-Phase durchlaufen bevor er ganz verschwindet? Wann soll das dann sein, wenn es erst nach 1Q07 wirklich losgehen soll? Bis dahin ist schon der neu angefangene K9 fertig :|
Klär mich mal einer auf :smile:
dildo4u
2006-07-17, 00:36:40
BessereHälfte[/POST]']Nur wie lange soll die Lücke dauern?
Klär mich mal einer auf :smile:Laut Roadmap sinds 2 Jahre bis zur neuen Architektur..
BlackBirdSR
2006-07-17, 00:40:14
BessereHälfte[/POST]']Nur wie lange soll die Lücke dauern? Erstmal heißt es ja von Intel, daß Netburst bis mind Ende 1Q2007 den Großteil des Stückzahlen ausmachen wird. Oder ist das ne Ente? Müßte der Core nicht eine Mainstream-Phase durchlaufen bevor er ganz verschwindet? Wann soll das dann sein, wenn es erst nach 1Q07 wirklich losgehen soll? Bis dahin ist schon der neu angefangene K9 fertig :|
Klär mich mal einer auf :smile:
Schau doch mal auf die Intel Roadmaps.
2008 kommt Nehalem und CSI. Nehalem ist seit 2000 ein Name.
Natürlich wird es nicht mehr das gleiche Design sein, aber nichts spricht dagegen, dass Intel den 8x86 fertigstellt. Währenddessen hat man mit Core2 eine Alternative die erstens schnell entwickelt war und zweitens relativ billig und einfach in der Entwicklung.
Für die Zukunft ist Core2 definitiv nicht gerüstet. Das kommt erst mit einem großangelegten Update oder einer neuen Generation.
Denn bisher ist Core2 nur eine sehr sehr gute, aber "einfache" CPU.
Es gibt weder einen Speichercontroller noch einen internen Controller, der mehrere Kerne verbindet. In dieser Hinsicht ist Core2 immernoch veraltet und dem K8 unterlegen. Und deswegen glaube ich auch, dass erst ein großes Update oder eine neue Architektur zeigen werden wo es lang geht.
Mailwurm
2006-07-17, 00:45:58
BlackBirdSR[/POST]']Aber wie weit geht das noch? Core2 ist ein hoch optimiertes Design. Noch mehr Leistung herauszuholen dürfte zunehmend schwieriger werden.
Eine neues Design mit all den neuen Tricks und einem fortschrittlichen Grunddesign könnte einfacher zu bewerkstelligen sein.
Mit CSI steht in naher Zukunft ein ähnliches Konzept wie AMDs Hypertransport vor der Tür.
Wie stark kann Core skalieren, und wie sehr ist die Architektur auch für Server geeignet?
Alles hängt davon ab, ob Nehalem und dessen Nachfolger eigene Projekte geblieben sind, oder Intel den PentiumM/Core2 als neuen Grundbaustein genommen hat.
Es würde mich nich wundern, wenn Core2 einfach die Zeit überbrückt, bis Intel den 8x86 präsentiert.
Jede CPU ist bei ihrem Erscheinen hoch optimiert. Es wird das verbaut, was technisch möglich ist und nach Kosten/Nutzen-Rechnung bezahlbar ist. Vor 5 Jahren waren 4 MB Cache noch nicht bezahlbar, inzwischen scheinbar schon, also wird es umgesetzt.
Wieso soll es schwierig sein weiter Leistung herauszuholen? Zukünftig wird man halt die Taktschraube langsamer drehen und dafür auf mehr Kerne setzen.
AMD hat doch seit 7 Jahren auch nur Modellpflege betrieben, weil sie genug Potential mit ihrem K7-Design hatten. Der Speichercontroller hat im Prinzip nichts mit dem eigentlichen Rechenwerk zu tun und 64-Bit war vom Aufwand her auch nicht wesentlich mehr als z.B. die Integration von SSE. Dann wird noch hier und da ein Puffer vergrößert und die Sprungvorhersage verbessert und fertig ist ein "neuer Prozessor".
Intel setzt aus diversen Gründen derzeit nicht auf einen internen Speichercontroller, steht aber auch in meinem Review. Der Core2 verwendet den gemeinsamen L2-Cache der die beiden Kerne miteinander verbindet. Das ist wesentlich effizienter als vorher beim Pentium D, wo dies über den FSb passierte. Der Core 2 ist dem K8 nicht unterlegen geschweige denn veraltet. Er folgt nur einem anderen Konzept. Ich kann Dir interne Intel Papers geben, wo der Bustraffic analysiert wurde und es sich zeigt, dass der FSB den Core 2 nicht ausbremst.
Wenn ich das schon lese.
"Für die Zukunft".
Selbst ein vermeintlicher Core 3 ist nicht für die Zukunft gebaut, irgendwann kommt Core 4, Core 5, Core 6...
Was ist überhaupt Zukunft? Das wissen wir nicht mal. Gäbe es bis jetzt noch keine CPUs mit integrierten Speichercontroller, würden wir nicht mal daran denken, das zukünftige CPUs sowas haben sollten.
Und irgendwann gibt es dann eben etwas, was ein Core 2, Core 3 nicht hat, aber Core 4 haben wird... und das gleiche Spiel bei allen nachfolgenden.
Was ist schon Hyper Transport oder CSI? Hält das ewig? Glaube ich kaum. Irgendwann ist was besseres da.
Sogesehen ist bis dato jede CPU nur ein Lückenfüller, denn was anderes geht in diesem Business auch gar nicht. Die Vorstellung von einer guten CPU und die Technologie entwickeln sich stetig weiter.
StefanV
2006-07-17, 00:47:25
BessereHälfte[/POST]']Nur wie lange soll die Lücke dauern? Erstmal heißt es ja von Intel, daß Netburst bis mind Ende 1Q2007 den Großteil des Stückzahlen ausmachen wird. Oder ist das ne Ente?
Ich würd mal stark vermuten, das Intel jetzt etwas stärker auf den COre setzt und Netburst so schnell wie möglich begräbt.
Warum?
Ganz einfach: Netburst CPUs sind größer und damit teurer in der Fertigung...
Mailwurm
2006-07-17, 00:49:10
Gast[/POST]']Wenn ich das schon lese.
"Für die Zukunft".
Selbst ein vermeintlicher Core 3 ist nicht für die Zukunft gebaut, irgendwann kommt Core 4, Core 5, Core 6...
Was ist überhaupt Zukunft? Das wissen wir nicht mal. Gäbe es bis jetzt noch keine CPUs mit integrierten Speichercontroller, würden wir nicht mal daran denken, das zukünftige CPUs sowas haben sollten.
Und irgendwann gibt es dann eben etwas, was ein Core 2, Core 3 nicht hat, aber Core 4 haben wird... und das gleiche Spiel bei allen nachfolgenden.
Was ist schon Hyper Transport oder CSI? Hält das ewig? Glaube ich kaum. Irgendwann ist was besseres da.
Sogesehen ist bis dato jede CPU nur ein Lückenfüller, denn was anderes geht in diesem Business auch gar nicht. Die Vorstellung von einer guten CPU und die Technologie entwickeln sich stetig weiter.
Ist eine reine Ansichtssache. Von Zukunft sollte man bei CPUs nur in der Form sprechen, als dass sie während ihrer Lebensdauer (2-4 Jahre) leistungsfähig genug sein sollten, alle normalen Aufgaben problemlos zu beältigen. Es ist klar, dass ein Core 2 in 5 oder 6 Jahren kein Blumentopf mehr gewinnen wird. Dafür ist aber auch nie ein Desktop-Prozessor ausgelegt.
StefanV
2006-07-17, 00:53:26
Mailwurm[/POST]']Intel setzt aus diversen Gründen derzeit nicht auf einen internen Speichercontroller, steht aber auch in meinem Review. Der Core2 verwendet den gemeinsamen L2-Cache der die beiden Kerne miteinander verbindet. Das ist wesentlich effizienter als vorher beim Pentium D, wo dies über den FSb passierte. Der Core 2 ist dem K8 nicht unterlegen geschweige denn veraltet. Er folgt nur einem anderen Konzept. Ich kann Dir interne Intel Papers geben, wo der Bustraffic analysiert wurde und es sich zeigt, dass der FSB den Core 2 nicht ausbremst.
Intel setzt nicht auf einen integrierten Speichercontroller weil sie wohl nicht damit gerechnet haben, das AMD sowas bringen würde, im Desktopmarkt...
Denn eigentlich hat Intel vor 'nem halben Jahrzehnt oder so, mit dem Timna, vor gehabt, einen Speichercontroller (und auch noch ein paar andere Dinge, AFAIR), zu integrieren...
Die internen Papers von Intel halte ich mal für glatt gelogen, da ein integrierter Speichercontroller besser ist, da einige Latenzen höher sind, das Intel selbst sagt 'nönö, das bremst nicht', war auch nicht anders zu erwarten, da möcht ich doch mal an ATi und SM3 zu zeiten des R420 erinnern, da gabs auch 'nen Dokument, von ATi, in dem behauptet wird, das man SM2 nicht brauchen würde und das es vollkommen überflüssig ist.
Getreu dem Motto: Hamma nich, brauchen ma nicht, taugt nichts (zumindest solang, bis wirs selbst haben)...
Mailwurm
2006-07-17, 00:55:09
StefanV[/POST]']Intel setzt nicht auf einen integrierten Speichercontroller weil sie wohl nicht damit gerechnet haben, das AMD sowas bringen würde, im Desktopmarkt...
Denn eigentlich hat Intel vor 'nem halben Jahrzehnt oder so, mit dem Timna, vor gehabt, einen Speichercontroller (und auch noch ein paar andere Dinge, AFAIR), zu integrieren...
Die internen Papers von Intel halte ich mal für glatt gelogen, da ein integrierter Speichercontroller besser ist, da einige Latenzen höher sind, das Intel selbst sagt 'nönö, das bremst nicht', war auch nicht anders zu erwarten, da möcht ich doch mal an ATi und SM3 zu zeiten des R420 erinnern, da gabs auch 'nen Dokument, von ATi, in dem behauptet wird, das man SM2 nicht brauchen würde und das es vollkommen überflüssig ist.
Getreu dem Motto: Hamma nich, brauchen ma nicht, taugt nichts (zumindest solang, bis wirs selbst haben)...
Genau, der AMD mit integriertem Speichercontroller ist ja auch schneller als der Core 2 von Intel. Ups...
BlackBirdSR
2006-07-17, 00:55:53
Mailwurm[/POST]']Jede CPU ist bei ihrem Erscheinen hoch optimiert. Es wird das verbaut, was technisch möglich ist und nach Kosten/Nutzen-Rechnung bezahlbar ist. Vor 5 Jahren waren 4 MB Cache noch nicht bezahlbar, inzwischen scheinbar schon, also wird es umgesetzt.
Allerdings ist Core2 keine von Grund auf neue Architektur die sich noch entfalten kann. Es ist im Grundkonzept ein PentiumM der hoch optimiert an den Start geht.
Weder der PentiumPro noch der Pentium4 waren beim Launch hoch optimiert. Es waren erste Inkarnationen die erst mit neuen Ideen und Lösungen ihre Leistungsfähigkeit entfalten konnten.
Diese Situation ist bei Core2 ganz anders.
Wieso soll es schwierig sein weiter Leistung herauszuholen? Zukünftig wird man halt die Taktschraube langsamer drehen und dafür auf mehr Kerne setzen.
Das meinte ich nicht. Ich meinte die Leistung innerhalb des Kerns selbst. Mit Multithreading wird noch etwas mehr möglich sein, aber dann hat man wieder eine Grenze erreicht. Mit der bestehenden Mikroarchitektur wird es verdammt schwer und teuer weitere Performancesteigerungen zu erhalten. Das ist ein Problem. Und die offensichtliche Lösung ist eine neue Mikroarchitektur, die sich über die jahre hin entfalten kann.
AMD hat doch seit 7 Jahren auch nur Modellpflege betrieben, weil sie genug Potential mit ihrem K7-Design hatten. Der Speichercontroller hat im Prinzip nichts mit dem eigentlichen Rechenwerk zu tun und 64-Bit war vom Aufwand her auch nicht wesentlich mehr als z.B. die Integration von SSE. Dann wird noch hier und da ein Puffer vergrößert und die Sprungvorhersage verbessert und fertig ist ein "neuer Prozessor".
Aber welche Modellprflege? AMD hat es über die Jahre nicht hinbekommen ihr Grunddesign signifikant zu verbessern. Der Speichercontroller und einige Bugfixes haben die Leistung stark erhöht. Es war AMD bisher aber anscheinend zu aufwändig die Architektur weiter zu entwickeln. Stattdessen sollten es neue Architekturen richten. Da diese nun verschoben wurden muss AMD den K8L bringen. Auch hier wird deutlich, dass man zwar viele Probleme im Design verbessern kann, man aber an Grenzen der Wirtschaftlichkeit stößt.
Intel setzt aus diversen Gründen derzeit nicht auf einen internen Speichercontroller, steht aber auch in meinem Review.
Intel braucht ihn noch nicht, und Intels CSI Konzept ist noch nicht angelaufen. Es wäre daher kompliziert, überflüssig und verwirrend einen Speichercontroller einzubauen.
Der Core2 verwendet den gemeinsamen L2-Cache der die beiden Kerne miteinander verbindet. Das ist wesentlich effizienter als vorher beim Pentium D, wo dies über den FSb passierte.
Aber er wird immer ineffizienter je mehr Kerne du verwendest. Der L1 und L2 Cache sind direkt verbunden. Aber bereits eine Quad-Core CPU muss durch 2 DICE realisiert werden. Wie sehen dann 8x und 16x Träger aus?
In diesem Punkt ider Core2 nicht Zukunftsträchtig.
Der Core 2 ist dem K8 nicht unterlegen geschweige denn veraltet. Er folgt nur einem anderen Konzept. Ich kann Dir interne Intel Papers geben, wo der Bustraffic analysiert wurde und es sich zeigt, dass der FSB den Core 2 nicht ausbremst.
Es wäre nett wenn du etwas differenzierst. Core2 ist dem K8 genau in jener Hinsicht unterlegen, die ich in meinem original Post geschildert habe. Und dabei geht es nicht um Performance in UT2007, oder die Gunst der User.
Der FSB bremst eine Dual-Core Core2 CPU nicht aus. Aber was ist mit größeren verbänden? In diesem Punkt IST Core2 immernoch eine relativ traditionelle CPU, die dem K8 unterlegen ist.
StefanV
2006-07-17, 00:57:03
Mailwurm[/POST]']Genau, der AMD mit integriertem Speichercontroller ist ja auch schneller als der Core 2 von Intel. Ups...
Was hat das damit zu tun?!
Tschuldigung, aber der Vergleich ist voll in der Hose, wenn du was vergleichen willst, dann bitte K8 mit internem und externem Speichercontroller, alles andere ist vollkommener Blödsinn, da nicht aussagekräftig, da die Architekturen absolut NICHT vergleichbar sind, der Beitrag, den ich hier zitierte ist daher 'nen krasses Eigentor...
Mailwurm
2006-07-17, 01:09:22
@BlackBirdSR
Intel hat nie auch nur irgend eine Technologie von vorn herein ausgeschlossen. Wenn sie feststellen, dass mit mehreren Kernen das bisherige nicht mehr ausreicht, dann werden sie einen neuen Weg beschreiten. Alles andere wäre dumm und würde langfristig in die Bedeutungslosigkeit führen. Nur momentan brauchen sie es nicht, also warum Flexibilität beim Speicher einbüßen und sich vl. noch neue Probleme (siehe Vollbestückung AMD) ins Haus holen, wenn man nciht drauf angewiesen ist.
@StefanV
WIR HABEN KEINEN BEKOMMEN. Übersetzt: Es lag nicht an uns. Wir sind nicht dran schuld.
Deine Argumentation hinkt. Wieso muss ich einen K8 mit und ohne Speichercontroller zu vergleichen um festzustellen ob der Conroe besser mit oder ohne Speichercontroller ist? Der AMD-Weg ist vielleicht technologisch gesehen der intelligentere aber nicht unbedingt der einfachere. Derzeit kann Intel mit einem großen shared L2-Cache eine leistungsfähigere CPU zum kleineren Preis anbieten.
Warum sollten sie ihr derzeitiges Konzept über den Haufen schmeißen? Sämtliche Chipsätze, Mainbaords, etc müssten neu designed werden. Kommt DDR3 muss Intel an der CPU nichts ändern und kann unabhängig davon einen neuen Chipsatz herausbringen. AMD hat derzeit den Druck bei einer fundamentalen Änderung am Speichermarkt ihr CPU-Design anpassen zu müssen. AMD hat noch kein Timna-Fiasko erlebt. Intel wird solang es geht einen integrierten Speichercontroller vermeiden.
Im Prinzip zählt nicht wer rein technisch gesehen die bessere CPU hat, sondern wer bei höherer Leistung und geringerer Abwärme und geringerem Preis das bessere Angebot hat.
BlackBirdSR
2006-07-17, 01:12:29
Mailwurm[/POST]']@BlackBirdSR
Intel hat nie auch nur irgend eine Technologie von vorn herein ausgeschlossen. Wenn sie feststellen, dass mit mehreren Kernen das bisherige nicht mehr ausreicht, dann werden sie einen neuen Weg beschreiten. Alles andere wäre dumm und würde langfristig in die Bedeutungslosigkeit führen. Nur momentan brauchen sie es nicht, also warum Flexibilität beim Speicher einbüßen und sich vl. noch neue Probleme (siehe Vollbestückung AMD) ins Haus holen, wenn man nciht drauf angewiesen ist.
Werden sie mit CSI auch.
Und der Rest stand ja schon in meinem letzten Post.
Geh jetzt ins Bett.
BlackBirdSR[/POST]']Hmm da würde ich dagegen wetten.
Netburst war für die Jahre entwickelt worden. Ich behaupte einmal, dass Core2 nur ein Lückenfüller ist.
Ein Rückkehr von Netburst halte ich für ausgeschlossen. Nicht mit Replay.
(del)
2006-07-17, 01:22:33
BlackBirdSR[/POST]']Für die Zukunft ist Core2 definitiv nicht gerüstet. Das kommt erst mit einem großangelegten Update oder einer neuen Generation.
Denn bisher ist Core2 nur eine sehr sehr gute, aber "einfache" CPU.
Es gibt weder einen Speichercontroller noch einen internen Controller, der mehrere Kerne verbindet. In dieser Hinsicht ist Core2 immernoch veraltet und dem K8 unterlegen. Und deswegen glaube ich auch, dass erst ein großes Update oder eine neue Architektur zeigen werden wo es lang geht.
Welche CPU ist denn für die Zukunft gerüstet? Wenn man den Core so nimmt wie er ist und um einen Speicherkontroller und einen internen erweitert, ist das dann gleich eine neue Architektur? Wenn Du es so nimmst...
War der R420 nicht für die Zukunft gedacht, weil es eine Erweiterung des R360 war? Ist der R520 für die Zukunft? Oder der R580? Die ganze Hardware für die Zukunft gibt es 1 Jahr später fürs halbe Geld. Mehr ist sie dann auch nicht wert.
Ob es 100% nötig ist ständig so Sprünge zu machen wie mit K6->K7 oder P3->P4 (harr harr) ist nicht gesagt. Oft wird uns auch etwas als neue Architektur verkauft, was es an sich garkeine ist. Und trotzdem läuft es meist besser als die älteren Produkte.
Ich find das momentan nicht so spannend. Bis auf einige wenige Spiele die sich alles reinziehen - und andere des gleichen Genres die es nicht tun :| - haben wir momentan Leistung satt. Ob ich nun ein Album nach MP3 in 4 oder 5 Minuten wandel, was aus meiner miniDV-Kamera nach MPEG/DivX in 20 oder 25 Minuten umkodiere oder im Spiel min. FPS bei 60 oder 80 FPS liege. Mir egal. Es brennt momentan nicht so unter den Fingern als zu der Zeit wo jeder einen 300A auf 450 jagte, weil man es wirklich brauchte.
Genauso wie es mir egal ist, ob ich nun einen 10fach oder 16fach DVD-Brenner habe oder die Platte 55MB/s oder 70MB/s schiebt...
StefanV
2006-07-17, 01:27:35
Mailwurm[/POST]']@BlackBirdSR
Intel hat nie auch nur irgend eine Technologie von vorn herein ausgeschlossen. Wenn sie feststellen, dass mit mehreren Kernen das bisherige nicht mehr ausreicht, dann werden sie einen neuen Weg beschreiten. Alles andere wäre dumm und würde langfristig in die Bedeutungslosigkeit führen. Nur momentan brauchen sie es nicht, also warum Flexibilität beim Speicher einbüßen und sich vl. noch neue Probleme (siehe Vollbestückung AMD) ins Haus holen, wenn man nciht drauf angewiesen ist.
Naja, das Problem der Vollbestückung dürft eher daran liegen, das DDR-I SDRAM ein ganz klein wenig überreizt ist, was man ja schon daran sieht, das man die Spannung anheben musste, um +,1V, so wurd mit DDR-II SDRAM auch die On Die Terminierung eingeführt und noch einige andere Dinge zur Verbesserung der Signalqualität...
Auch heißt das noch lange nicht, das Intel die gleichen Probleme wie AMD haben muss, zumal Intel etwas mehr Erfahrung auf dem Bereich der Speichercontroller hat...
Das einzige Problem, das ein integrierter Speichercontroller hat, ist, das ein Sockel auf eine Speicherart festgemeißelt ist, siehe S754 -> Single Chan DDR-I SDRAM, ungepuffert, siehe Sockel 940 -> Dual Chan DDR-I SDRAM, Registred Only (warum eigentlich?? :|))
Mailwurm[/POST]']
@StefanV
WIR HABEN KEINEN BEKOMMEN. Übersetzt: Es lag nicht an uns. Wir sind nicht dran schuld.
Und ihr werdet keinen Nachtesten, wenn ihr einen bekommen könntet und würdet den Artikel nicht erweitern??
Mailwurm[/POST]']
Deine Argumentation hinkt. Wieso muss ich einen K8 mit und ohne Speichercontroller zu vergleichen um festzustellen ob der Conroe besser mit oder ohne Speichercontroller ist?
Weil man nicht anders feststellen kann, ob ein interner Speichercontroller was bringt oder nicht?
Wie willst du das anders testen??
Wobei auch das nicht wirklich aussagekräftig ist, da man den internen etwas besser ins Design einarbeiten kann als einen externen, der externe also um einiges schlechter ist...
Außerdem sehe ich nicht, wo meine Argumentation hinkt, denn K8 mit Conroe zu vergleichen, um zu sehen, ob ein interner Speichercontroller was bringt, ist in etwa so als wenn ich 'nen P1/200 mit einem PPro/200 vergleiche, um festzustellen, das On Die L2 Cache doch nicht so toll ist? :confused:
Mailwurm[/POST]']
Der AMD-Weg ist vielleicht technologisch gesehen der intelligentere aber nicht unbedingt der einfachere. Derzeit kann Intel mit einem großen shared L2-Cache eine leistungsfähigere CPU zum kleineren Preis anbieten.
1. Ich hab nicht gesagt, das der AMD Weg der einfachere ist, außerdem ist 'der AMD Weg' etwas daneben, da AMD auch nur geklaut hat, von Alpha, ev. auch von Sun (AMD hat auch viel von Alpha geklaut, wobei DEC zuletzt AMD Chipsätze für den Alpha nutzte), von daher würd ich schonmal nicht von 'AMD Weg' sprechen und das Kind beim Namen Nennen: Integrierter Speichercontroller, den vor AMD schon Intel verbauen wollte und DEC hat.
2. _DAS_ würd ich so nicht sagen wollen, denn wir wissen nicht, was die Prozessoren in der Produktion kosten, ev. kann ja auch AMD die günstigeren Prozessoren anbieten, weil die Produktion kostengünstiger ist??
Man weiß es nicht...
Mailwurm[/POST]']
Warum sollten sie ihr derzeitiges Konzept über den Haufen schmeißen? Sämtliche Chipsätze, Mainbaords, etc müssten neu designed werden.
Die Mainboards mussten es sowieso, da Intel (mal wieder) an der Spec zur Spannungsversorgung gedreht hat...
Und das mit den Chipsätzen sehe ich auch nicht unbedingt als Problem an, so hat man wenigstens mal einen Grund, neue Chipsätze auf den Markt zu bringen und es erspart uns ein wenig Chaos, denn nur auf den wenigsten am Markt erhältlichen Brettern läuft ein Conroe/Allendale...
Außerdem scheinst übersehen zu haben, das Intel auch schon eine CPU mit internem Speichercontroller angekündigt hat -> der neue Itanium Prozessor.
Ins Desktopsegment wirds dann auch irgendwann kommen, ev. nutzt man dann auch für Itanic und das Desktopzeugs die gleiche Plattform, wer weiß...
Mailwurm[/POST]']
Kommt DDR3 muss Intel an der CPU nichts ändern und kann unabhängig davon einen neuen Chipsatz herausbringen. AMD hat derzeit den Druck bei einer fundamentalen Änderung am Speichermarkt ihr CPU-Design anpassen zu müssen. AMD hat noch kein Timna-Fiasko erlebt. Intel wird solang es geht einen integrierten Speichercontroller vermeiden.
AMD vs. Intel, wer ist der bessere?! :|
Sorry, aber das gehört nun wirklich nicht unbedingt hier rein, wenn dann sollten wir versuchen uns auf die techn. Details zu konzentrieren, nicht wer am Ende der bessere ist...
PS: Timna wurd gecancelt weil man sich mit dem RAMBUS Deal etwas arg weit aus dem Fenster gelehnt hat und daher ein paar arge Probleme hatte...
Mailwurm[/POST]']
Im Prinzip zählt nicht wer rein technisch gesehen die bessere CPU hat, sondern wer bei höherer Leistung und geringerer Abwärme und geringerem Preis das bessere Angebot hat.
1. Doch, das zählt schon, denn darüber kann man so schön reden, theoretisch...
2. Das ist momentan Intel, davor wars AMD, davor Intel, davor AMD; davor Intel, davor AMD, davor Intel, davor Cyrix...
Immerhin tut sich jetzt mal, nach ein paar Jahren Stillstand, mal wieder etwas, das ist ja auch mal was was uns Konsumenten freut...
Mailwurm[/POST]']Im Prinzip zählt nicht wer rein technisch gesehen die bessere CPU hat, sondern wer bei höherer Leistung und geringerer Abwärme und geringerem Preis das bessere Angebot hat.
Eine sehr gute Aussage! - Sie trifft im warsten Sinne des Wortes den 'Kern'. Die Diskussion um 'besseres' oder 'schlechteres' Design gleicht dem Hornberger Schießen, wenn man bedenkt, daß der Endkunde für 2/4-Kern Systeme, und das ist die überwältigende Mehrheit der verkauften Desktop-/Workstation und Server-System, ausschließlich auf die Performance, sprich was hinten rauskommt, achten wird!
Mailwurm
2006-07-17, 01:39:47
Ich glaub man muss das globaler sehen. Die x86er-Architektur ist jetzt fast 30 Jahre alt. Am Anfang war es eine neue Technologie mit vielen Entwicklungssprüngen und dem Suchen nach dem richtigen Weg. Es ging ja relativ fix von 16 bzw. 8 Bit auf 32 Bit. Dann die Suche nach der Speicheradressierung, Real Mode, Protected Mode und der Enhanced Mode. Dann der mathematische Co-Prozessor, der schließlich als FPU in die CPU wanderte. Es folgte die Integration des Caches. Irgendwann reichte das CISC-Design nicht mehr aus und man stieg auf ein CISC/RISC-Hybrid-Design um und führte das Pipeline-System ein. Irgendwann hatte man dann ein System auf dem Aufbauen konnte und entwickelte es weiter. Es kamen noch die Multimedia-Erweiterungen hinzu, die Caches wuchsen an und schließlich erreichte man fast 20 Jahre nach 32 Bit die 64 Bit. Man sieht die Entwicklungsgeschwindigkeit nimmt ab. Das ist aber nur logisch.
Vergleich man die Entwicklung von Autos in ihren ersten 30 Jahren mit den der letzten 30 Jahre, dann hat sich so relativ gesehen auch wenig getan. Es wurde zwar die Effizenz und Sicherheit verbessert, aber am Grundtyp änderte sich nichts mehr. Ich erwarte also keine neuen Wunderdesigns. Es wird eine stetige Evolution (mehr Kerne, mehr Recheneinheiten, mehr Caches, breitere Datenpfade) geben und mehr Funktionen in den Prozessor wandern bzw. schneller angebunden werden, aber grundsätzlich am Prinzip wird sich nichts mehr ändern. Der nächste große Schritt dürfte dann vielleicht erst wieder mit den optischen Prozessoren zu erwarten sein. Das ist aber reine Spekulation.
StefanV
2006-07-17, 01:50:40
@Mailwurm
Sorry, aber du würfelst da einiges durcheinander...
Ersteinmal ging der Umstieg von 16 auf 32bit garnicht so schnell (softwareseitig), zum anderen waren die '8bit Prozessoren' schon sowas wie 16bit hybride...
Auch der '16bit' 286er hatte 20bit (oder warens 24bit?) Adressraum...
Und der Teil mit den Autos, nunja, da hat sich schon einiges getan, besonders bei den Fahrwerken, Fahrassistenzsystemen (Bremskraftverstärker, ABS, ESP, Servo), des Insassenschutzes, der Abgase, des Verbrauchs (ok, eher nicht) und Komforts usw...
Da hat sich mehr getan als man glauben würde, vor 30 Jahren hatte man hauptsächlich Hecktriebler mit Starrachse, heute hat man durchweg Einzelraduafhängung (von ein paar 'Spezialfällen' (=Geländewagen) abgesehen, wo die Starrachse Vorteile bringt)...
BlackBirdSR[/POST]']Aber er wird immer ineffizienter je mehr Kerne du verwendest. Der L1 und L2 Cache sind direkt verbunden. Aber bereits eine Quad-Core CPU muss durch 2 DICE realisiert werden. Wie sehen dann 8x und 16x Träger aus?
In diesem Punkt ider Core2 nicht Zukunftsträchtig.
Ein Kentsfield User im XS Forum behauptete, das Kentsfield zuerst aus zwei Conroes bestünde und hinterher im Q3 oder Q4 2007 ein richtiger Quad Core kommen soll.
Mir scheint, das er schon etwas mehr weiß als wir, hatte auch die CPU mindestens 6 Monate vor Release in der Hand. :)
Mailwurm
2006-07-17, 02:03:09
@StefanV
AMD hat auch mit DDR2 immer noch die gleichen Probleme, was Vollbestückung beim Speicher angeht.
Zum Rest, das Gast-Posting bringt es so ziemlich auf den Punkt. 80% der Nutzer interessiert überhaupt nicht, was überhaupt in dem grauen Kasten drin ist. Bei den restlichen 20%, die wissen, was eine CPU ist, zählt nur, ist die CPU schnell, preisgünstig und macht wenig Abwärme. Ob da nun ein integrierter Speichercontroller drin ist oder ein großer Level2-Cache interessiert nicht. Im Prinzip ähneln sich die beiden Konzepte von AMD und Intel recht stark, nur Detailsfragen werden halt anders gelöst. Der eine nimmt halt den Weg, der andere den anderen. Wichtig ist, was hinten raus kommt.
Und da ist festzuhalten, dass der Conroe momentan schneller ist, vergleichbar wenig Saft zieht und derzeit günstiger im Preis/Leistungsverältnis ist. AMD hat derzeit weder beim Takt noch bei der Leistung noch beim Preis (hier können sie noch am ehesten was machen) etwas entgegenzusetzen. Und bis zum K8L sind auch noch 18 Monate hin.
Dein Problem ist, Du verrennst Dich zu gerne in Detailfragen. Die interessieren aber nicht. Man kann die Details gerne benennen und die Vor- und Nachteile, die sich daraus ergeben. Aber entscheidend sind sie nicht. Da zählt nur das Gesamtergebnis.
Ich hab bei der kurzen x86er-History nur die Hardware behandelt. Die Software ist ein ganz anderes Thema. Und zum Thema Auto. Vor 30 Jahren konnte ich mit einem Auto mit 130 auf der Autobahn fahren und hinten einen Koffer rein tun und heute kann ich es auch. Natürlich bremst das heutige Auto besser und hat ein paar Komfortdinge mehr. Aber der Unterschied zwischen einer Benzinkutsche von Daimler und einem Duesenberg aus den 20ern liegt doch um Welten höher.
Mailwurm
2006-07-17, 02:06:31
Gast[/POST]']Ein Kentsfield User im XS Forum behauptete, das Kentsfield zuerst aus zwei Conroes bestünde und hinterher im Q3 oder Q4 2007 ein richtiger Quad Core kommen soll.
Mir scheint, das er schon etwas mehr weiß als wir, hatte auch die CPU mindestens 6 Monate vor Release in der Hand. :)
Da behauptet er nichts, das ist so. Siehe Bild in dem Link.
http://www.dailytech.com/article.aspx?newsid=1167
Edit: In meinem Intel-PDF ist es auch klar zu erkennen.
http://static.flickr.com/58/191219114_562ed495c3.jpg
Chrisch
2006-07-17, 02:17:56
jop, ende 2007 oder anfang 2008 soll der "Bloomfield" (QuadCore / Single Die / 45nm)
für Desktop Systeme kommen & den "Kentsfield" (dual Conroe) ablösen.
Mailwurm
2006-07-17, 02:21:28
Chrisch[/POST]']jop, ende 2007 oder anfang 2008 soll der "Bloomfield" (QuadCore / Single Die / 45nm)
für Desktop Systeme kommen & den "Kentsfield" (dual Conroe) ablösen.
Und danach hab ich hier den 8-Core Yorkfield stehen. Dürfte aber erst 2009 oder später sein.
Also gehts doch so einfach und schnell?
Haben dann alle 4 Cores gemeinsamen Zugriff auf den gleichen Cache?
Wäre natürlich sehr effektiv, wenn es so wäre. Statt 2x4 MB, dann >8 MB für alle je nach Auslastung verteilt.
turboschlumpf
2006-07-17, 02:52:31
@ Mailwurm und BessereHälfte
Ich habe so das Gefühl, ihr versteht überhaupt nicht worauf BlackBirdSR hinaus will.
Von Intel gab es bis jetzt eigentlich nur zwei grundlegend verschiedene x86-Architekturen. Die des Pentium Pro und NetBurst. Alles vor dem Pentium Pro lassen wir mal außen vor.
NetBurst war ab Prescott ein ziemlicher Reinfall. Da die Nachfolgearchitektur (also die dritte "richtige" x86-Architektur von Intel) -- aus welchen Gründen auch immer -- noch lange nicht einsatzfähig war benötigte man einen Ausweichplan, einen Lückenfüller. Und Core 2 Duo ist genau dieser Lückenfüller. Diese Architektur war relativ einfach, schnell und kostengünstig zu entwickeln, denn sie basiert auf der Architektur des Pentium M.
Aber sie basiert auf der Architektur des Pentium M, stammt also vom alten Pentium Pro ab. Nach über 10 Jahren der Entwicklung ist diese Architektur hochoptimiert, zu Tode entwickelt. Sie ist so sehr optimiert, dass nur noch relativ geringe Performancesteigerungen möglich sind und hierfür überproportional viel Aufwand getrieben werden muss. Es lohnt sich nicht mehr, die Architektur weiter zu entwickeln.
Und aus diesem Grund geht BlackBirdSR davon aus, dass Intel 2008 mit Nehalem oder spätestens 2010 mit Gesher eine komplett neue Architektur einführen wird, die weder auf NetBurst noch auf der Architektur des Pentium Pro basiert.
turboschlumpf
2006-07-17, 03:23:02
@ BlackBirdSR
Was meinst du mit "8x86"? Die "richtige" P8-Architektur?
Mal abgesehen von einem integrierten Speichercontroller und CSI, welche Entwicklungen hältst du noch für möglich? Eventuell sogar eine neue ISA oder gar den Schwenk zu IA64? Stellt nicht auch die x86-ISA bei der Prozessor-Entwicklung inzwischen einen Hemmschuh dar?
Mailwurm[/POST]'][...] Nur momentan brauchen sie es nicht, also warum Flexibilität beim Speicher einbüßen und sich vl. noch neue Probleme (siehe Vollbestückung AMD) ins Haus holen, wenn man nciht drauf angewiesen ist.
[...] Der AMD-Weg ist vielleicht technologisch gesehen der intelligentere aber nicht unbedingt der einfachere. Derzeit kann Intel mit einem großen shared L2-Cache eine leistungsfähigere CPU zum kleineren Preis anbieten.
[...] Intel wird solang es geht einen integrierten Speichercontroller vermeiden.
Unabhängig von den Vor- und Nachteilen eines integrierten Speichercontrollers und unabhängig davon, dass Intel eine vergleichbare Performance im Moment auch noch über einen anderen Weg erreicht hat: Intels CSI ist erst 2008 fertig und somit hat Intel im Moment auch noch gar nicht die Technologie für einen integrierten Speichercontroller.
BlackBirdSR
2006-07-17, 08:38:06
turboschlumpf[/POST]']@ BlackBirdSR
Was meinst du mit "8x86"? Die "richtige" P8-Architektur?
Mal abgesehen von einem integrierten Speichercontroller und CSI, welche Entwicklungen hältst du noch für möglich? Eventuell sogar eine neue ISA oder gar den Schwenk zu IA64? Stellt nicht auch die x86-ISA bei der Prozessor-Entwicklung inzwischen einen Hemmschuh dar?
Man hört zwar immer wieder wie unsauber die x86 ISA ist, aber ich glaube inzwischen ist x86-64 sogar ein Vorteil. Man kennt sich einfach aus und ist es gewohnt. Von daher glaube ich nicht an eine baldige Abkehr vom Grundkonzept.
Ansonsten sind wohl alle der gleichen Meinung wenn ich sage, dass Netburst tot ist und die Chancen eine Wiederkehr so groß sind wie die des K5.
An IA-64 glaube ich aber auch nicht. Es ist nach all den Jahren noch immer ein Wunschtraum von Intel der intern wohl sehr viel Diskussionen erzeugt. Würde mich nicht wundern, wenn es eine ständige Diskussion zwischen Befürwortern und Gegnern bei Intel gibt.
Man muss es einmal so sehen:
Momentan sind wir in eine Art Grube gefallen, und es dauert länger bis sich die Taktraten erhöhen. Wir sind ja immernoch da, wo der erste 3GHz P4 vor 4 Jahren!!!! stand.
Allerdings muss das nicht so bleiben. Was aber, wenn die Mikroarchitektur dann bei 4.5GHz stehen bleibt?
Intel wir sehr genau wissen wie es in den nächsten Jahren weitergeht. Und ich denke sie werden darauf basierend auch entscheiden ob Core2 ein Lückenfüller oder der Grundstein für die nächsten 5 Jahre ist.
(wobei ich mir einfach nur schwer vorstellen kann, dass dies so optimal ist)
Mailwurm[/POST]']Jede CPU ist bei ihrem Erscheinen hoch optimiert. Es wird das verbaut, was technisch möglich ist und nach Kosten/Nutzen-Rechnung bezahlbar ist. Vor 5 Jahren waren 4 MB Cache noch nicht bezahlbar, inzwischen scheinbar schon, also wird es umgesetzt.
Wieso soll es schwierig sein weiter Leistung herauszuholen? Zukünftig wird man halt die Taktschraube langsamer drehen und dafür auf mehr Kerne setzen.
AMD hat doch seit 7 Jahren auch nur Modellpflege betrieben, weil sie genug Potential mit ihrem K7-Design hatten. Der Speichercontroller hat im Prinzip nichts mit dem eigentlichen Rechenwerk zu tun und 64-Bit war vom Aufwand her auch nicht wesentlich mehr als z.B. die Integration von SSE. Dann wird noch hier und da ein Puffer vergrößert und die Sprungvorhersage verbessert und fertig ist ein "neuer Prozessor".
Intel setzt aus diversen Gründen derzeit nicht auf einen internen Speichercontroller, steht aber auch in meinem Review. Der Core2 verwendet den gemeinsamen L2-Cache der die beiden Kerne miteinander verbindet. Das ist wesentlich effizienter als vorher beim Pentium D, wo dies über den FSb passierte. Der Core 2 ist dem K8 nicht unterlegen geschweige denn veraltet. Er folgt nur einem anderen Konzept. Ich kann Dir interne Intel Papers geben, wo der Bustraffic analysiert wurde und es sich zeigt, dass der FSB den Core 2 nicht ausbremst.
Was Blackbird meint ist glaube ich so ein Fall wie der K5 von AMD damals. Intel benötigt ein Design, dass den Fertigungsvorteil den Intel nunmal hat ausnutzen kann. Der Core2 ist ein nettes Design, aber auf seine Laufzeit gesehen auf bis zu 3 sagen wir 3,2GHz festgenagelt (jedenfalls bei der 60° oder bei zukünftigen Fertigungsprozesse gar weniger Begrenzung). Zudem ist weiterhin unbekannt, wie sich das Design bei der Massenfertigung verhält. Bezeichnend finde ich, dass Intel in vielen Fabs erstmal weiterhin Netburst, vor allem für den Massenmarkt, fertigen und verkaufen will und der Core2 auf absehbare Zeit nur in 2 Fabs vom Band laufen wird.
drmaniac
2006-07-17, 10:32:52
hm. also als CPU Laie ;) wo ich die ganzen Tests verfolgt habe und wie einfach die Teile sich per Luft und ohne sonstwas nach oben schrauben lassen würde ich behaupten, die 3.2 sind nur der Anfang, nicht da Ende ;)
drmaniac[/POST]']ich sag mal so, 4.5 ghz langen doch, wenn sie alle 2 Jahre die Cores verdoppeln ;)
Imho bringt das eine größere (Leistungsexplosion) als wie von damals bis heute immer mal 10% mehr Takt draufzuschlagen.
Jetzt muss nur noch die komplette Programmierwelt auf Multi-Thread umstellen ;)
Das Problem bei der Sache ist nur die Praxis. Irgendwann kannst du nicht weiter für Multithreading optimieren, irgendwann wird die Optimierung dafür aufgrund des Verwaltungsoverheads für die dauernde Synchonisierung so ineffizient, dass es schneller wäre das Ganze auf einem Core singlethreaded laufen zu lassen. Es mag sich die Architektur ändern, die Probleme jedoch nicht. Gerade bei Spielen ist das so eine Sache. Sicherlich gibt es da Optimierungsbedarf, aber mit mehr als 4 Kernen wirst bei Spielen nie was anfangen können, weil die dort auftretenden Probleme das einfach nicht zulassen. Deshalb behaupte ich auch, dass wir mehr als QuadCore auf Desktop nicht zu Gesicht bekommen.
drmaniac[/POST]']hm. also als CPU Laie ;) wo ich die ganzen Tests verfolgt habe und wie einfach die Teile sich per Luft und ohne sonstwas nach oben schrauben lassen würde ich behaupten, die 3.2 sind nur der Anfang, nicht da Ende ;)
Nunja, das hat man vom K8 auch gedacht. Auch bei Netburst (ab Northwood) hat man sowas gedacht. Es gab auch zu Anfang der K8 Ära Leute, die den Clawhammer auf 3,2 GHz geprügelt haben... oder auch den Northwood auf weit über 4GHz... Das alles ist einfach nicht repräsentativ.
Ich glaube, du solltest nicht Einzelerfahrung mit Massenfertigung verwechseln. Vielleicht wird es irgendwann einen 3.46GHz Extreme-Core2 geben, aber die Masse wird sicherlich kaum über 3,2 GHz hinauskommen. Das Problem an der Sache ist, dass da einfach Schluss sein wird mit dem P6 Design und danach nurnoch Verschlimmbesserungen möglich sind wie beim Prescott damals. Intel benötigt eine neue Grundarchitektur um weitermachen zu können.
Mailwurm
2006-07-17, 13:08:48
Der Takt ist doch völlig unerheblich. Mal übertrieben gesprochen, wenn eine CPU nur 100 MHz Takt hätte und schneller als alles andere auf dem Markt wäre, würde sie sich genauso gut verkaufen. Im Serverbereich (nicht-x86) spielt Takt eine eher untergeordnete Rolle. Der steigt zwar mit der technischen Entwicklung an, zählen tut dort aber nur die reale Anwendungsperformance.
Irgendwelche Taktgrenzen hat man doch schon immer herbei geredet. Ich kann mich noch erinnern, als damals AMD mit Palomino und Thoroughbred-A nicht über die 1,8 GHz kam. Da gab es einige, die das Athlon-Design am Ende sahen. Und was war, AMD setzte sich noch mal ins Entwicklerlabor und brachte den erfolgreichen Thoroughbred-B, der locker 2,2 GHz schaffte.
Natürlich kann es sein, dass das derzeitige x86er-Design als RISC/CISC-Hybrid einmal an seine Grenzen stoßen wird. Nur dann wird meines Erachtens kein neues Design mehr reichen, sondern man wird sich fragen müssen ob nicht eine komplette neue Architektur fällig ist. Und das wird dann sehr interessant werden, da nicht nur die Hardware sondern auch sämtliche Software betroffen ist. Apple dürfte dann der Star der Stunde sein, da sie mit so etwas schon mehrfach Erfahrung (68k -> PowerPC, PowerPC -> x86) gemacht haben. Vielleicht wird man neben der neuen Architektur noch einen bisherigen x86er Prozessor mit ins Die integrieren, dass der Umstieg so problemlos wie möglich stattfinden kann. IBM hat schon 1993 mit dem PowerPC 615 an einem x86/PowerPC-Hybrid gearbeitet.
StefanV
2006-07-17, 14:09:31
turboschlumpf[/POST]']Unabhängig von den Vor- und Nachteilen eines integrierten Speichercontrollers und unabhängig davon, dass Intel eine vergleichbare Performance im Moment auch noch über einen anderen Weg erreicht hat: Intels CSI ist erst 2008 fertig und somit hat Intel im Moment auch noch gar nicht die Technologie für einen integrierten Speichercontroller.
Seh ich nicht unbedingt so...
Das Problem ist eher, das man die Alternativen aus prinzip ablehnt, weils nicht von einem selbst ist und ansonsten ja zu einfach wäre...
Hat Intel nicht immer noch Zugriff auf das ganze DEC/Alpha Zeugs??
Und den Hyper Transport gibts ja auch noch, das hätte man auch benutzen können, so denn man es wollte, was aber nicht geht, da das vom 'bösen grünen' entwickelt wurde ;)
Mailwurm
2006-07-17, 14:38:27
StefanV[/POST]']Seh ich nicht unbedingt so...
Das Problem ist eher, das man die Alternativen aus prinzip ablehnt, weils nicht von einem selbst ist und ansonsten ja zu einfach wäre...
Hat Intel nicht immer noch Zugriff auf das ganze DEC/Alpha Zeugs??
Und den Hyper Transport gibts ja auch noch, das hätte man auch benutzen können, so denn man es wollte, was aber nicht geht, da das vom 'bösen grünen' entwickelt wurde ;)
Warum muss Intel denn jede technische Lösung von AMD auch in ihrem Prozessor integrieren? Umgekehrt gilt es doch genauso wenig. Wenn es nach Dir gehen würde, dann gäbe es nur ein festgelegtes CPU-Design nach AMD-Standard und Intel hat das bedingungslos einzuhalten. Wo bleibt da bitte schön der Wettbewerb?
Den Firmen ist es völlig frei, was sie wie bauen. Die müssen damit Geld verdienen, nicht du. Wie ich hier schon x Mal geschrieben hab, es zählt, was hinten raus kommt.
Mailwurm[/POST]']Wie ich hier schon x Mal geschrieben hab, es zählt, was hinten raus kommt.Das zählt vielleicht für eine Kaufentscheidung. Wenn man diskutieren will, sollte man aber auch die Hintergründe betrachten. Diskussionen über "das was hinten rauskommt" sind imho stinklangweilig. Über die Technik zu diskutieren kann hingegen sehr spannend sein
Mailwurm
2006-07-17, 15:32:20
Gast[/POST]']Das zählt vielleicht für eine Kaufentscheidung. Wenn man diskutieren will, sollte man aber auch die Hintergründe betrachten. Diskussionen über "das was hinten rauskommt" sind imho stinklangweilig. Über die Technik zu diskutieren kann hingegen sehr spannend sein
Natürlich. Aber diese simple Schema "Intel=böse und schlecht, AMD=gut", ist mir zu abgedroschen für eine Diskussion. Wenn Intel nunmal ausreichend Performance mit externem Speichercontroller hat und die Flexibilität vorerst nicht aufgeben möchte, dann darf man das nicht negativ bewerten. Und erst recht nicht, dass Intel Hypertransport verwenden muss, selbst wenn sie es nicht brauchen. Das läuft für mich dann auf Gleichmacherei irgendwelcher Fanboys hinaus.
BlackBirdSR
2006-07-17, 16:31:11
Mailwurm[/POST]']Natürlich. Aber diese simple Schema "Intel=böse und schlecht, AMD=gut", ist mir zu abgedroschen für eine Diskussion. Wenn Intel nunmal ausreichend Performance mit externem Speichercontroller hat und die Flexibilität vorerst nicht aufgeben möchte, dann darf man das nicht negativ bewerten. Und erst recht nicht, dass Intel Hypertransport verwenden muss, selbst wenn sie es nicht brauchen. Das läuft für mich dann auf Gleichmacherei irgendwelcher Fanboys hinaus.
Ich habe versucht mit dir zu Diskutieren und fleißig Argumente zu bringen...
von abgedroschen kann da keine rede sein. Vergangen ist es mir dann da, als du mir dann unterstellt hast, ich hätte den Core2 dem K8 als unterlegen dargestellt.
Und der Gast hat recht. Es ist keine Diskussion wenn man nur betrachtet was dabei rauskommt. Intel hat nunmal noch keinen integrierten Speichercontroller und kein Konzept für die interne Verbindung mehrerer Kerne.
Das kommt erst 2007. Dann hat Intel in diesem Punkt aufgeholt.
Aus Performancesicht für einen Desktopuser ist das sicher nicht als negativ zu bewerten. In der Gesamtansicht der Architektur allerdings schon.
Und ich kann dir gegenüber nur nocheinmal betonen, dass ich damit den Core2 nicht generell als unterlegen bezeichne. Es gibt zum Glück differenzierte Aspekte.
Ansonsten würde ich mich freuen, wenn du das Wort "fanboy" nicht mehr verwenden würdest. Das wird hier nicht gerne gesehen und muss auch nicht sein.
StefanV hat in diesem Sinne recht. Intel hätte schon vor einiger Zeit ebenfalls Hypertransport benutzen können. Das wollte man jedoch nicht. Ganz einfach weil man lieber selbst Standards setzt. Akzeptiere ich, und ist eben so bei Intel.
Es ist jedoch falsch, dass sie es nicht brauchen. Conroe und merom brauchen es nicht. Aber wie dringend Intel so ewas nötig hat sieht man am nahen Release von CSI.
StefanV
2006-07-17, 17:22:15
@Mailwurm
Ersteinmal gibts nicht nur Intel und AMD auf diesem Planeten.
Es gibt auch noch IBM, Freescale, Sun, HP und noch den einen oder anderen, den ich vergessen hab...
Zum Speichercontroller & Alpha:
Den hat AMD auch nur geklaut, das K8 I/O Design ist äußerst stark am Alpha EV8 angelehnt (der Alpha EV8 hatte AFAIK noch den einen oder anderen Link mehr), liegt wohl daran, das AMD mit Alpha etwas enger zusammengearbeitet hat, seit dem K7, wovon auch beide profitierten, AMD hat 'nen brauchbares CPU Interface bekommen, Alpha 'nen AGP Chipsatz.
Schon damals war AMD in mehrprozessorsystemen Intel überlegen, da man nicht einfach 2 CPUs an einen FSB geklatscht hat (das sie daraus wenig bis garnichts gemacht haben, steht auf einem anderen Blatt), mit dem K8 hat man diese Überlegenheit noch weiter ausgebaut, dabei hat man die CPU auch von ANfang an eher auf den Servermarkt ausgerichtet, inklusive einigen 'Consumerablegern' ;)
Wie dem auch sei, Intel hätte also nicht nur die Wahl zwischen 'was eigenem' und 'dem (offenen) AMD Weg' gehabt, sie hätten auch die Wahl gehabt, das ganze Alpha Zeugs zu adaptieren, was sie prinzipiell eigentlich schon besitzen...
Außerdem: IBM hat 'nen Speichercontroller eingebaut, Sun AFAIK auch, der Alpha EV8 hatte es ebenso, AMD hat in ihrer Server CPU K8 auch einen Speichercontroller integriert, die einzigen, die es bisher nicht getan haben, sind Intel, wenn man mal die ganzen LV und ULV ARMs und MIPS außer acht lässt.
Das Problem, wenn Intel den Industriestandard Hyper Transport genutzt hätte, wäre, das man die Situation auf dem x86 CPU Markt etwas zu einfach gemacht hätte, denn dann hätten die ganzen Hersteller nur noch einen Chipsatz entwickeln und bauen müssen, ja schlimmer noch, man hätte Intel Chipsätze mit einer AMD CPU kombinieren können, AMD Chipsätze hätt man dann auch mit einer Intel CPU kombinieren können.
Das geht ja nun überhauptnicht, da man AMD auf diese Weise ja unterstützen würde...
Interessant würd das genze werden, wenn auch andere Hersteller ein Hyper Transport Interface in ihre CPUs basteln würden, was durchaus vorkommen könnte, da sowohl Sun als auch IBM im Hyper Transport Konsortium sind, hätte außerdem den Vorteil, das man keine Chipsätze mehr entwickeln müsste, man könnte einfach den Broadcom HT1000/2000 nehmen...
Alles in allem:
Abwarten und Tee rauchen, untergehen wird so schnell keiner, bei Intel stehen noch einige Schelten aus (EU + FTC in den USA), AMD wird irgendwann nachlegen und wieder schneller sein als Intel, woraufhin Intel wieder kontern wird, so langweilig wie in den letzten paar Jahren wirds auf jeden Fall nicht mehr (hoffe ich mal)...
Mailwurm
2006-07-17, 17:32:10
BlackBirdSR[/POST]']Ich habe versucht mit dir zu Diskutieren und fleißig Argumente zu bringen...
von abgedroschen kann da keine rede sein. Vergangen ist es mir dann da, als du mir dann unterstellt hast, ich hätte den Core2 dem K8 als unterlegen dargestellt.
Und der Gast hat recht. Es ist keine Diskussion wenn man nur betrachtet was dabei rauskommt. Intel hat nunmal noch keinen integrierten Speichercontroller und kein Konzept für die interne Verbindung mehrerer Kerne.
Das kommt erst 2007. Dann hat Intel in diesem Punkt aufgeholt.
Aus Performancesicht für einen Desktopuser ist das sicher nicht als negativ zu bewerten. In der Gesamtansicht der Architektur allerdings schon.
Und ich kann dir gegenüber nur nocheinmal betonen, dass ich damit den Core2 nicht generell als unterlegen bezeichne. Es gibt zum Glück differenzierte Aspekte.
Ansonsten würde ich mich freuen, wenn du das Wort "fanboy" nicht mehr verwenden würdest. Das wird hier nicht gerne gesehen und muss auch nicht sein.
StefanV hat in diesem Sinne recht. Intel hätte schon vor einiger Zeit ebenfalls Hypertransport benutzen können. Das wollte man jedoch nicht. Ganz einfach weil man lieber selbst Standards setzt. Akzeptiere ich, und ist eben so bei Intel.
Es ist jedoch falsch, dass sie es nicht brauchen. Conroe und merom brauchen es nicht. Aber wie dringend Intel so ewas nötig hat sieht man am nahen Release von CSI.
Ich habe damit auch nicht dich gemeint. StefanV hat in der Vergangenheit einige unschöne Dinge bei uns im Forum abgezogen, die ich hier jetzt nicht hervorholen will. Nur so viel dazu, uns wurde unterstellt zu "Intel-freundlich" zu sein, um es mal harmlos zu formulieren. Und mich beschleicht der Eindruck, dass er sich nicht geändert hat und für ihn grundsätzlich nur AMD "richtige Prozessoren" macht.
Zurück zum Thema. Warum hat Intel CSI und einen integrierten Speichercontroller dringend nötig? Die Benches sprechen eine andere Sprache. Natürlich kommt spätestens mit 4 Kernen der Punkt, wo die bisherige Struktur mit FSB ein Flaschenhals werden kann. Nur der ist eben nicht erreicht, also ist es auch nicht dringend nötig. Dringend wäre bei mir, wenn nachweisbar der Conroe unter dem FSB und externen Speichercontroller leiden würde. Tut er nicht, also Folgerung, es ist nicht dringend.
Mir persönlich ist es lieber ein Hersteller entwickelt 6, 12 oder 18 Monate länger um dann eine ausgereifte Technik vorzustellen, die ohne Einschränkungen funktioniert. Und da war Intel in den letzten Jahren eigentlich ein Paradebeispiel. AMD hat es seit Einführung des K8 nicht geschafft das Problem bei maximaler Speicherbelegung zu lösen. Selbst bei DDR2 haben wir immer noch die gleichen Probleme angetroffen. Was noch viel schlimmer ist, sie äußern sich dazu nicht. Weder in inoffiziellen Entwickler-PDFs noch in offiziellen Darstellungen gibt es eine klare Aussage welche Speichertypen und -sorten wie zusammenarbeiten. Und das ist für den Kunden einfach nur ärgerlich.
Intel nimmt nun mal den Weg der kleinen Schritte und bringt den Conroe mit "altem" FSB-Interface. Die Performance ist auf alle Fälle da, vielleicht wäre sie mit CSI und int. Speichercontroller ein Tick besser, wir wissen es nicht. Aber was wichtig ist, es scheint keine Bugs zu geben, weil auf etablierte Technik gesetzt wurde. AMD steht unter einem höheren Innovationsdruck, weil sie der kleinere Konkurrent sind, ok, sehe ich ein. Nichtsdestotrotz ist Stabilität und Benutzerfreundlichkeit ein sehr wichtiger Punkt wenn es um die Gesamtbewertung eines Systems geht. Die sollte man nicht vernachlässigen. Nun steht AMD vor dem Problem weder beim Takt, noch bei der Leistung, noch beim Preis mit Intel konkurrieren zu können. Dann nützt ihn ihr Hypertransport und integrierter Speichercontroller ziemlich wenig, denn dafür kann sich der Kunde nicht wirklich was kaufen. Würde sie damit Intel auf die hinteren Plätze verweisen, dann dürfte man Intel kritisieren, dass sie diese Technologien nicht verwenden. Die Realtität spricht derzeit aber leider eine andere Sprache. Und dass sie das K8L-Design erst in 18 Monaten herausbringen können/wollen stimmt mich da auch nicht fröhlicher.
turboschlumpf
2006-07-17, 17:36:06
Es geht nicht um den Desktop- sondern um den Server-Bereich mit mehr als zwei CPU-Sockeln. Und da hat Intel im Moment ziemlich die Hosen voll. ;)
Mailwurm
2006-07-17, 17:40:48
StefanV[/POST]']@Mailwurm
Ersteinmal gibts nicht nur Intel und AMD auf diesem Planeten.
Es gibt auch noch IBM, Freescale, Sun, HP und noch den einen oder anderen, den ich vergessen hab...
Zum Speichercontroller & Alpha:
Den hat AMD auch nur geklaut, das K8 I/O Design ist äußerst stark am Alpha EV8 angelehnt (der Alpha EV8 hatte AFAIK noch den einen oder anderen Link mehr), liegt wohl daran, das AMD mit Alpha etwas enger zusammengearbeitet hat, seit dem K7, wovon auch beide profitierten, AMD hat 'nen brauchbares CPU Interface bekommen, Alpha 'nen AGP Chipsatz.
Schon damals war AMD in mehrprozessorsystemen Intel überlegen, da man nicht einfach 2 CPUs an einen FSB geklatscht hat (das sie daraus wenig bis garnichts gemacht haben, steht auf einem anderen Blatt), mit dem K8 hat man diese Überlegenheit noch weiter ausgebaut, dabei hat man die CPU auch von ANfang an eher auf den Servermarkt ausgerichtet, inklusive einigen 'Consumerablegern' ;)
Wie dem auch sei, Intel hätte also nicht nur die Wahl zwischen 'was eigenem' und 'dem (offenen) AMD Weg' gehabt, sie hätten auch die Wahl gehabt, das ganze Alpha Zeugs zu adaptieren, was sie prinzipiell eigentlich schon besitzen...
Außerdem: IBM hat 'nen Speichercontroller eingebaut, Sun AFAIK auch, der Alpha EV8 hatte es ebenso, AMD hat in ihrer Server CPU K8 auch einen Speichercontroller integriert, die einzigen, die es bisher nicht getan haben, sind Intel, wenn man mal die ganzen LV und ULV ARMs und MIPS außer acht lässt.
Das Problem, wenn Intel den Industriestandard Hyper Transport genutzt hätte, wäre, das man die Situation auf dem x86 CPU Markt etwas zu einfach gemacht hätte, denn dann hätten die ganzen Hersteller nur noch einen Chipsatz entwickeln und bauen müssen, ja schlimmer noch, man hätte Intel Chipsätze mit einer AMD CPU kombinieren können, AMD Chipsätze hätt man dann auch mit einer Intel CPU kombinieren können.
Das geht ja nun überhauptnicht, da man AMD auf diese Weise ja unterstützen würde...
Interessant würd das genze werden, wenn auch andere Hersteller ein Hyper Transport Interface in ihre CPUs basteln würden, was durchaus vorkommen könnte, da sowohl Sun als auch IBM im Hyper Transport Konsortium sind, hätte außerdem den Vorteil, das man keine Chipsätze mehr entwickeln müsste, man könnte einfach den Broadcom HT1000/2000 nehmen...
Alles in allem:
Abwarten und Tee rauchen, untergehen wird so schnell keiner, bei Intel stehen noch einige Schelten aus (EU + FTC in den USA), AMD wird irgendwann nachlegen und wieder schneller sein als Intel, woraufhin Intel wieder kontern wird, so langweilig wie in den letzten paar Jahren wirds auf jeden Fall nicht mehr (hoffe ich mal)...
Ist ja alles richtig, nur würdest Du als Intel deine Plattform kostenlos öffnen und Dir damit Konkurrenz ins Boot holen wollen, die über die Preise konkurriert? Intel entwickelt neben der CPU noch eine Menge anderer Dinge wie Chipsatz usw. Das wollen sie sich natürlich bezahlen lassen. AMD hatte damals 1999 die Möglichkeit statt auf Alpha EV6-Protokoll auf Intels Busprotokoll GTL+ zu setzen, gegen entsprechende Lizenzzahlung. Wahrscheinlich war EV6 günstiger, aber AMD hatte in der Anfangszeit deutlich mit den Chipsätzen zu kämpfen. Für eigene reichten die Kapazitäten nicht aus und was aus Taiwan kam, war gelinde gesagt ziemlich problematisch.
Ich bin auch für Ruhe bewahren, aber in manchen Postings hier bekommt man den Eindruck, dass panische Zustände herrschen und Intel am besten noch heute auf int. Speichercontroller umsteigen müssen, damit sie morgen nicht Pleite sind.
Vor allem gibts auch schon Intel-Chipsätze mit mehr als einem FSB, was zusammen mit der überragenden Prefetch-Leistung von Woodcrest wohl ausreichen müsste um AMD auch in 4-8-CPU-Systemen deutlich Druck zu machen.
Ich würde mich nicht darauf verlassen, dass AMD seinen Marktanteil im Serverbereich noch weiter ausbauen kann.
jasihasi
2006-07-17, 17:45:37
Mailwurm[/POST]']
Dann nützt ihn ihr Hypertransport und integrierter Speichercontroller ziemlich wenig, denn dafür kann sich der Kunde nicht wirklich was kaufen. Würde sie damit Intel auf die hinteren Plätze verweisen, dann dürfte man Intel kritisieren, dass sie diese Technologien nicht verwenden.
Möchte nicht reinplatzen, aber genau dafür kann er sich jetzt einen Intel Doppelkern kaufen, den es nach Stand 2002 Netburst bis 10 Gigaherz nicht gäbe, wohl aber nach Stand K8 2003.
Überhaupt, Pentium Pro auf sparsam, und sonst zweiter Kern, EMT64, Cache, SSE, wirkt alles ein bisschen angeflanscht. Ein bisserl öd, so ganz ohne neue Arch. Jedenfalls kommts mir so vor.
Mailwurm
2006-07-17, 17:52:40
jasihasi[/POST]']Möchte nicht reinplatzen, aber genau dafür kann er sich jetzt einen Intel Doppelkern kaufen, den es nach Stand 2002 Netburst bis 10 Gigaherz nicht gäbe, wohl aber nach Stand K8 2003.
Überhaupt, Pentium Pro auf sparsam, und sonst zweiter Kern, EMT64, Cache, SSE, wirkt alles ein bisschen angeflanscht. Ein bisserl öd, so ganz ohne neue Arch. Jedenfalls kommts mir so vor.
Ich hab ja nicht gesagt, dass AMD diese Technologie nicht verwenden darf oder soll. Ich habe nur ausgedrückt, dass Intel eben einen anderen Weg geht. Das Konkurrenz gut ist, habe ich ja hier auch schon geschrieben. Im Gegensatz zu anderen hier, verlange ich ja nicht, dass Intel den internen Speichercontroller von AMD und Hypertransport verwenden muss, nur weil es AMD tut. Das wäre Gleichmacherei und würde wahrscheinlich zu einem schlechteren Wettbewerb führen. Ich finde es ja gut, dass es wenigstens noch einen Konkurrenten zu Intel gibt, sonst wäre das für die Entwicklung und die Preise sehr schlecht. Deshalb finde ich es ja auch schade, dass AMD derzeit nicht in die Puschen kommt und der K8L noch so weit weg ist.
StefanV
2006-07-17, 18:06:43
Mailwurm[/POST]']
AMD hatte damals 1999 die Möglichkeit statt auf Alpha EV6-Protokoll auf Intels Busprotokoll GTL+ zu setzen, gegen entsprechende Lizenzzahlung.
Nein, die Wahl hatte AMD nicht!
AMD hatte genau 2 Möglichkeiten:
a) man Lizensiert sich 'ne bestehende Plattform von einem anderen Hersteller als Intel
b) man entwickelt was eigenes
Da man für Möglichkeit B nicht genug Recourcen hatte, entschied man sich für Möglichkeit A.
Die Alternative wäre gewesen, beim Sockel 7 zu bleiben!
Mailwurm[/POST]']
Wahrscheinlich war EV6 günstiger, aber AMD hatte in der Anfangszeit deutlich mit den Chipsätzen zu kämpfen. Für eigene reichten die Kapazitäten nicht aus und was aus Taiwan kam, war gelinde gesagt ziemlich problematisch.
1. EV6 war die einzig sinnige Möglichkeit, die AMD damals gehabt hat...
2. nö, die AMD Chipsätze waren seit je her recht ordentlich, einzig die Features waren etwas altertümlich, sowohl AMD-750 als auch 760 waren relativ gute Chipsätze...
Aber damals hatte Intel damals auch ein paar kleinere Probleme mit den Chipsätzen und war voll und ganz VIA ausgeliefert, da sie selbst nur das RAMBUS Zeugs hatte, mit dem man sich wohl ein wenig arg weit aus dem Fenster gelehnt hat...
Ach, übrigens, hab hier gerad 2 RAMBUS Kisten stehen, 2x 2 Sockel 603 :devil:
StefanV
2006-07-17, 18:08:38
Mailwurm[/POST]']aber in manchen Postings hier bekommt man den Eindruck, dass panische Zustände herrschen und Intel am besten noch heute auf int. Speichercontroller umsteigen müssen, damit sie morgen nicht Pleite sind.
Hm, gabs hier nicht einige Reviews, wo der FSB der CPU 'etwas' erhöht wurde, was dazu führte, das die Leistung der CPU anstieg??
Wäre das nicht genug Beweis dafür, das der FSB etwas bremst und das ein integrierter Speichercontroller besser gewesen wäre, wenn man sowas hätte?? :|
StefanV
2006-07-17, 18:19:30
Gast[/POST]']Bremsen in dem Sinne tut der FSB nicht, es ist nur so, das FSB momentan zu niedrig gesetzt ist.
Mit einem 400-500 MHz FSB, wäre der Unterschied in der Bandbreite womöglich kaum noch da, da wären dann wohl nur noch die Latenzen bei einem IMC besser, aber der zieht ja widerum auch Nachteile mit sich. Die CPU wird komplexer und es ist nicht mehr so einfach, auf neue Speichertechniken umzustellen.
Was am Ende wieder aufs gleiche rauskommt, wie das was ich postete -> FSB limitiert irgendwie doch, bei einem integrierten Speichercontroller würd man eine bessere Performance bei weniger Problemen (400-500MHz bei einem parallelen Interface sind nicht so ohne)...
PS: schau dir mal die Leitungsführung von RDRAM Boards an, das ist äußerst heftig...
Cleverle
2006-07-17, 18:21:44
Was soll diese Diskussion um den integrierten K8 Speichercontroller. Also, ich bringe es mal auf den Punkt:
1.) Der K8 hat einen integrierten Speicherkontroller, der Conroe hat ihn nicht.
2.) Der Conroe hat im Schnitt eine um 20% höhrer proMhz-Leistung als der K8.
Ich sehe hier nicht, weshalb Intel sein Ziel verfehlt haben sollte, den K8 in Punkto Performance pro MHz und Watt zu schlagen. Nun muß AMD an anderer Stelle nachlegen. Und sehr vermutlich genau dort, wo Intel bereits neue Bestmarken vorgelegt hat. Denn integrierten Speicherkontroller hat AMD ja schon. Vielleicht wir ihn Intel demnächst auch verbauen, vielleicht deshalb, weil AMD mit dem K8L-Design Intel dazu 'nötigen' wird. Intel hat eben beim Conroe an andere Stelle die Effizienz deutlichst verbessert. Wer rational(unvoreingenommen) denkt, stimmt mir hier sicherlich ebenso unvoreingenommen zu.
C.
jasihasi[/POST]']Überhaupt, Pentium Pro auf sparsam, und sonst zweiter Kern, EMT64, Cache, SSE, wirkt alles ein bisschen angeflanscht. Ein bisserl öd, so ganz ohne neue Arch. Jedenfalls kommts mir so vor.
Conroe ist deutlich mehr als "P6 auf sparsam" - sonst würde er nicht diese Leistung erreichen.
StefanV
2006-07-17, 18:31:56
Cleverle[/POST]'] Denn integrierten Speicherkontroller hat AMD ja schon.
Nein, andersrum:
Den integrierten Speichercontroller haben alle, nur Intel nicht...
zu alle zähle ich auch Sun und IBM...
Cleverle[/POST]']
Vielleicht wir ihn Intel demnächst auch verbauen, vielleicht deshalb, weil AMD mit dem K8L-Design Intel dazu 'nötigen' wird.
Nicht vielleicht sondern ganz sicher.
Eben weil sie es müssen, weil Intel die letzten sind, die sowas noch nicht haben....
Cleverle[/POST]'] Intel hat eben beim Conroe an andere Stelle die Effizienz deutlichst verbessert. Wer rational(unvoreingenommen) denkt, stimmt mir hier sicherlich ebenso unvoreingenommen zu.
Ja und dennoch bremst der FSB gegenüber einem integriertem Speichercontroller.
Daran gibts nichts zu rütteln, das ist einfach so, das muss einfach so sein...
Allein schon die Latenz muss höher sein, wenn der Controller extern ist, zumal man den nicht so stark einbinden kann und sich auf den Chipsatz verlassen muss...
Coda[/POST]']Conroe ist deutlich mehr als "P6 auf sparsam" - sonst würde er nicht diese Leistung erreichen.
Ich würds mal so sehen, das vom P6 Design nicht mehr soo viel übrig geblieben ist, abgesehen von der Grundidee des ganzen...
Aber so gesehen basiert der K8 auch auf einem P6 ähnlichem Design, irgendwie :|
dildo4u
2006-07-17, 18:35:24
StefanV[/POST]']
Daran gibts nichts zu rütteln, das ist einfach so, das muss einfach so sein...
Allein schon die Latenz muss höher sein, wenn der Controller extern ist, zumal man den nicht so stark einbinden kann und sich auf den Chipsatz verlassen muss...
Der Core 2 Duo hat teilweise bessere Latenz Zeiten als der aktuelle K8.
Memory Latency: No Integrated Memory Controller Necessary
http://images.anandtech.com/graphs/core2duolaunch_07130680720/12604.png
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2795&p=5
StefanV
2006-07-17, 18:49:46
dildo4u[/POST]']Der Core 2 Duo hat teilweise bessere Latenz Zeiten als der aktuelle K8.
Memory Latency: No Integrated Memory Controller Necessary
http://images.anandtech.com/graphs/core2duolaunch_07130680720/12604.png
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2795&p=5
Ja, und?
Der Test sagt doch nur aus, das Intel irgendwas gebastelt hat und die Latenz so verringern konnte.
Er sagt aber eben NICHT aus, das ein Integrierter Speichercontroller überflüssig ist, denn dazu müsst man den K8 mit externem oder den Conroe mit internem testen (logisch, oder? ;))
Wenn man das ganze mal ohne L2 Cache testen würd, dann wärs ev. mal interessant (ich geh mal davon aus, das Intel am L2 Cache und prefetch ordentlich gebastelt hat, die AMDs haben ja seit der Cache in die CPU gewandert ist, ein paar kleinere Nachteile, da hat man schon etwas gespart).
Einen IMC sehe ich momentan nicht als Pflicht an.
Im moment sind die Nachteile dadurch noch größer, als die Vorteile.
Vorallem im aktuellen Stadium. Nächstes Jahr kommt schon DDR3. Wäre irgendwie doof, jetzt nen Conroe zu haben, der nur DDR2 unterstützt und hinterher neben dem Board noch Speicher und CPU wechseln zu müssen.
Dazu kommt die Sache mit der Fertigung. Ich denke Intel war von anfang an darauf bedacht, die CPU so günstig wie möglich herzustellen (imo lobenswert, siehe Northwood. Wenig Komplex, trotzdem leistungsfähig zur damaligen Zeit).
Das wird sich noch als Vorteil erweisen - darauf wette ich. Bedenkt bitte eines: Intel fertigt mit 65nm und 300mm Wafer CPUs ohne IMC. Das sollte sehr niedrige Preise erlauben, was sich als Vorteil für Intel erweist. Gute Preise = bessere Marktakzeptanz.
Dazu kommt der baldige Umstieg. Der Schritt auf 45nm ist kein gewöhnlicher. Es wird nicht nur ein Die-Shrink sein, sondern auch die Materialien werden sich erstmals nach langer Zeit wieder ändern. Das wäre bei einer komplexeren CPU sicherlich wesentlich zeitaufwendiger und kostenspieliger geworden.
Und warum jetzt einen Speichercontroller... wenn sie wollten, könnten sie den Takt hochschrauben, die Preise runtersetzen, den FSB erhöhen ... (siehe Woodcrest).
er hat ja auch teilweise bessere latenz geschrieben und nicht dass der conroe insgesamt bessere latenzen hat! richtig lesen muss man schon...
dildo4u
2006-07-17, 18:54:38
StefanV[/POST]']Ja, und?
Der Test sagt doch nur aus, das Intel irgendwas gebastelt hat und die Latenz so verringern konnte.
Er sagt aber eben NICHT aus, das ein Integrierter Speichercontroller überflüssig ist, denn dazu müsst man den K8 mit externem oder den Conroe mit internem testen (logisch, oder? ;))
Wayne? man ereicht die Performance die man braucht spart Tarnsistoren und spart sich diesen Ärger mit bestimmten Rambestückungen.
StefanV
2006-07-17, 19:21:15
dildo4u[/POST]']Wayne? man ereicht die Performance die man braucht spart Tarnsistoren und spart sich diesen Ärger mit bestimmten Rambestückungen.
1. Uns?
Hier gehts eher um die technischen Details, wie du gemerkt hast :devil:
2. man hätt noch etwas mehr erreichen könne, mit einem integrierten Speichercontroller...
3. Tschuldigung, aber das ist völliger Blödsinn :|
Nur weils beim K8 so ist, muss das nicht bei allen anderen CPUs mit einem Speichercontroller auch so sein...
dildo4u
2006-07-17, 19:30:26
StefanV[/POST]']
3. Tschuldigung, aber das ist völliger Blödsinn :|
Nur weils beim K8 so ist, muss das nicht bei allen anderen CPUs mit einem Speichercontroller auch so sein...
Ich halte AMD eigentlich schon für recht fähig sie haben es aber troz vieler neuer Core Varianten und Steppings bis Heute nicht in den Griff bekommen.
Mailwurm
2006-07-17, 19:33:15
Alle anderen haben IMCs (endlich mal ne Abkürzung dafür ;) ) ?
Schaue ich zu IBMs PowerPC 970 (Apple PowerMac) sehe ich da keinen. Das ist derzeit noch die einzige Alternative im Desktop-Segment zu den x86ern. Bei Servern mag das vielleicht anders aussehen, aber wie gesagt, es geht hier um Desktop-Systeme.
2. man hätt noch etwas mehr erreichen könne, mit einem integrierten Speichercontroller...
Die Antwort hast Du Dir bereits selber gegeben:
Nur weils beim K8 so ist, muss das nicht bei allen anderen CPUs mit einem Speichercontroller auch so sein...
Der Beweis für diese Behauptung steht noch aus. Der Conroe mit 4 MB shared L2-Cache wird weit weniger von einem IMC oder einem höheren FSB profitieren als ein K8 mit 512 KB non-shared-Cache. Bei 4 Cores mag das vielleicht anders aussehen, aber weder der K8 noch der Conroe hat 4 Kerne.
Mailwurm
2006-07-17, 19:38:30
StefanV[/POST]']Ja, und?
Der Test sagt doch nur aus, das Intel irgendwas gebastelt hat und die Latenz so verringern konnte.
Er sagt aber eben NICHT aus, das ein Integrierter Speichercontroller überflüssig ist, denn dazu müsst man den K8 mit externem oder den Conroe mit internem testen (logisch, oder? ;))
Wenn man das ganze mal ohne L2 Cache testen würd, dann wärs ev. mal interessant (ich geh mal davon aus, das Intel am L2 Cache und prefetch ordentlich gebastelt hat, die AMDs haben ja seit der Cache in die CPU gewandert ist, ein paar kleinere Nachteile, da hat man schon etwas gespart).
Nicht irgendwas. Ich dachte es geht hier um technische Details. :biggrin:
III. Smart Memory Access
Darunter verbergen sich zwei Technologien, die die Speicherzugriffe optimieren. Beim "Memory Disambiguation" prüft der Prozessor ob nicht Ladevorgänge unabhängig von vorhergehenden Schreibvorgängen sind und somit vorgezogen werden können. Dadurch können unnötige Wartezyklen eingespart werden, was einen effizienteren Speicherzugriff ermöglicht. Beim zweiten Punkt handelt es sich um eine verbesserte Sprungvorhersage (Prefetcher). Da der Speicher heutzutage wesentlich langsamer Daten liefert, als der Prozessor verarbeiten kann ist es wichtig, zukünftig benötigte Daten bereits aus dem Speicher anzufordern, damit bei der eigentlichen Verarbeitung keine Wartezyklen auftreten. Der Conroe verfügt über 8 Prefetcher, wobei zwei Daten- und einen Befehls-Prefetcher pro Kern und zwei Prefetcher im Level-2-Cache vorhanden sind.
http://hardtecs4u.com/reviews/2006/intel_conroe/index3.php
AMD hat übrigens bekannt gegeben "Memory Disambiguation" auch beim K8L nicht mit herein zu nehmen. Es ist also zu erwarten, dass Intel weiter Boden gut machen wird, wenn sie in zukünftigen Produkten einen IMC integrieren werden.
Der Kentsfield wird auch gut skalieren, zumindest den ersten Benches nach zu urteilen. Jedenfalls mehr als 55% mehr Leistung als ein Conroe.
Und da besteht durchaus noch die Möglichkeit, das die den L2 Cache später im Jahr 2007 nochmal aufbohren (statt 2x4 MB vielleicht 8-12 MB shared).
Wenn ich den Werten trauen darf:
167 Mio. (Allendale)
291 Mio (Conroe)
gegen
153,8 Mio. (2x512 kB)
227,4 Mio. (2x 1MB)
sieht das momentan sehr gut aus. Der Allendale ist schon schneller und kaum komplexer, lässt sich aber erheblich günstiger produzieren, wenn der Fertigungsvorsprung berücksichtigt wird.
turboschlumpf
2006-07-17, 20:15:53
@ Gast über mir
Nicht die Anzahl an Transistoren ist interessant, sondern die benötigte Die-Fläche.
dildo4u[/POST]']Wayne? man ereicht die Performance die man braucht spart Tarnsistoren und spart sich diesen Ärger mit bestimmten Rambestückungen.
Na da wäre ich mir ehrlich gesagt nicht so sicher, ob die 4096 KiB Cache mit 1067er FSB weniger Transistoren verbrauchen als die 2x 512 KiB Cache mit dem IMC.
StefanV
2006-07-17, 20:30:39
dildo4u[/POST]']Ich halte AMD eigentlich schon für recht fähig sie haben es aber troz vieler neuer Core Varianten und Steppings bis Heute nicht in den Griff bekommen.
Ja und jetzt ist die Frage, ob die Schuld wirklich zu 100% bei AMD liegt oder nur zu 20-30% und zu 70-80% bei den Boardherstellern, die nicht in der Lage sind, die Leitungen für den Speicher ordentlich zu routen...
Denn was auch auffällt ist, das das ganze auch stark Boardabhängig ist.
StefanV[/POST]']Ja und jetzt ist die Frage, ob die Schuld wirklich zu 100% bei AMD liegt oder nur zu 20-30% und zu 70-80% bei den Boardherstellern, die nicht in der Lage sind, die Leitungen für den Speicher ordentlich zu routen...
Denn was auch auffällt ist, das das ganze auch stark Boardabhängig ist.
Wenn es so wäre würde es mit den normalen Chipsätzen die selben Probleme geben.
Die Probleme die ein integrierter Speichercontroller hat ist zum einen dass das Signal durch die Pins der CPU-Halterung muss und außerdem evtl. noch Störeinflüsse vom restlichen Core hinzukommen.
Henroldus
2006-07-17, 22:18:56
turboschlumpf[/POST]']@ Gast über mir
Nicht die Anzahl an Transistoren ist interessant, sondern die benötigte Die-Fläche.
ja bei ungefähr gleicher Transistorzahl belegt eine DIE mit 65nm etwa die hÄlfte der fläche eines mit 90nm :eek:
etwa weil sich cache transistoren dichter packen lassen als der logikteil und beim conroe sind nunmal 2MB/4MB cache
wenn amd also nich bald auf 65nm wechselt und die taktraten erhöht und den energieverbrauch senkt verlieren sie den anschluss...
BlackBirdSR
2006-07-17, 22:36:40
Mailwurm[/POST]']
Zurück zum Thema. Warum hat Intel CSI und einen integrierten Speichercontroller dringend nötig? Die Benches sprechen eine andere Sprache. Natürlich kommt spätestens mit 4 Kernen der Punkt, wo die bisherige Struktur mit FSB ein Flaschenhals werden kann. Nur der ist eben nicht erreicht, also ist es auch nicht dringend nötig. Dringend wäre bei mir, wenn nachweisbar der Conroe unter dem FSB und externen Speichercontroller leiden würde. Tut er nicht, also Folgerung, es ist nicht dringend.
[...]
Ich denke ich lass es einfach sein. Du scheinst nicht mit in die Richtung zu ziehen, in die ich gerne deuten würde. Also lassen wir es halt einfach.
BlackBirdSR
2006-07-17, 22:39:59
dildo4u[/POST]']Der Core 2 Duo hat teilweise bessere Latenz Zeiten als der aktuelle K8.
Memory Latency: No Integrated Memory Controller Necessary
http://images.anandtech.com/graphs/core2duolaunch_07130680720/12604.png
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2795&p=5
Es wurde herausgefunden, dass die Prefetcher des Core2 extrem stark auf den Sciencemark2 benchmark reagieren.
Soll sich in zukünftigen Versionen etwas ändern, da es nicht die Realität beschreibt. Everest sieht etwas anders aus.
Korrekt ist aber, dass Core2 eine realtiv niedrige Latenz hat, dank der exzellenten Prefetcher.
Dürfte ein großer Brocken der zusätzlichen Performance ausmachen.
BlackBirdSR
2006-07-17, 22:42:54
Mailwurm[/POST]']Nicht irgendwas. Ich dachte es geht hier um technische Details. :biggrin:
http://hardtecs4u.com/reviews/2006/intel_conroe/index3.php
AMD hat übrigens bekannt gegeben "Memory Disambiguation" auch beim K8L nicht mit herein zu nehmen. Es ist also zu erwarten, dass Intel weiter Boden gut machen wird, wenn sie in zukünftigen Produkten einen IMC integrieren werden.
1. liegts nicht an der Memory Disambiguation.
2. Sind Prefetcher keine verbesserte Sprungvorhersage
3. "Scheint" AMD kein Memory Disambiguation einzubauen, sondern Loads endlich etwas mehr OoO ausführbar zu machen. Das ist einer der Kritikpunkte beim K8. Von Memory Disambiguation ist man dann noch ein Stück entfernt.
Andromeda
2006-07-18, 01:50:26
Ich verstehe gar nicht was diese Diskussion um den IMC soll.
Intel hat es geschafft eine bessere Performance als AMD mit viel weniger Aufwand hinzubekommen. Das ist das eigentlich tolle am Core2, finde ich.
Vergleichen wir mal:
Allendale(2MB):
-167 Mio. Transistoren
-111 mm² Größe
Windsor(2MB):
-227,4 Mio. Transistoren
-230 mm² Größe
Der Windsor hat 60 Mio. Transistoren mehr und ist mehr als doppelt so Groß. Trotzdem hat selbst der Allendale eine bessere pro MHz Leistung, ist effizienter und lässt sich auch kostengünstiger Produzieren => so haben alle was von, die Kunden und Intel (nur AMD halt nicht).
Hmm, was hat Intel bloß falsch gemacht?!
Der K8 hat hingegen einen integrierten Speichercontroller, der beim Core2 auf der Northbridge ist.
Und zudem ist K8 in 90nm und nich 65nm gefertigt.
Also daraus kann man keine Schlüsse ziehen.
StefanV
2006-07-18, 03:06:00
Andromeda[/POST]']Intel hat es geschafft eine bessere Performance als AMD mit viel weniger Aufwand hinzubekommen.
_DAS_ halt ich aber mal für 'nen Gerücht...
Nur weil der Core keinen integrierten Speichercontroller hat, heißt das noch lange nicht, das Intel weniger Aufwand betrieben hat...
Andromeda[/POST]']
Vergleichen wir mal:
Allendale(2MB):
-167 Mio. Transistoren
-111 mm² Größe
Windsor(2MB):
-227,4 Mio. Transistoren
-230 mm² Größe
Dürft wohl hauptsächlich damit zu tun haben, das Intel Cache dichter packen kann als AMD...
Dazu kommt, das die Architekturen etwas unterschiedlich sind, der Speichercontroller, der Crossbar (dieser SRQ oder wie das Teil heißt, was zwischen HT Interface und Speichercontroller sitzt) und noch ein paar Dinge...
Ich denke mal, das der Unterschied von Allendale zu Dual Core K8 eher der wesentlich einfachere I/O Teil des Intel Chips ausmacht...
Gast[/POST]']Der K8 hat hingegen einen integrierten Speichercontroller, der beim Core2 auf der Northbridge ist.
Und zudem ist K8 in 90nm und nich 65nm gefertigt.
Also daraus kann man keine Schlüsse ziehen.
Sehe ich auch so.
Irgendwie scheints mir, das der Core2 nur deshalb so stark punkten kann weil Intel ein paar nm kleinere Strukturen hat...
Naja, mal abwarten und Tee rauchen, wie die 65nm K8 ausschauen...
Coda[/POST]']Wenn es so wäre würde es mit den normalen Chipsätzen die selben Probleme geben.
Die Probleme die ein integrierter Speichercontroller hat ist zum einen dass das Signal durch die Pins der CPU-Halterung muss und außerdem evtl. noch Störeinflüsse vom restlichen Core hinzukommen.
Stimmt, daran hab ich garnicht gedacht.
Aber sollte das LGA Package in diesem Punkt nicht etwas besser sein, gerade da man weniger "Antennen" haben sollte :|
turboschlumpf
2006-07-19, 01:54:05
Also fassen wir noch mal zusammen:
2007 steht Penryn, der 45-nm-Shrink des aktuellen Conroe-Kerns an. Bis auf Kleinigkeiten (mehr L2-Cache, eventuell höherer FSB, etc.) wird sich da sonst nichts ändern.
2008 ist dann mit Nehalem eine "neue" Architektur geplant, ebenfalls in 45 nm. Nehalem war ja auch schon vor Jahren als Nachfolger der Netburst-Architektur im Gespräch. Dabei stellt sich natürlich die Frage, ob Nehalem jetzt noch das ist, was er vor einigen Jahren war.
2008 steht übrigens mit Tukwila auch der nächste Itanium 2 an. Für diesen ist ein integrierter Speichercontroller in Verbindung mit CSI fest eingeplant.
Es liegt also nahe, dass Intel 2008 auch im Desktop-Bereich endlich auf einen IMC umsteigt. Jetzt ist nur noch die Frage, ob dies in Verbindung mit einer komplett neuen Architektur geschieht, oder ob die Evolution des Pentium Pro weitergeht.
Der nächste Kandidat für eine neue Architektur wäre dann Gesher 2010 in 32-nm-Fertigung. Ich kann mir aber nur schwer vorstellen, dass Intel sich noch so lange auf das Taktpotential von Conroe verlässt.
Power
2006-07-19, 11:49:31
BlackBirdSR[/POST]']
Intel hat nunmal noch keinen integrierten Speichercontroller und kein Konzept für die interne Verbindung mehrerer Kerne.
Das kommt erst 2007. Dann hat Intel in diesem Punkt aufgeholt.
Aus Performancesicht für einen Desktopuser ist das sicher nicht als negativ zu bewerten. In der Gesamtansicht der Architektur allerdings schon.
Und ich kann dir gegenüber nur nocheinmal betonen, dass ich damit den Core2 nicht generell als unterlegen bezeichne. Es gibt zum Glück differenzierte Aspekte.
Du denkst Intel hat kein konzept für sowas - was hast du den an der conroe architektur auszusetzen ? - und laut Intel ist der Conroe keine weiterentwicklung des Pentium M sondern eine neuentwicklung mit dem besten aus den vergangenen CPUs.
Für mich klingen deine postings als ob du mit allen Mitteln versuchst Intel schlecht zu reden - speziel wenn man anmerkt daß der Marktführer hätte kein Konzept für ne verbindung von mehreren internen Kernen - Intel forscht in dieser hinsicht mit lichtleiter Technologie.
PS wenn Intel nen internen Speicherkontroller gebraucht hätte wäre er mit sicherheit eingebaut !
Ist schon bekannt ob die 45 nm Conroes auf zur Zeit erhältlich 965P Brettern laufen?
AnarchX
2006-07-19, 13:01:27
Gast[/POST]']Ist schon bekannt ob die 45 nm Conroes auf zur Zeit erhältlich 965P Brettern laufen?
Ich bezweifele es, ist man ja von Intel gewöhnt das man des öfteren zu einer neuen CPU einen neuen Chipsatz brauch.
BlackBirdSR
2006-07-19, 14:46:34
Power[/POST]']Du denkst Intel hat kein konzept für sowas - was hast du den an der conroe architektur auszusetzen ? - und laut Intel ist der Conroe keine weiterentwicklung des Pentium M sondern eine neuentwicklung mit dem besten aus den vergangenen CPUs.
Für mich klingen deine postings als ob du mit allen Mitteln versuchst Intel schlecht zu reden - speziel wenn man anmerkt daß der Marktführer hätte kein Konzept für ne verbindung von mehreren internen Kernen - Intel forscht in dieser hinsicht mit lichtleiter Technologie.
PS wenn Intel nen internen Speicherkontroller gebraucht hätte wäre er mit sicherheit eingebaut !
Ich sehe innerhalb der Core2 Familie keine Verbindung für mehr als 2 Kerne. Es gibt einfach keine bis auf den FSB.
CSI kommt erst später. Das ist Intels Antwort auf Hypertransport.
Bis dahin gibt es nichts vergleichbares. Ergo kein Konzept.
Und schau dir bitte mal Details zum PentiumPro und PentiumM an, und folgere selbst. Glaub nicht Alles, was vom Marketing groß breit getreten wird.
Natürlich ist Core2 eine Neuentwicklung mit dem Besten aller bisherigen CPUs.
Dass die Grundlage dafür eine CPU Architekutr ist, die nun beinahe 15 Jahre auf dem Buckel hat, macht sich auch schlecht für die Werbung.
Von der Mikroarchitektur des P4 ist in Core2 nichts zu finden.
Dagegen findet sich sehr viel vom PentiumM welcher auf dem PentiumPro basiert.
Ansonsten scheinst du meine Auslegung von Konzept = Methode für jetzt missverstanden zu haben.
Auch deine Anschuldigungen mir gegenüber finde ich nicht in Ordnung.
Will man etwas unbedingt schlecht reden, nur weil man nicht auf den Gleisen der allgegenwärtigen vergöttlichung eine Mikroarchitektur fährt?
BlackBirdSR[/POST]']Von der Mikroarchitektur des P4 ist in Core2 nichts zu finden.
Und das ist auch gut so.
BlackBirdSR
2006-07-19, 17:57:48
Coda[/POST]']Und das ist auch gut so.
vielleicht sehen wir in Zukunft wieder Trace-Caches, Regionen mit schnellerem Takt als der Basistakt und solche netten Dreingaben.
Aber bitte ohne die Kompromisse die Intel dafür zahlen musste (Einheiten mit halbem Takt, nur ein Decoder, Replay, etc]
dildo4u
2006-07-19, 17:59:54
BlackBirdSR[/POST]']
Von der Mikroarchitektur des P4 ist in Core2 nichts zu finden.
Hat man die 64Bit Erweiterung nicht adaptiert?
BlackBirdSR
2006-07-19, 19:17:01
dildo4u[/POST]']Hat man die 64Bit Erweiterung nicht adaptiert?
eine 64Bit Erweiterung ist per se keine Einheit oder Verbund von logischen Schaltungen.
Im Falle von x86-64 werden die Decoder angepasst, die Datenpfade auf 64Bit verbreitert, die ALUs auf 64Bit aufgestockt, die Registerzahl erhöht und verbreitert....
Das Alles hat der K8 ebenfalls. Und trotzdem würde man nicht sagen, dass Intel die Sachen aus dem K8 in den Pentium4 eingebaut hat.
Man kann also nicht einfach die 64Bit aus dem Pentium4 nehmen und sie in den Core2 einbauen.
Es ist wirklich so, dass man aufbauend auf der Grundarchitektur die bestehenden Funktionen erweitert. Würde man den C5X/C7 von VIA auf 64Bit auslegen ist es ähnlich. Die Features wärend die gleichen. Aber es basiert alles auf der Technologie des C5x/C7. Das war auch ein Grund, warum wir keinen 64Bit Penrium-M gesehen haben, oder EM64T erst mit Prescott kam. Man fügt es nicht einfach hinzu, man muss die ganze CPU anpassen.
BlackBirdSR[/POST]']
Man kann also nicht einfach die 64Bit aus dem Pentium4 nehmen und sie in den Core2 einbauen.
Doch
BlackBirdSR
2006-07-19, 19:19:58
Gast[/POST]']Doch
Wie wäre es mit Argumenten verehrter Gast?
So kann man nicht viel damit anfangen.
64Bit ist ein Begriff für die Breite von ALUs, Registern Bussen...
Will man die ALUs des PentiumM auf 64Bit erweitern nimmt man nicht die ALUs des P4 sondern verbreitert sie auf 64Bit und gibt ihnen 64Bit Datenpfade.
Wo also stammen die 64Bit Funktionen aus dem P4?
BlackBirdSR[/POST]']vielleicht sehen wir in Zukunft wieder Trace-Caches, Regionen mit schnellerem Takt als der Basistakt und solche netten Dreingaben.
Das denke ich auch. Aber ich glaube auch dass Intel sicher auch beim Prescott abgeschaut hat wenns um Dinge wie Branch-Prediction etc. geht. Es ist ja schon erstaunlich dass Prescott mit 10 zusätzlichen Stufen die gleiche Leistung wie Northwood erreicht - da muss ja auch einiges an Know-How reingeflossen sein.
BlackBirdSR
2006-07-19, 19:37:20
Coda[/POST]']Das denke ich auch. Aber ich glaube auch dass Intel sicher auch beim Prescott abgeschaut hat wenns um Dinge wie Branch-Prediction etc. geht. Es ist ja schon erstaunlich dass Prescott mit 10 zusätzlichen Stufen die gleiche Leistung wie Northwood erreicht - da muss ja auch einiges an Know-How reingeflossen sein.
Das und miese Cache-Latenz.
Da war ich auch erstmal Baff als ich das gesehen habe. Netburst mag zwar nicht so besonders sein, und Prescott an sich eine Fehlentscheidung/Konstruktion. Aber was man dann noch rausgeholt hat ist schon erstuanlich.Ich kann aber auch nicht sagen wo die Leistung am ende herkommt.
Zwischen 31(39) Stufen und 4 Takten L1-Cache-Latenz erwartet man eigentlich recht miese Performance...
BlackBirdSR[/POST]']Ich kann aber auch nicht sagen wo die Leistung am ende herkommt.
Das können wir beim Conroe aber auch nicht :D
Simon Moon
2006-07-19, 23:09:46
Was spricht eigentlich dagegen, wenn bestimmte Elemtente aus der Netburst Architektur übernommen wurden?
Ursprünglich wurde Netburst für hohe Taktraten um etwa 8 - 10Ghz geplant, also ein vielfaches von dem. Dies erkauften sie sich durch die verlängerte Pipeline. Als sie merkten, dass AMD mit dem Athlon aber gleich zog und ihre Taktraten sich nicht wie gewünscht anhebten, beschlossen sie wohl schon früh die Pipeline mal zu verlängern, um trotzdem mehr Ghz zu erhalten. Durch die immer länger werdende Pipeline mussten sie sich wohl aber schon bald überlegt haben, wie sie diese auch auslasten und arbeiteten an der Sprungvorhersage.
Irgendwie, ist dann wohl der PentiumM aufgefallen und sie merkten, dass sie die alte P6 Architektur, welche noch sehr schlecht ausgelastet war und einen winzigen Cache besass, mit dem neuen Know How aufbohren kann. Durch eine kürzere Pipeline sinkt die Latenz und ihre ausgereifte Sprungvorhersage schaft es diese vierfach-superskalare Architektur trotzdem noch auszulasten und den grossen Cache zu nutzen.
Ist natürlich reine Vermutung.
hq-hq
2006-07-20, 22:27:45
hm, ich dachte immer beim p4 kommt die performance
hauptsächlich aus immer größerer speicherbandbreite...
naja und je mehr futter er bekommt desto höher der
wirkungsgrad der pipeline... so hab ich mir das immer
gedacht...
hm,
jedenfalls find ich´s toll das man endlich auf die idee
gekommen ist den großen l2 cache für beide cpu´s
zugänglichen zu machen. weil wer kann bei 2x 2mb
heute schon die anderen 2mb nutzen... :|
Cleverle
2006-07-22, 14:21:05
Viele glauben, die Core 2 Architektur ist bis unter Zehspitzen optimiert und mehr sei kaum kaum drin. Das glaube ich nicht. Intel wird im Herbst des nächsten Jahres weitere 10% bei gleichem Takt/Leistungsaufnahme herauskitzeln. Intel hat bei Netburst und Itanium gesehen, daß neue Architekturen ohne überzeugende Leistung bei (fast) jeder Anwendung einfach ein Risikogeschäft sind. Intel möchte weiter Technologie-Vorreiter/-Führer sein. Ein weiter optimierter Core 2 ist rein wirtschaftlich schlicht die beste Option.
Klar! Ein Team bei Intel bastelt bestimmt schon an einer neuen Microarchitektur, die die Core-Architektur ablösen soll. Nur wird dieses Team diesmal, weit mehr als bei Netburst, zeigen müssen, daß sie den neuen "Bringer" entwickelt haben, und keine Hüftlahme Ente!
Cleverle
BlackBirdSR
2006-07-22, 14:41:12
Cleverle[/POST]'] Nur wird dieses Team diesmal, weit mehr als bei Netburst, zeigen müssen, daß sie den neuen "Bringer" entwickelt haben, und keine Hüftlahme Ente!
Cleverle
Der Pentium war! bis vor Erscheinen der K7-Infos ein "Bringer" und keine hüftlahme Ente. In einer parallelen Welt ohne den K7 hätte Intel wohl auf Jahre hin mit 32Bit Netburst dominiert und wir hätten jetzt noch Lobeshymnen gesungen während Intel gerade kleinere IA64 zusammen mit IA64-Kompatiblen x86 in den Desktopmarkt einführt.
Ich denke der entscheidende Punkt war auf der einen Seite AMDs K7, und auf der anderen Seite die Fokusierung auf den Opteron.
Ab dem Moment wo der K7 vorgestellt wurde, hat sich die Einschätzung des P4 um 180° gedreht ;)
Produkte ohne Konkurrenz offenbaren ihre Schwachstellen nicht. Aber gibt es dann Druck von der Gegenseite, sieht man erst welchen Mist man zuweilen untergejubelt bekommt.
turboschlumpf
2006-07-22, 21:09:46
BlackBirdSR[/POST]']In einer parallelen Welt ohne den K7 hätte Intel wohl auf Jahre hin mit 32Bit Netburst dominiert und wir hätten jetzt noch Lobeshymnen gesungen während Intel gerade kleinere IA64 zusammen mit IA64-Kompatiblen x86 in den Desktopmarkt einführt.
Wobei ich mich frage, ob das auf einen Zeitraum von 10 Jahren oder länger gesehen nicht vielleicht doch besser gewesen wäre? Bei der aktuellen Marktsituation hängen wir wohl für die nächsten Jahrzehnte an der x86-ISA, ohne Aussicht auf die vielleicht nötigen grundlegenden Änderungen.
Es ist immer leicht zu schreien "wir brauchen unbedingt ne moderne ISA" - tun wir aber eigentlich gar nicht.
Die Prozessoren können heute soviel Transistoren allein dafür verschwenden die alte ISA zu dekodieren (x86 ist übrigens eine Art "Huffman-Kodierung" da für oft verwendete Befehle weniger Platz verwendet wird - EPIC braucht deutlich mehr Platz) und die OOO-Logik ist inzwischen auch unglaublich ausgereift dass EPIC eigentlich fast nicht mehr Parallelität bieten kann.
Alles in allem stellt sich meiner bescheidenen Meinung nach langsam eher raus dass EPIC der falsche Weg ist wenn es auch auf dem Blatt Papier sehr interessant ist (wie vieles in Netburst auch ;) )
BlackBirdSR
2006-07-22, 21:24:04
Linus Tovalds hat sich unlängst darüber ausgelassen, dass Core2 die IA64 in SpecInt nur so über den Tisch ziehen. Und dabei ist Spec wohl eines der Musterbeispiele für Compileroptimierungen beim IA-64.
Wie will man die Performance der IA64 nun groß steigern ohne OoO oder höheren Takt? Und beides ist bei IA64 momentan problematisch.
Statt der ursprünglichen 4GHz Tukwilla Kerne gibts ja auch nur noch ~2.4GHz
IA64 hätte genau so wie Netburst viele Chancen gehabt, wenn es den Druck nicht gegeben hätte. Nur hat man dieses mal nicht nur Druck von Seiten IBMs oder SUNs sondern auch gleich noch von der eigenen x86 Linie. Und es gehört schon verdammt viel dazu gegen einen x86 Prozessor zu bestehen. Ist einfach so.
HellHorse
2006-07-23, 01:05:28
Coda[/POST]']Es ist immer leicht zu schreien "wir brauchen unbedingt ne moderne ISA" - tun wir aber eigentlich gar nicht.
Vor allem wenn man sich die Konkurrenz anschaut. Wie lange hat uns Apple erzählt, dass x86 ein veralteter Bremsklotz aus den 70ern ist und PowerPC per Definition schneller und besser und 64bittiger ist nur um am Ende doch auf x86 umzusteigen (nota bene ohne 64bit)? Warum? Weil x86 einfach besser ist als PowerPC. Manchmal ist alt halt nicht gleichbedeutend mit schlecht sondern bewährt.
Ausserdem werden wir wesentlich länger als 10 Jahre bei x86 festhängen. So schnell ändert sich die IT-Welt nun doch nicht.
Ich rechne fest damit dass wir bis zum Ende der Silizium-Ärea mit x86-64 arbeiten werden.
StefanV
2006-07-23, 01:14:55
HellHorse[/POST]']Vor allem wenn man sich die Konkurrenz anschaut. Wie lange hat uns Apple erzählt, dass x86 ein veralteter Bremsklotz aus den 70ern ist und PowerPC per Definition schneller und besser und 64bittiger ist nur um am Ende doch auf x86 umzusteigen (nota bene ohne 64bit)? Warum? Weil x86 einfach besser ist als PowerPC. Manchmal ist alt halt nicht gleichbedeutend mit schlecht sondern bewährt.
Ausserdem werden wir wesentlich länger als 10 Jahre bei x86 festhängen. So schnell ändert sich die IT-Welt nun doch nicht.
Naja, der x86 Markt ist auch größer, da hat man auch mehr potentielle Käufer, die eine solche CPU kaufen würden, womit der Aufwand größer sein kann, den man betreiben kann...
Das Problem bei PowerPC dürft eher sein, das die Absatzmenge nicht wirklich sehr hoch ist, was wiederum nicht gerad ein großer Anreiz ist, das stark weiterzuentwickeln...
HellHorse
2006-07-23, 11:38:28
Coda[/POST]']Ich rechne fest damit dass wir bis zum Ende der Silizium-Ärea mit x86-64 arbeiten werden.
Zuerst müssen wir es erst mal haben. Es wird noch mehrere Jahre daueren, biss x86-64 für die meisten Leute Realität wird.
Mailwurm[/POST]']Ich kann Dir interne Intel Papers geben, wo der Bustraffic analysiert wurde und es sich zeigt, dass der FSB den Core 2 nicht ausbremst.Ja, bitte.
Zauberer
2006-07-28, 20:58:55
StefanV[/POST]']Intel setzt nicht auf einen integrierten Speichercontroller weil sie wohl nicht damit gerechnet haben, das AMD sowas bringen würde, im Desktopmarkt...
Denn eigentlich hat Intel vor 'nem halben Jahrzehnt oder so, mit dem Timna, vor gehabt, einen Speichercontroller (und auch noch ein paar andere Dinge, AFAIR), zu integrieren...
Die internen Papers von Intel halte ich mal für glatt gelogen, da ein integrierter Speichercontroller besser ist, da einige Latenzen höher sind, das Intel selbst sagt 'nönö, das bremst nicht', war auch nicht anders zu erwarten, da möcht ich doch mal an ATi und SM3 zu zeiten des R420 erinnern, da gabs auch 'nen Dokument, von ATi, in dem behauptet wird, das man SM2 nicht brauchen würde und das es vollkommen überflüssig ist.
Getreu dem Motto: Hamma nich, brauchen ma nicht, taugt nichts (zumindest solang, bis wirs selbst haben)...
Sorry da TO, aber man kann doch nicht die ganzen User hier mit falschen Informationen versorgen.
Fals ich mich irre kann der Beitrag sofort gelöscht werden, aber ich meine ATI hätte bis jetzt nie in einem Dokument behauptet das man SM2 nicht braucht und das es vollkommen überflüssig ist.
EDIT:
Sorry, StefanV ich weiß das Du dich bestimmt vertippt hast, aber es gibt viele die es nicht wissen und die glauben dir dann.
EDIT2:
OnT:
BlackBirdSR[/POST]']Hmm da würde ich dagegen wetten.
Netburst war für die Jahre entwickelt worden. Ich behaupte einmal, dass Core2 nur ein Lückenfüller ist.
Achtung jetzt kommt kein geflame sondern etwas Ironie:
Also ich denke Netbust wird sterben!
Ja, weg mit dem Anwender-Reinlegen-Mist!
Netbus war darauf ausgelegt so viel MHz wie möglich zu ermöglichen, egal wie uneffektiv die Pro-MHz-Leistung ist.
Damit hat Intel auch AMD in die Pfanne gehauen, nichts konnte so einen schon recht früh 2 GHz P4 stoppen.
AMD hatte da nur max. 1,4 GHz.
Ja, AMD hatte die erste 1 GHz CPU auf dem Markt Intel die erste "echte" 2 GHz CPU.
Ein echter Meilenstein für Intel, dabei sind die doppelt so schnell gewessen wie der Meilenstein von AMD.
Unschlagbare Taktfrequenz, Intel4ever!
Die haben aber nicht damit gerechnet, das die AMD-Deppen auf ein Rating kommen.
2000XP und alle denken es sind 2 GHz gemeint.
Aber nur Intel hatte "echte" MHz, im Laufe der Jahre würden Ratings leider Salonfähig, jetzt konnte aber Intel mit ihren Zahlenspielchen alle verwirren.
Und ich will nicht wissen wie viele glauben ein E6800 hat 6800 MHz, wenn man eine Umfrage im Bundestag macht und die Frage heißt:
"Schätzen sie bitte, was glauben sie wieviel MHz ein E6800 hat?"
Also wenn da kein über 67% Ergebniss für 6800 MHz rauskommt, dann schätze ich unsere Volksvertreter falsch ein."
Die sollten eigentlich viel klüger als der Rest des Volkes sein, ich will gar nicht wissen was rauskommt wenn man alle Bundesbürger fragt.
Die über 67% schreibe ich nur, weil man damit z.B. die Verfassung ändern könnte.
Eigentlich erschreckent wenn man bedenkt was in diesem Land noch alles Passieren kann! ;(
Mit einem Ur-P4 gemessen, könnte es ja hinhauen. ;)
Aber was soll ein P4 524 oder 641 sein? :confused:
Das gehört zwar nicht zum Thema, aber für künftige Generationen wünsche ich mir auch eine klare Nomenklatur mit evtl MHz Angabe, evtl Kernzahlangabe, ohne Performancerating
Gute Beispiele: Pentium 4, Opterons.
Schlechte Beispiele: Athlon64, Core 1/2
Dass es dann Kunden gibt, die trotzdem einfach das mit der höchsten Megahertz-Zahl im Mediamarkt kaufen ist ja nicht unser Problem (unter umständen ja auch der besten prozessor zu dem Zeitpunkt), aber dafür gibt es ja Verkäufer die dem Kunden sagen können welcher Przessor es denn irgendwann bringt.
Denn: Performancerating is sinnlos, Die Cores, könnte man sagen, beziehen sich auf den P4, die A64s auf den Athlon K7. Intel/AMD werden das daher immer zu ihrem Vorteil nutzen und ein Perofrmancerating von 56436236 Mhz einführen weil man es eh nicht vergleichen kann.
die leute müssen aus dem Glauben heraus-konditioniert werden, dass die Takrate ausschlaggebend ist. Vor 10 Jahren hat man auch ncoh mit Kohlehydraten Diät gemacht :D heute weiß jeder: es ist der fettmacher!
RoNsOn Xs
2017-10-19, 09:23:13
Aber wie weit geht das noch? Core2 ist ein hoch optimiertes Design. Noch mehr Leistung herauszuholen dürfte zunehmend schwieriger werden.
Eine neues Design mit all den neuen Tricks und einem fortschrittlichen Grunddesign könnte einfacher zu bewerkstelligen sein.
Mit CSI steht in naher Zukunft ein ähnliches Konzept wie AMDs Hypertransport vor der Tür.
Wie stark kann Core skalieren, und wie sehr ist die Architektur auch für Server geeignet?
Alles hängt davon ab, ob Nehalem und dessen Nachfolger eigene Projekte geblieben sind, oder Intel den PentiumM/Core2 als neuen Grundbaustein genommen hat.
Es würde mich nich wundern, wenn Core2 einfach die Zeit überbrückt, bis Intel den 8x86 präsentiert.
Interessant jahre-alte Meinungen zu lesen und wie die damailigen Vorhesagen waren. :D
Meine das nicht böse :)
Lurtz
2017-10-19, 11:34:35
Soo unrecht hat er doch gar nicht mit der Prognose.
robbitop
2017-10-19, 15:14:17
Interessant jahre-alte Meinungen zu lesen und wie die damailigen Vorhesagen waren. :D
Meine das nicht böse :)
Im Prinzip hat er doch aber Recht gehabt. Was ist an ST-IPC in 11(!) Jahren passiert? Faktor 2...3? Wieviel davon kommt durch bessere Infrastruktur (RAM, Caches, IMC...) und wieviel tatsächlich aus der mArch?
Im Vergleich zu der IPC Entwicklung in den 80er und 90er und 2000er Jahren ist das ein Witz.
Takt völlig ähnlich. Zum Glück kam die Parallelisierung an.
RoNsOn Xs
2017-10-19, 16:01:38
Hab doch gar nicht gesagt das er nicht recht hat :)
Marodeur
2017-10-19, 16:21:46
Der Standardanwender ist mit Core 2 auch heute noch gut bedient. Laptop meiner Frau ist auch ein 8 Jahre alter Acer mit Core 2. Bissl RAM und eine SSD rein. Läuft, und das nichtmal so lahm.
gravitationsfeld
2017-10-19, 16:57:36
Im Prinzip hat er doch aber Recht gehabt. Was ist an ST-IPC in 11(!) Jahren passiert? Faktor 2...3? Wieviel davon kommt durch bessere Infrastruktur (RAM, Caches, IMC...) und wieviel tatsächlich aus der mArch?
Zugegebenermassen ist das weit mehr als ich damals gedacht haette. Ich bin nicht Blackbird, aber ich hatte aehnliches geschrieben.
Was mit Core 2 angefangen hat ist, dass der Prozessor intelligente Speicher-Prefetch-Algorithmen einsetzt und das hat noch einmal zu einem guten Sprung gefuehrt.
RoNsOn Xs
2017-10-19, 18:02:46
Der Standardanwender ist mit Core 2 auch heute noch gut bedient. Laptop meiner Frau ist auch ein 8 Jahre alter Acer mit Core 2. Bissl RAM und eine SSD rein. Läuft, und das nichtmal so lahm.
Dito. Hab immer noch nen c2d im Rechner und sehe gar keinen Grund aufzurüsten abseits von Spielen. Hier und dort wäre ein c2q schon nice, aber nicht von Nöten :D
qiller
2017-10-19, 20:02:42
Diese Zeilen entstehen gerade an nem C2Q Q9550@3.4GHz, 8GB DDR2-800 RAM. Hat mittlerweile eine SSD und ne nvidia GTX1050 4GB drin (übrigens nach nvidia GTS 8800 320MB, GTX260, GTX460 und GTX580 nun die 5. Karte) und läuft immer noch.
bnoob
2017-10-19, 21:32:11
Dito. Hab immer noch nen c2d im Rechner und sehe gar keinen Grund aufzurüsten abseits von Spielen. Hier und dort wäre ein c2q schon nice, aber nicht von Nöten :D
Ernsthaft? Ein C2Q ist für einen Zwanni drin, das wäre es mir schon wert.
Leonidas
2017-10-20, 09:16:41
Mein alter C2D-basierter Pentium läuft immer noch im Arbeits-Desktop. Ziehe das Arbeits-Notebook zwar immer häufiger vor, aber die Mühle läuft trotzdem immer noch, wird meistens für Video-Schauen eingesetzt.
Neuere CPUs sind sicherlich viel schneller. Aber angesichts der vielen Jahre, die inzwischen vergangen sind, ist der Performance-Sprung nicht so hoch. Für einen Office-PC reicht es immer noch (mit SSD wohlgemerkt).
RoNsOn Xs
2017-10-20, 10:14:15
Ernsthaft? Ein C2Q ist für einen Zwanni drin, das wäre es mir schon wert.
Naah. Hab zwar noch für Lau nen Phenom II X6 stehen, aber ich habe damals keine günstige SSD gefunden, mit der ich den Rechner dann geswitched hätte. Wie gesagt nichts gefunden, habs dann aufgegeben.
Lurtz
2017-10-20, 10:51:08
Sind nicht gerade Videos wegen der fehlenden Hardwarebeschleunigung problematisch?
Der_Korken
2017-10-20, 10:59:13
Im Prinzip hat er doch aber Recht gehabt. Was ist an ST-IPC in 11(!) Jahren passiert? Faktor 2...3? Wieviel davon kommt durch bessere Infrastruktur (RAM, Caches, IMC...) und wieviel tatsächlich aus der mArch?
Ich glaube nicht mal Faktor 2. Man hat im Wesentlichen Sprünge gehabt durch
- Nehalem (grob +30%, integrierter Speichercontroller, andere Cache-Struktur, SMT)
- Sandy Bridge (+15-20%, L3 mit vollem Core-Takt, µOp-Cache)
- inkrementell vielleicht +20% von Skylake (= Kaby Lake = Coffee Lake) gegenüber Sandy Bridge.
Das sind so schon gerade mal Faktor 2 inklusive der Verbesserungen drumherum. Man sieht ja an Skylake X wie stark die IPC in Spielen sinkt, wenn man den Ringbus durch ein Mesh ersetzt und die L3-Latenz verdoppelt. Irgendwie wäre es wirklich mal interessant zu wissen, wie viel eigentlich vom Core 2 noch in aktuellen CPUs zu finden ist.
RoNsOn Xs
2017-10-20, 12:02:15
Sind nicht gerade Videos wegen der fehlenden Hardwarebeschleunigung problematisch?
Kommt bei einigen 1080p YT-Videos mit Iron ins schwitzen, meist gehts aber. Höher wird nichts, das stimmt. Könnte aber mit nem Quad schon wieder anders ausschauen.
Ich schaue aber so gut wie nie solche Videos.
=Floi=
2017-10-20, 16:08:05
Im Prinzip hat er doch aber Recht gehabt. Was ist an ST-IPC in 11(!) Jahren passiert? Faktor 2...3? Wieviel davon kommt durch bessere Infrastruktur (RAM, Caches, IMC...) und wieviel tatsächlich aus der mArch?
Im Vergleich zu der IPC Entwicklung in den 80er und 90er und 2000er Jahren ist das ein Witz.
Takt völlig ähnlich. Zum Glück kam die Parallelisierung an.
weil man ab den 2000ern viel besser optimiert hat. Das gibt es auch im motorrad oder automobilbau und bei anderen dingen. Es wurde einfach mehr geld in die optimierung gesteckt und man ging oft bis an die grenzen.
Sobald es technologisch einen großen sprung gibt, ist der weitere sprung oft erheblich kleiner.
Ich denke der wirklich nächste große sprung geschieht durch EB ram on package. Durch den bandbreitenanstieg als großen L4 wird es nochmal einen merkbaren ipc-sprung geben.
Für mich zählt auch der rest des systems, weil eben gerade auch dort die flaschenhälse am größeten bremsen. Die integration des ram controllers hat damals sehr viel gebraucht.
edit
Sind nicht gerade Videos wegen der fehlenden Hardwarebeschleunigung problematisch?
gute GPU und den entsprechenden player oder codec!
edit 1
doch, der faktor ist höher. cinebench zeigt hier deutliche sprünge an.
Corny
2017-10-20, 16:31:29
Sind nicht gerade Videos wegen der fehlenden Hardwarebeschleunigung problematisch?
Mit einer aktuellen Grafikkarte kein Problem. Mein Media-Center PC hat auch noch einen Core 2 Duo - mit einer halbwegs aktuellen Grafikkarte liefen bisher alle Videos in Full-HD ohne Probleme.
Ich glaube nicht mal Faktor 2. Man hat im Wesentlichen Sprünge gehabt durch
- Nehalem (grob +30%, integrierter Speichercontroller, andere Cache-Struktur, SMT)
- Sandy Bridge (+15-20%, L3 mit vollem Core-Takt, µOp-Cache)
- inkrementell vielleicht +20% von Skylake (= Kaby Lake = Coffee Lake) gegenüber Sandy Bridge.
Das sind so schon gerade mal Faktor 2 inklusive der Verbesserungen drumherum. Man sieht ja an Skylake X wie stark die IPC in Spielen sinkt, wenn man den Ringbus durch ein Mesh ersetzt und die L3-Latenz verdoppelt. Irgendwie wäre es wirklich mal interessant zu wissen, wie viel eigentlich vom Core 2 noch in aktuellen CPUs zu finden ist.
War es nicht so, dass Nehalem bei Spielen erstmal so gut wie keinen IPC-Sprung gemacht hat? Imo ist einer der Punkte bei Multicore, dass der C2Q kein nativer Quad war und somit auch nicht so viel schneller war bei heutigen Spielen ggü dem C2D wie man es bei einer Verdoppelung der Kerne hätte erwarten können.
Der_Korken
2017-10-20, 18:38:41
War es nicht so, dass Nehalem bei Spielen erstmal so gut wie keinen IPC-Sprung gemacht hat? Imo ist einer der Punkte bei Multicore, dass der C2Q kein nativer Quad war und somit auch nicht so viel schneller war bei heutigen Spielen ggü dem C2D wie man es bei einer Verdoppelung der Kerne hätte erwarten können.
Hab gerade mal schnell bei CB in die alten Tests geguckt: Ja, zu Release war Nehalem gar nicht mal so weit vorne. Das hatte ich etwas anders in Erinnerung. (Edit: Man findet aber trotzdem Launch-Benches, wo der Core 2 ziemlich verprügelt wird). Allerdings muss man sagen, dass zu der Zeit generell Quadcores kaum vor Dualcores lagen und Nehalem zusätzlich noch SMT mitgebracht hat. Also 4C/8T zu einer Zeit als Spiele meist nur zwei Kerne ausgelastet haben. Beim Sandy Bridge-Test 16 Monate später liegt ein i5 760 (4C/4T) mit 2,8Ghz dagegen bereits satte 38% vor einem Q9550 mit 2,83Ghz in 640x480. Wie schlägt sich so ein Nehalem eigentlich heute in Spielen gegen Skylake und Co.?
dosenfisch24
2017-10-20, 20:02:42
Ich nutze immer noch im Hauptsystem einen Xeon X5670 (Nehalem in 32nm). Der bietet 6 Kerne mit HT und läuft übertaktet mit 4.1 GHz. Für Leute die konstant 120FPS+ in 1080p wollen, ist die Kiste nicht mehr zu gebrauchen aber wenn man mit Vega in 4K Auflösung sowieso zwischen 33 und 60 FPS im Freesyncbereich rumkrebst, ist selbst heute kein deutlich spürbares CPU Limit vorhanden.
[x] Core 2 Duo, Core Duo
[x] Mitglied der Aluhutpartei
Bis diese guten alten Dinger zu langsam sind, habe ich Zeit zu verstehen was Intel und AMD mit ihren ME und PSP in die neueren Geräte eingebaut hat.
Nehalem, Clarkdale, Westmere, Arrandale. So ungefähr hiessen die Code- und Plattformnamen der letzten 'guten', glaube ich.
Wolfdale und Conroe haben wahrscheinlich auch noch kein ME.
Aber ich will den Fred nicht kapern.
Core 2 gude wollt ich meinen.
Der Standardanwender ist mit Core 2 auch heute noch gut bedient. Laptop meiner Frau ist auch ein 8 Jahre alter Acer mit Core 2. Bissl RAM und eine SSD rein. Läuft, und das nichtmal so lahm.
Dem muss ich ganz klar widersprechen.
Ich durfte bis vor knapp einem Jahr noch mit einem Core2Duo arbeiten, und das war sogar einer der schnelleren Core2Duo. Der wird aber selbst von einem U-Prozessor modernerer Baureihe mit nur 15W TDP trotz ebenfalls nur 2 Kernen mit garnicht mal so viel höheren Taktraten in der gefühlten Geschwindigkeit dermaßen abgehängt das es nicht mehr schön ist.
Mag ja sein, dass der Core2Duo in isoliert betrachteten Benchmarks und mit entsprechender Übertaktung gar nicht soweit hinten ist, im Auslieferungszustand ist er aber einfach nur mehr lahm und das schon wenn man nur einen Browser mit einer Hand voll Websites, Outlook und sagen wir mal einen Texteditor parallel ausführt. Alleine das hin-und herswitchen zwischen den Anwendungen ist bei einem modernen Prozessor extrem viel schneller.
Keine Ahnung ob das jetzt daran liegt, dass die modernen Dualcores durchgehend HT haben, doch IPC-Verbesserungen sind oder was auch immer, aber der Unterschied ist wie Tag und Nacht.
qiller
2017-10-26, 00:10:33
Übertreibung ftw. Sry, aber wenn du einen Unterschied von Tag und Nacht sehen willst, vergleichst du SSDs mit HDDs (einfach mal Faktor ~100 bei der Zugriffszeit). Gerade der Vergleich schneller Desktop-Core2Duo zu ner schwachen 15W Laptop-U-CPU mit auch nur 2 Threads (mobile Pentiums z.B.) ist ganz bestimmt nicht "Tag und Nacht". Selbst wenn das System vlt doppelt so schnell ist, ist das für mich nicht "Tag und Nacht".
Entscheidend ist doch, ob der Rechner für die jeweilige eingesetzte Software ausreicht. Und so wie es aussieht gibt es noch ne Menge Leute, die mit nem C2D gut fahren.
G3cko
2017-10-26, 08:41:47
Also so hoch finde ich den IPC Zuwachs nicht. Die 6-8% alle 2,5 Jahre ist nicht so viel und wird erst kumulativ über viele viele Generationen zu einem großen Batzen.
Auch die Leistungsaufnahme eines aktuellen i3 bei vergleichbarer Leistungen haut mich nicht um. Schon damals ließen sich die 65nm Quads bis 3,6 und in 45nn bis 4GHz takten. Wo wäre ein Core2Quad den vom Verbrauch und Taktbarkeit in 14nm? Wohl auch bei mindestens 5GHz im OC.
Eine höhere IPC bedeutet automatisch eine schlechtere Taktbarkeit. Mittlerweile hat man soviel Platz, dass man locker mit deutlich größeren Caches arbeiten könnte um die IPC ein gutes Stück zu heben. So wie beim Broadwell mit L4 nur am Besten ohne iGPU.
AMDoderNvidia
2017-10-28, 15:13:38
Ist der Core 2 Duo wirklich noch alltagstauglich? Ich habe hier ein älteres Macbook (Late 2006) mit Core 2 Duo, Modell T7200. Der ist mir 2 GHz getaktet. Wenn ich mich richtig erinnere, dann ist es beim Abspielen von YT-Videos voll am Anschlag. Das ist für mich mehr als grenzwertig. :(
robbitop
2017-10-28, 15:30:54
Das liegt daran, dass die gpu veraltet ist und keine vp9 Beschleunigung bietet.
Spasstiger
2017-10-28, 17:02:17
Ernsthaft? Ein C2Q ist für einen Zwanni drin, das wäre es mir schon wert.
Das hab ich vor drei oder vier Jahren schon gemacht (Q6600 für 20 €), dann noch mit 3,5 GHz das Maximum an OC rausgeholt und schon war die Mühle sogar für GTA V halbwegs fit. Mittlerweile hat der Rechner 10 Jahre auf dem Buckel und dank diverser Upgrades (besagte CPU, Radeon HD 6950@6970, RAM, SSD) und meinem nachlassenden Interesse an Spielen reicht mir die Kiste bis heute.
Das Kleingeld für High-End hab ich seit Jahren, aber mich hat einfach keine Hardware mehr vom Hocker gerissen.
Ein 4K-VR-Headset wäre das Einzige, was mich zu eine neuen Rechner bewegen könnte.
PacmanX100
2017-10-29, 03:15:57
Core 2 ist immer noch gut für vieles. Für Office und Multimedia anschauen reicht so eine Kiste bzw. Notebook locker aber 2 GHz sind auch sehr wenig, da wäre selbst ein Haswell nicht besonders ;)
Wenn er bei euch läuft, wäre ein Penryn sogar noch ein deftiges Upgrade. Manche von denen machen 3,7 bis 4 GHz mit und das als Quad. Da rennt dann selbst aktuelles Zeug drauf. Einziger Punkt nachwievor die Befehlssätze die nun mehr und mehr zum tragen kommen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.