PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum kastriert Intel auch Conroe weiterhin durch die Speicheranbindung?


turboschlumpf
2006-02-17, 01:57:38
Mir stellt sich die Frage, warum es Intel auch bei der neuen CPU-Architektur versäumt hat, endlich den Flaschenhals der Speicheranbindung zu beseitigen. Warum hinkt Intel im Bezug auf den integrierten Speichercontroller und die Common Serial Interconnection AMD um Jahre hinterher?

BlackBirdSR
2006-02-17, 08:03:21
Mir stellt sich die Frage, warum es Intel auch bei der neuen CPU-Architektur versäumt hat, endlich den Flaschenhals der Speicheranbindung zu beseitigen. Warum hinkt Intel im Bezug auf den integrierten Speichercontroller und die Common Serial Interconnection AMD um Jahre hinterher?

Ich schätze, Intel hat so etwas einfach nicht geplant. (AMDs Schritte)
Man hat sich weder darauf vorbereitet, noch wollte man anscheinend einen Schnellschuss wagen.
Intel denkt vielleicht, es würde ihnen mehr schaden, wenn sie etwas übereilt anpacken. Und eventuell haben sie damit recht.

Es wird bessere Anbindungen geben, und auch einen internen Speichercontroller. (2007)

Ganon
2006-02-17, 09:17:02
Intels offizielle Aussage dazu ist glaube ich "man will den Mainboard-Herstellern/Benutzern die Freiheiten lassen".

Trotzdem ist Intel schon in AMD-Performance-Bereichen mit gleichem Takt, auch ohne diese Techniken... von daher hat Intel auch keinen Druck... denke ich...

Gast
2006-02-17, 10:05:25
Ich denk mal:

1. Kostengründen
2. Kinderkrankheiten mit der zu schnellen Einführung einer neuen Speicheranbingung.

Es ist zwar schade,aber naja das passt schon so vorerst.

Coda
2006-02-17, 12:03:37
Der Performancevorteil durch den integrierten Speichercontroller wird beim A64 auch oftmals überschätzt. Das ist meiner Meinung nach nur maximal 50% für die Mehrperformance zum Athlon XP verantwortlich.

pippo
2006-02-17, 12:27:54
Hat Intel nicht damals schon mit PAT die Speicheranbindung deutlich verbessert? Der Unterschied sollte doch garnicht so groß sein, wie zwischen Athlon64 und AthlonXP

Coda
2006-02-17, 12:28:40
Etwas ja, aber im Vergleich zur Latenz eines A64 ist das immer noch ziemlich mies.

turboschlumpf
2006-02-17, 15:39:13
Klar, früher oder später werden wir auch bei Intel einen integrierten Speichercontroller und die CSI sehen, aber wenn ich diese Meldung hier lese eben eher später als früher.

http://www.theregister.co.uk/2005/12/12/intel_csi_low/

Lassen sich diese beiden Dinge überhaupt so ohne weiteres nachträglich in die neue CPU-Architektur integrieren?

Und wie viel Performance ließe sich damit noch im Vergleich zu Conroe herausholen?

Coda
2006-02-17, 15:42:51
Das "CSI will outperform Hypertransport" ist einfach Blödsinn, weil wenn man sich die HT-Spec genau anschaut sieht man schon dass es das absolute Minimal-Latenz-Design ist. Das ist FUD.

Gast
2006-02-17, 15:47:59
Ich würde die Ausgangsfrage etwas anders formulieren:

Warum wird der FSB überhaupt so niedrig angesetzt? Man könnte doch das genaue Gegenteil bewirken, und den FSB so hoch ansetzen, das derzeitige Speichermodule voll ausgenutzt werden und noch etwas Spielraum für zukünftige Entwicklungen bleibt. Technisch scheint es zu gehen, wie diverse OC-Ergebnisse beweisen.

Kann mir jemand erklären, warum ein Prozessor umbedingt mit 10x266 (1066er FSB) laufen muss, anstatt 5x533 (FSB2133)?

Deine Mamma
2006-02-17, 15:52:04
Was ich mich frage ist warum Speicherbausteine nicht wie auf Grafikkarten verlötet werden.
Damit ist ein Latenzsenkung um den Faktor von über 10 möglich!
Und Speicherlatenzen sind das Leistungsproblem Nr.1 heutiger CPUs.

Mir ist es wurscht dass ich den Speicher nicht aufrüsten kann wenn ich dafür mehr Leistung bekomme.

Ganon
2006-02-17, 15:53:46
Kann mir jemand erklären, warum ein Prozessor umbedingt mit 10x266 (1066er FSB) laufen muss, anstatt 5x533 (FSB2133)?

Mangels Arbeitsspeicher der mit 533 Mhz Realtakt läuft?

Gast
2006-02-17, 15:56:23
Mangels Arbeitsspeicher der mit 533 Mhz Realtakt läuft?

Ist doch wurscht, wofür gibt es Teiler?

Da frage ich mich doch, was sinnvoller ist:

a) den FSB so niedrig anzusetzen, das aktuelle Speichermodule viel mehr Bandbreite liefern, als die CPU verarbeiten kann (Leistung geht verloren)
oder
b) den FSB so hoch anzusetzen, das aktuelle Speichermodule nicht genügend Bandbreite liefern können, als die CPU verarbeiten kann (=Leistung wird ausgeschöpft, weiteres Verbesserungspotential verhanden)

Gast
2006-02-17, 15:57:54
Nun soll mir mal einer erklären, was an Methode a) sinnvoller ist als an Methode b)!

turboschlumpf
2006-02-17, 16:04:05
Das "CSI will outperform Hypertransport" ist einfach Blödsinn, weil wenn man sich die HT-Spec genau anschaut sieht man schon dass es das absolute Minimal-Latenz-Design ist. Das ist FUD.
Darum ging es mir doch überhaupt nicht (eigentlich halte mein letztes Posting für diesbezüglich recht unmissverständlich)!

Gast
2006-02-17, 16:14:54
Kommunizieren die beiden Kerne des Conroe eigentlich immer noch über den FSB miteinander? Ich hoffe doch mal nicht...

Coda
2006-02-17, 16:49:36
Die zwei Kerne auf einem Die nicht, bei den Quad-Cores zwischen den Dies schon.

Matrix316
2006-02-17, 16:57:57
Der Performancevorteil durch den integrierten Speichercontroller wird beim A64 auch oftmals überschätzt. Das ist meiner Meinung nach nur maximal 50% für die Mehrperformance zum Athlon XP verantwortlich.
50% ist immerhin die Hälfte. Soooo viel ist ja auch net annerst beim A64.

Matrix316
2006-02-17, 16:59:46
Intels offizielle Aussage dazu ist glaube ich "man will den Mainboard-Herstellern/Benutzern die Freiheiten lassen".

Trotzdem ist Intel schon in AMD-Performance-Bereichen mit gleichem Takt, auch ohne diese Techniken... von daher hat Intel auch keinen Druck... denke ich...

Mit dem Pentium M schon, aber mit dem P4? Selbst im Vergleich [Takt Intel] <-> [Performance Rating AMD] hat AMD gerade bei Games noch einen relativ großen Vorsprung.

Ganon
2006-02-17, 17:01:58
Mit dem Pentium M schon, aber mit dem P4?

Ich meine schon Intels neue Generation PM und CoreDuo...

Wie gesagt. Es gibt immer Teile wo diese oder jene CPU schneller ist. In der Summe sind beide eher gleichauf und das obwohl AMD schnellere Speicherzugriffe hat.

Das meine ich damit...

Coda
2006-02-17, 17:10:37
50% ist immerhin die Hälfte. Soooo viel ist ja auch net annerst beim A64.Da irrst du dich.

GloomY
2006-02-17, 23:14:34
Das "CSI will outperform Hypertransport" ist einfach Blödsinn, weil wenn man sich die HT-Spec genau anschaut sieht man schon dass es das absolute Minimal-Latenz-Design ist. Das ist FUD.Ich halte solche Aussagen auch für sehr gewagt, insbesondere weil noch nichts über die technischen Spezifikationen bekannt ist.

Was aber sein könnte, ist dass Intel über einen höheren Takt noch was rausholt. Das serielle Interface könnte da vielleicht gegenüber dem parallelen von Hypertransport vielleicht einen Taktvorteil erreichen. In wie fern das aber reicht, ist Spekulation, insbesondere da Hypertransport - wie du bereits gesagt hast - einige sehr nette Techniken eingebaut hat, um die Latenz möglichst gering zu halten.

Aber bis CSI kommt (2008) sitzt Hypertransport natürlich auch nicht still. Auch wenn Intel das vielleicht gerne so hätte...
Was ich mich frage ist warum Speicherbausteine nicht wie auf Grafikkarten verlötet werden.
Damit ist ein Latenzsenkung um den Faktor von über 10 möglich!
Und Speicherlatenzen sind das Leistungsproblem Nr.1 heutiger CPUs.

Mir ist es wurscht dass ich den Speicher nicht aufrüsten kann wenn ich dafür mehr Leistung bekomme.Gerade mit einem integrierten Speichercontroller ist der Großteil der Latenz nur noch die vom DRAM. Außerdem: Wie kommst du auf deinen Faktor 10? Weil es Speicherchips für Grafikkarten gibt, die sooo unglaublich viel MHz haben? Dann schau' dir da aber mal die Timings von denen an. Hinweis: Bei GDDR3 ist z.B. CL11 keine Seltenheit ;)

Die absolute Latenz (in ns) ist nämlich sehr ähnlich wie die von PC3200 oder PC2-5300 etc. Sprich: Es würde wirklich nicht viel bringen (von der Bandbreite mal abgesehen).
Ich würde die Ausgangsfrage etwas anders formulieren:

Warum wird der FSB überhaupt so niedrig angesetzt? Man könnte doch das genaue Gegenteil bewirken, und den FSB so hoch ansetzen, das derzeitige Speichermodule voll ausgenutzt werden und noch etwas Spielraum für zukünftige Entwicklungen bleibt. Technisch scheint es zu gehen, wie diverse OC-Ergebnisse beweisen.

Kann mir jemand erklären, warum ein Prozessor umbedingt mit 10x266 (1066er FSB) laufen muss, anstatt 5x533 (FSB2133)?Hast du schon mal probiert einen Bus mit 64 Leitungen bei so einer hohen Taktfrequenz zu betreiben? Weisst du, was das an elektrischen Schwierigkeiten mit sich bringt...!?

turboschlumpf
2006-02-17, 23:33:18
Die meiner Meinung nach interessanten Fragen wurden leider noch nicht beantwortet:

- Wann kann man bei Intels Desktop-CPUs in etwa mit einem integrierten Speichercontroller und der CSI rechnen?
- Lassen sich diese überhaupt so ohne weiteres nachträglich in die neue CPU-Architektur integrieren?
- Und wie viel Performance ließe sich damit noch im Vergleich zu Conroe herausholen?

Benedikt
2006-02-17, 23:35:18
- Und wie viel Performance ließe sich damit noch im Vergleich zu Conroe herausholen?
Ich glaube zum derzeitigen Zeitpunkt kann dir noch nichtmal jemand genau sagen, wie Conroe performen wird... ;)

GloomY
2006-02-18, 00:16:03
Die meiner Meinung nach interessanten Fragen wurden leider noch nicht beantwortet:

- Wann kann man bei Intels Desktop-CPUs in etwa mit einem integrierten Speichercontroller und der CSI rechnen?2008? Das ist die Zahl, die man bei diversen Quellen lesen kann. Ob die stimmt, weiss niemand, weil Intel ja noch nichts offizielles verkündet hat...
- Lassen sich diese überhaupt so ohne weiteres nachträglich in die neue CPU-Architektur integrieren?Das ist sicherlich ein Eingriff, der nicht ganz ohne ist. Aber verglichen mit einem komplett neuen CPU-Design fällt der Aufwandt doch eher gering aus.

Machbar ist es sicher. Siehe K7 -> K8. (Obwohl da noch eine Reihe von anderen Sachen geändert wurde).
- Und wie viel Performance ließe sich damit noch im Vergleich zu Conroe herausholen?Hmm, weisst du wie schnell der Conroe wird? Ich leider nicht... ;(

turboschlumpf
2006-02-18, 02:10:15
Hmm, weisst du wie schnell der Conroe wird? Ich leider nicht... ;(Er wird schnell und er wird BÖSE. :naughty:

Nein, Spaß beiseite. Aber man wird doch trotzdem eine ungefähre Aussage darüber treffen können, wie viel das in etwa bringen wird. Profitiert Intels neue CPU-Architektur (aufgrund des Caches oder warum auch immer) eventuell weniger von einem integrierten Speichercontroller als ein Athlon 64 und wie stark limitiert die Speicherbandbreite wirklich?

Banshee18
2006-02-18, 03:07:05
Der Performancevorteil durch den integrierten Speichercontroller wird beim A64 auch oftmals überschätzt. Das ist meiner Meinung nach nur maximal 50% für die Mehrperformance zum Athlon XP verantwortlich.
Das war mir neu. :eek: Ich habe mal einen sehr ausführlichen Artikel über die A64-Architektur gelesen -ich glaube das war bei tecchannel- und habe den dahingehend interpretiert, dass es eher so um die 80-90% ausmacht.

Kennt jemand einen Link zu einem guten Artikel "Vergleich der Architekturen A64 <-> AXP?"

zeckensack
2006-02-18, 03:59:42
Das war mir neu. :eek: Ich habe mal einen sehr ausführlichen Artikel über die A64-Architektur gelesen -ich glaube das war bei tecchannel- und habe den dahingehend interpretiert, dass es eher so um die 80-90% ausmacht.

Kennt jemand einen Link zu einem guten Artikel "Vergleich der Architekturen A64 <-> AXP?"http://www.chip-architect.com/news/2003_09_21_Detailed_Architecture_of_AMDs_64bit_Core.html
(Kurze, grobe) Zusammenfassung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2603037#post2603037).

Faint86
2006-02-18, 15:23:53
@ Die Profis hier

Ist der Core Duo den sooo arg Speicherbandbreitenlimitiert? Würde es Conroe also viel bringen mit dem hohen FSB von 1066Mhz oder wie hoch der ist?

harrypitt
2006-02-18, 16:03:54
Ich glaube Intel möchte mit ihren Chipsätzen auch weiterhin Geld verdienen...

Wandert der Speichercontroller in die CPU, so spielt der Chipsatz für die Gesamtleistung des Systems nur mehr eine untergeordnete Rolle. Sollte dies bei Intel passieren so würden sich wahrscheinlich viele (Groß)Kunden den Aufpreis für den Intelchipsatz sparen und eine günstigere Lösung einer anderen Marke vorziehen.

Gast
2006-02-18, 17:34:23
Mir stellt sich die Frage, warum es Intel auch bei der neuen CPU-Architektur versäumt hat, endlich den Flaschenhals der Speicheranbindung zu beseitigen. Warum hinkt Intel im Bezug auf den integrierten Speichercontroller und die Common Serial Interconnection AMD um Jahre hinterher?

Weil sowas halt auch Jahre braucht bis das entwickelt ist, Intel kann ja nicht einfach fix nen Memcontroller dranklatschen.
Da hängt ja noch viel mehr dran, angefangen bei den Sockeln bis hin zu den Chipsätzen.

DarkmanX88
2006-02-18, 17:44:36
zur preformance des 3 ghz conroe dürfte dieser etwa glecih schnell sein mit einem pentium m @ 3 ghz und das is ja schon einiges haut ja den fx mit 3,3 ghz wech ^^
also ichfreu mich schon auf die neuen

Spasstiger
2006-02-18, 18:02:50
zur preformance des 3 ghz conroe dürfte dieser etwa glecih schnell sein mit einem pentium m @ 3 ghz und das is ja schon einiges haut ja den fx mit 3,3 ghz wech ^^
also ichfreu mich schon auf die neuen

Da die Pipeline des Conroe länger ist, glaube ich nicht, dass er die Effizienz eines Pentium M (Dothan) erreicht, zumindest bei Singlethreaded-Anwendungen.

Coda
2006-02-18, 18:24:27
So ein Geschwätz. Als ob die Pipelinelänge auch nur irgendwie direkt proportional mit der Takteffienz einer Architektur zu tun hätte...

Was den P4 so ausgebremst hat ist das unsägliche Replay, nicht die lange Pipeline. Sorry, aber das Märchen geht mir irgendendwie langsam auf die Nerven.

HOT
2006-02-18, 20:07:38
Die neuen haben höhere Cachelatenzen als die P-Ms, allein deshalb werden sie die Effizienz des P-M wahrscheinlich nicht erreichen. Aber man wird sehen, was kommt. Vielleicht hat Intel es ja geschafft diesen Malus auszugleichen, alles Spekulatius zur Zeit :)

DarkmanX88
2006-02-18, 20:10:24
So ein Geschwätz. Als ob die Pipelinelänge auch nur irgendwie direkt proportional mit der Takteffienz einer Architektur zu tun hätte...

Was den P4 so ausgebremst hat ist das unsägliche Replay, nicht die lange Pipeline. Sorry, aber das Märchen geht mir irgendendwie langsam auf die Nerven.
mag zwar stimmen aber einen gewwisen teil teil preformance hat es schon gekostet und die max 5% (ungünstigstenfall) die der conroe langsamer ist machen die kuh auch nicht fett ;D naja aufjedenfall wird das ein kracher und da sind mir uns alle einig :biggrin:

Gast
2006-02-21, 20:55:24
Hast du schon mal probiert einen Bus mit 64 Leitungen bei so einer hohen Taktfrequenz zu betreiben? Weisst du, was das an elektrischen Schwierigkeiten mit sich bringt...!?

hm, beim speicher haut es ja sogar mit 128 leitungen einwandfrei hin

Coda
2006-02-21, 20:57:06
Das sind auch nur 64 verteilt auf 2 seperate Controller.

Gast
2006-12-22, 13:24:07
Also mittlerweile wissen wirja das der Conroe kaum ausgebremst wird, weil er keinen integrierten Speichercontroller hat. Der grosse Cache scheint das ganze auszugleichen. Dies sieht man ja daran, daß wenn man den FSB auf 400 erhöht und somit den Flaschenhals theorretisch deutlich verringert, die Performance kaum grösser wird als bei standard@266. Wenns anders wäre hätte Intel die CPUs sicher alle mit FSB1333 ausgeliefert - die Chipsätze machens zumindest problemlos mit.

Gast
2006-12-22, 13:31:48
Also mittlerweile wissen wirja das der Conroe kaum ausgebremst wird, weil er keinen integrierten Speichercontroller hat. Der grosse Cache scheint das ganze auszugleichen.Das stark verbesserte Prefetching tut da auch seinen Teil zu. Aber wer weiß wie ein Conroe-Abkömmling mit integriertem Speichercontroller performen würde?

Gast
2006-12-22, 14:10:05
Aber wer weiß wie ein Conroe-Abkömmling mit integriertem Speichercontroller performen würde?

nicht viel schneller, weil der flaschenhals ganz einfach kaum beim speicher liegt. aber ein wenig würde ein IMC natürlich auch bringen.

Gast
2006-12-22, 14:12:20
zur preformance des 3 ghz conroe dürfte dieser etwa glecih schnell sein mit einem pentium m @ 3 ghz und das is ja schon einiges haut ja den fx mit 3,3 ghz wech ^^
also ichfreu mich schon auf die neuen

Da die Pipeline des Conroe länger ist, glaube ich nicht, dass er die Effizienz eines Pentium M (Dothan) erreicht, zumindest bei Singlethreaded-Anwendungen.


Ähm? Der Conroe ist deutlich schneller als jeder Pentium M, auch wenn die Anwendung nur einen Kern nutzt!

Hier habt ihr einen Vergleich:
http://www.matbe.com/articles/lire/306/merom-et-conroe-test-des-core-2-duo/page21.php

Diese Unterschiede sind nicht mit den üblichen Prozentpunkten durch den Grafiktreiber zu erklären! Der Pentium M 2,8 GHz wird weggeputzt!
(guckt auch mal die anderen Bereiche, bei WinRAR ebenfalls)

Gast
2006-12-22, 14:21:10
Ähm? Der Conroe ist deutlich schneller als jeder Pentium M, auch wenn die Anwendung nur einen Kern nutzt!Du weißt aber schon, dass der Thread hier bald ein Jahr alt ist? ;)

StefanV
2006-12-22, 15:27:36
Also mittlerweile wissen wirja das der Conroe kaum ausgebremst wird, weil er keinen integrierten Speichercontroller hat. Der grosse Cache scheint das ganze auszugleichen. Dies sieht man ja daran, daß wenn man den FSB auf 400 erhöht und somit den Flaschenhals theorretisch deutlich verringert, die Performance kaum grösser wird als bei standard@266. Wenns anders wäre hätte Intel die CPUs sicher alle mit FSB1333 ausgeliefert - die Chipsätze machens zumindest problemlos mit.
Nein, wissen wir nicht, außerdem ist ein integrierter Speichercontroller weitaus besser, wie man mit Speicherbenchmarks belegen kann..

Schau dir mal die erreichte Latenz von K8 und C2D Plattformen an, bei letzteren ists etwa 50% mehr und eben das ist auch entscheidender, bei Hauptprozessoren als der Durchsatz bzw die Übertragungsrate...

nomadhunter
2006-12-22, 18:10:56
Zumindest wissen wir aber, dass eine weitere FSB-Erhöhung nicht viel bringen würde. Das Problem sind die Latenzen, die Übertragungsraten sind selbst mit dem FSB1066 schon groß genug, um den Prozessor nicht zu limitieren. Und ein höherer FSB würde eben nur die Übertragungsraten noch weiter steigern, die Latenzen würden (fast?) genauso hoch bleiben. (Intel behaupet ja, dass der FSB1066 auch für Kentsfield ausreichend große Übertragungsraten bietet, was ich auch durchaus für möglich halte.)

Coda
2006-12-22, 18:19:14
Schau dir mal die erreichte Latenz von K8 und C2D Plattformen an, bei letzteren ists etwa 50% mehr und eben das ist auch entscheidender, bei Hauptprozessoren als der Durchsatz bzw die Übertragungsrate...

Also bei den Speicherbenchmarks die ich kenne hat macht der C2D durch das Prefetching & Load-Out-Of-Order-Execution eine sehr viel bessere Figur als K8.

Antifanboy
2006-12-22, 18:21:45
Nein, wissen wir nicht, außerdem ist ein integrierter Speichercontroller weitaus besser, wie man mit Speicherbenchmarks belegen kann..

Schau dir mal die erreichte Latenz von K8 und C2D Plattformen an, bei letzteren ists etwa 50% mehr und eben das ist auch entscheidender, bei Hauptprozessoren als der Durchsatz bzw die Übertragungsrate...

Jungs, ich weiss nicht, was ihr habt. Der C2D ist dem K8 geschwindigkeitsmässig doch haushoch überlegen, machen wir uns da nichts vor. Was also wollt ihr? Dem Sieger ans Bein pinkeln? Als schlechter Verlierer nachtreten?

Ich lass mal die ct sprechen:
""Insgesamt lässt sich feststellen, dass der Core-2-Duo-Rechner bei vielen Aufgaben tatsächlich deutlich mehr Leistung bietet, die der Anwender vor allem in Form stark reduzierter Bearbeitungszeiten spürt. Suchte man eine Analogie in der Meteorologie, könnte der Performance-Zuwachs des Athlon 64 X2 gegenüber dem Pentium 4 als Brise durchgehen, die Steigerung vom X2 auf den Core 2 Duo aber käme einem Sturm gleich."

http://www.heise.de/ct/06/22/152/default.shtml

Gast
2006-12-22, 18:32:18
Jungs, ich weiss nicht, was ihr habt. Der C2D ist dem K8 geschwindigkeitsmässig doch haushoch überlegen, machen wir uns da nichts vor. Was also wollt ihr? Dem Sieger ans Bein pinkeln? Als schlechter Verlierer nachtreten?

Ich lass mal die ct sprechen:
""Insgesamt lässt sich feststellen, dass der Core-2-Duo-Rechner bei vielen Aufgaben tatsächlich deutlich mehr Leistung bietet, die der Anwender vor allem in Form stark reduzierter Bearbeitungszeiten spürt. Suchte man eine Analogie in der Meteorologie, könnte der Performance-Zuwachs des Athlon 64 X2 gegenüber dem Pentium 4 als Brise durchgehen, die Steigerung vom X2 auf den Core 2 Duo aber käme einem Sturm gleich."

http://www.heise.de/ct/06/22/152/default.shtml

Diese Diskussion hat von einem Jahr Sinn gemacht, mittlerweile sollte man die Niederlage verdaut haben und sie zugeben können. Aber manche werdens wohl nie kapieren, weil sie es nicht wollen. Fanboytum ist nicht heilbar. Ich kenn da einen, der schwört immer noch auf Amiga. Oder war das Atari? Na, egal, der kapiert auch nicht, dass er regelrecht Leichenschändung begeht...

Haarmann
2006-12-22, 19:04:14
Der C2D ist ein 0.65nm Chip und neu...
Der Athlon64, auch die X2 sind dagegen weder 0.65nm zZ, noch neu. Es ist nicht verwunderlich, dass zZ Intel mit ihrem neuen Design gegen den Athlon64, ein altes Design, vorne liegt. Nur wie sieht das gegen AMDs neues Design aus?

Nebenher ist Intels C2D nicht Intels Hauptchip...

Lawmachine79
2006-12-22, 19:07:12
Ich schätze, Intel hat so etwas einfach nicht geplant. (AMDs Schritte)
Man hat sich weder darauf vorbereitet, noch wollte man anscheinend einen Schnellschuss wagen.
Intel denkt vielleicht, es würde ihnen mehr schaden, wenn sie etwas übereilt anpacken. Und eventuell haben sie damit recht.

Es wird bessere Anbindungen geben, und auch einen internen Speichercontroller. (2007)

Ich denke, Intel hat sowas sehr wohl geplant. Man darf aber nicht frühzeitig all seine Reserven einsetzen. Wenn der K8L der absolute Oberhammer wird dauert es drei Monate und der Conroe kommt mit integr. Speichercontroller.

AnarchX
2006-12-22, 19:14:26
Der C2D ist ein 0.65nm Chip und neu...
Der Athlon64, auch die X2 sind dagegen weder 0.65nm zZ, noch neu. Es ist nicht verwunderlich, dass zZ Intel mit ihrem neuen Design gegen den Athlon64, ein altes Design, vorne liegt.

Doch bei 65nm ist man auch bei AMD mittlerweile (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=322081&page=13).;)

@ neu vs alt:
Der K8 ist in dem Zeitraum Q3 06 - Q3 07(Desktop) das Konkurrenzprodukt zum C2D, da AMD es momentan noch nicht möglich ist mit einer neueren Architektur zu kontern, deshalb ist es doch völlig legitim für einen "aktuellen" Vergleich beide CPUs zu vergleichen, egal wie alt die Architektur ist.


Nur wie sieht das gegen AMDs neues Design aus?

Wie sieht der K8L gegen Penryn oder gar Nehalem aus?

StefanV
2006-12-22, 19:17:02
Also bei den Speicherbenchmarks die ich kenne hat macht der C2D durch das Prefetching & Load-Out-Of-Order-Execution eine sehr viel bessere Figur als K8.
Ich meinte eigentlich auch nur die Latenz beim Zugriff auf den Speicher und auch nur das, da schaut der K8 immer noch wesentlich besser aus (was ja eigentlich auch logisch ist, da kein bremsender FSB dazwischen ebenso wie eine Northbridge).

Die Frage, um die es hier eigentlichz geht ist, wieviel schneller ein C2D mit IMC sein könnte...

Gast
2006-12-22, 19:46:37
Ich denke nicht, das der Core2 oder Nachfolger sehr davon profitieren würde.

Der Unterschied zwischen Core 2 ohne und mit IMC sollte geringer sein, als zwischen Athlon XP > 64, weil die bisherige Architektur schon darauf ausgelegt ist, gut ohne IMC auszukommen.
Mit den immer dicker werdenden Caches leistet man dem noch Vorschub.

Keine Frage ist, das er kommen muss, weil besonders bei vielen Kernen oder Prozessoren der FSB doch stark limitieren kann und dieser lässt sich bisher noch nicht unbegrenzt erhöhen.

Vielleicht bringts auch Vorteile beim Stromverbrauch, aber da kenne ich mich nicht aus. Könnte aber auch ein Nachteil sein, wenn die CPU mehr verbraucht (auf kleinerer Fläche), anstatt dem Mainboard?

AnarchX
2006-12-22, 19:48:15
Ich würde sagen, dass man im bestimmten Gebieten durchaus von einem IMC mit 10%+ profitieren könnte, wenn man sich Benches zur Speicher/FSB-Skalierung bei C2D anschaut.

Haarmann
2006-12-22, 19:57:39
AnarchX

Du hast absolut den Kern der Sache erkannt...

Wenn 2 Firmen ihre Produkte versetzt anbieten, vorausgesetzt die kriegen was hin, dann wird das neue Produkt das Alte schlagen.

Nur weil nun ein altes Produkt, welches unterlegen ist, Vorteile im Design hat, weden diese Vorteile nicht zu Nachteilen. Im Nachfolger werden sich die Vorteile sicher wieder auswirken.

Gast
2006-12-22, 20:01:40
AnarchX

Du hast absolut den Kern der Sache erkannt...

Wenn 2 Firmen ihre Produkte versetzt anbieten, vorausgesetzt die kriegen was hin, dann wird das neue Produkt das Alte schlagen.

Nur weil nun ein altes Produkt, welches unterlegen ist, Vorteile im Design hat, weden diese Vorteile nicht zu Nachteilen. Im Nachfolger werden sich die Vorteile sicher wieder auswirken.

Welchen Nachfolger meinst du? Der AM2-Sockelumstieg war nicht der Bringer, das 4x4-Konzept genauso wenig und nun scheint auch der 65nm-Shrink in die Hose zu gehen. Woher nimmst du also deinen Optimismus?

stav0815
2006-12-22, 20:19:06
Welchen Nachfolger meinst du? Der AM2-Sockelumstieg war nicht der Bringer, das 4x4-Konzept genauso wenig und nun scheint auch der 65nm-Shrink in die Hose zu gehen. Woher nimmst du also deinen Optimismus?

Woran siehst du denn dass der Shrink in die Hose geht?

Gast
2006-12-22, 20:19:34
Die Frage, um die es hier eigentlichz geht ist, wieviel schneller ein C2D mit IMC sein könnte...

dass ein IMC besser sein kann wenn man eine anwendung so programmiert dass der speicherdurchsatz und/oder latenzen limitieren.

fakt ist aber dass dies bei allen "normalen" anwendungen beim core2 nicht der fall ist, da nützt es nichts in der gesamten rechenpipeline einen bereich verschnellert der garnicht der flaschenhals ist.

zudem hat man mit dem IMC nicht nur vorteile, wie man vor allem an der speicherkompatibilität beim K8 sehen konnte (mit DDR2 soll es ja endlich besser sein)

StefanV
2006-12-22, 20:23:11
dass ein IMC besser sein kann wenn man eine anwendung so programmiert dass der speicherdurchsatz und/oder latenzen limitieren.

fakt ist aber dass dies bei allen "normalen" anwendungen beim core2 nicht der fall ist, da nützt es nichts in der gesamten rechenpipeline einen bereich verschnellert der garnicht der flaschenhals ist.

zudem hat man mit dem IMC nicht nur vorteile, wie man vor allem an der speicherkompatibilität beim K8 sehen konnte (mit DDR2 soll es ja endlich besser sein)
Nein, fakt ist, das wir nichts genaueres wissen, um das beurteilen zu können.
Fakt ist, das ein IMC weitaus effizienter ist und die, bei GP-CPUs so wichtigen, Latenzen nochmals etwas verringern können...

Gast
2006-12-22, 20:23:17
Woran siehst du denn dass der Shrink in die Hose geht?

Hier, der 65nm-Shrink scheint AMD mächtig in die Hose gegangen zu sein:

"The step back in performance with Brisbane is truly puzzling; while none of our individual application benchmarks showed a tremendous loss in performance, it's a very unusual move for AMD. The last thing AMD needs to do is take away performance, and based on its current roadmaps the higher latency L2 cache makes no sense at all. Either AMD has some larger L2 cache variants in the works that we're not aware of, or AMD's cache didn't take very kindly to the 65nm shrink. As soon as we get the official word as to why L2 access latencies jumped 66% with Brisbane we'll be sure to report it; until then we can only wonder."

> http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2893&p=10

Gast
2006-12-22, 21:02:57
Nein, fakt ist, das wir nichts genaueres wissen, um das beurteilen zu können.


natürlich wissen wir genaueres. der IMC kann nichts anderes als die latenzen zu verringern, und im fall dass der FSB limitiert auch die bandbreite.
man kann aber auch ohne IMC feststellen wie stark sich veränderungen der latenzen und bandbreite auf die performance auswirken, und diese sind beim core2 sehr gering.


Fakt ist, das ein IMC weitaus effizienter ist und die, bei GP-CPUs so wichtigen, Latenzen nochmals etwas verringern können...

es bezweifelt ja auch keiner dass der IMC effizienter ist, nur wird er bei der core2-architektur nicht allzu viel bringen, ich denke 5-10% sind das höchste der gefühle (bei einer einzelnen cpu).

Gast
2006-12-29, 15:38:07
Der Shrink damals auf 90 nm ist deiner Meinung nach dann auch in die Hose gegangen? Da gab es auch erst die kleinen CPUs als Winchester, während die High-End-A64 und FX weiterhin 130nm-Clawhammer waren und erst viel später durch den San Diego abgelöst wurden.

Jasager
2006-12-29, 18:33:44
Der Shrink damals auf 90 nm ist deiner Meinung nach dann auch in die Hose gegangen?
Ja.

Gast
2006-12-29, 18:50:11
Ja.Könntest du das bitte auch begründen? Die 90nm-K8 waren kühler und boten ein höheres Übertaktungspotenzial. Was ist da deiner Meinung nach schief gelaufen?

Gast
2006-12-29, 20:12:59
Könntest du das bitte auch begründen? Die 90nm-K8 waren kühler und boten ein höheres Übertaktungspotenzial. Was ist da deiner Meinung nach schief gelaufen?

Merkst du was? Genau das ist auch der Unterschied zwischen heute und damals. Heute bietet 65 kein höheres Übertaktungspotenzial und ist auch nicht kühler. Ergo: 65 nm ging mächtig in die Hose, padabum! ;)

BlackBirdSR
2006-12-29, 22:00:21
Merkst du was? Genau das ist auch der Unterschied zwischen heute und damals. Heute bietet 65 kein höheres Übertaktungspotenzial und ist auch nicht kühler. Ergo: 65 nm ging mächtig in die Hose, padabum! ;)

Der Shrink ist nichts weiter als das, ein Shrink. Keine Optimierungen an HW und Prozess um weiteres Potential zu erzeugen.

Zu sagen, so etwas wäre in die Hose gegangen zeugt meiner Meinung nach von Kurzsuchtigkeit. Keine Ahnung ob absichtlich oder ungewollt.
Auf jeden Fall bin ich anderer Meinung.

Gast
2006-12-29, 22:21:28
Der Shrink ist nichts weiter als das, ein Shrink. Keine Optimierungen an HW und Prozess um weiteres Potential zu erzeugen.

Zu sagen, so etwas wäre in die Hose gegangen zeugt meiner Meinung nach von Kurzsuchtigkeit. Keine Ahnung ob absichtlich oder ungewollt.
Auf jeden Fall bin ich anderer Meinung.

Mann, wenn ein 90nm 4600+ schneller ist als ein von Latenzproblemen gebeutelter 65nm 4800+, dann ist es mächtig gewaltig in die Hose gegangen. Badabum, würde Leeloo sagen! ;)

StefanV
2006-12-29, 22:24:04
Der erste Prozessor eines neuen Prozesses ist bei AMD immer nur ein Kostenoptimierter Shrink.
Das war so beim T-Bred B, das ist so beim Winchester gewesen, warum sollte es auf einmal anders sein?
Die 'echten' 65nm CPU, Rev. H. kommen also noch, wie es auch bei den 90nm CPUs (Rev. D war die 'Testcpu', Rev E war die 'echte' 90nm CPU)...

Da wird man eher mit der Prämisse: macht was das läuft sein anstatt macht es besser...

Gast
2006-12-29, 22:30:52
Der erste Prozessor eines neuen Prozesses ist bei AMD immer nur ein Kostenoptimierter Shrink.
Das war so beim T-Bred B, das ist so beim Winchester gewesen, warum sollte es auf einmal anders sein?
Die 'echten' 65nm CPU, Rev. H. kommen also noch, wie es auch bei den 90nm CPUs (Rev. D war die 'Testcpu', Rev E war die 'echte' 90nm CPU)...

Da wird man eher mit der Prämisse: macht was das läuft sein anstatt macht es besser...

Ähm, unausgereift? Grüne Bananen, die beim Kunden reifen? Der Käufer als Tester?
Vielleicht bin ich auch nur Intel-verwöhnt!

StefanV
2006-12-29, 23:01:29
Hier ist nichts unausgereift, hier reift auch nichts beim Kunden, es wird genau das geliefert was drauf steht!!

Ist doch egal, ob man 'nen 3200+ Clawhammer/512, Newcastle, Winchester oder Venice hat, von der Performance her wird genau das geliefert was drauf steht, auch jetzt ists nicht wirklich anders...

StefanV
2006-12-30, 01:08:41
Hier. Brenn. Lebendig. http://video.google.com/videoplay?docid=1213287124603190341&q=amd+burning+video&hl=en
Sorry, Gast, aber das Video von THG kann recht eindrucksvoll Widerlegt (http://au-ja.de/artikel-asus-cop-test.phtml) werden...
Ganz ab davon würd ich vorschlagen, das wir jetzt wieder versuchen um irgendwas zu diskutieren...
Und die alten Leichen, nach denen heute kein Hahn mehr kräht, lassen wir mal lieber begraben...


Außerdem kann man jede CPU durch (mehrmaliges) starten ohne Kühler recht eindrucksvoll grillen...
Ok, beim K8 dürfte das am schwersten sein, aber nicht weil die CPU so unglaublich gut ist sondern weil der Deckel da drauf weitaus mehr Masse besitzt, laut meiner Wage wiegt ein K8 doppelt so viel wie ein S478 P4 :ugly:

Dimon
2006-12-30, 02:44:43
Sorry, Gast, aber das Video von THG kann recht eindrucksvoll Widerlegt (http://au-ja.de/artikel-asus-cop-test.phtml) werden...
Ganz ab davon würd ich vorschlagen, das wir jetzt wieder versuchen um irgendwas zu diskutieren...
Und die alten Leichen, nach denen heute kein Hahn mehr kräht, lassen wir mal lieber begraben...


Außerdem kann man jede CPU durch (mehrmaliges) starten ohne Kühler recht eindrucksvoll grillen...
Ok, beim K8 dürfte das am schwersten sein, aber nicht weil die CPU so unglaublich gut ist sondern weil der Deckel da drauf weitaus mehr Masse besitzt, laut meiner Wage wiegt ein K8 doppelt so viel wie ein S478 P4 :ugly:

ähm Stefan, das ist eine funktion des Mainbords, und nicht der CPU, was der Gast damit meinte, das die Athlons diese sicherheit nicht unterstützen, die Pentium Prozessoren hingegen schon....

Und ja, die CPU hat zwar die Diode, aber nur wie es aussieht, unterstützen sie nur wenige Boards, weil ich schon dutzende abgerauchet AXP cpus gesehn habe....

Und natürlich kann man dabei jede CPu Grillen, wenn man denn PC schnell wieder ein und aus schaltet.....

mfg

Gast
2006-12-30, 11:24:58
Wer nicht dazu fähig ist einen Kühler zu montieren, soll eben einen Fachmann dafür bezahlen.

Gast
2006-12-30, 11:55:07
Wer nicht dazu fähig ist einen Kühler zu montieren, soll eben einen Fachmann dafür bezahlen.

Oder einen Intel kaufen. Auch Fachmänner fluchten über spröde AMD-Dies.
Da haben AMD-Ingenieure das englische Subsantiv "Die" mit dem gleichnamigen Verb verwechselt?! ;)

StefanV
2006-12-30, 13:03:39
ähm Stefan, das ist eine funktion des Mainbords, und nicht der CPU, was der Gast damit meinte, das die Athlons diese sicherheit nicht unterstützen, die Pentium Prozessoren hingegen schon....

Und ja, die CPU hat zwar die Diode, aber nur wie es aussieht, unterstützen sie nur wenige Boards, weil ich schon dutzende abgerauchet AXP cpus gesehn habe....

Und natürlich kann man dabei jede CPu Grillen, wenn man denn PC schnell wieder ein und aus schaltet.....

mfg
Das siehst du falsch, nahezu jedes Brett ab KT400 bzw mit nForce2 hat einen entsprechenden Schutz implementiert.
Ab KT333 2. Generation (mit VT8235) fings an, mit dieser Schutzschaltung.

Aber wie dem auch sei, das sind uralte Leichen, die schon lang im Keller verrotet sind, wir sollten sie ruhen lassen...

Dimon
2006-12-30, 13:52:18
Das siehst du falsch, nahezu jedes Brett ab KT400 bzw mit nForce2 hat einen entsprechenden Schutz implementiert.
Ab KT333 2. Generation (mit VT8235) fings an, mit dieser Schutzschaltung.

Aber wie dem auch sei, das sind uralte Leichen, die schon lang im Keller verrotet sind, wir sollten sie ruhen lassen...

Ich benutz leider noch nen P4 ^^

aber der gast hat schon recht, den der AMD hat ein spezielles Mainbord gebraucht um
nicht abzurauchen, der P3 und P4 hingegen nicht, der funktioniert immer noch einwandfrei..... ;)


mfg

StefanV
2006-12-30, 14:16:49
Ich benutz leider noch nen P4 ^^

aber der gast hat schon recht, den der AMD hat ein spezielles Mainbord gebraucht um
nicht abzurauchen, der P3 und P4 hingegen nicht, der funktioniert immer noch einwandfrei..... ;)


mfg
DAS siehst du leider falsch...
Das ganze MUSS vom Board unterstützt werden...
Und nein, der Gast hat nicht wirklich recht denn ohne IHS würde ein P4 genauso abfackeln wie es ein K7 tat, der IHS hilft nur Zeit zu schinden, da er doch schon eine Menge Wärmeenergie aufnehmen kann, ganz im Gegensatz zu offenem Die wo das nicht so ist...
Das ein P4 nicht abrauchen kann ist übrigens eine glatte Lüge, denn jede CPU kann abrauchen und wird es auch, unter entsprechenden Umständen, habs selbst mal getestet, vor einiger Zeit und da ist mein P4/2A astrein abgenibbelt und hats Board gleich mitgenommen...
PS: dazu kommt, das die ersten Nordwälder sehr empfindlich auf etwas mehr Spannung reagierten, wenn man fies ist, würd man das wieder ausgraben und darüber etwas lästern und Intel niedermachen...

(+44)
2006-12-30, 15:15:02
Hmm. Ich hab da andere Erfahrungen gemacht.

Hab bisher schon nen 1.70er Willamette, nen 2.66er NorthwoodB und nen 3.0 Prescott ohne Kühler laufen lassen, die haben alle locker 30 Sekunden gebraucht bis sie abgeschaltet haben, alle Boards und CPU's laufen übrigens heute noch.

(Den Prescott hab ich verkauft, der neue Besitzer hat bisher keine Probleme damit)

Das mit dem Lästern kannst du ja gut, aber erzähl mal wie du den Northwood 2.0A gekillt hast, ich habs bisher mit keiner CPU geschafft :( ;)

dargo
2006-12-30, 15:28:33
Mann, wenn ein 90nm 4600+ schneller ist als ein von Latenzproblemen gebeutelter 65nm 4800+, dann ist es mächtig gewaltig in die Hose gegangen. Badabum, würde Leeloo sagen! ;)
Nicht unbedingt, denn durch den kleineren Fertigungsprozess kann AMD nahezu doppelt soviele CPUs verkaufen. ;)

AnarchX
2006-12-30, 15:34:28
Nicht unbedingt, denn durch den kleineren Fertigungsprozess kann AMD nahezu doppelt soviele CPUs verkaufen. ;)

Brisbane ist aber nur 32% kleiner als Windsor:
Athlon 64 X2's die size was only reduced from 183mm² at 90nm to 126mm² at 65nm (http://techreport.com/onearticle.x/11486)

Gast
2006-12-30, 17:53:31
Es führt kein Weg vorbei an der Feststellung, dass dieser Shrink total in die Hose ging.
Man hat wohl zuerst mehr Wert auf die Ausbeute gelegt, die ja fantastisch sein soll.
Kein dummer Zug. AMD kann momentan eh alles verkaufen, was vom Band kommt. Also Cache beschneiden, Ausbeute maximieren und los gehts.
Das Overclocker dabei auf der Strecke bleiben, wird sie kaum interessieren.
Mit der Verbesserung des Prozesses wird auch die Taktrate steigen und Spannung/Stromverbrauch sinken.

dargo
2006-12-30, 18:12:11
Brisbane ist aber nur 32% kleiner als Windsor:
Athlon 64 X2's die size was only reduced from 183mm² at 90nm to 126mm² at 65nm (http://techreport.com/onearticle.x/11486)
Ups, da hab ich wohl falsch gerechnet. :redface:
Dann hat die 65nm Die ~69% der 90nm Die. Naja, immerhin eine nicht zu kleine Verbesserung.


Es führt kein Weg vorbei an der Feststellung, dass dieser Shrink total in die Hose ging.
Wie kommst du zu dieser Behauptung.

dargo
2006-12-30, 19:14:32
Der 65er braucht nicht weniger Strom, er lässt sich nicht höher takten, er ist nur wenig kleiner, er ist bei gleichem Takt langsamer... aber das zählt alles natürlich nicht.
Zum Strom, gibts schon Messungen?

Das mit der etwas niedrigeren Leistung ist natürlich nicht so fein, aber solange man mit 65nm mehr Dies pro Wafer produzieren kann ist alles bestens. Ich glaube kaum, dass die meisten User die paar Prozent Leistungsverlust wirklich stören (und damit meine ich die Masse und nicht die paar User zb. hier im Forum).

Den geringen Leistungsverlust kann AMD auch mit einem etwas geringeren Preis ausgleichen.


Gast Posting editiert

BlackBirdSR
2006-12-31, 07:28:23
Man hat wohl zuerst mehr Wert auf die Ausbeute gelegt, die ja fantastisch sein soll.
Kein dummer Zug. AMD kann momentan eh alles verkaufen, was vom Band kommt. Also Cache beschneiden, Ausbeute maximieren und los gehts.
Das Overclocker dabei auf der Strecke bleiben, wird sie kaum interessieren.
Mit der Verbesserung des Prozesses wird auch die Taktrate steigen und Spannung/Stromverbrauch sinken.

Sehe ich ähnlich. Zumal der 65nm Prozess erst mit er neuen Revision des K8 vollständig ausgenutzt werden soll.
Eventuell ist wirklich viel schief gelaufen, eventuell hat sich AMD beim Shrink nur so wenig Mühe wie möglich gemacht.

Und die niedrigere Cache-Latenz erklärt AMD ja mit der Vorbereitung auf größere Caches. Oder aber der Cache läuft nun wirklich auf halben CPU-Takt wie von AMD angedroht.

Es heisst immer, Konkurrenz ist gut für den Kunden. Konkurrenzdruck ist aber auch immer schlecht für den Kunden. Hier sieht man es.

Blutmaul
2006-12-31, 08:29:20
AMDs Shrink ist wohl erst dann gelungen, für einen Teil der Leute, wenn er den Marktanteil betrifft ? ;)

Der Conroe wird doch in weniger/mehr Monaten (?) durch die Killer-CPU "Blastitallaway" ersetzt, warum noch Geld in die Entwicklung stecken?

Haarmann
2006-12-31, 08:35:46
AMD verkaufte auch schon bei 0.9 gerne die besseren Chips lieber als Opteron und die besonders stromsparenden Chips sieht man bestimmt lieber als Turion verkauft. Es ist daher fraglich, ob man für Desktops als Erstes Stromsparen als "Killerkriterium" angesetzt hat bei AMD. Ich vermute mal eher weniger.
Solange die alles, was von den Bändern läuft, gewinnbringend verkaufen können, solange lohnt sich der Umstieg schon alleine dann, wenn man mehr Chips rausbekommt.

Gast
2006-12-31, 10:54:44
Haarmann bringt es auf den Punkt. Ihr vergesst wieder, dass das Ziel von AMD ist, so viel Geld wie möglich zu machen. Daher müssen auf einen Wafer so viele funktionierende CPUs wie möglich passen, damit die Kosten pro CPU möglichst gering sind. Das ist erstmal das Ziel von feineren Strukturen.

Die technische Reife des neuen Prozesses wird erst mit der Zeit kommen. Und bei den Desktop-CPUs natürlich zuletzt, weil die die geringsten Anforderungen stellen und weil AMD dort am wenigsten Geld verdient.