PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wieso sind Prozessoren unterschiedlich? ... ->


Silent3sniper
2004-10-27, 13:36:46
Wieso lässt sich die eine CPU auf 2500 mhz, die andere auf 2700 mhz und die nochmal andere nur auf 2300 mhz takten?

Im Prinzip sind alle Prozessoren des gleichen Typ's gleich hergestellt.

---> Jeder Prozessor müsste die exakt gleichen Leistungen liefern.


Das kann man auf jede (im Prinzip) genau gleiche Komponente beziehen.



Wieso ist das so? Das entspricht eigendlich keiner Logik.

... höchstens wenn man behauptet der Hersteller pfuscht, aber da muss mehr dahinter stecken. :rolleyes:


Ist glaub ich ne ganz interessante Frage, die nicht nur mich intereressiert... :)

Super Grobi
2004-10-27, 13:43:50
Das verwendete Material wird nicht immer die exakt gleiche Qualität haben.

SG

Silent3sniper
2004-10-27, 13:46:12
Trotzdem können die Unterschiede nicht so hoch resultieren... :confused:

Coda
2004-10-27, 13:51:38
Doch können sie.

Cyphermaster
2004-10-27, 14:00:37
"Gleich hergestellt" heißt nicht immer identische Ergebnisse. Jeder Prozeß hat so seine kleinen Abweichungen, und die schlagen dann durch (Zieh 10x eine Linie mit einem Lineal und vergleiche es unter dem Mikroskop, dann verstehst du was ich meine!). Bei teils bis zu 90nm-Prozessen heißt das eben "kleine Ursache, große Wirkung". Ein Hotspot minimal stärker ausgeprägt, ein Bereich etwas unscharf dotiert, und der Chip ist grottenlahm, geht auch bei massiver Kühlung kaum über Standardtakt. Zufällig aber einen erwischt, der absolut 100% perfekt gefertigt wurde, und er geht -trotz ursprünglich gleichem Maximaltakt ab Werk- beim OCing auch ohne bessere Kühlung ab wie Zäpfchen...

Dazu werden CPUs oft auch nicht auf ihre maximale physikalische Taktung gelabelt. Wenn z.B. mehr Bedarf an "langsamen", günstigen Chips ist, werden gelegentlich mal Chargen eigentlich schnellerer Chips runtergelabelt, um den Bedarf zu decken (in der Fertigung kosten sie ja alle gleich viel); daher werden Chips auch gelockt und das unlocken erschwert.
Ähnliches ist ja die "Schrottverwertung" von Prozessoren mit Fehlern im Cache oder in Shader-Pipelines (bei GPUs). Defekte Bereiche abklemmen, und den Chip in einem günstigeren Segment vermarkten, statt wegwerfen...

Am Ende kann man dann eben nicht mehr theoretisch sagen, wie schnell eine CPU ist - nur testen.

Bokill
2004-10-27, 14:14:23
@Şilent³şniper

Wenn die Welt nur so einfach wäre ...

Zwei Hauptpunkte ermöglichen unterschiedliche Taktfrequenzen.

1. Die Fertigungstechnik.
Auch wenn die Herstelller sagen sie hätten die Technologie für zB. 0,09µm, so ist sie in den allerwenigsten Fällen identisch. Zum Teil lassen sie sich die Technologischen Fortschritte patentieren (ermöglicht aber auch Einsichten in die Technologie), oder sie breiten bewusst den Schleier des Verschweigens darüber.

So gesehen divergiert die Prozess/Fertigungs-technik immer wieder deutlich untereinander ab.

2. CPU-Design
Auch wenn identische Fertigungstechnik vorliegt, so bedeutet dies ebenso keinesfalls, dass identische Frequenzen herauskommen. Ein hübsches Beispiel liefert intel mit dem Itanium, Pentium4 und PentiumM ab.

Obwohl deren Top-Modelle die moderste und feinste Fertigungstechnik von Intel bekommt, haben die jeweiligen Familien typische Taktmaxima. Der itanium2 hat derzeit mit der 0,09µm Technologie irgendwo die Grenze von knapp 2 GHz. Ist aber bei Gleitkommaberechnungen ein wahres Monstrum, was praktisch alle anderen Designs schlägt. Das zieht aber auch deutlich Strom.

Der PentiumM ist ein sehr geschickt gekonnt aufgebohrter PentiumPro mit der Bustechnologie des Pentium4, der hat mit 0,09µm Technologie die Taktgrenze irgendwo bei 2,5 MHz. Der Dotham hat eine recht zügige Gleitkommaeinheit mit einer sehr starken Integereinheit. Im x86 Markt ist der PentiumM ein sehr ausgewogenes Design ... und auch sparsam im Stromverbrauch.

Der Pentium4 ist von Natur aus auf Takt gezüchtet worden. Flankiert wird das Design von der SSE-Einheit. Mit SSE ist der Pentium4 auch ein leistungsfähiger Gleitkommacrunscher, ohne SSE hingegen eine müde Lachnummer. Der Pentium4 mit dem Prescott hat derzeit weniger ein Taktproblem, der könnte derzeit wohl lockerst über 4 GHz gehen ... aber es entsteht derzeit sehr viel Wärme, da extrem viel Strom benötigt wird.

Generell kann man auch sagen, dass der Start einer neuen Fertigungstechnik immer auch mit schlechteren Taktraten verbunden ist. Im Verlauf der Fertigung bekommen die Hersteller die Fertigung so in den Griff, dass am zeitlichen Ende des Fertigungsprozess häufig "zu viel" gute Prozessoren herauskommen, wie für den Markt benötigt. -> Downlabeln

Gewisse Hintergründe zur Fertigungstechnik findest du auch in der Signatur von mir unter dem Titel mit dem Schlüsselanhänger :D

Nachtrag: Warum mehren sich derzeit so viele "How To`s" in den Foren? Werden derzeit wieder Hausaufgaben verteilt oder Scheine?
Instalation von Prozesoren,Marktübersicht,Geschichte,Zukunft (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=179165) oder auch hier bei dem Schwestermag P3D Zukunft der Prozessorpolitik Intel/AMD (http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=187449)

Wenn daraus Scheine oder benotete Hausaufgeben werden, dann bitte daran denken, dass die Quellen genannt werden sollten, da steckt viel Wissen und Zeit dahinter. Wenn schon so etwas "umsonst" im Netz ist, bedeutet dies noch lange nicht, dass der Erwerb des Wissens dort billig zu haben war. Und wenn schon wörtlich zitiert wird, dann gerne deutlich erkannbar möglichst mit Autorennamen aus dem Forum.

Gloomy, Madkiller, BlackBirdSR und viele andere Forenmember haben da schon so einiges an die Öffentlichkeit getragen ...

MFG Bokill

BlackBirdSR
2004-10-27, 17:34:56
Ähnliches ist ja die "Schrottverwertung" von Prozessoren mit Fehlern im Cache oder in Shader-Pipelines (bei GPUs). Defekte Bereiche abklemmen, und den Chip in einem günstigeren Segment vermarkten, statt wegwerfen...



ist bei CPUs seit Langem nicht mehr üblich.
->redundanz

Coda
2004-10-27, 17:44:54
Werden bei der Redudanz Methode die defekten Bereiche eigentlich weggelasert oder wie verfährt man da?

mrdigital
2004-10-27, 19:12:45
man stell z.b. eine CPU mit 600KB Cache her und schaut dann nach, welche Bereiche funktionieren und deaktiviert diese Bereiche dann, so dass die CPU nacher mit 512KB ausgeliefert wird. Leider istes unmöglich, diese deaktivierten Bereiche wieder zu reaktivieren (denn nicht jede deaktivierte Cacheline ist auch defekt).
Welches Deaktivierungsverfahren verwendet wird weiss ich nicht, aber es stehen da prinzipiell mehrere Techniken zur Verfügung.
In der Regel macht man das elektrisch im Chip, mit einem Verfahren, dass dem von EEProms nicht unähnlich ist. Dabei werden kleine Sicherungen mit einem "zu grossen" Strom durchgebrannt, wodurch eben der gewählte Bereich deaktiviert wird.

OBrian
2004-10-28, 00:36:52
ist bei CPUs seit Langem nicht mehr üblich.
->redundanz
Man versucht das zwar zu vermeiden, weil der Preisdruck bei CPUs noch höher ist als bei GPUs der Topklasse, und man deswegen möglichst wenig Silizium verschenken will; aber z.B. vom Athlon 64 Clawhammer gab es auch die 3000+ zuerst mit deaktivierten 512kB Cache, wohl tatsächlich Resteverwertung, bis der Newcastle soweit war.

Genauso kann ich mir kaum vorstellen, daß Intel komplett z.B. alle Dothans wegwirft, die im Cache nen Fehler haben, die lassen sich ja dann mit der Hälfte immer noch als Celeron-M verkaufen. Soll nicht heißen, daß alle Celeron-M so sind, so viel Verschnitt wird wohl nicht anfallen, aber gewissen Chargen gibt es bestimmt (vielleicht werden die gesammelt und gehen an OEMs oder so).


Mit Redundanz ist aber was anderes gemeint. Dabei verbaut man z.B. 110% der benötigten Transistoren, dann können bis zu 10% kaputt sein und der Chip funktioniert trotzdem noch genauso, wie er soll (vereinfacht ausgedrückt).

Wenn mehr als diese 10% im Eimer sind, kann greift die Methode oben: Dann wird wirklich Funktionalität eingeschränkt, aber statt Straßenschotter hat man wenigstens noch ein Value-Produkt, das noch etwas Geld bringt.

BlackBirdSR
2004-10-28, 07:17:17
Man versucht das zwar zu vermeiden, weil der Preisdruck bei CPUs noch höher ist als bei GPUs der Topklasse, und man deswegen möglichst wenig Silizium verschenken will; aber z.B. vom Athlon 64 Clawhammer gab es auch die 3000+ zuerst mit deaktivierten 512kB Cache, wohl tatsächlich Resteverwertung, bis der Newcastle soweit war.

Genauso kann ich mir kaum vorstellen, daß Intel komplett z.B. alle Dothans wegwirft, die im Cache nen Fehler haben, die lassen sich ja dann mit der Hälfte immer noch als Celeron-M verkaufen. Soll nicht heißen, daß alle Celeron-M so sind, so viel Verschnitt wird wohl nicht anfallen, aber gewissen Chargen gibt es bestimmt (vielleicht werden die gesammelt und gehen an OEMs oder so).


Mit Redundanz ist aber was anderes gemeint. Dabei verbaut man z.B. 110% der benötigten Transistoren, dann können bis zu 10% kaputt sein und der Chip funktioniert trotzdem noch genauso, wie er soll (vereinfacht ausgedrückt).

Wenn mehr als diese 10% im Eimer sind, kann greift die Methode oben: Dann wird wirklich Funktionalität eingeschränkt, aber statt Straßenschotter hat man wenigstens noch ein Value-Produkt, das noch etwas Geld bringt.

So einfach ist das mit Redundanz nicht. Es geht auch nicht um Transistoren, sondern Cachearrays.

Trotzdem werden heutzutage so gut wie keine Caches mehr deaktiviert um CPUs noch zu retten.
Bei den gigantischen Cachemengen heutiger CPUs (Prescott mal ausgenommen) treten Punktdefekte fast immer im Cache auf. Das sind auch nicht gerade viele, sondern 1 oder maximal 2 Fehler.
Diese weren durch redundante Cachearrays leicht abgefangen.
Bei der Programmierung des Caches werden die Fehlerhaften Zellen übersprungen und die redundante dafür programmiert.
Der Chip funktioniert nachher einwandfrei.

Würden mehr Fehler auftreten, so dass Redundanz nicht greifen kann, ist in den meisten Fällen auch der CPU Kern betroffen, und da gibt es keine Heilung mehr. Bei Prescott sowieso. Gegenbeispiel wäre IA-64

Cyphermaster
2004-10-28, 08:54:36
Thx Max - die Details mit der Redundanz-Programmierung waren mir neu. Ich dachte bisher, das wird in Hardware deaktiviert.

GloomY
2004-10-28, 18:40:44
Thx Max - die Details mit der Redundanz-Programmierung waren mir neu. Ich dachte bisher, das wird in Hardware deaktiviert.Das ist auch Hardware, im eigentlichen Sinne. Sehr viele (alle?) Prozessoren besitzen einen programmierbaren Bereich auf dem Chip (Flash-Speicher?). Dort sind einige Dinge gespeichert, wobei man hier Mangels Informationen nur Vermutungen anstellen kann, was sich dort so alles befindet. Wahrscheinlich eben auch die "Einstellungen", welche Cache Lines nun deaktiviert werden und welche nicht.

Einige komplexe x86 Befehle, die nicht in Hardware dekodiert werden (können), werden z.B. auch aus dem Microcode ROM geholt. Prinzipiell kann man das aber auch verändern, nur ist das (glücklicherweise) nirgendwo dokumentiert.
Trotzdem werden heutzutage so gut wie keine Caches mehr deaktiviert um CPUs noch zu retten.Imho sind die meisten P4 Celerons eigentlich Northwood- oder Prescott-Cores, bei denen der defekte L2 Cache teilweise abgeschaltet wird.
Würden mehr Fehler auftreten, so dass Redundanz nicht greifen kann, ist in den meisten Fällen auch der CPU Kern betroffen, und da gibt es keine Heilung mehr.Nur noch mal als Ergänzung: Sobald die Fehler im Logikbereich auftreten, in welchem keine Redundanz vorhanden ist, sind die Fehler fatal und irreparabel. Nur beim Cache - immerhin ein recht großer Anteil an der Die-Fläche - kann man durch Redundanz Fehler im Nachhinein ausbügeln.
Gegenbeispiel wäre IA-64Ist das dort nicht auch nur auf den Cache begrenzt? Immerhin ist der Anteil des Caches an der Gesamt-Die-Fläche bei IA-64 ja beträchtlich höher :)

BlackBirdSR
2004-10-28, 20:51:16
Ist das dort nicht auch nur auf den Cache begrenzt? Immerhin ist der Anteil des Caches an der Gesamt-Die-Fläche bei IA-64 ja beträchtlich höher :)
Stimmt, war auch so gemeint aber wieder mal schlecht ausgedrückt.

aber soweit ich weiss, gibt es für Logikschaltungen in CPUs eigentlich keine Redundanz. Zumindest habe ich davon leider keinerlei Ahnung.

Bei IA64 ist Redundanz natürlich eines der wichtigsten Mittel um die Yields hoch zu halten. Und nachdem der IA64 Kern ja relativ klein ist (ca 20 Millionen Transistoren sollte es sein) kann Redundanz hier auch voll greifen.

Wenn du dir mal einen Prescott ansiehst, dann belegt der Cache hier eine kleinere Fläche als der Kern.
Es fällt also viel schwerer, dort noch CPUs durch Cache-Redundanz zu retten.
Ob es im Logikteil Redundanz gibt bezweifle ich allerdings stark.
Es macht für mich keinen Sinn, einen redundanten ALU Block einzubauen, der alleine schon massenweise Transistoren schluckt. Und egal ob die Struktur Redundant ist oder nicht, sie kostet unglaublich an Aufwand durch Taktsignal und Platz.

Ob einige Celerons nun wirklich defekte Caches haben?
Ich glaubs nicht. Der Cacheanteil ist im Vergleich recht klein.
Man braucht nicht viel Redundanz um den Cache zu retten. Und zumindest bei Prescott ist die Chance höher, den Kern zu treffen.

Eliot
2004-10-31, 07:22:41
ist bei CPUs seit Langem nicht mehr üblich.
->redundanz

Aha, deswegen heißen diese CPUs auch Celeron und Sempron *lol*

Selbstverständlich ist das noch üblich, selbst Xeon MPs verschwinden als Pentium-4s, wenn zuviele Cache-Blöcke defekt sind.
Und deswegen gibt es X800XT PE, X800XT, X800 Pro, X800 SE, 6800 Ultra, 6800GT, 6800, 6800LE.

Die Produktion von CPUs/GPUs kostet viel Zeit und Resourcen, diese einfach zu recylen rentiert sich nicht, deswegen wird immer weiterverwendet, was sich weiterverwenden läßt, um die Ausbeute zu steigern und letztendlich den Profit zu steigern. Zumindest bei ATI, Intel, nVidia funktioniert das sehr gut, AMD muß sich noch anstrengen :-)


Eliot.

BlackBirdSR
2004-10-31, 08:18:50
Aha, deswegen heißen diese CPUs auch Celeron und Sempron *lol*

Selbstverständlich ist das noch üblich, selbst Xeon MPs verschwinden als Pentium-4s, wenn zuviele Cache-Blöcke defekt sind.
Und deswegen gibt es X800XT PE, X800XT, X800 Pro, X800 SE, 6800 Ultra, 6800GT, 6800, 6800LE.

Die Produktion von CPUs/GPUs kostet viel Zeit und Resourcen, diese einfach zu recylen rentiert sich nicht, deswegen wird immer weiterverwendet, was sich weiterverwenden läßt, um die Ausbeute zu steigern und letztendlich den Profit zu steigern. Zumindest bei ATI, Intel, nVidia funktioniert das sehr gut, AMD muß sich noch anstrengen :-)


Eliot.

naja, jetzt stehen 2 Aussagen gegeneinander.
Aber ich bleibe bei meiner :)
Intel nutzt seit dem PentiumPro intensiv Redundanz, AMD seit dem K6-3.
Anders wären heutoge Cachemonster kaum möglich.
Vom Itanium oder Opteron ganz abzusehen.
CPUs und GPUs lassen sich in der Hinsicht meiner Meinung nach auch nicht vergleichen.
Bei GPUs besteht die Möglichkeit den Logikanteil zu deaktivieren (1-3Quads), bei CPUs ist das nicht der Fall.

Durch Cacheredundanz kann man genau das einhalten was du forderst. Die Chips müssen nicht recycled werden, die Yields steigen und damit der Profit.

Überleg nur mal ganz kurz.... für alle 512KB L2 Cache Athlon64 gibt es jetzt einen eigenen Kern.
Wie würde AMD nun ihre 1MB Opteron retten, es gibt ja keinen passenden "Sempron" dazu.
Und bei 1MB L2 Cache treten defekte im Cache sicherlich öfter auf als bei 512KB.

Eliot
2004-10-31, 10:34:05
CPUs und GPUs lassen sich in der Hinsicht meiner Meinung nach auch nicht vergleichen.
Bei GPUs besteht die Möglichkeit den Logikanteil zu deaktivieren (1-3Quads), bei CPUs ist das nicht der Fall.

Durch Cacheredundanz kann man genau das einhalten was du forderst. Die Chips müssen nicht recycled werden, die Yields steigen und damit der Profit.

Überleg nur mal ganz kurz.... für alle 512KB L2 Cache Athlon64 gibt es jetzt einen eigenen Kern.
Wie würde AMD nun ihre 1MB Opteron retten, es gibt ja keinen passenden "Sempron" dazu.
Und bei 1MB L2 Cache treten defekte im Cache sicherlich öfter auf als bei 512KB.

Der Winchester wird derzeit auch nur 512kB gefertigt, was nicht heißt, daß der Ausschuß als Sempron mit deaktiverter 64-bit Logik auf den Markt kommt... soviel zu Deiner "nicht Vergleichbarkeit" :tongue:
Und wenn Optis mit 1MB in 0,09µ gefertigt werden, heißt das auch nicht, daß daraus keine 512kB Athlon 64er werden :rolleyes:

lg,

Eliot.

StefanV
2004-10-31, 10:35:12
Der Winchester wird derzeit auch nur 512kB gefertigt, was nicht heißt, daß der Ausschuß als Sempron mit deaktiverter 64-bit Logik auf den Markt kommt... soviel zu Deiner "nicht Vergleichbarkeit" :tongue:
Und wenn Optis mit 1MB in 0,09µ gefertigt werden, heißt das auch nicht, daß daraus keine 512kB Athlon 64er werden :rolleyes:

lg,

Eliot.
Doch, genau das heißts...

Cache ist recht gut 'packbar', auch kann man mehr CAche als man eigentlich braucht, auf eine CPU packen und das, was kaputt ist einfach deaktivieren...

Eliot
2004-10-31, 10:49:21
Cache ist recht gut 'packbar', auch kann man mehr CAche als man eigentlich braucht, auf eine CPU packen und das, was kaputt ist einfach deaktivieren...

Könnte es heißen, aber solange man die offene DIE nicht sieht, ist das Spekulation... :smile:


Eliot.

BlackBirdSR
2004-10-31, 12:24:58
Könnte es heißen, aber solange man die offene DIE nicht sieht, ist das Spekulation... :smile:


Eliot.

An der offenen DIE sieht man das bestimmt nicht.

Gast
2004-10-31, 16:04:13
was noch eine wichtige rolle spielt:

woher kommt der chip vom wafer ?

chips vom waferrand sind zum grossen teil "schlechter" als von der mitte.

zumindest war das ein problem in unserer firma.
man versucht das aber mithilfe der anlagenhersteller & prozessingenieure in den griff zu bekommen.

nur mal so als einwurf ....

Eliot
2004-11-01, 04:15:50
An der offenen DIE sieht man das bestimmt nicht.

Du weißt schon was ich meine... ;)


Eliot.