Archiv verlassen und diese Seite im Standarddesign anzeigen : Wieso immer mehr Transistoren?
Hi!
Eine Frage die mich bereits seit längerem beschäftigt: Wieso haben die neuen Prozessoren fast immer deutlich mehr Transistoren?
Der DC-Presler hat ca. 376 Mio. Transistoren... dagegen hat ein älterer Northwood gerade mal 55 Mio!
Mal angenommen der NW wäre als DC-Prozessor gefertigt, so käme er trotzdem nur auf ca. 100-120 Mio Transistoren.
Nun hat der Presler deutlich mehr Cache, welcher wohl den größten Unterschied macht, aber wirklich viel Leistung bringt der nicht.
Rein theoretisch gefragt: Wäre ein 65nm-Northwood, so wie es in damals in 130nm gab, nicht einer der sparsamten Prozessoren überhaupt gewesen, hätte man ihn mit heutiger Technologie produziert? Hätte er sich deutlich höher takten lassen, wenn er ein "schlankes" Design gehabt hätte (d.h. nicht unnötige Ballast in Form von mehr Cache und dergleichen)?
Wieviel Strom verbraucht der Cache bei einem Prozessor?
Wieviel Cache wäre bei heutigen Prozessoren sinnvoll? Bis jetzt wurde meist verdoppelt... aber irgendwann müssen die Leistungsgewinne doch mal nachlassen, oder?
Muh-sagt-die-Kuh
2006-01-17, 21:47:17
Man hat nie zuviel Platz zur Verfügung. Eine normale Consumer-CPU belegt in den letzten Jahren eine Fläche zwischen 100 und 200 mm². Mit jeder Strukturverkleinerung gewinnt man Platz, den man in technologische Verbesserungen (Cache, Branch-Prediction, Execution Units,....) investieren kann, die mit dem alten Platz / Transistorbudget nicht möglich gewesen wären. Deine Vorgehensweise ist gleichbedeutend mit technologischem Stillstand und allein deshalb nicht sinnvoll.
Das beantwortet aber noch nicht meine Frage, denn als Stillstand kann man das nun wirklich nicht bezeichnen.
Wenn es diese 65nm-NW-CPU gegeben hätte, gäbe es heute eigentlich kaum einen technischen Unterschied, abgesehen vom fehlenden SSE3 und kleinerem Cache. Nur beide Sachen sind nicht wirklich bedeutend, wenn man den Prozessor stattdessen auf 5+ GHz hätte takten können.
Wo ist nun also der Sinn dieser Maßnahme? Alle reden von der Verlustleistung, aber wieso wird dann nicht einmal verzichtet, den Prozessor mit weiteren Features zu erweitern ("vollzumüllen"), um das Problem in den Griff zu bekommen?
Bokill
2006-01-17, 21:53:21
Eine Frage die mich bereits seit längerem beschäftigt: Wieso haben die neuen Prozessoren fast immer deutlich mehr Transistoren? Weil es dann mit aktuellen Fertigungsmethoden (ökonomisch #2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3888736&postcount=2)) möglich ist.
...
Mal angenommen der NW wäre als DC-Prozessor gefertigt, so käme er trotzdem nur auf ca. 100-120 Mio Transistoren. Vermutlich ja, aber jedes Design hat auch nur in Grenzen erweiterbare Taktgrenzen. Zudem wollte Intel mit dem Prescott sich viele Möglichkeiten offenhalten. Stichwort: NX-Bit, AMD64, Pacifica (um mal mit Absicht die AMD Codenamen der Features zu nennen). Das alles bot der Northwood nicht.
Nun hat der Presler deutlich mehr Cache, welcher wohl den größten Unterschied macht, aber wirklich viel Leistung bringt der nicht. Nein ... das ist wesentlich komplexer.
Bei einem schlichten Schrumpfen wären die Transistoren in nahezu identischer Anordnung gewesen. Aber selbst der Sprung vom Williamette zum Northwood hat deutliche (sogar optisch sichtbare) Ändereungen auf dem Die mit sich gebracht. Das kann man auch vom Northwood zum Prescott sagen. Das zeigt wieviel Manpower und Arbeiststunden aufgewendet wurden.
Rein theoretisch gefragt: Wäre ein 65nm-Northwood, so wie es in damals in 130nm gab, nicht einer der sparsamten Prozessoren überhaupt gewesen, hätte man ihn mit heutiger Technologie produziert? Sicher immer noch nicht der sparsamste, aber sicherlich deutlich sparsamer. Der Pentium M (und nun der Yonah) bedienen sich ja vergleichbarer Fertigungstechnologie ... haben aber deutlich weniger Transistoren (und somit auch weniger "Verbraucher").
Hätte er sich deutlich höher takten lassen, wenn er ein "schlankes" Design gehabt hätte (d.h. nicht unnötige Ballast in Form von mehr Cache und dergleichen)? Vermutlich ja, aber es ging auch darum andere NEUE Features einzuplanen.
Wieviel Strom verbraucht der Cache bei einem Prozessor? Ohne jetzt Papier genau nachzuschauen. 10% vom Stromgesamtbudget wären schon viel (schaltend). Bei dem Schlafmodus könnte sich das Gleichgewicht aber zu ungunsten des Caches verschieben (mehr als 10% Anteil). Darum sind alle Hersteller bemüht auch die Caches schlafen zu legen, oder bei deutlich geringeren Spannungen zu sehr wenig Stromverbrauch zu überreden (besonders niedrige Spannungen für die Cachezellen).
Wieviel Cache wäre bei heutigen Prozessoren sinnvoll? Bis jetzt wurde meist verdoppelt... aber irgendwann müssen die Leistungsgewinne doch mal nachlassen, oder? Das hängt von der Systemplattform und CPU-Design ab. Generell kann man aber sagen, dass der Ertrag immer geringer wird, mit noch mehr Cache [Amdahl`s Law], es sei denn, es wird im Design auch an anderen Engpässen gearbeitet, dann ist noch mehr Cache immer nett.
MFG Bobo(2006)
der sinn der verkleinerung ist es mehr transistoren in den gleichen raum zu bringen.
es ist auch wichtig dass das DIE nicht zu klein wird, sonst wird die übertragungsfläche für den kühler zu klein. größere cpus lassen sich tendenziell leichter kühlen.
ob ein verkleinerter northwood evtl. mit mehr cache und "kleinigkeiten" wie SSE3/EMT64 besser gewesen wäre ist schwer zu sagen.
im nachhinein hätte man warscheinlich mit geringerer verlustleistung die 4GHz erreicht. allerdings war der prescott (mit seinem nachfolger Tejas, der im prinzip nur eine verkleinerte version war) für mehr bestimmt.
er sollte weit über 5 GHz oder sogar 6 erreichen, und das würde ein verkleinerter northwood-core bestimmt nicht schaffen.
der prescott (bzw. presler) würde wahrscheinlich sogar 6GHz+ schaffen, wenn man die verlustleistung wegkühlen kann.
Anorakker@Gast
2006-01-18, 10:32:24
normalerweise sollte ein hersteller auch immer eine mtbf angabe machen (mean time between failure), komischerweise findet man bei z.b. intel nur solche dokumente : http://www.intel.com/support/processors/sb/cs-001666.htm
svenw
2006-01-18, 10:50:22
es ist auch wichtig dass das DIE nicht zu klein wird, sonst wird die übertragungsfläche für den kühler zu klein. größere cpus lassen sich tendenziell leichter kühlen.
Stimmt so nicht. Es kommt auf die heizleistung /mm2 an. tendenziell ist da sogar ein kleiner die besser zu kühlen. Steigt die Heizleistung/Fläche über gewisse Werte, bekommt man ganz üble Probleme mit dem Kühlen unabhängig von der Die Größe. frag da mal die Herren OC, die können dir ein Lied davon singen (und stundenlange Vorträge über die Vor- und Nachteiler bestimmter Kühlungen :tongue: )
BlackBirdSR
2006-01-18, 11:06:46
Ich würde das Thema Northwood auf 90 und 65nm am besten vergessen.
Es mag zwar eine schöne Vorstellung sein, geht aber absolut am Markt vorbei.
Intel brauchte unbedingt neue Features wie 64Bit und mehr Takt (viel mehr)
Also war Prescott schon seit Jahren in der Entwicklung.
Hätte man Prescott wirklich auf den Müll werfen können, für eine CPU mit 4-4.5GHz Takt, ohne 64Bit, fehlenden DRM Features und 1MB L2 Cache?
Prescott ist sicher nicht optimal. Aber er erlaubt mehr Cache, mehr Takt, mehr Features.
Von Northwood abgeleitete Xeons hätten nicht gereicht um dem Opteron entgegenzutreten.
[Und dann könnte Intel Dell verlieren. Das wäre der Weltuntergang ;D ]
Bokill
2006-01-18, 11:31:27
... es ist auch wichtig dass das DIE nicht zu klein wird, sonst wird die übertragungsfläche für den kühler zu klein. größere cpus lassen sich tendenziell leichter kühlen. ... Na ich denke, das ist auch Boundingproblem. Kleine Dies/Diece zwingen zu aufwendigem Bounding (Verdrahtung des Dies mit dem Chipträger).
Da hat sich die übliche Grösse zwischen 200 mm² und 80 mm² als das ökonomisch sinnvoll erwiesen. Ein schlechtes Bounding/Routing kann auch die Zuverlässigkeit und Taktfrequenz beeinflussen.
MFG Bobo(2006)
elianda
2006-01-18, 11:44:28
Es gibt einen Anwendungsfall, bei dem Prozessoren mit vielen Transistoren (im Zusammenhang mit Features) problematisch sind. Bei Hochverfuegbarkeitssystemen wo die Frage steht, wieviel Fehler hat ein entsprechender Chip noch?
Bei vielen Transistoren sind die Moeglichkeiten in welchen Zustand sich der Chip gerade befindet wesentlich mehr, als beispielsweise bei einer RISC CPU mit einem kleinem Befehlssatz.
Angenommen, man moechte eine solche CPU vor dem Einsatz extensiv auf Fehler testen, dann wuerde das bei einer komplexen CPU extrem viel laenger dauern als bei einer Einfachen.
BlackBirdSR
2006-01-18, 11:48:42
Es gibt einen Anwendungsfall, bei dem Prozessoren mit vielen Transistoren (im Zusammenhang mit Features) problematisch sind. Bei Hochverfuegbarkeitssystemen wo die Frage steht, wieviel Fehler hat ein entsprechender Chip noch?
Bei vielen Transistoren sind die Moeglichkeiten in welchen Zustand sich der Chip gerade befindet wesentlich mehr, als beispielsweise bei einer RISC CPU mit einem kleinem Befehlssatz.
Angenommen, man moechte eine solche CPU vor dem Einsatz extensiv auf Fehler testen, dann wuerde das bei einer komplexen CPU extrem viel laenger dauern als bei einer Einfachen.
Systeme die extrem hohe Verfügbarkeit aufweisen müssen, haben spezielle Systeme und technologien dafür integriert.
Besonders bei IBM. Das passiert allerdings zur Laufzeit.
Ob die CPU jetzt mehr oder weniger komplex ist, spielt da eigentlich keine größere Rolle in der Zeitdauer für solche Tests.
Die Sache mit den RISC-CPUs möchte ich so allerdings nicht stehen lassen.
Es gibt eigentlich keine richtigen RISC-CPUs mit kleinem Befehlssatz mehr (mit großem Absatz).
Schon gar nicht mit wenigen Transistoren.
Die letzten namentlichen gewichtigen RISC Vertreter hören auf Namen wie PowerPC, SPARC und PA-RISC.
Und das sind alles Andere als kleine, einfache RISC CPUs mit wenig Komplexität.
reunion
2006-01-18, 12:16:50
Ich würde das Thema Northwood auf 90 und 65nm am besten vergessen.
Es mag zwar eine schöne Vorstellung sein, geht aber absolut am Markt vorbei.
Inwiefern?
Intel brauchte unbedingt neue Features wie 64Bit und mehr Takt (viel mehr)
Northwood erreichte mit 130nm 3.2Ghz.
Die 3.8 Ghz des Prescott wären mit Sicherheit in 90nm auch drin gewesen - und das billiger, sparsamer, und schneller.
Und 64bit hätte man genauso in Northwood integrieren können.
Hätte man Prescott wirklich auf den Müll werfen können, für eine CPU mit 4-4.5GHz Takt, ohne 64Bit, fehlenden DRM Features und 1MB L2 Cache?
Warum kann man bei Nortwood keine Features einbauen, oder den Cache vergrößern?
Von Northwood abgeleitete Xeons hätten nicht gereicht um dem Opteron entgegenzutreten.
Die heutigen Xenos reichen genausowenig.
Demirug
2006-01-18, 12:21:16
BlackBirdSR & elianda:
Ab wann beginnt bei euch hohe Verfügbarkeit?
BlackBirdSR
2006-01-18, 12:29:43
Northwood erreichte mit 130nm 3.2Ghz.
Die 3.8 Ghz des Prescott wären mit Sicherheit in 90nm auch drin gewesen - und das billiger, sparsamer, und schneller.
Natürich wäre das möglich gewesen. Nur wie?
Ohne 64Bit, wieviel Cache? mit NoExecution-Bit?, mit DRM?
Ob diese dann auch schneller wären, würde ich nicht behaupten wollen -> siehe weiter unten.
Und 64bit hätte man genauso in Northwood integrieren können.
Alle nötigen Daten und Adresspfade verbreitern, die ALUs neu konstruieren oder zumindest ihre Arbeitsweise modifizieren, die Register verbreitern und alle sonst noch nötigen Schritte, häte man nicht genau so einfach in Northwood integrieren können.
Sonst hätte man es auch mit dem PentiumM machen können.
Es geht nicht so einfach. Und schon gar nicht mit einem Design, das nie dafür ausgelegt war.
Warum kann man bei Nortwood keine Features einbauen, oder den Cache vergrößern?
Nortwood ist ein Design aus den Jahren um 1997-2000. Er war nicht für so etwas ausgelegt. Folglich wäre es ungemein schwerer diese Features einzubauen, als es aussehen mag. Für größeren Cache hätte man eventuell die Latenzen steigern müssen, wodurch viel Performance verloren gehen kann. Und die wird bei Northwood dann nicht durch neue Features abgefangen.
Du musst dir vor Augen halten, dass Prescott bereits mit dem Release von Willimatte in die Entwicklung ging.
Prescott war schon damals dazu gedacht, den Pentium4 zu beerben. Und das mit neuen Features, größeren Caches und höherem Takt.
Niemand dachte damals daran, den Northwood weiter zu führen. Und ich denke niemand dachte wirklich daran, den fertigen Prescott gegen Northwood@90nm einzutauschen. Weil es leistungs- und konkurenztechnisch negative Auswirkungen gehabt hätte.
Oder glaubst du, Intel hätte sonst gezögert, so etwas wie Presler mit 2 Northwood Kernen @65nm auszustatten?
Die heutigen Xenos reichen genausowenig.
spielt doch für die Frage ob NW oder Prescott keine Rolle, ob AMD besser dagegen halten konnte, als Intel damals dachte.
BlackBirdSR
2006-01-18, 12:39:39
BlackBirdSR & elianda:
Ab wann beginnt bei euch hohe Verfügbarkeit?
ich beziehe mich da auf dieses und Ähnliches.
http://www.research.ibm.com/journal/rd/435/spainhower.html
Demirug
2006-01-18, 12:48:35
ich beziehe mich da auf dieses und Ähnliches.
http://www.research.ibm.com/journal/rd/435/spainhower.html
Das fällt allerdings in dem Bereich der Fehler sicheren Systeme was wiederum eine andere Welt ist.
Für hochverfügbare Systeme reichen nämlich ganz normale x86 CPUs aus.
BlackBirdSR
2006-01-18, 12:51:37
Das fällt allerdings in dem Bereich der Fehler sicheren Systeme was wiederum eine andere Welt ist.
Für hochverfügbare Systeme reichen nämlich ganz normale x86 CPUs aus.
Deswegen auch "extrem hohe" was wohl nicht geschickt ausgedrückt war.
Wäre auch schlimm, wenn normale x86 CPUs so fehleranfällig wären.
Deshalb konzentriert sich der Großteil an Fehlerkorrektur und Sicherheitsmechanismen bei Opteron und Xeon auch auf das Speichersystem. Ob nun Cache oder DRAM.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.