PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stecken AMD und Intel momentan wirklich in Mhz-Sackgasse?


Kladderadatsch
2006-01-19, 17:37:27
grund für den thread ist folgender satz der aktuellen c't seite 77:

Intel und AMD propagieren den wechsel zur parallelisierbaren Programmierung schon länger, weil beide nicht in der Lage sind, die Taktraten ihrer Prozessoren weiter zu erhöhen.

wie ist das zu verstehen? ich dachte bisher, silizium schafft strukturmäßig immerhin 12 ghz, wovon wir ja heute nur träumen.
oder führt da die 90nm-fertigung schon ans ende der fahnenstange? aber warum ließ sich nicht mehr aus den 90nm-cpus herausholen, wo doch schon die 110nm-vorgänger kaum geringeres potential hatten?

Gast
2006-01-19, 17:41:29
Ich denke nicht, das die Taktraten das Problem sind (4,5 GHz erreicht der Presler ohne größere Probleme), jedoch ist die Verlustleistung dann viel zu hoch.

Intels Zielsetzung war, das haben sie mal öffentlich gesagt, keine CPUs über 150W (?) zu bauen.

Alles darüber ist nur mit aufwendigen (=teuren) Kühlungen sinnvoll, was vorallem im Massenmarkt kaum angenommen worden wäre.

BlackBirdSR
2006-01-19, 17:47:39
grund für den thread ist folgender satz der aktuellen c't seite 77:

Intel und AMD propagieren den wechsel zur parallelisierbaren Programmierung schon länger, weil beide nicht in der Lage sind, die Taktraten ihrer Prozessoren weiter zu erhöhen.

wie ist das zu verstehen? ich dachte bisher, silizium schafft strukturmäßig immerhin 12 ghz, wovon wir ja heute nur träumen.
oder führt da die 90nm-fertigung schon ans ende der fahnenstange? aber warum ließ sich nicht mehr aus den 90nm-cpus herausholen, wo doch schon die 110nm-vorgänger kaum geringeres potential hatten?

Möglich ist es schon die CPUs höher zu takten.
Immerhin erreichen Teile innerhalb des Pentium-4 ja auch 9 GHz und mehr, wenn die CPU auf über 4.5GHz übertaktet wird.
Allerdings ist der Aufwand extrem, um das für noch mehr Teile der CPU zu erreichen. Die Verlustleistung steigt auch extrem an.
Und mal ehrlich: Was bringt dir eine 6+ GHz CPU? Knapp eine Verdoppelung der Leistung heutiger CPUs.
Mit Dual und Quad-Core kann man das auch erreichen, und schiebt die Verantwortung dabei auf die Programmierer ab, während man die eigene Fertigung und Konzeption erleichtert.

Kladderadatsch
2006-01-19, 17:52:43
Und mal ehrlich: Was bringt dir eine 6+ GHz CPU? Knapp eine Verdoppelung der Leistung heutiger CPUs.
Mit Dual und Quad-Core kann man das auch erreichen, und schiebt die Verantwortung dabei auf die Programmierer ab, während man die eigene Fertigung und Konzeption erleichtert.
naja, solange dual- und quadcore-prozessoren doch noch eher zu den exoten gehören, lassen sich die firmen das auch entsprechend bezahlen. für zwei cpus mehr zu bezahlen, als für eine gleichstarke, klingt auch noch schön nachvollziehbar...

Gastel
2006-01-19, 19:24:50
Und mal ehrlich: Was bringt dir eine 6+ GHz CPU? Knapp eine Verdoppelung der Leistung heutiger CPUs.
Mit Dual und Quad-Core kann man das auch erreichen, und schiebt die Verantwortung dabei auf die Programmierer ab, während man die eigene Fertigung und Konzeption erleichtert.
Nun, 6+ GHz CPUs würden nicht die doppelte Fläche in Anspruch nehmen und wären damit billiger herzustellen als Dual Core CPUs. Single Cores mit deutlich höheren Taktfrequenzen wären zunächst weiterhin im Rennen, wenn auch mittel-/bis langfristig sich CPUs mit mehreren Kernen durchsetzen werden, weil leider kaum höhrere Parallelität bei der Verarbeitung in Single Cores erreichbar ist.

Bokill
2006-01-19, 19:34:02
Je höher der Takt desto grösser die Probleme. Da sowieso immer noch auf Strukturverkleinerung Wert gelegt wird, kann man statt Unmengen Cache auch mal wieder echte Schaltlogik auf die Diefläche stopfen.

Sicher kann der Takt angezogen werden, aber der hohe Strombedarf, die (vermutlich) höhere Streuung des Speedbinnings bei hohen Taktraten, lassen besonders hohe Taktraten nicht als Verkaufsargumant und Marketingziel erstrebenswert erscheinen.

Krise würde ich das nicht nennen, eher Paradigmenwechsel ...

MFG Bobo(2006)

Kladderadatsch
2006-01-19, 19:39:20
ich denke, da entwickelt ibm zusammen mit einer anderen namhaften firma, deren name mir gerade nicht einfällt, an etwas neuem. ich erinnere mich da an einen pm-artikel von 2003 oder 2004...
dort wurde auch das maximum der silizium-cpus von 12 ghz genannt- die neu entwickelten prozessoren von (wenigen) nm strukturgröße sollen erst bei hunderten von millionen mhz (im artikel wurde eine genauere zahl genannt;)) ihr natürliches ende finden...
prototypen soll es übrigens bereits gegeben haben:confused:

Gast
2006-01-19, 19:56:38
Da sowieso immer noch auf Strukturverkleinerung Wert gelegt wird, kann man statt Unmengen Cache auch mal wieder echte Schaltlogik auf die Diefläche stopfen.



naja, gerade die schaltlogik wird ja im augenblick eher reduziert:
prescott ~80Mill non-cache-transistoren vs. yonah mit ~11Mill/core
da hat man selbst mit dual oder gar quad-core noch deutlich weniger logiktransistoren als früher.

Bokill
2006-01-19, 20:17:03
naja, gerade die schaltlogik wird ja im augenblick eher reduziert:
prescott ~80Mill non-cache-transistoren vs. yonah mit ~11Mill/core
da hat man selbst mit dual oder gar quad-core noch deutlich weniger logiktransistoren als früher. Das ist ein unfairer Vergleich.

Wenn schon Vergleichen, dann bitte in der Familie bleiben -> PentiumPro -> Pentium 2 -> Pentium 3 -> Pentium M -> Core (Solo/Duo).

Bei einem bunten Mischmasch PentiumPro -> K5 -> Pentium 3 -> Itanium 1 -> Cell kommen da doch irgendwie schräge Vergleiche hin, jedenfalls tut das dieser Diskussion hier nicht gut.

Pro Familie gesehen sieht man ebenso ein beständiges Wachstum (bis auf ganz wenige Ausnahmen).

svenw
2006-01-20, 09:31:13
Mit Dual und Quad-Core kann man das auch erreichen, und schiebt die Verantwortung dabei auf die Programmierer ab, während man die eigene Fertigung und Konzeption erleichtert.
Ich sehe eh nicht wo die wirklich großen Probleme in der Parralelisierung liegen sollen. Die sAchen die die CPU richtig fordern sind heftigst parralelisierbar. Entweder sind sie vom Typ "Bild/Video" wo man ohne Probleme an x Stellen zugleich arbeiten kann oder sie sind vom Typ "Spiel" das man recht gut auftrennen kann. Ein Spiel besteht doch aus x verschidenen Komponenten die man auf verschiedene Cores aufteilen kann: Versorgung der Graka mit Geometriedaten, Physik, Gegnerinteligenz (pro gegner ein Thread), Sound etc. Wenn man ein Spiel wirklich darauf auslegt sollte man genügend Threads haben um mindestens 8 Kerne ohne Probleme mit Arbeit zu versorgen. Bisher hat es nur keiner gemacht, da solche eine Aufteilung nicht wirklich viel gebracht hätte da es eh nur 1 CPU gab.

Daneben gibt es dann auch noch etliche andere Jobs die Multicore Prozessoren gut auslasten kann (Softwareraid, etliche "Nebenprogramme" etc.).

Natürlich gibt es einzelne Jobs die man kaum parralelisieren kann (Gegner KI z.B.) aber es gibt genügend von diesen nicht parralelisierbaren Jobs die man sehr wohl parralel ablaufen lassen kann sozusagen "ein Core pro Gegner".

BlackBirdSR
2006-01-20, 10:04:42
Das ist ein unfairer Vergleich.

Wenn schon Vergleichen, dann bitte in der Familie bleiben -> PentiumPro -> Pentium 2 -> Pentium 3 -> Pentium M -> Core (Solo/Duo).

Bei einem bunten Mischmasch PentiumPro -> K5 -> Pentium 3 -> Itanium 1 -> Cell kommen da doch irgendwie schräge Vergleiche hin, jedenfalls tut das dieser Diskussion hier nicht gut.

Pro Familie gesehen sieht man ebenso ein beständiges Wachstum (bis auf ganz wenige Ausnahmen).

Vielleicht gibt es sogar einen Trend zu weniger Logiktransistoren.
Siehe IA-64, Niagara oder Cell und XBox360 MPUs

SKYNET
2006-01-20, 11:12:00
ich denke AMD könnte - wenn sie wollen - sofort 4GHz A64smit dualcore raushauen... allerdings wären sie dann verlustleistungstechnisch weit über 100W, und zumal gibt es kein grund für AMD sowas zu machen, aus dem intellager ist eh nix was auch nur annähernd an AMD rankommt, also who cares?!

Muh-sagt-die-Kuh
2006-01-20, 11:19:36
ich denke AMD könnte - wenn sie wollen - sofort 4GHz A64smit dualcore raushauen... allerdings wären sie dann verlustleistungstechnisch weit über 100W, und zumal gibt es kein grund für AMD sowas zu machen, aus dem intellager ist eh nix was auch nur annähernd an AMD rankommt, also who cares?!Wieder mal ein sehr sinnvoller Beitrag von deiner Seite....so langsam wissen wird alle, dass intel komplett unfähig und AMD die Über-Firma ist :|

Bandit666 @Work
2006-01-20, 11:36:34
Das Ganze ist keine Frage der technischen Machbarkeit mit deren Fertigungsverfahren oder der Siliziumqualität, sondern nur eine reine Umsatz/Gewinnfrage.

Wenn ich durch nomale Entwicklung immer ein Stück besser wie mein grösster Konkurrent bin, warum sollte ich dann enorme Summen ausgeben um noch weiter vorn zu liegen?

Es reicht immer nur ein Stück besser zu sein. Der Kunde kauft eh immer das schnellste.
Eine Sprung auf 4Ghz ist technisch möglich und wäre auch in Sachen Abwärme noch weit im Rahmen.
Aber wozu? Dadurch würde mein Komkurrent eh nur in mein Karten schauen können. Er sieht dann was ich alles kann und schaut sich mein Produkt sehr genau an. In diesem Moment würde ich ihm sogar helfen.

Immer nur soviel wie Nötig, und so wenig wie möglich!


mfg

Bokill
2006-01-20, 11:58:44
Vielleicht gibt es sogar einen Trend zu weniger Logiktransistoren.
Siehe IA-64, Niagara oder Cell und XBox360 MPUs Hmmm ... sehe ich nicht wirklich.

Wenn man den Logikaufwand der reinen CPU betrachtet:
Itanium <-> Pentium 4
Niagara (pro Kern) <-> SPARCIII
Cell (pro Kern) <-> Power 5/PPC 970
XBox 360 CPU (pro Kern) <-> Power 5/PPC 970

Dann mag das ja stimmen. Aber ...

Es werden nicht Rechenkerne gebacken, sondern CPUs. Die mithin eben auf Cache (Itanium) in einer Mindestgrösse angewiesen sind, oder aber auf 8 Kerne minus 7 Gleitkommaeinheiten (Niagara), 8+1 Kern (Cell), oder eben 3 Kerne benötigen, um in die von ihnen erwarteten Leistungsbereich zu kommen.

Aber man kann den Trend zur "Vereinfachung" pro Kern ruhig in die Diskussion werfen. Gut möglich, dass sich so etwas wie eine (Glaubensspaltung)Spaltung der CPUs auftut:

Viele Simpelkerne vs weniger Komplexe Kerne vs billige kostengünstige Vernetzungsfähigkeit (RapidIO, HyperTransport, PCI-Express) vs Integration [System on Chip (SoC)].

MFG Bobo(2006)

BlackBirdSR
2006-01-20, 12:01:06
Dann mag das ja stimmen. Aber ...

Es werden nicht Rechenkerne gebacken, sondern CPUs. Die mithin eben auf Cache (Itanium) in einer Mindestgrösse angewiesen sind, oder aber auf 8 Kerne minus 7 Gleitkommaeinheiten (Niagara), 8+1 Kern (Cell), oder eben 3 Kerne benötigen, um in die von ihnen erwarteten Leistungsbereich zu kommen.



Wichtig für Design, Takt und Leistung sind aber genau diese einzelnen Kerne.
Ob eine CPU mit 8 Kernen mehr Transistoren hat als eine komplexere mit 2 kernen, ist da eigentlich nicht so wichtig.

Omega2
2006-01-20, 12:06:38
Wenn ich mir die Übertaktungserfolge anschaue, die mit AMD CPUs erreicht werden, zweifle ich doch stark and der 4GHz Theorie ;).

Ich denke AMD ist im 90nm Prozess auch am Anschlag was den Takt angeht. Die 65nm sind noch nicht da und soweit ich das als Laie beurteilen kann, wird der Sprung auch da nicht so gewaltig sein.

Die Theorie, daß beide Hersteller aufgrund der Verlustleistung an eine Grenze kommen, scheint mir schon schlüssig.

Dual- und Multicore Prozessoren werden in Zukunft imho den Markt dominieren, da man relativ einfach die Leistung durch zusätzliche Cores erhöhen kann. Zumindest dann, wenn die Softwareindustrie auf den Zug aufspringt und entsprechend geeignet programmiert.

Kleinere Strukturen werden dann die Verlustleistung und Herstellungspreise reduzieren helfen und damit auch mehr als 2 cores zu interessanten Preisen ermöglichen.

Aus meine laienhaften Sicht heraus dürfte auch der Entwicklungsaufwand deutlich niedriger sein, wenn man "nur" mehrere Kerne zusammenpappt und nicht ein komplett neues CPU Design entwirft.

Solange also nicht einer der beiden Großen irgendeinen revolutionären Prozessor entwirft, der in Bezug auf Leistung/pro MHz der Konkurrenz davonläuft, wird es wohl erstmal eine Entwicklung in Richtung mehr parallelität geben.

Alles nur imho natürlich ;).

Gruß

Omega

Bokill
2006-01-20, 12:16:36
Wichtig für Design, Takt und Leistung sind aber genau diese einzelnen Kerne.
Ob eine CPU mit 8 Kernen mehr Transistoren hat als eine komplexere mit 2 kernen, ist da eigentlich nicht so wichtig. Zum Design gehört aber auch der Cache und andere "Nebensächlichkeiten" wie die IO-Ports. Ein Itanium kann nicht aufblühen, wenn man als CPU Bus PCI mit 33 MHz und Cache mit 1KB, 8KB L2 Cache bestückt (um es mal extrem auf die Spitze zu treiben).

Aber ich gebe dir Recht, dass vermutlich abgewogen wird zwischen einem Dicken Design, oder einem Schlanken Design mit vielen Kernen. So scheint jedenfalls derzeit der Trend seit einigen Jahren. Dicke Designs werden aber nach wie vor eingeplant (Power6, Ultra SPARC IV, VI, K9?).

MFG Bobo(2006)

RLZ
2006-01-20, 12:42:16
Wie kann man sich eigentlich die AMD geplante Anbindung anderer Prozessoren durch HT vorstellen?
Kommt auf die Boards ein 2. Sockel oder neue Slots und HT wird dabei als PCI-Express-Ersatz eingesetzt?
Einerseits wäre es ganz nett an eine ordentlich GP-CPU einen Prozessor mit SPE ähnlichen Kernen dranzuhängen.
Aber andererseits seh ich schon nervige CPU-Wechsel auf uns zukommen. Fürs Encoding einen Streamingprozessor einbauen. Danach fürs Spielen einen KI-Prozessor. Später wollen wir etwas Arbeiten und wechseln wieder auf den Javaprozessor.
Müssen wir uns an die Meldung "Bauen sie jetzt bitten den Prozessor xy ein" gewöhnen? ;)

Für Server sind solche Spezialprozessoren aber bestimmt sehr interessant.

danger!
2006-01-20, 12:46:04
Naja, also ich halte 4GHz bei AMD auch für vollkommen übertrieben, man muß ja nur mal schauen, was die z.B. schnellsten Opterons oder FXen z.Zt. hergeben. Da ist bei ca. 3,0GHz mit Lukü und 3,2GHz mit Wakü Ende Gelände für mehr braucht man schon ne Kokü und selbst mit der sind die 4GHz nicht zu erreichen, da müßte dann schon Flüssigstickstoff o.ä. her.

Ich denke also auch, daß der Trend eindeutig Richtung Parallelität geht, eigentlich seit einiger Zeit schon. RAID0 und Dualchannel-Ram gibt es jetzt schon etliche Jahre, SLI/Crossfire seit ca. einem Jahr (bzw. sogar viel länger wenn man die Voodoos auch zählt) und nun eben die Dualcores.
Ich vermute mal, daß die Singlecores in Zukunft nur noch als low-end billig-CPU´s herhalten werden (Sempron/Celeron) und irgendwann sogar ganz aussterben.

Lilebror
2006-01-20, 12:55:14
Ich denke wohl kaum das die Anweisung, bauen sie bitte den Prozessor XY ein auf uns zu kommen werden.
Der kunde bzw. die breite Masse würde so etwas nicht in kauf nehmen.
Was die machbrarkeit einer Singlecore CPU angeht die wiet über den Takatraten der heutigen liegt ist dies durchaus möglich, zwar imo nicht für den "kleinen" man erhältlich, aber dennoch möglich.

Ich kann leider keine 100% angaben machen, jedoch habe ich von einer Entwicklung gehört, eines Licht-Prozessors, der nicht mehr mit Spannung arbeit und mit Transistoren sonder alleine durch umlenkung von Licht Daten berechnen kann, laut dem Artikel den ich gelesen habe, sollen diese Dinger ein Vielfaches der Rechenleistung erreichen als die uns bis jetzt bekannten CPU's.

Bei AMD und Intel liegt es aber ,glaube ich, eindeutig daran das der AUfwand eine CPU mit 4GHz und mehr zu kühlen einfach viel zu groß ist man siehe die ganzen Overclocker.
Es stimmt ganz einfach das Verhälntis zwischen Aufwand und Rechenleistung nicht, für die Frimen einfach zu teuer, bei einer noch feineren Fertigung könnten AMD sowie Intel warscheinlich jede 2. CPU die sie produzieren direkt aussortieren , weil diese die Hohen taktraten nicht mit machen. Ganz im gegensatz zu dem Fall das sie einfach die bis jetzt vorhandenen und bewährten Kerne "einfach" zwei mal in ein Gehäuse stopfen.

svenw
2006-01-20, 12:56:45
Solange also nicht einer der beiden Großen irgendeinen revolutionären Prozessor entwirft, der in Bezug auf Leistung/pro MHz der Konkurrenz davonläuft, wird es wohl erstmal eine Entwicklung in Richtung mehr parallelität geben.

Da liegt das Problem! Wir haben die X86 Struktur (egal wie weit aufgebohrt) und das "passende" BS aka Windows. Ein neuer Prozessor, selbst wenn er bei halben Stromverbrauch 10 fache Rechenleistung liefern könnte ist heutzutage ohne Windowsunterstützung zum scheitern verurteilt! Traurig aber wahr! Man schaue sich nur mal das Gewürge um Windows 64 an. Wie lange hat das gedauert, Treiber sind teilweise Mangelware etc.

Eine neue Architektur wird es nur auf eine art geben: Intel, AMD, IBM etc und MS setzen sich an einen Tisch knobeln das Ding aus und in 3-4 Jahren kommt es. MAchen wir uns nichts vor, eine neue Architektur bastelt man nicht übers Wochenende und ohne die entsprechenden Compiler läuft gar nichts. Entwicklung für die Architektur kann auch erst beginnen wenn die TReiber stehen etc. undsoweiter blablabla. Die einzige Lösung aus dem system wären virtualisierungslösungen ala XEN die das BS von der Hardware abkoppeln.

Bokill
2006-01-20, 12:57:49
Wie kann man sich eigentlich die AMD geplante Anbindung anderer Prozessoren durch HT vorstellen? Kannst du doch schon jetzt? ???

Kommt auf die Boards ein 2. Sockel oder neue Slots und HT wird dabei als PCI-Express-Ersatz eingesetzt? Schon jetzt kann man Mainboards mit 8 Opterons "glueless" miteinander verbinden.

Was andere Chips angeht, so kann man jetzt schon bestimmte MIPS CPUs, FPGAs, Netzwerkchips, etc. einbinden. HyperTransport ist von Anafng an nicht nur ein weiterer "neuer CPU.Bus" gewesen, sondern ein Chip-Chip Zwischenverbindung. Seit HTX gibt es sogar eine Steckernorm (für Karten) dafür.

Einerseits wäre es ganz nett an eine ordentlich GP-CPU einen Prozessor mit SPE ähnlichen Kernen dranzuhängen.
Aber andererseits seh ich schon nervige CPU-Wechsel auf uns zukommen. Fürs Encoding einen Streamingprozessor einbauen. Danach fürs Spielen einen KI-Prozessor. Später wollen wir etwas Arbeiten und wechseln wieder auf den Javaprozessor. Solange es als Steckkarte gemacht wird, führt an PCI-Express kaum ein Weg vorbei. ...

MFG Bobo(2006)

BlackBirdSR
2006-01-20, 13:03:23
Eine neue Architektur wird es nur auf eine art geben: Intel, AMD, IBM etc und MS setzen sich an einen Tisch knobeln das Ding aus und in 3-4 Jahren kommt es. MAchen wir uns nichts vor, eine neue Architektur bastelt man nicht übers Wochenende und ohne die entsprechenden Compiler läuft gar nichts. Entwicklung für die Architektur kann auch erst beginnen wenn die TReiber stehen etc. undsoweiter blablabla. Die einzige Lösung aus dem system wären virtualisierungslösungen ala XEN die das BS von der Hardware abkoppeln.

Ich glaube nicht, dass sich AMD,Intel und schon gar nicht IBM zusammensetzen, um eine gemeinsame neue Familie zu entwickeln.
Immerhin hat IBM mit PowerPC ja sogar schon eine Architektur.

Ich denke der Übergang wird schleichend und weniger dramatisch verlaufen.
Mit AMD64 hat man ja das beste Beispiel.
Das wird nun schön langsam erweitert, während Teile des ursprünglichen Erbes von x86 langsam verschwinden.

RLZ
2006-01-20, 13:06:15
Kannst du doch schon jetzt? ???
Ist mir ja alles bekannt. Aber bis jetzt wurde hier ja noch nicht viel konkret realisiert.
Ich zitier mal den lieben Phil Hester:
We want to make it easier for people to attach a coprocessor to the coherent HyperTransport link. The options might include Java, XML, vector floating-point units or any attached processor that needs very high bandwidth and that also needs to deal with coherency. There are some problems with it.
Für mich hört sich dies so an als ob AMD hier mehr als die theoretische Möglichkeit will. Vielleicht sogar eigene Coprozessoren?

IBM ist ja im HT-Consortium und hat Kooperationsverträge mit AMD. Warum nicht einen Die voll SPEs klatschen und AMD als Coprozessor zur Verfügung stellen? Ok wären ein paar grössere Änderungen notwendig, aber träumen darf man ja mal. ;)

Lilebror
2006-01-20, 13:25:01
Ich könnte mir durchausvorstellen, das sich an der Rechenleistung noch einiges tut, wenn Software entwickler mal langsam auf die ihnen bereitgestellten Züge aufspringen.
-Tatsache ist, wir haben mitlerweile von AMD und Intel Prozessoren die 64Bit unterstützen.
-Tatsache ist ausserdem ,das es von beiden Herstelltern mitlerweile CPU's gibt welche 2 Cores besitzen (Dual-Core)

Beide Tatsachen bringen Leistungssteigerungen mit sich, sowohl 64Bit als auch Dualcore, diese beiden Techniken mit einander verbunden, was aber nur über die Nötige Software von Statten gehen kann ,bringt ein großes Plus an Leistung die uns in der Technik was Spiele und andere Programme angeht eine ganze Ecke weiter bringen!

Natürlich neue Leistungsorientiertere Architekturen könnten jede menge bringen, betont werden muss hier das KÖNNTE, man kann nunmal nicht so einfach die "alte" Technik über den haufen werfen. Mit sicherheit würde auch ein angepasstes Betriebssystem in Verbindung mit einer neuen PC oder sagen wir CPU architektur viel leistung bringen.
Aber warum denn nicht erstmal das nehmen was uns schon heute gegeben ist ! Alleine schon die erweiterung von Dual auf 4Kern CPU's würde dann eine ganze Menge an Leistungszuwachs bringen.
Gepaart mit immer feinerwerdenden Fertigunsprozessen zb. von 90nm auf 65nm und einer Steigerung der Taktraten, welche dann warscheinlich möglich wären, würde sich alleine schon da viel tun!

Coda
2006-01-20, 13:55:37
64 Bit bringt (bis auf Spezialanwendungen mit großen Zahlen) keine zusätzliche Rechenleistung (wenn dann 5-10% durch die zusätzlichen Register) und Multithreading ist kaum allen zuzumuten.

Coda
2006-01-20, 14:01:02
Seid nicht so kleinlich, ich habs ja schon präventiv editiert.

Wieviel Apps bringt das was? 0,0001%?

Bokill
2006-01-20, 14:38:20
... Für mich hört sich dies so an als ob AMD hier mehr als die theoretische Möglichkeit will. Vielleicht sogar eigene Coprozessoren? Nun wenn es um Kohärentes HyperTransport für die AMD Plattform geht, da sucht sich AMD wohl die Partner passend raus. Der Horus gehört dann zu dieser Klasse der "Coprozessoren".
Mit dem Horus gewinnt AMD einen Vernetzungsgrad, der bislang nur mit den Alphas EV-7 möglich war [aber die brauchten keinen Horus dafür].

IBM ist ja im HT-Consortium und hat Kooperationsverträge mit AMD. Warum nicht einen Die voll SPEs klatschen und AMD als Coprozessor zur Verfügung stellen? Ok wären ein paar grössere Änderungen notwendig, aber träumen darf man ja mal. ;) Sehr extrem ... dafür promotet IBM auch noch andere IO-Normen. Die haben ebenso RapidIO, wie auch Flex IO von Rambus ... neben PCI-Express und und und ...

Daneben gibt es aber einen angedachten Einsatz für den Clearspeed 600 in Superrechnern von Cray auf Basis der K8 Infrastruktur. Wozu 8 Dödel SPEs pro Cell, wenn ein Clearspeed mehr als 90 vectorartige parallel laufende Einheiten pro Die hat?

Freundschaft hin oder her, IBM hat auch eigene Interessen und tritt auch als Konkurrent zu AMD auf.

MFG Bobo(2006)

RLZ
2006-01-20, 15:05:09
Daneben gibt es aber einen angedachten Einsatz für den Clearspeed 600 in Superrechnern von Cray auf Basis der K8 Infrastruktur. Wozu 8 Dödel SPEs pro Cell, wenn ein Clearspeed mehr als 90 vectorartige parallel laufende Einheiten pro Die hat?
Es sind 96 parallel laufende Einheiten (PEs).
Allerdings sind die nicht SIMD-fähig und von der Leistungsfähigkeit her imo nicht mit SPEs zu vergleichen.
Allerdings fehlt mir ein Vergleich vom Transistorverbrauch.
Ich finde es allerdings übertrieben, für je einen FP Adder und Multiplier extra 4kBSpeicher und 128 Registerfiles zu verbraten.
Da ein kompletter Clearspeed600 auch nur eine theoretische Leistung von 50GFlop hat müsste man schon einige nehmen um an die 8 SPEs dranzukommen.
Zudem hat auch er momentan kein HT sondern ein eigenes DDR2 Interface.

frankkl
2006-01-20, 15:21:05
Stecken AMD und Intel momentan wirklich in Mhz-Sackgasse?
Nein Intel :smile: nicht die haben schon 3800 MHz,
da kommt AMD ;( nicht mal ansatzweise ran !

:smile:

frankkl

Bokill
2006-01-20, 15:25:38
ja richtig ...

Es sollte lediglich zeigen, dass auch andere Wege gegangen werden. ;)

Zudem kann ich mir persönlich kaum Vorstellen, dass eine AltiVec ISA in eine AMD 64 ISA übernommen wird. Das war bestimmt schon schwierig genug, dass IBM "AltiVec"-Dialekte für den Cell und den XBox 360 Prozessor machen durfte.

Binärkompatibel ist das auf dem Cell, XBox 360 zu der bisherigen PowerPC Familie nicht, auch wenn es vom PowerPC Stammbaum ist. Das Problem der ISA-Dialekte kennt der Sun SPARC T1 (Niagara) nicht, da ist alle hübsch binärkompatibel zum bisherigen Ultra SPARC III, IV.

Lösungen mit ccHyperTransport für AMD Plattformen tendieren dazu ebenso integriert zu werden, wenn es für eine Plattform insgesamt irgendwann Sinn macht. Javabeschleunigung an sich ist ein alter Hut, so etwas macht ARM mit Jazelle mit wirklich wenig Schaltlogik. Kryptologie ist auch denkbar, wird auch schon in Chipsätze gegossen und/oder in CPUs (VIA Padlock).

Für einen eigenständigen Chip bedarf es mehr Schaltlogik, da wäre ein seperater Multi SSE4 Chip (oder ähnliches auch der AMD 64 ISA) sinnvoll, und/oder es wird durch die Hintertür eine gänzlich neue Gleitkommaeinheit eingeführt, die nicht mehr stackbasiert ist, wie die alte x87 Einheit ... die bisherige x87 Gleitkommaeinheit vom K8 hat ja nach wie vor lediglich 8 Register. Die SSE-Einheit und Integereinheit schöpfen ja bei dem K8 aus 16 Registern.

Der Modularitätsgedanke hat schon was ... Horus ist da nur ein Vorgeschmack. Aber es bleibt wohl in der Familie. Ein Verschmelzen von Architekturen (auf ISA-Ebene) sehe ich noch nicht.

MFG Bobo(2006)

Demirug
2006-01-20, 19:39:25
Für einen eigenständigen Chip bedarf es mehr Schaltlogik, da wäre ein seperater Multi SSE4 Chip (oder ähnliches auch der AMD 64 ISA) sinnvoll, und/oder es wird durch die Hintertür eine gänzlich neue Gleitkommaeinheit eingeführt, die nicht mehr stackbasiert ist, wie die alte x87 Einheit ... die bisherige x87 Gleitkommaeinheit vom K8 hat ja nach wie vor lediglich 8 Register. Die SSE-Einheit und Integereinheit schöpfen ja bei dem K8 aus 16 Registern.

MFG Bobo(2006)

Defakto ist der alte x87 "Copro" doch schon für tod erklärt. Unter Win64 darf er nicht mehr benutzt werden.

oliht
2006-01-20, 19:46:19
Also ich würde mal das Problem, dass die Leistung momentan für den Nutzer nicht steigt hauptsächlich in der Softwareentwicklung sehen.
Da gibt es leider kaum Tools/Sprachen um große Softwareprojekte parallel zu Entwickeln. OpenMP und MPI funktioniert zwar für Fortran/C im wissenschaftlichen Bereich gut aber große Anwendungen mit sowas zu Programmieren kann ich mir kaum vorstellen.
Leider hat da das Mhz Rennen so zwischen 1990 bis ca. 2002 viel Kaschiert. Da gab es halt relativ schnell 50% Mehr Takt was dann halt auch fast 50% mehr Leistung war. Das Schlimme ist halt nur wie lange gepredigt wird, dass es nur massiv parallel geht und kaum etwas passiert ist.

Bokill
2006-01-20, 20:00:52
Defakto ist der alte x87 "Copro" doch schon für tod erklärt. Unter Win64 darf er nicht mehr benutzt werden. unter Linux gehts doch :D ... die x87 Einheit an sich ist als Hardware ja noch da.

MFG Bobo(2006)

SKYNET
2006-01-21, 16:59:46
Nein Intel :smile: nicht die haben schon 3800 MHz,
da kommt AMD ;( nicht mal ansatzweise ran !

:smile:

frankkl


[ ] ich weiß, das es nicht auf MHz ankommt!

bitte ankreuzen! =)

Gast
2006-01-21, 17:10:01
[ ] ich weiß, das es nicht auf MHz ankommt!

Darum geht es bei diesem Thema aber nicht:

[X] Genauer lesen und verstehen!

Takt ist nunmal Takt, Pro/MHz-Leistung ist was anderes.

An der eigentlichen Situation ändert es nichts, denn vorallem die DualCore Prozessoren von AMD haben bei ca. 2,7-2,8 GHz ihr Ende gefunden - trotz erhöhter VCore.

Bei Intel sieht die Sache derzeit dank 65nm besser aus, jedoch ist auch dort bei ca. 4,5 GHz schluss, darüber hinaus ginge es zwar, aber dann wäre die Kühllösung für den Massenmarkt zu teuer.

Also bleibt nur noch der Umstieg auf DualCore oder einer besseren Architektur. Wobei bei letzterer, das Problem wahrscheinlich auch früher oder später auftreten würde.

Coda
2006-01-21, 17:29:11
unter Linux gehts doch :D ... die x87 Einheit an sich ist als Hardware ja noch da.

MFG Bobo(2006)Der AMD64-GCC emitiert trotzdem defaultmäßig Scalar-SSE2 wenn ich richtig informiert bin.

Gast
2006-01-25, 19:11:55
Bei Grafikkarten gabs doch die selbe Diskussion auch schon mal
so um 2000 rum
3dfx und Ati hatten doppel gpus drinnen.
dann kam der gforce und hat se geplättet
ich glaub dualcores verschwinden wieder
is nur ne Notlösung wg. technologischer schwierigkeiten

Lilebror
2006-01-25, 19:28:44
@ Gast, da wäre ich mir nicht so sicher.
Es wird wohl auf die Dauer einfacher sein, CPus einfach ein paar mehr kerne drauf zu pappen als andauernd die Taktrate der Singlecore CPUs zu erhöhen, Dual bietet leider mehr voreteile als eine Singlecore.
Bei dualcores bzw. Multicores kann man ja beides machen, Kerne erhöhen und mit dem Fortschritt werden auch sicher Tatktsteigerungen drin sein, welche dann in der gesammtheit da dann gleich mehrere schnellere Kerne vorhaden sind ins gesammt eine höhere Leistungsteigerung möglich ist.

BlackBirdSR
2006-01-25, 19:29:40
Bei Grafikkarten gabs doch die selbe Diskussion auch schon mal
so um 2000 rum
3dfx und Ati hatten doppel gpus drinnen.
dann kam der gforce und hat se geplättet
ich glaub dualcores verschwinden wieder
is nur ne Notlösung wg. technologischer schwierigkeiten

Warum sollten sie wieder verschwinden?

Bei GPUs kann man extrem parallelisieren. Also bringen 2 davon nicht viel mehr als eine breitere GPU.
Bei CPUs kann man das nicht. Breitere Ausführungseinheiten könnten gar nicht gefüttert werden. Zudem kann eh nur ein Thread (ohne SMT etc) bearbeitet werden.
Durch eine 2. CPU kann eben ein 2. Thread bearbeitet werden. Und das lässt sich noch parallelisieren.
In Zukunft werden wir wohl noch mehr als 2 oder 4 Kerne sehen.

Gast
2006-01-25, 19:34:46
nur komisch das die struktur probleme zur gleichen zeit auftauchen
wie die lösung durch dualcores
warum hat mans dann nicht schon früher gemacht ?

StefanV
2006-01-25, 19:36:29
Bei Grafikkarten gabs doch die selbe Diskussion auch schon mal
so um 2000 rum
3dfx und Ati hatten doppel gpus drinnen.
dann kam der gforce und hat se geplättet
ich glaub dualcores verschwinden wieder
is nur ne Notlösung wg. technologischer schwierigkeiten
Vergleich hinkt, denn das eine sind 2 Chips + RAM auf einem Board, vergleichbar mit den SMP Systemen.

Dual Core CPUs kann man nicht mit GraKas vergleichen, wie BBSR schon erwähnte, kommts aufs gleiche raus, ob man bei GPUs 2 auf ein Brett pappt oder die Einheiten (+ Speicherrate) verdoppelt.

alpha-centauri
2006-01-25, 19:42:45
also intel sicher nicht. sieht man ja am letzten 9xx Test: wo das ~3,x Teil über 4 ,5 Ghz lief.

Bei AMD war dagegen beim FX60 grad mal bei 3 Ghz schluss.

BlackBirdSR
2006-01-25, 19:42:55
nur komisch das die struktur probleme zur gleichen zeit auftauchen
wie die lösung durch dualcores
warum hat mans dann nicht schon früher gemacht ?

Mit MutliCore CPUs erhöht sich natürlich die Anzahl an Logikschaltkreisen. Das kostet.
Bisher war es einfach viel billiger und einfacher, den Takt hochzuschrauben.

Nun ist ein Punkt erreicht, wo es effektiver und einfacher ist, 2 Kerne auf eine CPU zu bringen, als den Takt weiter zu erhöhen.
Gerade für Server und Workstationbetrieb. Und da dieser die DesktopCPUs maßgeblich beeinflusst, haben wir nun ebenfalls DualCore.

Gast
2006-01-25, 19:48:46
@blackbird
...Mit MutliCore CPUs erhöht sich natürlich die Anzahl an Logikschaltkreisen. Das kostet
Bisher war es einfach viel billiger und einfacher, den Takt hochzuschrauben...

na siehste sobald der struktur knoten platzt
werden wieder 1 core cpus gebaut ist billiger und leichter zu proggen

BlackBirdSR
2006-01-25, 19:54:13
@blackbird


na siehste sobald der struktur knoten platzt
werden wieder 1 core cpus gebaut ist billiger und leichter zu proggen

Warum sollte man?
Nenn mir einen Grund, warum man eine sehr komplexe CPU mit hohem Takt bauen sollte, wenn eine weniger komplexe CPU mit mehreren Kernen und hohem Takt mehr Leistung erreicht?

Gast
2006-01-25, 19:54:58
Zum Thema "MHz Sackgasse" gibt es eigentlich nur noch das hier zu sagen ;)

Intel produziert erste 45-nm-Chips (http://www.heise.de/newsticker/meldung/68808).

Anfang Januar hat Intels Prozessentwicklungs-Labor in Hillsboro/Oregon erste funktionierende Testchips im 45-nm-Prozess (P1266) fertig gestellt. Dies berichtete Intels Entwicklungsleiter Mark Bohr in einer Telefonkonferenz. Der wichtigste Teil des auf 300-mm-Wafer gefertigten "Shuttle"-Testchips ist ein SRAM mit über einer Milliarde Transistoren und der Kapazität von 153 MBit, dessen Zellen mit 0,346 μm2 nur noch halb so groß sind wie die im aktuellen 65-nm-Prozess (P1264).

Das Marschziel, bedeutende Verbesserungen der Leistungsfähigkeit und des Stromverbrauchs von CPUs im Vergleich zur erst vor ein paar Monaten angelaufenen 65-nm-Serienproduktion zu erreichen, ist deutlich zu erkennen: Je nach Konstruktionsziel können die Chip-Designer mit der neuen Prozesstechnik entweder die Schaltgeschwindigkeit der Transistoren um über 20 Prozent steigern oder die Verluste durch Leckströme um den Faktor 5 senken. Der aktive Energiebedarf zum Umschalten der Transistoren falle um mehr als 30 Prozent, prognostizierte Bohr.

Aufgrund dieses Meilensteins glaubt sich Intel in der Lage, ab der zweiten Jahreshälfte 2007 Prozessoren in der neuen Fertigungstechnik herstellen zu können.

Über die 45-nm-Prozessoren hinaus bastelt Intel auch schon an der darauf folgenden Generation. Die Prozesstechnik für eine 32-nm-Herstellung sei in Entwicklung, erklärte Bohr. Ab der zweiten Jahreshälfte 2009 rechnet er mit der Serienreife.

An der Grenze scheinen die noch lange nicht angekommen zu sein... mit 45nm wären wahrscheinlich sogar Quad-Cores möglich, ohne eine deutlich erhöhte Leistungsaufnahme im Vergleich zu heutigen Prozessoren zu haben.

Gast
2006-01-25, 19:58:13
@blackbird
na wie jetzt du hast doch die antwort schon geschrieben
siehe mein zitat von dir

Coda
2006-01-25, 20:08:01
also intel sicher nicht. sieht man ja am letzten 9xx Test: wo das ~3,x Teil über 4 ,5 Ghz lief.

Bei AMD war dagegen beim FX60 grad mal bei 3 Ghz schluss.Der 3Ghz FX60 sollte keine Probleme haben mit nem 4,5Ghz Benzium wenn mich nicht alles täuscht.

Gast. Deine Prognose ist falsch. :)

StefanV
2006-01-25, 20:14:59
also intel sicher nicht. sieht man ja am letzten 9xx Test: wo das ~3,x Teil über 4 ,5 Ghz lief.

Bei AMD war dagegen beim FX60 grad mal bei 3 Ghz schluss.
Takt ist irrelevant, wichtig ist die Leistung, die am Ende raus kommt, siehe Coda...

Denn es darf bezweifelt werden, das der P4 trotz der 1,5GHz mehr, mit dem A64 mithalten kann...

Gast
2006-01-25, 20:17:36
ok ok
ihr habt mehr ahnung kein zweifel
ich fand nur komisch das die letzten jahre alle schrien
-hilfe- die physikalische grenze ist erreicht
jetzt machen wir mal weiter mit dualcores um
moore einzuhalten
jetzt quetschen wir mal 2 cores aufn die
wär vorher natürlich niemandem eingefallen
zufälle gibs aber auch ne

Gast
2006-01-25, 20:23:40
Denn es darf bezweifelt werden, das der P4 trotz der 1,5GHz mehr, mit dem A64 mithalten kann...

Nicht so voreilig sein...

Hier (http://www.tomshardware.de/cpu/20060110/amd-athlon64-fx60-09.html) reicht nicht mal ein 3 GHz DualCore FX um den P4 DC zu schlagen.

BlackBirdSR
2006-01-25, 20:24:25
ok ok
ihr habt mehr ahnung kein zweifel
ich fand nur komisch das die letzten jahre alle schrien
-hilfe- die physikalische grenze ist erreicht
jetzt machen wir mal weiter mit dualcores um
moore einzuhalten
jetzt quetschen wir mal 2 cores aufn die
wär vorher natürlich niemandem eingefallen
zufälle gibs aber auch ne

Was soll das?
Natürlich ist das schon vorher jemandem eingefallen.
Der K8 ist seit 2000 darauf ausgelegt, den Power4 gibt es auch noch.
Es war nur bisher selten praktikabel.

StefanV
2006-01-25, 20:26:50
Nicht so voreilig sein...

Hier (http://www.tomshardware.de/cpu/20060110/amd-athlon64-fx60-09.html) reicht nicht mal ein 3 GHz DualCore FX um den P4 DC zu schlagen.
Streaming...

Da war der P4 immer schon recht akzeptabel, schau dir mal lieber Anwendungen an, die 'random Code' mit vielen Sprüngen nutzen, das schaut dann nicht mehr so toll aus...

Nicht immer nur die Rosinen rauspicken...

Trap
2006-01-25, 20:28:34
Bei Videocoding ist sowieso ne ATI 1xxx schneller als der P4 ;)

Lilebror
2006-01-25, 20:28:41
VOr allem nicht wirklich lohnenswert da --> brauchbare Software = Mangelware :biggrin:

StefanV
2006-01-25, 20:30:19
Die Zeit des Umschwunges ist immer ziemlich unschön, siehe Win9x -> WinNT (sprich 2000).

Gast
2006-01-25, 21:16:11
Der 3Ghz FX60 sollte keine Probleme haben mit nem 4,5Ghz Benzium wenn mich nicht alles täuscht.


sollte eigentlich für den pentium reichen, mehr als 50% mehrleistung pro takt hat der A64 im schnitt nun auch wieder nicht.

Bokill
2006-01-25, 21:42:10
Der 3Ghz FX60 sollte keine Probleme haben mit nem 4,5Ghz Benzium wenn mich nicht alles täuscht.

Gast. Deine Prognose ist falsch. :) Seit wann hat der Dual-Core Athlon Athlon 64 FX 60 drei GHz?

Banshee18
2006-01-25, 21:56:42
Seit wann hat der Dual-Core Athlon Athlon 64 FX 60 drei GHz?
Seit es einen Pentium mit 4,5 Ghz gibt. ;)

Kladderadatsch
2006-01-25, 22:18:36
Zum Thema "MHz Sackgasse" gibt es eigentlich nur noch das hier zu sagen ;)

Intel produziert erste 45-nm-Chips (http://www.heise.de/newsticker/meldung/68808).
Aufgrund dieses Meilensteins glaubt sich Intel in der Lage, ab der zweiten Jahreshälfte 2007 Prozessoren in der neuen Fertigungstechnik herstellen zu können.


naja, da frage ich mich, warum der wechsel von 110nm zu 90nm die taktfreudigkeit kaum gesteigert hat.

ot:
was mich verwundert hat: diese technik trägt hauptsächlich die israelische niederlassung intels. die satteln momentan ihre fab xy auf 65 nm um, und bauen eine weitere, für die sharon über eine halbe millarde hat springen lassen- für den bau der ersten 45 nm cpus. (was den mann wohl beeindruckt hat;))
die gesamte moderne mobile-technik (merom) stammt aus israel, und die zukünftige desktop-entwicklung (conroe) wird ebenfalls von dort stammen.
(wie auch woodcrest für server)
intels export erreicht mittlerweile rund 2% israels brutto-sozialprodukt.
dollarimperialismus?

Gast
2006-01-25, 22:20:10
@blackbird
eigentlich hatte ich schon mit dem thema abgeschlossen
aber deine antworten provozieren neue fragen !
zitat-Natürlich ist das schon vorher jemandem eingefallen.
meinte ich doch hatte nur kein ironiesmiley bei der hand
warum wars denn damals nicht praktikabel und heut ist es der weg in
die zukunft ?

zitat-In Zukunft werden wir wohl noch mehr als 2 oder 4 Kerne sehen.
wo soll das hinführen ist das ne clevere lösung ?
512 gleichwertige cores wie nennt man sowas ? (dual,quad,....)XD
Damals hat nv ati und 3dfx doch geschlagen weil sie t&l in hardware
umgesetzt haben (innovation statt bruteforce)

müsste ein dualcore system nicht eigentlich 200 % bringen (doppelte transitorzahl bzw. leistung/transitor verhältnis)
bringt aber maximal 30% klingt für mich nach einem schlechten weg
aber so wird ja auch schon programmiert XD

alpha-centauri
2006-01-25, 22:25:25
Der 3Ghz FX60 sollte keine Probleme haben mit nem 4,5Ghz Benzium wenn mich nicht alles täuscht.

Gast. Deine Prognose ist falsch. :)

na DAS ist auch ne andere Frage. Aber ich denk mal, die könnten sicher gleich auf liegen. Leistung, s tromverbrauch..

BlackBirdSR
2006-01-25, 23:27:03
müsste ein dualcore system nicht eigentlich 200 % bringen (doppelte transitorzahl bzw. leistung/transitor verhältnis)
bringt aber maximal 30% klingt für mich nach einem schlechten weg
aber so wird ja auch schon programmiert XD


Erstmal:
Wenn du schon 200% Leistung angibst, musst du dann auch 130% sagen *klugscheiss* ;)

Dann:
Es gibt viele Beispiele, wo SMP oder DualCore Systeme locker 80% und mehr an zusätzlicher Performance rausholen.
Gerade im Server und Workstationbereich. Und wie schon gesagt, ist gerade dieser der treibende Sektor.
Spiele und normale Anwendungssoftware ist vielfach noch nicht so weit. Das muss sich eben ändern.
Ob sich in Zukunft irgendwas bis ins zig-fache parallelisieren lässt, muss sich zeigen.
Das wichtige ist aber: Jetzt, heute und morgen ist es die beste Lösung.
Es ist billiger, einfacher und effizienter als weiter einen auf "Prescott" zu machen.
Aber genau das würde passieren. Selbst ein PentiumM würde auf der Suche nach immer mehr Leistung irgendwann alle vertretbaren Verhältnisse sprengen.

Gast
2006-01-25, 23:46:02
und übermorgen kommt wieder 1core XD
nichts für ungut
bye

Trap
2006-01-25, 23:48:33
Parallelisierung ist die billigere/einfachere Lösung wenn die Anwendung es erlaubt. Bei den Grafikkarten gibt es keine 4 GHz, 1 Pipeline Designs genau aus diesem Grund.

Bei den CPUs gibt es aber Millionen oder sogar Milliarden Zeilen von Code der nur mit synchroner Ausführung funktioniert. Daher ist da ein riesiger Anreiz möglichst gute Performance bei diesem bestehenden Code zu ermöglichen. Multi-Core Sachen sind daher im Grunde eine Verlegenheitslösung, anscheinend aber die beste Verwendungsmöglichkeit die im Moment allen für die zusätzlichen Transistoren (Moore's Law) einfällt.

Gast
2006-01-26, 07:07:08
naja, da frage ich mich, warum der wechsel von 110nm zu 90nm die taktfreudigkeit kaum gesteigert hat.

Die Taktfreudigkeit wurde erheblich gesteigert, nur bekommt man davon kaum was mit, weil passende Produkte nie erschienen sind.

Von 130mn (Northwood) auf 90 nm (Prescott) gab es schon eine deutliche Steigerung der Taktrate. Während die Northwoods beim Übertakten bereits bei ca. 3,6-3,7 GHz schlapp machten, gibt es Prescotts die locker 4 GHz und mehr schaffen.
Das der Stromverbrauch gestiegen ist, liegt nicht in der Strukturverkleinerung begründet, sondern in der Architektur des Prescotts. Der hat deutlich an Transistoren zugelegt und zudem schienen die Leckströme große Probleme zu bereiten bei dieser großen Menge (hier wäre es meiner Meinung nach sinnvoller gewesen, erstmal den Northwood mit 65nm rauszubringen, da dieser einer erheblich geringere Verlustleistung und Transistormenge aufgewiesen hat).
Der Sprung von 90nm auf 65nm (Presler) war ebenfalls erheblich. Wenn man mal den Smithfield mit dem Presler vergleicht, so stellt man fest, das der Presler sich deutlich besser takten lässt (4,2 GHz sind laut diversen Reviews mit Luftkühlung kein Problem, 4,5 GHz wurden auch schon erreicht). Die Smithfields haben damit große Probleme, weil die Stromaufnahme immens ist. Der Presler verbraucht auf gleichem Takt weniger Strom.

Man denke nur mal an die Mobile-Prozessoren... die haben jetzt schon einen geringen Stromverbrauch, wie sieht das erst in 65nm oder gar 45nm aus?

Lilebror
2006-01-26, 07:20:06
Also ich finde es auch interessant, nehmen wir mal die änderung bei AMD !
Da hat sich jede Menge getan, gab es bei den 130nm cpus welche die 3,3 GHz und teilweise noch mehr gepackt haben ?
Dazu die Optimierung des Stromverbauchs, während die 130nm cpus sich ihre guten 70W und noch mehr genehmigten braucht zum besipiel mein Winchester gerade mal 35W mit cool'n quiet gerade mal 5W (im Indle betrieb wohl)
Da hat sich einiges getan.

Kladderadatsch
2006-01-26, 07:33:28
Die Taktfreudigkeit wurde erheblich gesteigert, nur bekommt man davon kaum was mit,
ja, mein venice scheinbar auch nicht. der hat bei 2,5 ghz keine lust mehr.
2,5 ghz dürften für winchester & co doch das durchschnitts oc-ergebnis sein? bei venice und san diego liegt das imo irgendwo zwischen 2,6 und 2,7 ghz...

Lilebror
2006-01-26, 12:32:12
Also die 2,5 GHz kann ich bestätigen, meiner läuft maxi mit 2,55 GHz selbst eine V-core erhöhung bringt keine weiteren Möglichkeiten, aber wenn man bedenkt das ich da trotzdem 350MHz raushole . . .