Archiv verlassen und diese Seite im Standarddesign anzeigen : IBM-Guru: Moores Law nicht mehr gültig
reunion
2009-04-11, 20:05:25
IBM Fellow Carl Anderson, who oversees physical design and tools in its server division, predicted during the recent International Symposium on Physical Design 2009 conference the end of continued exponential scaling down of the size and cost of semiconductors. The end of the era of Moore's Law, Anderson declared, is at hand.
http://www.eetimes.eu/216403284
mapel110
2009-04-11, 20:11:10
Hab ich vor ein paar Tagen auch irgendwo auf Deutsch gelesen. (gibts ja auch bei eetimes auf Deutsch)
Immerhin, der IBM-Vordenker nannte drei Technologien, für die das Moore'sche Gesetz einstweilen weitergelte: Optische Datenverbindungen, 3D-Chips, und Rechenbeschleuniger.
3D-Chips? Gerade hier verspüren wir doch eine Verlangsamung der Entwicklung.
Avalox
2009-04-11, 20:13:00
Schlecht für IBM, wenn diese Intels Law nicht mehr mithalten können.
3D-Chips? Gerade hier verspüren wir doch eine Verlangsamung der Entwicklung.
Ich würde sagen, er spricht nicht von GPUs.
reunion
2009-04-11, 20:20:38
Hier noch eine Zusammenfassung vom Standard: http://derstandard.at/?url=/?id=1237229758850
tombman
2009-04-11, 20:28:11
Für Office und Standardheimanwendungen braucht man auch keine schnelleren Chips.
Für Wissenschaft, number crunshing und games werdens die GPGPU Chips eh schon richten ;)
Aber AMD und Intel wissen das eh, deshalb auch Fusion und Larabee ;)
Die Frage ist, ob man solche Spezialisten wie Nvidia langfristig noch brauchen wird :/
Btw, optische Verbindungen sollten wirklich mal massentauglich werden :)
Spasstiger
2009-04-11, 20:33:58
Ich sehe ehrlichgesagt kein Ende des exponentiellen Wachstums der Integrationsdichte. 32 nm für CPUs steht bei Intel vor der Tür, an 23 nm wird entwickelt und Analysten sehen auch schon 11 nm oder weniger auf den Roadmaps.
sei laut
2009-04-11, 20:43:46
Für Office und Standardheimanwendungen braucht man auch keine schnelleren Chips.
Das wird sich auch wieder ändern. Da bin ich mir sicher. Und wenn man ein SuperDuper XXL Feature macht, was mal eben 2GB Arbeitsspeicher schluckt.
=Floi=
2009-04-11, 20:48:15
dazu kommen dann noch die 450mm wafer und die preise kann man auch wieder erhöhen! Größere chips sind kein problem.
Wichtiger wäre hier eine anpassung der software. Ich möchte auch noch festhalten, dass man mit mehr core auch schlicht mehr programme laufen lassen kann!
looking glass
2009-04-11, 20:50:30
Hat schon bei Vista nicht funktioniert ;), dieser superduppa Feature müsste dann schon echt suppa sein, mhh, instant porno oder...
Ab 0.09 Mikrometer solls doch kritisch werden, oder? Wie auch immer, wer außer uns Gamblern und Wissenschaftlern braucht schnellere Chips? Ein Quadcore für nen Bürorechner ist doch ohnehin Unfug.:rolleyes:
nymand
2009-04-11, 21:47:39
Hat schon bei Vista nicht funktioniert ;), dieser superduppa Feature müsste dann schon echt suppa sein, mhh, instant porno oder...
Vista hat keine Pornofeatures. Und die Anforderungen, die ein Vista stellt , sind höchstens was Ram betrifft hoch. Porno wäre aber z.b. ein 3D desktop auf einem 3D Monitor ;D
looking glass
2009-04-11, 21:54:04
Sag ich ja, vista hatte nichts, um den Mehrverbrauch von RAM und Leistung zu rehtfertigen, deshalb ist es ja auch abgewatscht worden. Wen das also schon bei sowas wie dem meistgebräuchlichsten OS nicht funktioniert, welches Feature wäre es, was alle haben wollen und bereit sind dafür "mo powa" rauszuhauen?
Alles läuft auf Sex hinaus, internet is for porn und so - also ein Pornoerstellprogramm, wo man sich Spore oder Sims like seine Darsteller/in zusammen klickt, noch angibt was es sein soll und dann wird einem sein real wirkender Porno erstellt.
Oder kann sich jemand irgend etwas anderes vorstellen, was alle haben wollen?
e.v.o
2009-04-11, 22:24:07
Die hypermodernen AJAX Anwendungen im Web brauchen mind. DualCore damit sie richtig laufen ^^
Aquaschaf
2009-04-11, 23:39:47
3D-Chips? Gerade hier verspüren wir doch eine Verlangsamung der Entwicklung.
Aber doch bei weitem nicht so sehr wie bei CPUs.
Spasstiger
2009-04-12, 00:31:25
Eine CPU kann auch ein 3D-Chip sein. Mit 3D ist die Bauform gemeint, nicht der Verwendungszweck.
mapel110
2009-04-12, 00:34:27
Ich dachte, diese 3D-Chips gibts noch gar nicht?!
Spasstiger
2009-04-12, 00:58:49
Ich dachte, diese 3D-Chips gibts noch gar nicht?!
Im englischen Artikel von EETimes werden auch gestapelte Chips als 3D-Chips bezeichnet. Und die gibt es bereits, schau mal in einen USB-Stick mit großer Kapazität rein. ;)
YfOrU
2009-04-12, 04:08:55
Sag ich ja, vista hatte nichts, um den Mehrverbrauch von RAM und Leistung zu rehtfertigen, deshalb ist es ja auch abgewatscht worden. Wen das also schon bei sowas wie dem meistgebräuchlichsten OS nicht funktioniert, welches Feature wäre es, was alle haben wollen und bereit sind dafür "mo powa" rauszuhauen?....
Ohne ganz Offtopic werden zu wollen, Vista ist aus Windows x86 Sichtweise ein Schritt in die richtige Richtung.
Natürlich lässt sich auch mit einem Windows 2000 System arbeiten und ich gehörte zu denen die immer noch die Beta 3 CD im Regal stehen haben. Abit BP 6 lässt Grüßen.
Das ändert aber nichts daran das zum einen die Leistungsfähigkeit und zum anderen die Anforderungen gestiegen sind. XP ist kaum etwas anderes als ein auf den Endkundenmarkt getrimmtes 2000 und hat sich davon auch wenig entfernt. Vor allem Multitasking arbeitet durch Precaching und den deutlich besseren Prozessmanager erst bei Vista wirklich angenehm. Selbstverständlich kostet das Ressourcen, auf aktuellen Systeme nimmt man das aber gerne in Kauf denn vor allem durch Moores Law ist Leistung im Überfluss vorhanden.
Praktisch ist es eher so das die Betriebssysteme meist deutlich unterhalb der eigentlichen Fähigkeiten moderner Systeme agieren.
Das wird sich auch wieder ändern. Da bin ich mir sicher. Und wenn man ein SuperDuper XXL Feature macht, was mal eben 2GB Arbeitsspeicher schluckt.
Ist halt die Frage ob es die Produktivität erhöht. Bei Heimanwendern kann man vielleicht noch eine riesige Marketingkampagne fahren, in der Industrie zieht das eher nciht. Hat man ja auch schön an Vista gesehen, warum sollte man darauf umrüsten und seine PCs mit Vista ausstatten wenn man damit nicht produktiver wird. Auch im Heimanwenderbereich hat sich Vista nicht so gut verkauft und der Trend geht zu eher Leistungsschwachen Laptops bzw Netbooks.
Oder kann sich jemand irgend etwas anderes vorstellen, was alle haben wollen?
Pornos entwickeln ihren Reiz imo erst dadurch, dass sie mit echten Darstellern gefilmt werden. Wenn es nun einfach animiert ist, geht der Reiz verloren und es ist nicht mehr erotischer als eins der unzähligen Billigpornogames...
Ich sehe ehrlichgesagt kein Ende des exponentiellen Wachstums der Integrationsdichte. 32 nm für CPUs steht bei Intel vor der Tür, an 23 nm wird entwickelt und Analysten sehen auch schon 11 nm oder weniger auf den Roadmaps.
Es ist ziemlich sicher, dass ~10nm das Ende darstellt für 2D-Siliziumtechnik.
Sicher klingt das logisch, was der IBM-Mann hier prophezeit; die zukünftige Entwicklung hängt von der Wirtschaftlichkeit ab. Aber gerade dort sieht es mittelfristig gar nicht düster aus - eher rosig.
Abgesehen davon, dass z.B. Forschung, Militär und Spionage sowieso nie mit Rechenleistung zu sättigen sind, hier nur ein paar (potentielle) Killeranwendungen, die schon in der Pipeline sind:
- Personal Genomics
- Stereoskopische Displays
- Virtual und augmented reality
- Intelligente Agenten/Assistenten
- Software und Daten on demand
- Spracherkennung und -synthese
- u.s.w.
Langfristig wird die Weiterentwicklung der Bandbreiten-, Rechen- und Speicherkapazitäten wohl vom enormen Bedarf für Bio- und Nanotech, KI und Robotik getrieben werden, wo sie sich direkt in ROI niederschlagen werden!
Es wird wohl auf ein logistisches Wachstum hinauslaufen. Ewig kann sich die exponentielle Entwicklung einfach nicht halten.
Auch im Heimanwenderbereich hat sich Vista nicht so gut verkauft und der Trend geht zu eher Leistungsschwachen Laptops bzw Netbooks.
deine Sichtweise ist etwas verzerrt...
Der Trend geht sicher nicht zu leistungsschwachen Geräten, der Markt beweist das Gegenteil: Performancehardware wird immer günstiger... und häufig gekauft/verbaut.
Was du vergessen hast: Netbookkäufer haben ganz andere Ziele als von dir angesprochen. Ich habe selbst daran gedacht mir ein Notebook zu holen, aber vor ein paar Jahren waren die noch sauteuer (Spielefähig ab ca 1500€, normal ab 600€ aufwärts), der Preis war einfach zu hoch.
Die Netbooks sind eine perfekte Ergänzung (Ergänzung, nicht Ersatz!) und erlauben unterwegs den Zugang zu einem PC. Die perfekte Ergänzung zum Home PC.
Noch dazu weil sich der Einsatzzweck in den letzten Jahren deutlich erweitert hat. Man kann nicht nur surfen, sondern auch daran arbeiten, Videos schauen oder Dinge erledigen, die man früher zu hause gemacht hat.
Spielen gehört eher selten dazu (Minispiele sind was anderes). Die meisten Leute die ich kenne, nutzen ihr *günstiges* Zweitgerät allein zum surfen/arbeiten/chatten, zum zocken steht der dicke PC zuhause.
Früher wollten sich das die meisten eben noch nicht leisten, was ich gut verstehen kann, für ein leistungsschwaches Notebook hätte ich nie und nimmer 600+ € ausgegeben.
Der Erfolg des Netbooks ist allein deshalb da, weil er diese Lücke ausfüllt. Wen wundert es, das sich Erfolg auch über Preise definiert. ;)
dragonmaster
2009-04-15, 23:27:57
neue cpu technologie erlaubt 500 bis 1000 ghz
http://legacy.macnn.com/articles/09/03/26/graphene.to.bump.silicon/
Hoffentlich wurde da nicht was falsch verstanden und es geht nicht nur um einen Transistor. Die sind nämlich jetzt auch schon bei ~100Ghz.
Spasstiger
2009-04-16, 00:07:55
neue cpu technologie erlaubt 500 bis 1000 ghz
http://legacy.macnn.com/articles/09/03/26/graphene.to.bump.silicon/
Im Originalartikel vom MIT klingt es nicht danach, dass man mit dieser Technologie speziell auf Mikroprozessoren abzielt. Man scheint die Anwendung eher bei Baugruppen in der Hochfrequenztechnik zu sehen:
"Graphene will play a key role in future electronics," Palacios says. "We just need to identify the right devices to take full advantage of its outstanding properties. Frequency multipliers could be one of these devices."
http://web.mit.edu/newsoffice/2009/graphene-palacios-0319.html
deine Sichtweise ist etwas verzerrt...
Der Trend geht sicher nicht zu leistungsschwachen Geräten, der Markt beweist das Gegenteil: Performancehardware wird immer günstiger... und häufig gekauft/verbaut.
Was du vergessen hast: Netbookkäufer haben ganz andere Ziele als von dir angesprochen. Ich habe selbst daran gedacht mir ein Notebook zu holen, aber vor ein paar Jahren waren die noch sauteuer (Spielefähig ab ca 1500€, normal ab 600€ aufwärts), der Preis war einfach zu hoch.
Die Netbooks sind eine perfekte Ergänzung (Ergänzung, nicht Ersatz!) und erlauben unterwegs den Zugang zu einem PC. Die perfekte Ergänzung zum Home PC.
Noch dazu weil sich der Einsatzzweck in den letzten Jahren deutlich erweitert hat. Man kann nicht nur surfen, sondern auch daran arbeiten, Videos schauen oder Dinge erledigen, die man früher zu hause gemacht hat.
Spielen gehört eher selten dazu (Minispiele sind was anderes). Die meisten Leute die ich kenne, nutzen ihr *günstiges* Zweitgerät allein zum surfen/arbeiten/chatten, zum zocken steht der dicke PC zuhause.
Früher wollten sich das die meisten eben noch nicht leisten, was ich gut verstehen kann, für ein leistungsschwaches Notebook hätte ich nie und nimmer 600+ € ausgegeben.
Der Erfolg des Netbooks ist allein deshalb da, weil er diese Lücke ausfüllt. Wen wundert es, das sich Erfolg auch über Preise definiert. ;)
Das sehe ich anders. Ich kenne einen haufen Leute für die ein Notebook eben kein Ersatz ist. Es ist eben einfach so dass oft die Rechenleistung nicht benötigt wird und dann eben andere Dinge (wie zB Mobilität) wichtig werden. Den meisten Leuten reicht dass was ein Notebook leisten heutzutage aus, er braucht keinen Rechner mit QC und schnellen Grafikkarten.
Acrylsäure
2009-04-16, 18:30:23
Ich wage solche pessimistischen Behauptungen erst mal anzuzweifeln. Die Strukturbreiten werden mit Sicherheit noch weiter sinken. 32nm wird da nicht das Ende der Fahnenstange sein. Wie weit das noch technisch möglich ist weiß keiner zu sagen, aber bisher wurden wir ja immer wieder überrascht.
Außerdem vertrau ich dann doch lieber den Aussagen von Intel-Leuten, da die Jungs ja (fast) immer die Entwicklung nach vorne getrieben haben. Die haben halt das Zeug dazu bereits bekannte Effekte für die Maßenproduktion zu nutzen und zu verfeinern. Wie auch gerade die Austrittsarbeitsdifferenz, die für die 32nm-Technologie genutzt wird.
Pinoccio
2009-04-16, 18:34:56
Es ist ziemlich sicher, dass ~10nm das Ende darstellt für 2D-Siliziumtechnik.entsprechend etwa 20 Lagen Silizium-Atomen.
(nur so als Ergänzung, um mal die Größe zu verdeutlichen).
Teile der Transistoren sind nochmal (deutlich) kleiner.
mfg
Das sehe ich anders. Ich kenne einen haufen Leute für die ein Notebook eben kein Ersatz ist.
Dann stimmst du mir zu, ich schrieb Ergänzung, nicht Ersatz. ;) Ein billiges Notebook zum Desktop PC ist in jedem Falle eine gute Idee. Ich kenne genügend Leute, die selbst ein billiges Notebook gekauft haben, um bequem unterwegs, im Garten oder in anderen Räumen surfen zu können. Das ersetzt bei denen den Spiele-PC allerdings nicht.
Es ist eben einfach so dass oft die Rechenleistung nicht benötigt wird und dann eben andere Dinge (wie zB Mobilität) wichtig werden. Den meisten Leuten reicht dass was ein Notebook leisten heutzutage aus, er braucht keinen Rechner mit QC und schnellen Grafikkarten.
Diejenigen die mit der Leistung zufrieden sind/waren, die haben auch in der Vergangenheit keine Performance-Hardware gekauft. Es macht also keinen Unterschied.
Es wird nicht weniger Hardware verkauft, nur weil günstige Notebooks boomen. Wie schon gesagt, haben die ihren eigenen Markt und Einsatzzweck. Als Student macht so ein Laptop schonmal sinn, da man ihn überall hinschleppen kann und Akkulaufzeit zT sehr wichtig ist, wodurch High End Geräte von anfang an ausscheiden. Was die Leute zuhause machen, siehst du aber nicht. Da kennst du nur deinen Bekanntenkreis. In meinem ist das genau anders und das sind alles keine! Freaks!
Der Markt wäre tot, wenn jeder nur Netbooks kauft, ist er aber nicht.
32nm wird da nicht das Ende der Fahnenstange sein. Wie weit das noch technisch möglich ist weiß keiner zu sagen, aber bisher wurden wir ja immer wieder überrascht.
32nm und 22nm werden 100pro kommen, daran besteht praktisch kein Zweifel.
Vor langer Zeit wurde sogar von Forschern vermeldet, das sie 11nm Stukturen erschaffen könnten, das scheint ebenfalls noch drin zu sein, fragt sich mit welchen Aufwand.
Bis dahin haben wir also noch ein paar Jährchen Zeit, aber was danach ist, hat bis jetzt keiner sagen können.
Es ist noch zu früh um darüber zu diskutieren. Das Problem wird uns dann bei der 22nm oder 11nm Linie bewusst, denn dann wird sich herausstellen, ob irgendwo in der stillen Kammer noch Pläne liegen, die den Fortschritt sichern.
Prognosen sind eher wertlos, bis jetzt waren praktisch alle angekündigten Projekte der letzten Jahre wertlos, keine davon wurde jemals wie behauptet umgesetzt.
Acrylsäure
2009-04-16, 19:29:01
Intel stellt bis Ende des Jahres auf 32nm um... das steht wie gesagt fest.
Und bis jetzt ist es Intel auch gelungen wie angekündigt jedes Jahr auf eine neue Technologie umzustellen. Das geht jetzt die letzten Jahre so. Soviel zu Ankündigungen der letzten Jahre... ;)
Ich wage solche pessimistischen Behauptungen erst mal anzuzweifeln. Die Strukturbreiten werden mit Sicherheit noch weiter sinken. 32nm wird da nicht das Ende der Fahnenstange sein. Wie weit das noch technisch möglich ist weiß keiner zu sagen, aber bisher wurden wir ja immer wieder überrascht.
Natürlich kann man das sagen für Siliziumtransistoren. Es ist mit entsprechendem Laborgerät möglich heute schon in diesem Bereich zu operieren, und es stellt sich nunmal heraus dass eine Siliziumschaltung unter ~10nm nicht mehr funktioniert weil alles nur noch fluktuiert.
=Floi=
2009-04-16, 20:17:10
intel und die restliche industrie könnte ja bei den fertigungstechniken das tempo zurücknehmen. Warum bis zur mauer laufen, wenn man auch vorher schon bremsen kann und so wertvolle zeit und wertvolles geld in neue lösungen stecken kann.
Gibt es eigentlich ein theoretisches maximum bei der transistorzahl?
GT300 soll ja ca. 3mrd haben und das ist schon eine menge holz für einen einzelnen chip.
Im Originalartikel vom MIT klingt es nicht danach, dass man mit dieser Technologie speziell auf Mikroprozessoren abzielt. Man scheint die Anwendung eher bei Baugruppen in der Hochfrequenztechnik zu sehen:
http://web.mit.edu/newsoffice/2009/graphene-palacios-0319.html
Ehrlich gesagt liest sich der Artikel wie ein "endlich können wir damit irgendetwas anstellen". Natürlich wird das möglichst medienwirksam ausgeschlachtet. Versteht mich nicht falsch, es ist eine beeindruckende Forschungsarbeit, wenn dabei was brauchbares rauskommt, aber die Erklärung, warum man Frequenzvervielfacher braucht und allein schon das Bild vom Oszi ist so getürkt, dass es kaum noch lustig ist (20 dB Dämpfung von Kanal 2 nach Kanal 1, unterschiedliche Zeitbasen für beide Kanäle, Eingangsimpedanz von 1 MOhm bei angeblichen GHz Signalen? Pruuust... ach ne, sind doch nur gute 6 kHz zu sehen...)
intel und die restliche industrie könnte ja bei den fertigungstechniken das tempo zurücknehmen. Warum bis zur mauer laufen, wenn man auch vorher schon bremsen kann und so wertvolle zeit und wertvolles geld in neue lösungen stecken kann.
Gibt es eigentlich ein theoretisches maximum bei der transistorzahl?
GT300 soll ja ca. 3mrd haben und das ist schon eine menge holz für einen einzelnen chip.
Bei 11nm wären dann mit einem linearen Shrink auf gleicher DIE-Größe ~40Mrd möglich.
Acrylsäure
2009-04-17, 21:35:24
Natürlich kann man das sagen für Siliziumtransistoren. Es ist mit entsprechendem Laborgerät möglich heute schon in diesem Bereich zu operieren, und es stellt sich nunmal heraus dass eine Siliziumschaltung unter ~10nm nicht mehr funktioniert weil alles nur noch fluktuiert.
Also PMOS und NMOS-Transistoren mit 5nm Kanallänge gibt es schon. Konventionelle Technologien unter 10nm wird es auch geben, aber das I-V-Verhalten wird sich verschlechtern.
Aber das lässt sich mit Hilfe von FinFETs in den Griff bekommen.
Die nächsten Jahrzehnte wird die Silitiumtechnik noch weiter dominieren, auch mit Strukturen unter 10nm!
Monger
2009-04-18, 09:02:33
Also PMOS und NMOS-Transistoren mit 5nm Kanallänge gibt es schon. Konventionelle Technologien unter 10nm wird es auch geben, aber das I-V-Verhalten wird sich verschlechtern.Was zur Hölle ist ist ein I-V-Verhalten? Immer diese sinnlosen Abkürzungen! :ugly:
Natürlich wird die intrinsische Leitfähigkeit immer kritischer je tiefer wir runtergehen, aber das ist nicht das zentrale Problem.
Wir sind jetzt schon bei einer Leitungsbreite von wenigen tausend Atomen, gleichzeitig sinkt notgedrungen die Schwellspannung für den Transistor. Schon jetzt rieseln die Elektronen ziemlich... granular durch die Leitung. Das alleine führt schon zu unerwarteten Effekten, aber so langsam machen sich auch Quanteneffekte bemerkbar.
Das sind Probleme, die auch mit besseren Fertigungsverfahren nicht verschwinden. Das sind keine technischen Limitierungen sondern physikalische.
Nur weil du im Labor einen funktionsfähigen Transistor in so kleiner Baugröße basteln kannst, heißt das noch lange nicht dass der im realen Einsatz zuverlässig arbeitet.
Acrylsäure
2009-04-18, 09:24:51
Was zur Hölle ist ist ein I-V-Verhalten? Immer diese sinnlosen Abkürzungen! :ugly:
Natürlich wird die intrinsische Leitfähigkeit immer kritischer je tiefer wir runtergehen, aber das ist nicht das zentrale Problem.
Wir sind jetzt schon bei einer Leitungsbreite von wenigen tausend Atomen, gleichzeitig sinkt notgedrungen die Schwellspannung für den Transistor. Schon jetzt rieseln die Elektronen ziemlich... granular durch die Leitung. Das alleine führt schon zu unerwarteten Effekten, aber so langsam machen sich auch Quanteneffekte bemerkbar.
Das sind Probleme, die auch mit besseren Fertigungsverfahren nicht verschwinden. Das sind keine technischen Limitierungen sondern physikalische.
Nur weil du im Labor einen funktionsfähigen Transistor in so kleiner Baugröße basteln kannst, heißt das noch lange nicht dass der im realen Einsatz zuverlässig arbeitet.
Mit I-V-Verhalten mein ich das Verhalten von Stromstärke (I) und Spannung (V) im Abschalt- und im Aktivbereich. => Also das was du auch beschrieben hast ;)
Also letzendlich schluss ist natürlich wenn die Elektronen einfach anfangen zu tunneln und man nix mehr steuern kann.
Transistoren konventioneller MOS-Technologie der Größe von 5nm lassen sich im Labor schalten. Ob man damit reale Schaltungen basteln kann wage ich auch zu bezweifeln.
Dafür wird die Entwicklung weiter in Richtung FinFETs gehen. Mit denen lässt sich der Kanal wesentlich besser kontrollieren und es sind noch kleinere Strukturen möglich.
Gast HITCHER
2009-04-20, 09:52:25
der Intel ATOM ist doch eine interessante CPU.
Zwar hat sie eine rel. schlechte IPC im Vergleich mit einem AMD x64,
aber sie braucht viel weniger Tranisstoren und weniger Strom.
1,6GHz ist aber doch sehr wenig, was diese CPU also dringend nötig hat,
ist eine stark gesteigerte Taktfrequenz auf 6 oder 8 GHz.
(Dürfte Intel aber nicht recht sein, CPUs um 5€ zu produzieren,
die für jeden Durchschnittsanwender locker ausreichen)
Spasstiger
2009-04-20, 13:28:02
1,6GHz ist aber doch sehr wenig, was diese CPU also dringend nötig hat,
ist eine stark gesteigerte Taktfrequenz auf 6 oder 8 GHz.
Mit 6 GHz würde ein Atom gerade so an einen Core 2 Duo mit 2 GHz heranreichen, aber auch nur mit aktivem Hyperthreading. Die Leistungsaufnahme würde allerdings bei einer Steigerung von 1,6 GHz auf 6 GHz um schätzungsweise einen Faktor 20-30 ansteigen, so dass die CPU aus Sicht der Energieeffizienz ziemlich uninteressant wäre.
Gast HITCHER
2009-04-21, 13:48:47
ich dachte der Atom Dualcore würde dann vielleicht 12x soviel Strom verbraten,
aber doch nicht 30x soviel. (bei vierfach höherer Taktfrequenz)
Spasstiger
2009-04-21, 14:22:19
ich dachte der Atom Dualcore würde dann vielleicht 12x soviel Strom verbraten,
aber doch nicht 30x soviel. (bei vierfach höherer Taktfrequenz)
Um höhere Taktraten zu erreichen, muss man höhere Spannungen verwenden. Und eine höhere Spannung geht quadratisch in die Verlustleistung ein. Der Takt geht linear ein.
Für eine Anhebung der Taktfrequenz von 1,6 GHz auf 6 GHz müsste man die Spannung sicherlich von von 1,1 Volt auf 2,5 Volt aheben (was natürlich schonmal alles brutzeln würde). Alleine dadurch steigt die Verlustleistung um mehr als den Faktor 5. Und dann kommt halt noch die Erhöhung der Taktfrequenz selbst, nochmal fast ein Faktor 4. Letztendlich landet man dann bei einem Faktor 20.
/EDIT: Afaik verhält sich der Takt näherungsweise linear zur Differenz aus der angelegten Spannung und der Vorwärtsspannung eines Transistors. Bei einer typischen Vorwärtsspannung von 0,6 Volt und einer angelegten Spannung von 1,1 Volt, beträgt diese Differenz 0,5 Volt. Um den Takt zu verdoppeln, müsste man auch diese Spannungsdifferenz verdoppeln, d.h. die Betriebsspannung müsste auf 1,6 Volt ansteigen.
Gast HITCHER
2009-04-21, 16:24:27
mag ja sein, aber andere, kompliziertere Intel 45nm CORE2 CPUs brauchen für 3,2 GHz (doppelte Frequenz!) auch noch nicht 1,6 Vcore. Dh. das mit dem Verdoppeln der Spannung für doppelte Frequenz wird wohl speziell hier doch etwas übertrieben sein. Somit scheint Faktor 12 für mich weiterhin plausibel.
E8600 (6M Cache, 3.33 GHz
Max TDP 65 Watts
Core Voltage 0.850v - 1.3625v
http://ark.intel.com/cpu.aspx?groupId=35605
Atom hat eine viel zu kurze Pipeline und zu lange kritische Pfade um so hoch zu takten. Außerdem wurden enegieeffiziente Transistoren verwendet die auf niedrigen Takt optimiert sind. Das kannst du nicht mit einem Core 2 vergleichen.
Spasstigers Schätzung was die Spannungserhöhung und den resultierenden Leistungsverbrauch angeht ist sehr wohl realistisch.
Gast HITCHER
2009-04-21, 18:14:56
ja, das schon klar, daß man einen handelsüblichen ATOM nicht einfach so durch eine so enorme Spannungserhöhung hochtakten kann, der CHIP müsste von Intel schon darauf optimiert werden. Den besten Fertigungsprozess mit den schnellsten Transistoren, etc.
Um was es mir gegangen ist, war daß man eine recht flotte CPU alleine durch eine hohe Frequenz mit rel. wenig Transistoren wie beim Intel ATOM bauen könnte. Das würde helfen Kosten zu sparen (DIE SIZE) und Fehler zu vermeiden (einfacheres Design).
Der Power6 läuft immerhin mit bis zu 5 GHz bei normaler Kühlung und Raumtemperatur.
Frucht-Tiger
2009-04-21, 19:09:00
Für was? Intel hat doch schon einen High-End Chip.
Der Atom soll doch gar nicht maximale Leistung erreichen, sondern ausreichende Leistung. Anhand der benötigten Leistung versucht Intel dann das beste Mittel zusammen mit Preis und Leistungsaufnahme zu finden.
@Spasstiger
Wie kommst Du auf die Werte für die Vorwärtsspannung? Das hört sich ja fast nach BJTs im Linearbetrieb an... Dir muss man wohl kaum sagen, dass es DIE Flusspannung in CMOS ICs nicht gibt.
(Allerdings könnte die Zahl an sich nicht sooo falsch sein, weil dann zumindest fast Leistungsanpassung herrscht ;) )
@Gast HITCHER
Leider ist es nunmal so, dass schnelle Logik auch viel Leistung braucht. Man nehme "einfach" größere Transistoren mit all ihren Vor- und Nachteilen.
Gast HITCHER
2009-04-21, 19:58:59
ja, ich dachte so um die 12*8W für einen 6,x ATOM Dualcore Prozessor wären doch gerade noch mit günstigen Mitteln beherrschbar abführbar.
Schon mal 12x8 gerechnet? ;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.