Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommt Architekturbruch wenn Fertigungsverkleinerung ihr reales Ende erreicht hat?
Intel plant schon für das laufende Jahr 2010 auf die 32 nm Fertigungstechnik umzusteigen und die Fertigungsgrößen dürften in den nächsten Jahren noch eine Weile weiter sinken.
Aber irgendwann ist das reale Ende erreicht, denn zwischen 10 nm
liegen vielleicht nur noch ca. 100 Atome und man braucht z.b. für eine Leitung
ja auch noch eine Isolierungsschicht.
D.h. manche Strukturen sind dann nur noch ein paar Atome breit,
womit das Ende der Fertigungsverkleinerung erreicht ist.
Eine weitere Leistungssteigerung liese sich nur noch durch eine Erweiterung der Chips in die Dritte Dimension erreichen, aber selbst da setzt die Physik aufgrund der maximal machbaren Leistungsdichte für Silizium ihre Grenzen.
Eine weitere Leistungssteigerung wäre also nur noch durch ein effizienteres Design möglich.
Die entscheidene Frage ist also, wird es zum Architekturbuch kommen?
Denn mit einem Architekturbruch könnte man die Verschwendung von
Transistoren, die nur dazu da sind, die Abwärtskompatibilität zur alten x86 Architektur aufrecht zu erhalten, verhindern.
Z.B. könnte man mit diesen Transitoren, die man dann einspart,
viel mehr Recheneinheiten auf einem Die gleicher Größe unterbringen.
Wird es daher langfristig gesehen zu einem Architekturbruch kommen?
Wäre dann nicht der Zeitpunkt gekommen, eine komplett neue Architektur
zu bauen, die das Ziel hat, aus den Verfügbaren Transistoren die maximale Leistung herauszuholen, ohne Transitoren für Abwärtskompatibiltätsschichten zu verschwenden.
BlackBirdSR
2009-02-14, 10:08:10
Denn mit einem Architekturbruch könnte man die Verschwendung von
Transistoren, die nur dazu da sind, die Abwärtskompatibilität zur alten x86 Architektur aufrecht zu erhalten, verhindern.
Z.B. könnte man mit diesen Transitoren, die man dann einspart,
viel mehr Recheneinheiten auf einem Die gleicher Größe unterbringen.
Das sind relativ gesehen zum Rest, inzwischen so wenige, dass der Vorteil alle Nachteile überwiegt. Darum setzt sich AMD64 ja auch durch.
Exxtreme
2009-02-14, 11:01:11
Denn mit einem Architekturbruch könnte man die Verschwendung von
Transistoren, die nur dazu da sind, die Abwärtskompatibilität zur alten x86 Architektur aufrecht zu erhalten, verhindern.
Der Decoder macht das Kraut auch nicht fett. ;)
Locutus2002
2009-02-14, 12:00:09
Es ist viel mehr so, dass Transistoren für Redundanzen "verschwendet" werden als für Abwärtskompatibilität. Warum? Weil ohne diese Redundanzen die Fertigungsausbeute fehlerfreier Chips bei nahe 0% liegen würde. Vereinfacht ausgedrückt werden Schaltungen redundant ausgeführt, um sicher zu stellen, dass bei der Fertigung funktionsfähige Gesamtpakete entstehen. Denn jeder Chip enthält Fertigungsfehler!!!
Das, was allgemein als Fertigungsfehler bekannt ist, z.B. defekte Kerne/Pipelines/Shader kennen, ist lediglich eine zufallsbedingte Häufung dahingehend, dass ein Kern/etc. insgesamt trotz Redundanzen nicht mehr zuverlässig zu gebrauchen ist. Redundante Schaltungen sollen also dafür sorgen, dass ein kleiner Fehler nicht sofort den gesamten Chip unbrauchbar macht.
Man müsste also bei Erreichen der kleinstmöglichen Fertigungsgröße das Verfahren verbessern, sodas keine oder zumindest wesentlich weniger dieser Redundanzen nötig werden.
Tiamat
2009-02-14, 12:09:19
Krass, wenn man sich das vorstellt gell.
Naja dann muss man sich halt 2015 noch rechtzeitig mit ein paar Intel CoreX Extreme Editions oder PhenomXCores eindecken, um die Dürrezeit zu überstehen :biggrin:
Na ich denk schon, dass da schon fleißig geforscht wird, kann mir kaum vorstellen, dass Intel und andere Unternehmen im Eiltempo auf den Nullpunkt
zurasen ohne sich Gedanken darüber zu machen. Immerhin hängt ja auch die Existenz der Firma davon ab, dass man neue Produkte auf den Markt bringt.
Gibt´s eigentlich noch weitere Zukunftskonzepte außer Quantencomputer?
Gruß
Tiamat
zappenduster
2009-02-14, 13:52:29
Es ist viel mehr so, dass Transistoren für Redundanzen "verschwendet" werden als für Abwärtskompatibilität. Warum? Weil ohne diese Redundanzen die Fertigungsausbeute fehlerfreier Chips bei nahe 0% liegen würde. Vereinfacht ausgedrückt werden Schaltungen redundant ausgeführt, um sicher zu stellen, dass bei der Fertigung funktionsfähige Gesamtpakete entstehen. Denn jeder Chip enthält Fertigungsfehler!!!
Das, was allgemein als Fertigungsfehler bekannt ist, z.B. defekte Kerne/Pipelines/Shader kennen, ist lediglich eine zufallsbedingte Häufung dahingehend, dass ein Kern/etc. insgesamt trotz Redundanzen nicht mehr zuverlässig zu gebrauchen ist. Redundante Schaltungen sollen also dafür sorgen, dass ein kleiner Fehler nicht sofort den gesamten Chip unbrauchbar macht.
Man müsste also bei Erreichen der kleinstmöglichen Fertigungsgröße das Verfahren verbessern, sodas keine oder zumindest wesentlich weniger dieser Redundanzen nötig werden.
also ich wage zu bezweifeln das redundanzen einen so grossen anteil ausmachen wuerden als das sie ins gewicht fallen
ist ja nicht so das da jedes element 2x im chip vorhanden ist wenn es mal 10% reserve waehren wuerde ich mich schon wundern, die sind eh nur an den wirklich kritischen stellen vorhanden
Locutus2002
2009-02-14, 15:47:39
also ich wage zu bezweifeln das redundanzen einen so grossen anteil ausmachen wuerden als das sie ins gewicht fallen
ist ja nicht so das da jedes element 2x im chip vorhanden ist wenn es mal 10% reserve waehren wuerde ich mich schon wundern, die sind eh nur an den wirklich kritischen stellen vorhanden
Ja, ich gebe zu, dass ich da nicht mehr up to date bin, wie gut die Fertigung in der Hinsicht ist. Wenn die Probleme mit den Lichtmasken für so extrem kleine Fertigungen überwunden sind, dann hast Du sicher recht, dass nicht mehr soviel Redundanz vorhanden ist. Aber selbst wenn man die von Dir angepeilten 10% sparen könnte, wäre das auch etwas wert, oder nicht?
Plutos
2009-02-14, 15:59:00
Was spräche denn dagegen, die Dice einfach größer zu machen? Klar, das wird dann erstmal teurer, nur wenn sich abzeichnet, dass das Mooresche Gesetz langsam aber sicher seine Gültigkeit verliert, wird auch die Nachfrage nach immer schnelleren CPUs/GPUs/etc. sinken und die Rohstoffe damit billiger. Ich gebe mich erst dann zufrieden, wenn ich einen kleinen Silizium-Würfel in meiner Hosentasche habe, aus dem ein paar Anschlüsse für Geräte rausstehen ;) aber das ist mehr Spekulation.
Unfug
2009-02-14, 16:08:47
... dass das Mooresche Gesetz langsam aber sicher seine Gültigkeit verliert ...
Wird es nicht. Die Industrie baut auf diesem Gesetz auf.
Als einfachstes Beispiel: Spieleentwickler,die darauf setzen, dass in 3 Jahren die Leistung sich entsprechend vervielfacht hat, entwickeln entsprechend ihre Spiele.
Ich glaube nicht, dass die X86 Architektur komplett aufgegeben wird, sondern eher, dass die Transistoren sich ändern. Statt übliche Transistoren werden dann so Phototransistoren verwendet. Und die Leiterbahnen sind nicht mehr elektronisch, sondern werden Mithilfe von Licht überbrückt. Das Intel an optischen CPUs arbeitet, stand schon vor ein paar Jahren mal auf Golem/Heise.
Google Einträge zur optischen CPU (http://www.google.de/search?hl=de&q=intel+optische+cpu&sourceid=navclient-ff&rlz=1B5GGGL_deDE310DE310&ie=UTF-8)
Wird es nicht. Die Industrie baut auf diesem Gesetz auf.
Aber die Physik nicht.
Unfug
2009-02-14, 16:19:04
Aber die Physik nicht.
Die Industrie ist stärker als die Physik :biggrin:.
Wenn die Physik im Weg steht, wird solange geforscht und entwickelt bis es passt
Beispiel (http://www.deutscher-zukunftspreis.de/?q=node/161)
Wenn die Physik im Weg steht, wird solange geforscht und entwickelt bis es passt
Es gibt Dinge da kann man nicht "entwickeln bis es passt". Man kann die Strukturen nicht auf picometer verkleinern - da herrscht nur noch das reine Chaos. Und dagegen kann niemand etwas tun.
Wir erreichen zwar bald das angebliche Ende, aber es ist nicht so, als würden die Forscher dann aufhören was komplett neues zu finden.
Ansätze gibt es genug, nur welche davon wird zum Einsatz kommen, das weiß noch keiner. Ein älterer Ansatz waren z.B. Prozessoren aus Diamanten.
Kein Witz! http://www.heise.de/newsticker/meldung/30551
Das ist jetzt schon x Jahre her... sowas wird sicherlich kaum wirtschaftlich sein, aber damit wäre es schonmal möglich, eine der Grenzen nach oben zu setzen. Die Hitzebeständigkeit ist sicherlich nicht zu verachten.
Dann frage ich mich natürlich wie die Entwicklung von ManyCore Prozessoren weiter geht. Vielleicht wäre schon jetzt eine deutlich höhere Rechenleistung möglich, würden wir einen anderen Weg gehen als den jetzigen, z.B. nur durch spezialisierte Prozessoren
Man sieht auch was ein anderes Entwicklungskonzept ausmachen kann... obwohl AMD Athlon64, Pentium 4, Core 2 alle zum Teil in 65nm gefertigt wurden, gab es immer unterschiedlichste Ergebnisse.
Ich glaube auch nicht, das bereits ein Core i7 das Maximum darstellt, also alle Leistungsreserven ausgeschöpft hat. Optimierungsmöglichkeiten scheint es bis jetzt immer wieder gegeben zu haben.
Wie das mit dreidimensionalen Strukturen aussieht, weiß ich auch nicht so recht, da sollte sich mal ein Experte zu äußern. :)
Wir erreichen zwar bald das angebliche Ende, aber es ist nicht so, als würden die Forscher dann aufhören was komplett neues zu finden.
Das ist zwar richtig, aber komplexer (bei gleichbleibenden Kosten) werden die Schaltungen dann nicht mehr. Und das besagt das Mooresche Gesetz ;)
Und das besagt das Mooresche Gesetz ;)
Ich finde ja schon die Bezeichnung falsch. Es war niemals ein "Gesetz", sondern höchstens eine "Regel" oder 'Vermutung'.
Wenn es ein Gesetz wäre, wäre es in Papierform gegossen und weltweit gültig gewesen. :tongue:
Ohne die starke Konkurrenzsituation wär das moorsche Gesetz schon lange gescheitert ;). In der Praxis mit normaler Durchschnittssoftware ist es heute schon gescheitert, die theoretische Leistungsfähigkeit der Prozessoren entfernt sich immer mehr vom praktischen Leistungsverhalten.
Die Physik hat hier schon ganz gewaltig zugeschlagen :D. Man darf das moorsche Gesetz nicht überbewerten - es ist genau wie die Tick-Tock-Regel pures, plumpes Marketing (ich musste doch schon schmunzeln, als ich sah, dass Intel aus den neuesten Tick-Tock-Folien die Jahreszahlen entfernt hatte :D).
In der Praxis mit normaler Durchschnittssoftware ist es heute schon gescheitert, die theoretische Leistungsfähigkeit der Prozessoren entfernt sich immer mehr vom praktischen Leistungsverhalten.
Das Mooresche "Gesetz" sagt darüber überhaupt nichts aus.
Das Auge
2009-02-14, 16:49:59
In der Praxis mit normaler Durchschnittssoftware ist es heute schon gescheitert, die theoretische Leistungsfähigkeit der Prozessoren entfernt sich immer mehr vom praktischen Leistungsverhalten.
Finde ich nicht. Ich komprimiere gerade ~15GB Daten mit 7zip, Brenne eine DVD und surfe im 3DC. Von den ganzen Hintergrunddiensten etc.pp. mal ganz abgesehen. Also ich mag meinen Quadcore ;)
Ich denke die Zukunft wird erstmal Richtung Many-Cores gehen, bevor irgendwas wirklich revolutionär neues wie die Diamant-CPU oder der Quantencomputer kommt.
Aquaschaf
2009-02-14, 16:50:41
Denn mit einem Architekturbruch könnte man die Verschwendung von Transistoren, die nur dazu da sind, die Abwärtskompatibilität zur alten x86 Architektur aufrecht zu erhalten, verhindern.
Z.B. könnte man mit diesen Transitoren, die man dann einspart,
viel mehr Recheneinheiten auf einem Die gleicher Größe unterbringen.
Was spräche denn dagegen, die Dies einfach größer zu machen?
Je weiter Teile eines Prozessors auseinander liegen, desto länger braucht es bis ein Signal von einem zum anderen kommt. Und genau das ist das Problem. Nicht so sehr die Zahl der Transistoren.
Es ist eh ein Mythos dass dafür unglaublich viel Transistoren verschwendet werden. Dekodieren muss man ohnehin.
Und die Recheneinheiten zu erhöhen hat aus vielerlei Gründen einen verschwindend geringen Effekt, vor allem weil die Codeparallelität einfach nicht vorhanden ist um sie auszulasten.
Wird es nicht. Die Industrie baut auf diesem Gesetz auf.
Als einfachstes Beispiel: Spieleentwickler,die darauf setzen, dass in 3 Jahren die Leistung sich entsprechend vervielfacht hat, entwickeln entsprechend ihre Spiele.
Ich glaube nicht, dass die X86 Architektur komplett aufgegeben wird, sondern eher, dass die Transistoren sich ändern. Statt übliche Transistoren werden dann so Phototransistoren verwendet. Und die Leiterbahnen sind nicht mehr elektronisch, sondern werden Mithilfe von Licht überbrückt.
D.h. das Licht muß durch einen Tunnel aus ein paar Atomen durchtunneln?
Paßt Licht da überhaupt durch?
Bei Elektronen ist es ja klar, die passen durch.
Es gibt Dinge da kann man nicht "entwickeln bis es passt". Man kann die Strukturen nicht auf picometer verkleinern - da herrscht nur noch das reine Chaos. Und dagegen kann niemand etwas tun.
Nun, wir könnten die Siliziumgitter verdichten, so daß die Atome näher beieinander liegen.
Dann passen anstatt 100 Atome sicher 1000 in eine Strecke von 10 nm.
Im schwarzen Loch funktioniert so etwas.
In schwarzen Löchern gibt es keine Atome mehr.
Außerdem macht man gerade genau das Gegenteil (strained silicon) damit sich die Ladungsträger freier bewegen können.
D.h. das Licht muß durch einen Tunnel aus ein paar Atomen durchtunneln?
Paßt Licht da überhaupt durch?
Bei Elektronen ist es ja klar, die passen durch.
So genau weiß keiner wie groß Photonen (Lichtteilchen) sind, aber sie sind auf jeden Fall deutlich kleiner (mind. Faktor 1000) als Elektronen. Ansonsten werden Photonen im Gegensatz zu Elektronen als Masselos (daher vermutlich auch keine Volumen) betrachtet.
mfg
Finde ich nicht. Ich komprimiere gerade ~15GB Daten mit 7zip, Brenne eine DVD und surfe im 3DC. Von den ganzen Hintergrunddiensten etc.pp. mal ganz abgesehen. Also ich mag meinen Quadcore ;)
Ich denke die Zukunft wird erstmal Richtung Many-Cores gehen, bevor irgendwas wirklich revolutionär neues wie die Diamant-CPU oder der Quantencomputer kommt.
diese logit mit den multicores verstehe ich immernoch nicht. als lösung für das strukturproblem höre ich immer, dass man dann einfach ganz viele cores macht. ok. aber da jeder core nun mal ne bestimmte anzahl von transistoren braucht, müssen die doch dann kleiner sein damit die vielen cores auf den die passen? und dann braucht man ja doch wieder ne strukturverkleinerung. kann mir das mal jemand erklären?
Aquaschaf
2009-02-14, 19:51:52
Wie gesagt: das Problem ist die Signallaufzeit. D.h. das Transistorbudget wächst zwar (noch) weiter, aber einen schnelleren Prozessor kann man damit gar nicht bauen. Die einfachste Lösung ist also mehr Prozessoren auf einen Die zu setzen.
das hab ich eben nich verstanden, sry. also ich hab beispielsweise einen core2 mit xx mm² fläche und xy transistoren und yz watt wärmeabgabe. davon will ich nun mehrere auf einen träger bauen um die in einen sockel zu bauen. dann würde entweder die fläche nicht ausreichen und das ding würde eben ein vielfaches an wärme abstrahlen, oder ich baue die einzelnen cores kleiner. und das geht ja nich wenn die cores schon eine minimale strukturbreite haben..?
Spasstiger
2009-02-14, 20:15:47
Für die Manycore-Lösung hat man sich entschieden, gerade weil die Strukturen immer kleiner und somit mehr Transistoren auf der gleichen Fläche untergebracht werden können.
Aufgrund steigender Leckströme mit der sinkender Strukturgröße ist dem Taktpotential von Mikroprozessoren leider eine Grenze gesetzt. Man könnte natürlich die einzelnen Pipelinestufen immer kürzer machen, aber damit läuft man irgendwann in ein Effizienzprobleme, siehe Netburst.
Was aber sehr gut funktioniert, ist eine Vervielfachung der vorhandenen Hardwareeinheiten, da man ja immer mehr Transistoren pro Fläche unterbringen kann.
=Floi=
2009-02-14, 20:33:05
das ist zwar für eine anwendung schlecht, aber eben nicht für mehrere.
Genau das sehe ich eben als den großen vorteil, weil hier eben mehrere anwendungen gleichzeitig problemlos laufen können.
zum thema:
Es werden auch noch 450mm wafer kommen und die DIE selbst sollte man auch größer machen können. (siehe GT200) Längerfristig wird der preis für schnelle prozessoren auch wieder steigen.
Die möglichkeiten sind da wirklich breit gefächert.
Ich sehe da eher grenzen in der software. Mit hohen entwicklungskosten und schier unüberschaubarer komplexität hat man ja auch heute schon zu kämpfen.
So genau weiß keiner wie groß Photonen (Lichtteilchen) sind, aber sie sind auf jeden Fall deutlich kleiner (mind. Faktor 1000) als Elektronen. Ansonsten werden Photonen im Gegensatz zu Elektronen als Masselos (daher vermutlich auch keine Volumen) betrachtet.
mfg
Mit deiner Vermutung, dass Photonen kein Volumen haben liegt's du ganz richtig. Davon geht man bei allen Elementarteilchen aus.
Dennoch gelten für Photonen ein paar andere Gesetze, als für Elektronen. Elektronen sind ja geladene Teilchen und davon gibt es in Materie genug um Wechselwirkung zu verursachen.
Beim den ungeladenen Photon hängt es erst mal von der Photonen-Energie ab, welcher Photonen-Wechselwirkungsprozess dabei überwiegt.
Und dann ist da teils natürlich noch die Material- und Frequenzabhängigkeit, sonst würdest du durch die Glasscheibe ja nix sehen. ;)
Der Begriff Phototransistor ist btw. nicht ganz richtig, weil er schon belegt ist.
Gemeint war wohl eher ein optischer Transistor.
Von sowas meine ich irgendwo mal gelesen zu haben. Aber nicht in der Form, dass man bereits unzählige davon zu einer CPU zusammen packen könnte.
Gemeint war wohl eher ein optischer Transistor.
Von sowas meine ich irgendwo mal gelesen zu haben. Aber nicht in der Form, dass man bereits unzählige davon zu einer CPU zusammen packen könnte.
Wie schaltet ein optischer Transistor?
basti333
2009-02-14, 22:01:15
Man muss aber auch beachten das die gier nach mehr leistung mit der zeit abnimmt. Wenn wir erstmal bei 5 - 10nm sind, werden die meisten leute nicht mehr leistung brauchen, dann wird jedes handy die leistung eines heutigen quadcores haben. D.h. egal was danach kommt, es ist sehr wahrscheinlich das die leistungssteigerung nicht mehr so stark ist wie heute. Die heutigen steigerungsraten sind ja -historisch betrachtet- ziemlich pervers und werden nicht auf immer und ewig bleiben. Gut möglich das es irgendwann so ist wie heute bei benzinmotoren: Mehrleistung wird nur noch durch besseres design, aber nicht mehr durch neue technik erbracht.
Spasstiger
2009-02-14, 22:10:38
Wie schaltet ein optischer Transistor?
Ein Modulator lässt Licht in Abhängigkeit der Intensität eines "Steuerlichtstrahls" durch. Wichtig ist dabei eine nichtlineare Kennlinie.
Das Funktionsprinzip ist also analog zum elektrischen Transistor, deshalb auch die Bezeichnung "optischer Transistor".
Allerdings erlaubt die optische Signalverarbeitung auch gänzlich andere Ansätze zur Informationsverarbeitung als die elektrische Signalverarbeitung. Z.B. kann man eine Multiplikation realisieren, indem man Licht einer bestimmten Intensität durch einen variablen Modulator schickt.
Wenn du dich für das Thema interessierst, solltest du mal nach Büchern zum Thema "Optical Signal Processing" Ausschau halten. Ich persönlich habe mir bislang keine Literatur oder Vorlesungen zum Thema reingezogen, aber Komilitonen von mir. Ist sicherlich ein spannender Forschungsbereich.
Mit deiner Vermutung, dass Photonen kein Volumen haben liegt's du ganz richtig. Davon geht man bei allen Elementarteilchen aus.
Nunja, Elektronen sollen ein Volumen haben, auch wenn es heute noch nicht feststellbar ist, da ein Elektron ja definitiv ein Masse hat, benötigt es auch ein Volumen.
Auch Photonen haben definitiv eine Masse, aber keine Ruhemasse.
Allerdings erlaubt die optische Signalverarbeitung auch gänzlich andere Ansätze zur Informationsverarbeitung als die elektrische Signalverarbeitung.
Oder man denke an Laser, welche interferieren. Obwohl das wohl von der Leistungsaufnahme schlecht passt.
Nunja, Elektronen sollen ein Volumen haben, auch wenn es heute noch nicht feststellbar ist, da ein Elektron ja definitiv ein Masse hat, benötigt es auch ein Volumen.
Man weiss es halt nicht 100%, stimmt.
Aber auch Quarks haben eine Masse. Doch das Einzige was man bei der Untersuchung ihres Inneren bisher gefunden hatte, waren noch mehr Quarks, iirc. :)
Blöd halt nur, dass wir wohl gar nicht so genau wissen, wie Masse eigentlich zu Stande kommt, ob sie auch wirklich Volumen braucht... :D
RavenTS
2009-02-14, 23:25:45
Man muss aber auch beachten das die gier nach mehr leistung mit der zeit abnimmt. Wenn wir erstmal bei 5 - 10nm sind, werden die meisten leute nicht mehr leistung brauchen, dann wird jedes handy die leistung eines heutigen quadcores haben. D.h. egal was danach kommt, es ist sehr wahrscheinlich das die leistungssteigerung nicht mehr so stark ist wie heute. Die heutigen steigerungsraten sind ja -historisch betrachtet- ziemlich pervers und werden nicht auf immer und ewig bleiben. Gut möglich das es irgendwann so ist wie heute bei benzinmotoren: Mehrleistung wird nur noch durch besseres design, aber nicht mehr durch neue technik erbracht.
Ausserdem heißt ManyCore ja auch nicht unbedingt das einfach nur stets weiter MultiPurpose-Kerne zusammengefriemelt werden wie heute.
Denkbar sind doch dann vor allem Steigerungen durch ganz spezialisierte Cores, siehe Cell oder AMDs Idee vor einiger Zeit mit den "neuen" Co-Prozessoren (Torrenza?!).
Auch wenn wir in den nächsten Dekade vermutlich auf eine Grenze bei der Hardwarerechenpower stoßen werden, so wird doch mal wieder die Lösung auch auf Softwarebene stattfinden müssen, was dann nochmal etwas dauert und auch nur für spezielle Bereiche zuerst kommen wird...
Denn mit einem Architekturbruch könnte man die Verschwendung von Transistoren, die nur dazu da sind, die Abwärtskompatibilität zur alten x86 Architektur aufrecht zu erhalten, verhindern.Das Märchen daß diese Transistoren aktuelle CPUs irgendwie ausbremsen oder einen nenneswerten Teil des Transistorbudgets ausmachen wird nur durch Unwissenheit aufrechterhalten.
Hammer des Thor
2009-02-15, 12:22:55
Schon recht bald könnten Lichtprozessoren kommen, die anstatt mit elektrischen Signalen mit Licht arbeiten :
http://www.golem.de/0712/56423.html
Auch hat IBM schon eine neue Speichertechnik parat, die Festplatten, Flash UND Arbeitsspeicher ablösen könnte, ist auch sehr schnell. Nennt sich Racetrack-Memory :
http://www.golem.de/0804/58949.html
Gruß HdT
Spasstiger
2009-02-15, 18:37:33
Optische Signalverarbeitung wurde in den 80ern beim Militär schon zur Verschlüsselung eingesetzt. Dabei hat man sich die Fraunhofer-Beugung zu Nutze gemacht, deren Beugungsmuster gerade der Fouriertransformation des beugenden Objekts entspricht. Damit konnte man eine ultraschnelle Frequenzmodulation umsetzen, bei der die Trägerfrequenz in rasantem Tempo moduliert wurde. Es war damals nicht möglich, derart modulierte Signale elektronisch aufzuzeichnen, wenn keine optische Signalverarbeitung zur Demodulation stattgefunden hat.
Nightspider
2009-02-15, 20:16:56
Es wird ja auch an Hochtemperatursupraleitern geforscht. Vielleicht sind die CPUs in 20 Jahren Supraleiter.
Es wird ja auch an Hochtemperatursupraleitern geforscht. Vielleicht sind die CPUs in 20 Jahren Supraleiter.Momentan gibt es keine Probleme mit den leitenden Schichten sondern mit den Sperrschichten ;)
Es wird ja auch an Hochtemperatursupraleitern geforscht. Vielleicht sind die CPUs in 20 Jahren Supraleiter.
Dir ist schon klar, dass es mit Supraleitern keinen Transistoreffekt geben kann?
Nightspider
2009-02-15, 23:16:35
Dir ist schon klar, dass es mit Supraleitern keinen Transistoreffekt geben kann?
Ne das ist mir nich klar. ^^
Hatte erst 2 Jahre Oberstufen Elektrotechnik, Studium kommt noch. :tongue:
BlackBirdSR
2009-02-15, 23:30:45
Dir ist schon klar, dass es mit Supraleitern keinen Transistoreffekt geben kann?
Was aber interessant wäre: Kühl die CPU runter und nutze supraleitende Metallisierungen... man gebe mir Zeit und Geld und es ließen sich Wunder entdecken...
Was für Wunder erwartest du denn?
BlackBirdSR
2009-02-16, 06:55:25
Was für Wunder erwartest du denn?
Das ist ein simples Zitat, nichts weiter.
roidal
2009-02-17, 13:39:02
Naja, ich denke mal die nahe Zukunft liegt wohl in Graphen oder Kohlenstoffnanoröhren. Ob Quantencomputer die Zukunft sind wird sich noch raustellen, da zwar überall geschrieben wird das einer davon leistungsmäßig alle heutigen Computer in den Schatten stellt, was aber immer zu erwähnen vergessen wird ist dass diese Effekt nur auf ein paar bestimmte Algorithmen zutrifft. Bei anderen Aufgaben ist er sogar langsamer als heutige Systeme. Aber egal was sich durchsetzt, irgendwann wird man das Physikalisch mögliche erreicht haben und dann wird es kaum noch leistungssteigerungen geben. Siehe Auto, da verdoppelt sich die Leistung der Motoren auch nicht alle 2 Jahre.
Pussycat
2009-02-17, 22:51:14
Mit deiner Vermutung, dass Photonen kein Volumen haben liegt's du ganz richtig.
Das ist wohl die schlimmste Form des Deppenapostrophs (http://www.deppenapostroph.de) die ich je gesehen habe. Sorry für's flamen, aber da kommen mir echt die Tränen.
Pussycat
2009-02-17, 22:54:44
Dir ist schon klar, dass es mit Supraleitern keinen Transistoreffekt geben kann?
Ich hatte mal in einer Vorlesung das Thema Supraleiter (und Schaltungen damit). Es gibt wohl supraleitende, schaltbare Elemente. Allerdings konnte man die sehr schnell ein-, aber nur langssam wieder ausschalten (oder anders herum). Auch war es wohl sehr schwierig, mit diesen Elementen eine Schaltung zu bauen (obwohl die Elemente dafür wie geschaffen erscheinen).
Wenn ich mich korrekt errinnere dauerte das Ausschalten ca. eine nanosekunde, so dass das Thema jetzt nicht mehr interessant ist.
Ich hatte mal in einer Vorlesung das Thema Supraleiter (und Schaltungen damit).
Mein Wissensstand war, dass sich Supraleitung und Halbleiter ausschließen.
Schon recht bald könnten Lichtprozessoren kommen, die anstatt mit elektrischen Signalen mit Licht arbeiten :
http://www.golem.de/0712/56423.html
Gruß HdT
Hmm, geht's dabei nicht "nur" um die Verbindung zwischene altmodisch elektrisch arbeitenden Kernen.
Das ist wohl die schlimmste Form des Deppenapostrophs (http://www.deppenapostroph.de) die ich je gesehen habe. Sorry für's flamen, aber da kommen mir echt die Tränen.
Schön, dass es immer noch Menschen im Netz gibt, die sowas belustigt.
Zwischen "liegt es" und "liegt's" sehe ich gar keinen Fehler, schon gar kein Deppenapostroph.
Richtigerweise müsste es "liegst" heissen!
Also, wenn du schon auf neumalkluger deppenapostroph-besessener Klugschätzer im Netz machst, dann mach es verflucht Scheiße auch richtig!
"Mit deiner Vermutung, dass Photonen kein Volumen haben liegt es du ganz richtig."
Das hast du gemeint? Na dann X-D
Ich glaub man soll hier nicht rumspammen.
Aber sry, auf die Idee, dass jemand dort "liegtes", "liegtest" oder "liegtestes" lesen will, bin ich echt nicht gekommen. :/
Erst Recht nicht dann, wenn jemand bei nicht-existenten Worten ein Deppenapostroph sucht. ;D
roidal
2009-02-18, 10:17:41
Lieg ich mit meiner Vermutung mit Graphen und Kohlenstoffnanoröhren wirklich so weit daneben? O.o
Konami
2009-02-18, 13:36:03
Lieg ich mit meiner Vermutung mit Graphen und Kohlenstoffnanoröhren wirklich so weit daneben? O.o
Nanoröhren könnten erstmal in näherer Zukunft kommen, um die Strukturverkleinerung noch ein bisschen fortzusetzen. Aber auf längere Sicht sehe ich auch Photoprozessoren im Kommen, dafür sorgt allein schon Intel.
Allgemein steckt da noch ziemlich viel Potenzial drin, wenn man irgendwann vielleicht mit verschiedenfarbigem Licht verschieden schalten kann. [/Spekulatius]
roidal
2009-02-18, 21:01:17
Nanoröhren könnten erstmal in näherer Zukunft kommen, um die Strukturverkleinerung noch ein bisschen fortzusetzen. Aber auf längere Sicht sehe ich auch Photoprozessoren im Kommen, dafür sorgt allein schon Intel.
Allgemein steckt da noch ziemlich viel Potenzial drin, wenn man irgendwann vielleicht mit verschiedenfarbigem Licht verschieden schalten kann. [/Spekulatius]
Photoprozessoren, bis jetzt wird ja "nur" davon geredet Licht zur Kommunikation zwischen den Kernen einzusetzen.
Hammer des Thor
2009-02-18, 21:14:58
Hmm, geht's dabei nicht "nur" um die Verbindung zwischene altmodisch elektrisch arbeitenden Kernen.
Das glaube ich kaum, auch wenn sich diese Artikel so ausdrücken, dass man das so verstehen könnte. Nur durch optische Bus-Systeme zwischen den Kernen dürfte sich weder die Rechengeschwindigkeit verhundertfachen, wie beschrieben, noch 1000 anstatt 4 Kerne auf einen Chip unterbringen lassen, was ebenfalls dazu erzählt wird.
Es wird ja schon länger an " Lichtschaltern " geforscht, also einer Art optischer Transistoren.
Gruß, HdT
Das glaube ich kaum, auch wenn sich diese Artikel so ausdrücken, dass man das so verstehen könnte. Nur durch optische Bus-Systeme zwischen den Kernen dürfte sich weder die Rechengeschwindigkeit verhundertfachen, wie beschrieben, noch 1000 anstatt 4 Kerne auf einen Chip unterbringen lassen, was ebenfalls dazu erzählt wird.
Es wird ja schon länger an " Lichtschaltern " geforscht, also einer Art optischer Transistoren.
Gruß, HdT
Durch optische Systeme könnte (!) die Geschwindigkeit vieleicht um 50% Steigen. Aktuell laufen die Elektrischen Signale in der CPU mit etwa 2/3 der Lichtgeschwindigkeit, bei optischen Systemen könnten diese Signale mit Lichtgeschwindigkeit laufen.
Ein weitere Vorteil wäre die geringe Verlustleistung, was ja u.a. dem P4 das Genick gebrochen hat.
mfg
Licht breitet sich in Glasfasern mitnichten mit Lichtgeschwindigkeit aus.
roidal
2009-02-19, 09:40:23
Das glaube ich kaum, auch wenn sich diese Artikel so ausdrücken, dass man das so verstehen könnte. Nur durch optische Bus-Systeme zwischen den Kernen dürfte sich weder die Rechengeschwindigkeit verhundertfachen, wie beschrieben, noch 1000 anstatt 4 Kerne auf einen Chip unterbringen lassen, was ebenfalls dazu erzählt wird.
Es wird ja schon länger an " Lichtschaltern " geforscht, also einer Art optischer Transistoren.
Gruß, HdT
Ist aber so. Siehe: http://www.golem.de/0712/56423.html
Shink
2009-02-19, 10:24:55
Supraleiter, optische Prozessoren: Gut, ich versteh nicht ganz wieso das bei Prozessoren so unglaublich viel bringen soll aber wahrscheinlich bin ich nur unwissend. Die Frage ist: Inwieweit ändert es etwas an der Tatsache dass man irgendwann keine kleineren Strukturen mehr hinbekommt? Atome sind nunmal nicht beliebig klein. Selbst wenn man mit 10 Wasserstoffatomen für eine Leitung auskommt (öh...): Irgendwann wird es nicht mehr kleiner. Und laut Moores Vermutung kämen wir halt irgendwann dort hin.
Größere Dies? Soll das ein Scherz sein? Wenn man soweit ist dass man Moore nur durch die Vergrößerung von Dies (oder Multi/Manycores) hinbekommt muss man nur noch ein paar Jahre warten und Prozessoren haben im Wohnzimmer nicht mehr Platz.
Supraleiter, optische Prozessoren: Gut, ich versteh nicht ganz wieso das bei Prozessoren so unglaublich viel bringen soll aber wahrscheinlich bin ich nur unwissend. Die Frage ist: Inwieweit ändert es etwas an der Tatsache dass man irgendwann keine kleineren Strukturen mehr hinbekommt? Atome sind nunmal nicht beliebig klein. Selbst wenn man mit 10 Wasserstoffatomen für eine Leitung auskommt (öh...): Irgendwann wird es nicht mehr kleiner. Und laut Moores Vermutung kämen wir halt irgendwann dort hin.
Größere Dies? Soll das ein Scherz sein? Wenn man soweit ist dass man Moore nur durch die Vergrößerung von Dies (oder Multi/Manycores) hinbekommt muss man nur noch ein paar Jahre warten und Prozessoren haben im Wohnzimmer nicht mehr Platz.
Eben, ein Ende gibts immer. :D
Hammer des Thor
2009-02-19, 14:43:13
Ist aber so. Siehe: http://www.golem.de/0712/56423.html
Damit würden die Prozzis aber nicht 100 mal schneller, auch könnte man nicht mehr Kerne unterbringen, auch die Energieersparnis wäre nicht so hoch. Es gibt mehrere Artikel dazu, da steht auch ( bei Golem weiß ich jetzt nicht ) dass 1000 Kerne auf einen Chip dadurch machbar sein werden, das ginge wohl alles kaum wenn nur der Bus getauscht würde.
http://www.shortnews.de/start.cfm?id=690630
Damit würden die Prozzis aber nicht 100 mal schneller, auch könnte man nicht mehr Kerne unterbringen, auch die Energieersparnis wäre nicht so hoch. Es gibt mehrere Artikel dazu, da steht auch ( bei Golem weiß ich jetzt nicht ) dass 1000 Kerne auf einen Chip dadurch machbar sein werden, das ginge wohl alles kaum wenn nur der Bus getauscht würde.
http://www.shortnews.de/start.cfm?id=690630
Wer weiß vll. bekommt man durch lange Leitungen mehr Verluste als durch Recheneinheiten. Wenn man nun die elektrischen Leitungen durch Lichtleiter ersetzt und dadruch die Verlustleistung senkt kann man auch die Taktraten der Einheiten/Kerne wieder hochdrehen.
Wer weiß vll. bekommt man durch lange Leitungen mehr Verluste als durch Recheneinheiten. Wenn man nun die elektrischen Leitungen durch Lichtleiter ersetzt und dadruch die Verlustleistung senkt kann man auch die Taktraten der Einheiten/Kerne wieder hochdrehen.
Hab keine Ahnung aber ne Vermutung: meinst du nicht, dass die Wandlung von Licht in Strom nicht die Vorteile dieser Lösung total auffrist und im Gegenteil eher eine Verschlechterung bewirkt?
Hab keine Ahnung aber ne Vermutung: meinst du nicht, dass die Wandlung von Licht in Strom nicht die Vorteile dieser Lösung total auffrist und im Gegenteil eher eine Verschlechterung bewirkt?
On dieser Hinsicht ja, aber aktuell wird die Signallaufzeit in den CPUs zum Problem und diese könnte eventl. reduziert werden.
Bei 4 GHz Takt und 200.000 km/s Ausbreitungsgeschwindigkeit, ergibt das pro Sekunde 5 cm zurückgelegte Wegstrecke.
Bei den aktuellen Transitormonster (wo es auch keine direkten sondern "verschlungene" Verbindungen gibt) wird das langsam zum Problem, da ja auch eine gewisse "Reserve" eingeplant werdne muss.
mfg
Potenzial in alle richtungen ist aufjedenfall vorhanden
denn mit x86 cpus wird man nie so einen schnellen kontextwechsel und so eine hohe floatperformance wie man mit powerpc hat, haben.
und das menschliche gehirn hat schliesslich auch eine hoehere rechenleistung pro nanometer als eine cpu, korrigiert mich falls falsch. das ist ein moeglicher beweis dafuer, dass entweder in der architektur oder im fertigungsprozess noch viel potenzial steckt, und dabei ist das gehirn alles andere als perfekt.
deadkey
2009-02-20, 02:01:58
...und das menschliche gehirn hat schliesslich auch eine hoehere rechenleistung pro nanometer als eine cpu
...und arbeitet vollkommen anders, als eine popelige CPU;)
BlackBirdSR
2009-02-20, 06:40:22
und das menschliche gehirn hat schliesslich auch eine hoehere rechenleistung pro nanometer als eine cpu, korrigiert mich falls falsch. das ist ein moeglicher beweis dafuer, dass entweder in der architektur oder im fertigungsprozess noch viel potenzial steckt, und dabei ist das gehirn alles andere als perfekt.
Ein Nanometer ist ganz schön wenig. Wenn du für ein Axon µm annimmst, für die Dendriten noch einmal ein Vielfaches davon, dann hat das Menschliche Gehirn pro Nanometer keine direkte Leistung mehr.
On dieser Hinsicht ja, aber aktuell wird die Signallaufzeit in den CPUs zum Problem und diese könnte eventl. reduziert werden.
Bei 4 GHz Takt und 200.000 km/s Ausbreitungsgeschwindigkeit, ergibt das pro Sekunde 5 cm zurückgelegte Wegstrecke.
Bei den aktuellen Transitormonster (wo es auch keine direkten sondern "verschlungene" Verbindungen gibt) wird das langsam zum Problem, da ja auch eine gewisse "Reserve" eingeplant werdne muss.
Nochmal: Licht breitet sich in Lichtleitern auch nicht mit Lichtgeschwindigkeit aus, sondern ähnlich schnell wie Strom durch elektrische Leiter.
roidal
2009-02-20, 08:53:55
...und das menschliche gehirn hat schliesslich auch eine hoehere rechenleistung pro nanometer als eine cpu, korrigiert mich falls falsch. das ist ein moeglicher beweis dafuer, dass entweder in der architektur oder im fertigungsprozess noch viel potenzial steckt, und dabei ist das gehirn alles andere als perfekt.
Das kannst du so nicht vergleichen da beide Systeme (CPU - neuronale netze) in ganz unterschiedlichen Bereichen ihre Vorteile haben. Z.b. wirst du nie so schnell rechnen können wir ein Computer, auf der anderen Seite ist das Menschliche Gehirn in Bilderkennung praktisch von einem PC nicht schlagbar.
mekakic
2009-02-20, 12:39:38
Nochmal: Licht breitet sich in Lichtleitern auch nicht mit Lichtgeschwindigkeit aus, sondern ähnlich schnell wie Strom durch elektrische Leiter.Wieso?
Krishty
2009-02-20, 13:00:29
Mit Lichtgeschwindigkeit breitet es sich schon aus, allerdings nicht mit Vakuumlichtgeschwindigkeit.
Ist es denn wirklich so schwer, dafür Wikipedia (http://de.wikipedia.org/wiki/Lichtgeschwindigkeit#Lichtgeschwindigkeit_in_Materie) zu bemühen?
Gruß, Ky
IBM meint, wenn Cell komplett mit Licht funktionieren würde, könnte man es 100x schneller bauen.
roidal
2009-02-20, 14:02:24
IBM meint, wenn Cell komplett mit Licht funktionieren würde, könnte man es 100x schneller bauen.
Ok, nochmal. Nicht wenn die ganze CPU mit Licht funktionieren würde, sondern NUR die Kommunikation zwischen den Kernen.
Ich würde mal nicht zu viel auf diese Meldung geben.
Allein wenn ich Formulierungen wie "Eines Tages" lese...
Wenn bei einem Cell NUR die Verbindung der Kerne so viel ausmachen würden, ja warum nimmt dann nicht nur den Core. Der sollte damnach alleine ja locker mit 200 Ghz daher schnurren... is' klar.
Also müssen schon weitere Bereiche des Systems optisch sein.
Ist aber auch nicht ganz unverständlich sich erst den "Verbindungen" zu widmen, weil noch vergleichsweise überschaubar.
Ein optischer Prozessor ist doch reine Theorie mit viel Potenzial.
Woher soll man wissen, ob bei einem optischen Prozzi nicht schon bei der Leistung eines 8080 Schluss ist. Und bis zu einem core7 und dessen Preis-Leistungsverhältnis ist noch mal ein anderer Schritt.
Pussycat
2009-02-20, 23:07:12
Mein Wissensstand war, dass sich Supraleitung und Halbleiter ausschließen.
Ich hab's mal nachgeschaut (Quelle: Nanoelectronics and information technology v. Rainer Waser):
Es gibt die sogenannte 'josephson junction', wenn man zwischen zwei supraleitenden Materialien mit einer sehr dünnen Schicht aneinander bringt.
Diese kann man schaltbar machen und auch mit einer Hysterese versehen. Der Kontakt hat extrem schnelle Schaltzeiten (flip-flpo mit 770 GHz).
Das langsame Element waren Speicherzellen, bei denen der Übergang von '1' zu '0' nur mit ein paar GHz stattfand.
Pussycat
2009-02-20, 23:11:07
Schön, dass es immer noch Menschen im Netz gibt, die sowas belustigt.
Zwischen "liegt es" und "liegt's" sehe ich gar keinen Fehler, schon gar kein Deppenapostroph.
Da stand aber nicht "liegt es" -> "liegt's", sondern "liegt's du"
Richtigerweise müsste es "liegst" heissen!
Das ist eben das schlimme. Er macht einen Rechtschreibfehler um damit erst den falschen Apostroph zu ermöglichen!
Also, wenn du schon auf neumalkluger deppenapostroph-besessener Klugschätzer im Netz machst, dann mach es verflucht Scheiße auch richtig!
Puuuuuh..... War das jetzt echt nötig? Naja, ich hoffe, wir können's jetzt ruhen lassen, es tat mir nur so schrecklich weh an den Augen.
Gibt es nicht auch Forschungen den Transistor in CPUs durch den sehr viel platzsparenderen Memristor zu ersetzen?
Ich finde man sieht heute schon, dass moderne CPUs in 0815-Systemen kein Flaschenhals mehr sind, wenn gute SSD zum Einsatz kommen.
Die Frage ist heute doch eher: Wird es jemals ein Browser, ein Officeprogramm, ein Betriebssystem etc. geben, welches durch mehr als vier Kerne deutlich schneller wird? Ich glaube es ehrlich gesagt nicht, da der Performancehunger in diesen Bereichen nur noch durch sinnlose Features künstlich erreicht werden kann.
Die Frage ist also nur, wie man alles noch weiter minimalisieren kann. Und in diesem Bereich mache ich mir überhaupt keine Sorgen, da x86 hier nicht alleine ist und man tagtäglich Fortschritte erkennen kann.
Wer letztendlich mehr Leistung braucht gehört nunmal zu einer Szene. Und Szenen werden und wurden schon immer mit speziellen Lösungen bedient.
Wenn man J. Carmack glauben schenken darf, dann hat der Spielebereich wohl eher ein Problem, weil hier nicht alles parallelisiert werden kann und es damit Probleme mit der effizienten Ausnutzung von Mehrkernprozessoren gibt. In wissenschaftlichen Bereichen sieht es das glücklicherweise weitestgehend anders aus. Hier bedeuten mehr Kerne tatsächlich auch deutlich mehr Leistung. Ähnliches gilt für GPGPU.
Die Einzigen, die es also wirklich betreffen könnte, sind die Spieler. Und mit Verlaub: Die sind wirklich fast die unwichtigste Gruppe aller Nutzergruppen. Der Spieler produziert nichts, leistet keinen Beitrag zum Fortschritt etc. Er möchte unterhalten werden, das wars. Wenn das irgendwann wichtiger wird, als der Fortschritt in wissenschaftlichen Bereichen, ja dann aber gute Nacht.
Wenn morgen die Meldung kommt "physikalische und technische Grenzen behindern massiv die Forschung" dann fange ich an mir wirklich Sorgen zu machen.
Aquaschaf
2009-02-21, 11:49:12
Die Einzigen, die es also wirklich betreffen könnte, sind die Spieler. Und mit Verlaub: Die sind wirklich fast die unwichtigste Gruppe aller Nutzergruppen.
Videospiele generieren bald 20 Milliarden Dollar Umsatz pro Jahr alleine in den USA. Egal ob "sinnvoll" oder nicht, Videospiele sind ein entscheidender Motor für die Entwicklung von Hardware. Davon profitieren indirekt wieder ernstere Anwendungsbereiche. Wie zum Beispiel nun bei GPGPU.
Videospiele generieren bald 20 Milliarden Dollar Umsatz pro Jahr alleine in den USA. Egal ob "sinnvoll" oder nicht, Videospiele sind ein entscheidender Motor für die Entwicklung von Hardware. Davon profitieren indirekt wieder ernstere Anwendungsbereiche. Wie zum Beispiel nun bei GPGPU.
Da gebe ich dir Recht. Jedoch geht mit OpenCL, CUDA etc. so langsam die Zeit vorbei, bei der der wissenschaftliche Bereich nur die Lorbeeren der Spieleindustrie erntet.
Es gibt mittlerweile einige Interviews, auch mit Nvidia, bei denen klar wird, dass man für das Prinzip einer GPU bzw. GPGPU auch ohne die Spieleindustrie in der Zukunft Absatzmärkte sieht.
Und wir reden hier ja auch nicht von 2-3 Jahren. Ein wenig wird das schon noch dauern. Aber wie schon gesagt sehe ich, sofern man sich auf J. Carmacks Aussagen stützen kann, die Problematik der Leistungssteigerung durch Multithreading erstmal hauptsächlich bei Spielen.
Geld hin oder her, die Welt wird nicht zusammenbrechen, wenn der Spielemarkt schrumpfen sollte. Dafür sind die Summen global gesehen dann einfach doch zu gering und der Anwendungsbereich von Rechnern ausserhalb der Spielewelt zu gross.
Dafür sind die Summen global gesehen dann einfach doch zu gering und der Anwendungsbereich von Rechnern ausserhalb der Spielewelt zu gross.
Das kann nicht sein, denn es gibt weltweit keinen Bedarf für mehr als 10 Computer.
Das hat der Chef von IBM gesagt, der muß es also wissen!
phil99
2009-02-26, 17:52:10
Irgendwann wird einfach eine Möglichkeit gefunden, die Verlustleistung drastisch zu drosseln. Wie auch immer. Dann kann man den Takt auf das 1000-fache hochdrehen. Die Wege werden auch kurz, weil das ganze 3-Dimensional aufgebaut sein wird.
Man hat dann einen Würfel von 0.5 cm3 mit 4 Tetraherz und mit vielleicht 30*30*30 = 27.000 Kernen.
Das ist natürlich pure Fiktion, aber ich will nur mal darlegen, was wirklich auch bei 10nm schon alles mögich wäre.
Prinzip nahezu Supraleitend (kaum Energieverlust).
Diese Würfel kann mann dann in ein Cluster bauen mit 1000 * 10000 * 10000 davon.
Schon haben wir die 10 Hoch 15 fache Rechenleistung.
50 Jahre.
Nicht ganz ernst gemeint, aber durchaus denkbar.
Ausserdem werden dann Superintelligente Robotor die Weiterentwicklung vorantreiben und die Menschen als Haustiere halten.;D
Dann kann man den Takt auf das 1000-fache hochdrehen.
Die Taktfrequenz wird bei weitem nicht nur von der Verlustleistung limitiert. Das ist eigentlich eher erst seit jüngster Zeit so (65nm).
elianda
2009-03-02, 01:28:53
Netter Thread, hier wird ja einiges zusammen getragen was hier und da mal gehoert wird.
Meine Meinung ist, dass natuerlich ein Architekturbruch kommen wird, wenn die Miniaturisierung an die physikalische Grenze stoesst. Was soll auch sonst passieren, die Erfahrung lehrt, dass es da keine Stagnation geben wird. (siehe z.B. Roehren -> Transistor)
Die Probleme zur Zeit liegen darin, dass die aktuelle Elektronik auf Basis von Halbleitern auf der Wechselwirkung von Ladungstraegern basiert. Das heisst, da muessen Elektronen sich ueber eine Wegstrecke bewegen, z.B. dass ein Transistor schaltet (die Loecher sind ja im Verlgeich dazu immobil).
Das naechste Problem ist, dass man pro Nanometer ca. 5 Atome hat. Da sind wir bei 32nm schon recht nah dran. Man muss dabei auch bedenken, dass die (Silizium)-Kristalle aufgrund von Stoerstellen auch nicht perfekt sein koennen. Und dann kommt auch noch hinzu, dass die ganze Technik und das Wissen rund um die Silizium basierten Halbleiter sehr gut ist und dadurch andere Materialien etwas ins hintertreffen geraten sind.
Um mal etwas zu spinnen, was vermutlich in der Zukunft kommen koennte:
- natuerlich zuerst einmal die kleineren Prozesse bis 32 nm und dann soweit, wie es noch kommerziell Sinn macht.
- Multi-Cores in Kombination mit 3D Chip Stacking (siehe auch http://www.research.ibm.com/journal/rd52-6.html )
Dann wird die Softwarearchitektur zuerst hinterherhinken und (noch) mehr daran forschen muessen, wie man bestimmte Ablaeufe besser parallelisieren kann.
Was auch nicht zu unterschaetzen ist, dass die zukuenftigen organischen Halbleiter einfacher herzustellen sind und damit verdammt preiswert werden. Ich schaetze sogar, dass es da eine Marktteilung geben wird, da fuer einen grossen Teil des Halbleitermarkt die Eigenschaften der organischen Halbleiter vollkommen ausreichen werden.
Und dann hat man erst einmal das Limit der klassischen Schaltungstechnik erreicht.
Dann muss eine andere Technologie her, die Schaltungselemente wie den Transistor realisieren kann.
Ein heisser Kandidat ist Spintronics. Dabei wird die Eigenschaft der Elektronen ausgenutzt, dass diese einen Spin haben und Elektronen darueber auch wechselwirken. Dabei muessen sich im Gegensatz zur jetzigen Elektronik die Elektronen aber nicht bewegen. Wenn man nun eine spinpolarisierte Stromquelle hat, kann man die Elektronen mit einer Spin Richtung in die Schaltung 'fuellen' und dann damit arbeiten. Die Wechselwirkung ueber den Elektronenspin ist mindestens drei Groessenordnungen schneller als wenn sich die Elektronen bewegen muessten wie bisher. Auf dem Gebiet gibt es in letzter Zeit ziemlich grosse Fortschritte. Insgesamt hat das den Vorteil, dass man aehnlich wie bisher mit Festkoerpern arbeiten kann.
http://www.nature.com/nphys/journal/v3/n3/abs/nphys551.html
Dann gibt es auch die Ansaetze das ueber Licht zu machen. Dabei werden aber vermutlich die Bausteine erstmal wieder groesser, da die photonischen Kristallstrukturen, die man zum leiten, speichern und wechselwirken lassen des Lichts benoetigt auch in der Groessenordnung der Wellenlaenge sein muessen und 200 nm ist schon weit im UV.
http://www.nature.com/nphoton/journal/v1/n1/full/nphoton.2006.51.html
In noch weiterer Ferne waere auch vorstellbar kurze Licht Pulse mit lokaler Elektronen-(Attosekunden) oder Nukleonendynamik (Zeptosekunden) zu koppeln. Wenn man mal annimmt, dass die technische Entwicklung exponentiell voranschreitet, wird man dort vielleicht in 50 Jahren dort sein, wo man mit Spintronics heutzutage ist.
http://www.newscientist.com/article/dn14172-fastestever-flashgun-captures-image-of-light-wave.html?feedId=online-news_rss20
Irgendwas wird schon kommen. :)
Tiamat
2009-03-02, 01:45:19
Was ist eigentlich aus den Gerüchten geworden, biotechnologische Komponenten würden irgendwann die klassische Elektronik in diesem Bereich ablösen?
...
Ein heisser Kandidat ist Spintronics. Dabei wird die Eigenschaft der Elektronen ausgenutzt, dass diese einen Spin haben und Elektronen darueber auch wechselwirken. Dabei muessen sich im Gegensatz zur jetzigen Elektronik die Elektronen aber nicht bewegen. Wenn man nun eine spinpolarisierte Stromquelle hat, kann man die Elektronen mit einer Spin Richtung in die Schaltung 'fuellen' und dann damit arbeiten. Die Wechselwirkung ueber den Elektronenspin ist mindestens drei Groessenordnungen schneller als wenn sich die Elektronen bewegen muessten wie bisher. Auf dem Gebiet gibt es in letzter Zeit ziemlich grosse Fortschritte. Insgesamt hat das den Vorteil, dass man aehnlich wie bisher mit Festkoerpern arbeiten kann.
http://www.nature.com/nphys/journal/v3/n3/abs/nphys551.html
...
Also, soweit ich weiß stimmt das so nicht. Du musst noch immer Ladungen durch gegend schieben, nur schaltet in dem Fall nicht mehr das Niveau der Ladung sondern der Spin, daher würde man noch immer einiges an Strom brauchen, der unterschied liegt anscheinend darin das man weniger Energie braucht um den Spin zu ändern als direkt mit der Ladung zu schalten.
elianda
2009-03-02, 17:55:17
Um mal Wikipedia zu quoten:
http://en.wikipedia.org/wiki/Spin_transistor
One advantage over regular transistors is that these spin states can be detected and altered without necessarily requiring the application of an electric current.
roidal
2009-03-02, 21:49:53
Um mal Wikipedia zu quoten:
http://en.wikipedia.org/wiki/Spin_transistor
Wenn du da eine Zeile weiterlest siehst du das es da im speziellen um Festplatten geh. Bei einer CPU brauchst du aber schaltbare Spin-Spintransistoren die etwas anders funktionieren.
www.bsi.bund.de/literat/studien/nanotech/Nanotechnologie.pdf - da sind einige Sachen ziemlich gut erklärt, unter anderem auch der Spintransistor.
elianda
2009-03-03, 00:04:03
Vielleicht habe ich es etwas unklar ausgedrueckt, weil ich es verstaendlich schreiben wollte.
Natuerlich beeinflusst man einen Stromfluss.
Das geschieht nur durch die Drehung der Spins und nicht durch ein lokales umladen (und damit Bewegen von Elektronen). Das heisst das Schalten des Transistors ansich wird nur durch die induzierte Ausrichtung der Spinrichtung verursacht.
Habe ich irgendwo etwas andres geschrieben?!?
roidal
2009-03-03, 09:16:02
crap.
Ja, und die Spins selbst ändert man wieder durch eine Elektrisches Feld wodurch wieder ein umladen von Elektronen nötig ist, nur halt weitaus weniger.
PS.: Habe jetzt gelesen das es auch reine Spinströme geben soll, nur wie funktioniert das? Wenn ein Elektron einen Spin hat muss man dieses Elektron auch transportiere um den Spin zu transportieren?!
elianda
2009-03-03, 16:08:49
Ja, und die Spins selbst ändert man wieder durch eine Elektrisches Feld wodurch wieder ein umladen von Elektronen nötig ist, nur halt weitaus weniger.
Genaugenommen laesst sich der Spin nur durch ein Magnetfeld beeinflussen. Ueber die Spin-Bahn-Kopplung und die relativistische Bewegung der Elektronen sieht dieses aber dann auch ein Magnetfeld.
PS.: Habe jetzt gelesen das es auch reine Spinströme geben soll, nur wie funktioniert das? Wenn ein Elektron einen Spin hat muss man dieses Elektron auch transportiere um den Spin zu transportieren?!
Nein man muss das Elektron nicht transportieren, um den Spin weiterzugeben. Siehe z.B. auch http://en.wikipedia.org/wiki/Spin_wave
Du meinst "sieht dieses aber auch ein elektrisches Feld", oder?
elianda
2009-03-03, 19:46:26
Nein ich meine wie es dasteht, das ist auch nicht mehr so ganz simpel zu erklaeren. Um da vielleicht nochmal Wikipedia zu bemuehen:
http://de.wikipedia.org/wiki/Spin-Bahn-Kopplung
(semiklassisches Modell)
Aus der Maxwelltheorie und der speziellen Relativitätstheorie folgt, dass auf ein Elektron, wenn es im elektrischen Feld eines Atomkerns kreist, ein magnetisches Feld in seinem Ruhesystem wirkt. Im Ruhesystem des Elektrons wird nämlich eine Bewegung des Kerns wahrgenommen. Diese Bewegung stellt aufgrund der Ladung des Kerns einen Kreisstrom dar, welcher zu einem Magnetfeld führt.
Obiges gilt nicht nur fuer das elektrische Feld des Atomkerns, sondern auch wenn man ein externes Feld anlegt.
Okay da hört es bei mir leider auf mit der Physikkenntnis. Aber interessant ist es allemal.
Genaugenommen laesst sich der Spin nur durch ein Magnetfeld beeinflussen. Ueber die Spin-Bahn-Kopplung und die relativistische Bewegung der Elektronen sieht dieses aber dann auch ein Magnetfeld.
Wofür steht "dieses" im zweiten Satz?
elianda
2009-03-03, 21:54:38
Dieses Elektron.
(Hmm ist wohl mein kuerzestes Posting seit langem.)
Ich kapier's immer noch nicht. Im ersten Satz schreibst du schon von "Magnetfeld" und dann im zweiten "sieht dann aber auch ein Magnetfeld". He? :|
elianda
2009-03-04, 00:26:55
Tja, die exakte Beschreibung ist nicht so einfach:
http://books.google.de/books?id=fCY6NB50j0QC&pg=PA219&lpg=PA219&source=bl&ots=4xjGsxpCXR&sig=aJ0_WOvzxNxj9LwFARpGrl6nJqo&hl=de&ei=2retSfKoIJy80AWmnr26BQ&sa=X&oi=book_result&resnum=3&ct=result#PPA219,M1
Das jetzt im Detail zu erklaeren, wuerde den Thread bei Weitem sprengen. Aber vielleicht noch soviel dazu:
In L steckt der Bahndrehimpuls
In S steckt der Spin
in V(r) die potentielle Energie des Elektrons im elektrischen Feld des Kerns
In dem Beispiel wird nur mit dem elektrischen Feld des Kerns gerechnet, was zu dem magnetischen Moment des Elektrons fuehrt. Wenn man ein externes elektrisches Feld hinzunimmt, startet man mit V(r)=V_kern(r)+V_extern(r), was der normalen Ueberlagerung der elektrischen Felder entspricht. Damit ergibt sich ein magnetisches Moment, das auch vom externen elektrischen Feld abhaengt.
Okay ich steig aus. Dafür hab ich den falschen Studiengang belegt :)
In schwarzen Löchern gibt es keine Atome mehr.
Außerdem macht man gerade genau das Gegenteil (strained silicon) damit sich die Ladungsträger freier bewegen können."Strained Silicon" bedeutet, dass man bei NMOS streckt (d.h. auseinanderzieht), aber bei PMOS die Gitterstrukturen zusammendrückt - also das Gegenteil macht.
http://www.realworldtech.com/page.cfm?ArticleID=RWT121303010053&p=4
http://www.realworldtech.com/page.cfm?ArticleID=RWT123005001504&p=6
Hm okay. Ich dachte immer man behandelt die Wafer vorher so, dass das Silizium "vorgestreckt" ist und das für alles gilt dann.
roidal
2009-04-14, 10:00:59
http://winfuture.de/news,46478.html
Supraleiter, optische Prozessoren: Gut, ich versteh nicht ganz wieso das bei Prozessoren so unglaublich viel bringen soll aber wahrscheinlich bin ich nur unwissend. Die Frage ist: Inwieweit ändert es etwas an der Tatsache dass man irgendwann keine kleineren Strukturen mehr hinbekommt? Atome sind nunmal nicht beliebig klein. Selbst wenn man mit 10 Wasserstoffatomen für eine Leitung auskommt (öh...): Irgendwann wird es nicht mehr kleiner. Und laut Moores Vermutung kämen wir halt irgendwann dort hin.
Größere Dies? Soll das ein Scherz sein? Wenn man soweit ist dass man Moore nur durch die Vergrößerung von Dies (oder Multi/Manycores) hinbekommt muss man nur noch ein paar Jahre warten und Prozessoren haben im Wohnzimmer nicht mehr Platz.Wenn man es irgendwie hinbekommt, mit den Schaltungen in die dritte Dimension zu gehen, dauert es etwas bis ein Prozessor wohnzimmergroß wird.
Botcruscher
2009-06-06, 18:02:24
Da scheitert es aber an der extrem komplexen Verdrahtung und ungelöster Kühlung.
Brillus
2009-06-06, 18:42:47
So genau weiß keiner wie groß Photonen (Lichtteilchen) sind, aber sie sind auf jeden Fall deutlich kleiner (mind. Faktor 1000) als Elektronen. Ansonsten werden Photonen im Gegensatz zu Elektronen als Masselos (daher vermutlich auch keine Volumen) betrachtet.
mfg
Sry das ist Quatsch nach heutigen Kenntnisstand sind die gleich groß, Und zwar ausdehnung von 0.
Ich finde man sieht heute schon, dass moderne CPUs in 0815-Systemen kein Flaschenhals mehr sind, wenn gute SSD zum Einsatz kommen.
Die Frage ist heute doch eher: Wird es jemals ein Browser, ein Officeprogramm, ein Betriebssystem etc. geben, welches durch mehr als vier Kerne deutlich schneller wird? Ich glaube es ehrlich gesagt nicht, da der Performancehunger in diesen Bereichen nur noch durch sinnlose Features künstlich erreicht werden kann.
Da fällt mir grad der neue Windows Explorer 8 ein. Der Bildlauf ruckelt derart derbe auf meinen Sys (285GTX, C2D), von Scrollen keine Spur mehr.
Ich glaub es wird immer mehr Rechenpower verschlampt, und nur deshalb der Bedarf nach immer schnellerer Hardware. Videoencoding und andere Spezialfälle mal weggelassen.
Brillus
2009-06-06, 19:17:14
Ich finde man sieht heute schon, dass moderne CPUs in 0815-Systemen kein Flaschenhals mehr sind, wenn gute SSD zum Einsatz kommen.
Die Frage ist heute doch eher: Wird es jemals ein Browser, ein Officeprogramm, ein Betriebssystem etc. geben, welches durch mehr als vier Kerne deutlich schneller wird? Ich glaube es ehrlich gesagt nicht, da der Performancehunger in diesen Bereichen nur noch durch sinnlose Features künstlich erreicht werden kann.
Die Frage ist also nur, wie man alles noch weiter minimalisieren kann. Und in diesem Bereich mache ich mir überhaupt keine Sorgen, da x86 hier nicht alleine ist und man tagtäglich Fortschritte erkennen kann.
Wer letztendlich mehr Leistung braucht gehört nunmal zu einer Szene. Und Szenen werden und wurden schon immer mit speziellen Lösungen bedient.
Wenn man J. Carmack glauben schenken darf, dann hat der Spielebereich wohl eher ein Problem, weil hier nicht alles parallelisiert werden kann und es damit Probleme mit der effizienten Ausnutzung von Mehrkernprozessoren gibt. In wissenschaftlichen Bereichen sieht es das glücklicherweise weitestgehend anders aus. Hier bedeuten mehr Kerne tatsächlich auch deutlich mehr Leistung. Ähnliches gilt für GPGPU.
Die Einzigen, die es also wirklich betreffen könnte, sind die Spieler. Und mit Verlaub: Die sind wirklich fast die unwichtigste Gruppe aller Nutzergruppen. Der Spieler produziert nichts, leistet keinen Beitrag zum Fortschritt etc. Er möchte unterhalten werden, das wars. Wenn das irgendwann wichtiger wird, als der Fortschritt in wissenschaftlichen Bereichen, ja dann aber gute Nacht.
Wenn morgen die Meldung kommt "physikalische und technische Grenzen behindern massiv die Forschung" dann fange ich an mir wirklich Sorgen zu machen.
Nur sind numal die Spieler der Motor der Entwicklung. Ich würde mal behaupten 80-95% der Gelder für die Forschung an neuer Technologien kommen von den Spielern udn werden dann von den anderen Bereichen "Zweckentfremdet" sei es die neuste Generationen der hochleistungs Parallelprozessoren (aka Grafikkarte). Auch der Fortschritt in den Fertigungstechnologienen werden hierbi extrem angetrieben. Der Wissenschaftsbereich etc. hat nichtmal annährend das Geld wie die Spielergemeinde (jeweisl kombiniert) um solche Fortschritte zu kombinieren.
mapel110
2009-08-21, 17:56:14
http://www.golem.de/0908/69257.html
Weiterer Ausblick von Intel
2012 sind dann 22-Nanometer-CPUs fällig, die noch für 32 Nanometer geplante und dann zur Verkleinerung anstehende Architektur "Sandy Bridge" soll bereits fertiggestellt sein. Doch was kommt dann? Auf den bei PC Watch wiedergegebenen Folien einer Presseveranstaltung im japanischen Tsukuba sind für 2014 schon 16 Nanometer erwähnt, danach im Zwei-Jahres-Rhythmus 11, 8, 6, und 4 Nanometer.
xiao didi *
2009-08-21, 19:10:53
Hier die Folie dazu:
(von CB geklaut)
http://666kb.com/i/bbpptszc2l8qasdyz.jpg
Was sind denn FinFET Transistoren?
mapel110
2009-08-21, 20:20:25
http://de.wikipedia.org/wiki/FinFET#Varianten
Hier die Folie dazu:
(von CB geklaut)
http://666kb.com/i/bbpptszc2l8qasdyz.jpg
Was sind denn FinFET Transistoren?
Wer sich da mal einlesen möchte, kann in betagten Papers von Intel schmökern.
Mit 3G ist "tri-gate" gemeint.
[url]http://download.intel.com/technology/silicon/tri-gate_paper_VLSI_0606.pdf
WebArtikel mit Links zu weiteren Infos (http://www.intel.com/technology/silicon/integrated_cmos.htm)
http://www.intel.com/technology/silicon/pix/tg_fig1.gif
roidal
2010-05-13, 18:31:13
Ob es in Zukunft DNA-Computer (http://winfuture.de/news,55386.html) geben wird? Gibt es hier jemanden der sich damit ein bisschen auskennt und uns die Vor- bzw. Nachteile nennen kann?
Ob es in Zukunft DNA-Computer (http://winfuture.de/news,55386.html) geben wird? Gibt es hier jemanden der sich damit ein bisschen auskennt und uns die Vor- bzw. Nachteile nennen kann?
Versteh ich nicht.
Was die (Re)Produktion angeht, ist es auf jedenfall SEHR einfach (siehe PCR) alles andere verschließt sich grad meiner Auffassungsgabe. Wie will man denn damit schnelle Schaltungen und somit Berechnungen durchführen wollen?
FeuerHoden
2010-05-14, 23:57:38
Hat noch keiner Resilient Computing genannt? 40% mehr Performance oder 20% weniger Stromverbrauch durch das zulassen und korrigieren von Fehlern wärend der Berechnung:
http://www.golem.de/1005/74983.html
Das ist schonmal 'ein' Ansatz wie man den Effekt einer Strukterverkleinerung auf andere Weise zustande bringen kann.
roidal
2010-05-15, 10:52:43
Hat noch keiner Resilient Computing genannt? 40% mehr Performance oder 20% weniger Stromverbrauch durch das zulassen und korrigieren von Fehlern wärend der Berechnung:
http://www.golem.de/1005/74983.html
Das ist schonmal 'ein' Ansatz wie man den Effekt einer Strukterverkleinerung auf andere Weise zustande bringen kann.
Ob das System so vertrauenswürdig ist? Wer sagt dass da wirklich alle Fehler erkannt werden?
Man kann durch Fehlerkorrektur wohl die statistische Sicherheit auf ein Niveau bringen das gleichwertig ist zu der Fehleranfälligkeit von traditionellen Schaltungen.
FeuerHoden
2010-05-16, 01:58:28
Ob das System so vertrauenswürdig ist? Wer sagt dass da wirklich alle Fehler erkannt werden?
Nun es ist von Intel und sie habens vorgestellt, ich denke also das sie wissen was sie tun. Wenn man weiß welche Fehler wo entstehen dann weiß man auch wie sie zu korrigieren sind, in gewissen Maße verhält sich ein Prozessor da auch deterministisch.
Konami
2010-05-16, 05:02:45
in gewissen Maße verhält sich ein Prozessor da auch deterministisch.
Wie meinst du das? Die Fehler entstehen ja aus physikalischen Gründen. Voraussehen kann man da also nix, man kann sie nur anhand der Signallaufzeiten erkennen.
Soweit mein Halbwissen. :confused:
Nun es ist von Intel und sie habens vorgestellt, ich denke also das sie wissen was sie tun. Wenn man weiß welche Fehler wo entstehen dann weiß man auch wie sie zu korrigieren sind, in gewissen Maße verhält sich ein Prozessor da auch deterministisch.
Ich glaube nicht, dass die Fehler korrigiert werden, sondern nur erkannt. Bei einem Fehler wird die Berechnung nun neu durchgeführt. Wenn man einige Fehler zulässt, kann man wohl höhere Taktraten (mehr Leistung) oder niedrigere Spannungen (weniger Verbrauch) fahren, bei denen normalerweise der Computer aufgrund Fehler hängenbleibt. Wenn die Neuberechnungen, welche durch die Fehler entstehen, weniger Takte verbrauchen, als die höhere Frequenz ermöglicht, ergibt sich hieraus eine Leistungssteigerung.
Aber alles imho und gründet auf keinerlei Wissen ;)
roidal
2010-05-16, 11:09:01
Wie meinst du das? Die Fehler entstehen ja aus physikalischen Gründen. Voraussehen kann man da also nix, man kann sie nur anhand der Signallaufzeiten erkennen.
Soweit mein Halbwissen. :confused:
Laut dem golem.de-Artikel wird das auch über die Signallaufzeit erkannt, wäre aber interessant zu wissen wie das genau funktioniert.
FeuerHoden
2010-05-26, 12:58:56
Wie meinst du das? Die Fehler entstehen ja aus physikalischen Gründen. Voraussehen kann man da also nix, man kann sie nur anhand der Signallaufzeiten erkennen.
Soweit mein Halbwissen. :confused:
Sag 20x hintereinander Milch. Was trinkt eine Kuh?
Wenn man weiß was einen Fehler verursacht dann kann man absehen wie sich der Fehler entwickelt, und die Typen haben den Prozessor ja gebaut, die wissen sehr genau wie der sich verhält.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.