Archiv verlassen und diese Seite im Standarddesign anzeigen : Grundlegende Änderung der Computerarchitektur?
ooAlbert
2006-12-05, 20:21:38
Hi,
kann man eigentlich irgendwann damit rechnen, das sich der Computer grundelgend ändert? Ich mein die vonNeuman Architektur ist auch schon reichlich angestaubt oder das diese mindestkompatibilität zur ersten CPU immer noch mitgeschleppt wird, etc.
Gibt es eigentlich momentan noch andere architekturen die nicht nur auf dem papier existieren?
Stone2001
2006-12-05, 20:27:01
Die von Neumann-Architektur wurde schon lange durch die Harvard-Architektur (getrennte Speicher für Daten und Befehle) ersetzt. Die gibt es aber nun auch schon eine ganze Weile. ;)
ooAlbert
2006-12-05, 20:46:21
so das wäre mir neu, in Arbeitsspeicher steht meines wissens alles unsortiert drin, da es ja auch nur einen speicher gibt :)
Stone2001
2006-12-05, 21:08:34
So? Und was sind dann Caches?
Die Harvard-Architektur zeichnet sich klassisch durch den parallelen Zugriff auf Instruktionen und Daten aus. Die von Neumann-Architektur benötigt hierfür min. 2 Taktzyklen.
Der "Zwitter" der durch die Einführung von Daten- und Instruktionscaches entstanden ist zählt man zu den Harvard-Architekturen, auch wenn der Hauptspeicher (und meistens auch der eventuell vorhandene L2-Cache) sowohl Daten als auch Instruktionen beinhalten.
Der Cache ist für die Architektur nicht maßgeblich. Es geht ja nur darum was der Programmierer "sieht" und wie sie sich verhält. Und da ist der PC nunmal eine Von-Neumann-Architektur.
Woher du das mit den Taktzyklen hast weiß ich auch ned, das hat damit nichts zu tun.
Stone2001
2006-12-05, 22:03:18
Der Cache ist für die Architektur nicht maßgeblich. Es geht ja nur darum was der Programmierer "sieht" und wie sie sich verhält. Und da ist der PC nunmal eine Von-Neumann-Architektur.
Woher du das mit den Taktzyklen hast weiß ich auch ned, das hat damit nichts zu tun.
Streiche Taktzyklen, setze sequentielle Speicherzugriffe. Es sollte halt klar sein, dass die Daten und die Instruktion nicht in einem Taktzyklus laden kann. Was ja schlieslich auch der Grund für die Einführung der Harvard-Architektur war.
Der Programmierer sieht zwar nur die von Neumann-Architektur, aufgebaut ist sie aber wie eine Harvard-Architektur.
Zitat Brinkschulte, Ungerer: Mikrocontroller und Mikroprozessoren Seite 42f:
Die Harvard-Architekturfindet sich heute insbesondere bei den DSPs. Doch auch bei fast allen heutigen Mikroprozessoren ist der auf dem Prozessor-Chip befindliche Primär-Cache-Speicher als Harvard-Cache-Architektur organisiert. Code- und Daten-Speicher sind getrennt und mit eigenen Speicherverwaltungseinheiten und Zugriffspfaden versehen. Ansonsten wird das Organisationsprinzip der von Neumann-Architektur beibehalten.
Ich habe gerade keinen Hennessy Patterson hier, sonst würde ich jetzt da auch nochmal nachschauen.
Aber selbst im Brinkschulte Ungerer wird nicht wirklich ausdrücklich gesagt, welcher Architektur moderne Prozessoren folgen. Sie weisen Merkmale beider Architekturen auf. In welcher Kategorie sie jetzt nun wirklich gehören legt der Professor fest, bei dem man die entsprechende Vorlesung dazu gehört hat.
Man könnte jetzt auch argumentieren, dass die Harvard-Architektur im Prinzip eine Abwandlung der von-Neumann-Architektur ist und demzufolge moderne Prozessoren auch von-Neumann-Prozessoren sind...
Ja gut ist eventuell auch Ansichtssache, aber im Endeffekt spielt es auch keine Rolle :)
ooAlbert
2006-12-08, 15:28:42
nun die ausgangsfrage war ja ... wird sich der pc endlich mal verändern ? :) in was neues ... wir sehen ja Taktraten alleine bringen nichts. Es muß ja nicht erst der quantencomputer sein ;) aber irgendwas inovatives was sich über das ganze gerät äußert ...
nun die ausgangsfrage war ja ... wird sich der pc endlich mal verändern ? :) in was neues ... wir sehen ja Taktraten alleine bringen nichts. Es muß ja nicht erst der quantencomputer sein ;) aber irgendwas inovatives was sich über das ganze gerät äußert ...
was willst du an der von-neumann-architektur großartig ändern?
wobei die definition der von-neumann-architektur ja extrem allgemein gehalten ist und nichts mit der umsetzung zu tun hat.
looking glass
2006-12-08, 17:43:25
Auch wen es sich sehr krude anhört, aber einen Schritt hin zu einem abschneiden alter Zöpfe wirst Du erst dann wirklich beobachten können, wen das A20-Gate endlich mal verschwindet.
ooAlbert
2006-12-08, 17:44:00
nun das konzept bietet halt sehr viele flaschenhälse, die werden zwar immer mal wieder versucht zu umgehen mit diversen techniken aber so recht toll wirds nicht. Ich finde der Computer verdient eine novelierung :)
was macht A20 genau?
nun das konzept bietet halt sehr viele flaschenhälse, die werden zwar immer mal wieder versucht zu umgehen mit diversen techniken aber so recht toll wirds nicht.
was für flaschenhälse?
looking glass
2006-12-08, 23:51:10
was macht A20 genau?
http://de.wikipedia.org/wiki/A20-Gate
Tigerchen
2006-12-09, 08:06:20
Auch wen es sich sehr krude anhört, aber einen Schritt hin zu einem abschneiden alter Zöpfe wirst Du erst dann wirklich beobachten können, wen das A20-Gate endlich mal verschwindet.
Niemals. A-20 ist Kult. Das gabs schon in meiner Jugend.:biggrin:
Warum sllte man das A20 Gate streichen wenn es sich leicht einbetten lässt? Der Punkt ist doch der, dass es schon lange keine Rolle mehr spielt. Solange sich nur ein paar Ingeneure Gedanken darum machen müssen ist mir das Ding herzlich egal und kann bis zum Sanktnimmerleinstag da drin enthalten sein ;). ausserdem ist es witzig ein Dos auf seinem A64 zu installieren ;D. Das Schlimme ist, dass es einige Firmen tatsächlich noch brauchen werden.
Im Long-Mode gibt es keine Segmentierung und der Compatibility-Mode des Long-Modes erlaubt nur den Protected Mode. Real-Mode bzw. Virtual x86 Mode sind im Long-Mode nicht mehr möglich. Damit hat sich das Problem mit dem A20-Gate dort auch erledigt.
Lediglich im Legacy-Mode, in dem noch Real- und Virtual-x86 Mode möglich sind, braucht man das A20 Gate noch für Kompatibilität. Und deswegen ist es auch noch in Hardware vorhanden.
Ich kann mir im Übrigen nicht vorstellen, dass es noch viel Software gibt, die wirklich auf das Ummappen oberhalb von 1MiB angewiesen ist. Schliesslich ist der 286er mittlerweile über 20 Jahre alt. Heutige Mikrozprozessoren sind so schnell, dass sie diese Software mittels Emulatoren wie DOS-Box oder QEMU bequem aus ihrer Long-Mode (d.h. 64 Bit) Umgebung ausführen können.
Das A20-Gate wird langfristig betrachtet aus der Hardware verschwinden.
Siehe: Wikipedia (http://en.wikipedia.org/wiki/X86-64#Operating_modes)
ethrandil
2006-12-09, 12:27:11
Quantencomputer gäbs da noch. Die brauchen auch ne neue Architektur (so in 15-50 Jahren...), werden aber vielleicht nur als Coprozessoren verwendet werden. (Wenn sie es denn überhaupt in PCs schaffen.)
- eth
Rekonfigurierbare Computer gibt es noch, allerdings eher als theoretisches Konzept und Forschungsobjekt als als Produkt.
PatkIllA
2006-12-09, 13:06:39
Mir fallen da noch Reduktionsmaschinen und Datenflussmaschinen ein.
Und es gibt selbst Rechner die Informationen in DNA-Strängen tragen und mikrobiologisch verarbeitet werden.
themk
2006-12-09, 16:25:45
Vielleicht ließe sich ja auch mal ein optischer Rechner gescheit realisieren.
Oder ein organischer.
Am besten wäre aber immer noch einer, der die eigenen Denkfähigkeiten in kleinen Schritten steigert. ;)
Vielleicht ließe sich ja auch mal ein optischer Rechner gescheit realisieren.
das spricht aber alles nicht gegen die von-neumann architektur, diese schreibt nämlich nicht vor mittels transitoren realisiert zu sein, diese könnte genausogut optisch oder auch pneumatisch/hydraulisch sein (obwohl letzteres wohl ziemlich langsam wäre ;) )
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.