Archiv verlassen und diese Seite im Standarddesign anzeigen : Was ist an AmigaOS so toll dass es ein Open Source Projekt Namens AROS gibt?
um das AmigaOS nachzubauen?
http://en.wikipedia.org/wiki/AROS
http://aros.sourceforge.net/de/
SubZero
2007-11-26, 14:51:04
naja, daran wird ja schon seit einiger zeit gebastelt und 1995 war es ein enorm leistungsstarkes (und schön schlankes) os, was auch state of the art in sachen multimedia war
Der_Donnervogel
2007-11-27, 00:41:12
AmigaOS hatte ein paar recht nette Sachen. Wobei einige der Sachen in ähnlicher Form auch bei Linux zu finden sind.
Sehr gut habe ich z.B die Idee der Datatypes gefunden. Das war eine sehr gute Lösung für das Problem, daß nicht jedes Programm jedes Dateiformat (z.B Bildformat) unterstützt. Dabei stellte AmigaOS eine Schnittstelle zur Verfügung, die zB bei Bildern auf Applikationsseite mit iff-Bildern arbeitete. Der eigentliche Clue an der Sache war, daß man nun weitere Datatypes installieren konnte, die eine Transformation Dateityp<->iff vornehmen konnten. Hat man zB einen Datatype für GIF-Bilder installiert konnten ab diesem Zeitpunkt alle Programme die Datatypes unterstützt haben, auch mit GIF-Bildern arbeiten. Denn wenn das Programm über Datatypes darauf zugegriffen hat, dann wurde das GIF zuerst on-the-fly in ein IFF verwandelt und erst dann an die Applikation weitergegeben.
Die Icons auf dem Desktop waren flexibler. Es gab keine Beschränkung auf eine Einheitsgröße und es war möglich jeder Datei (sofern man wollte) ein idividuelles Icon zu geben. Außerdem hatten die Icons ein alternatives Bild wenn man es angeklickt hat und wurde nicht nur anders eingefärbt.
Es war möglich die Programme auf verschiedene Screens (quasi Desktops) zu verteilen. Dabei konnte jeder Screen seine eigene Auflösung haben, es war sogar möglich zwei Screens mit verschiedenen Auflösungen gleichzeitig am Bildschirm zu haben (wobei letzteres am PCs nicht gehen wird, da das die Hardware ziemlich sicher nicht unterstützt).
Gut habe ich auch gefunden, daß es sehr einfach war ein Rettungssystem zu bekommen. Im Prinzip hat eine Diskette mit dem Kommando "loadwb" (hatte so um die 4 KB) genügt um ein funktionsfähiges Betriebssystem zu booten. Allerdings ging das nur, da das AmigaOS großteils im ROM war.
Die Startzeit des Betriebssystem war einfach konkurrenzlos. Obwohl meine Installation schon einige Jahre auf dem Buckel hat und ich viele Programme beim Systemstart starte, startet es auf dem Emulator WinUAE schneller als ein frisch installiertes Windows XP. ;D Auf aktueller Hardware, und dann noch nativ, würde AmigaOS wohl in zwei, drei Sekunden gestartet sein.
Das Betriebssystem hatte eine logische Struktur, war überschaubar und somit (mit etwas Know-how) problemlos reparierbar. Es war zB auch sehr einfach möglich ein AmigaOS zB von einer Partition auf eine andere zu schieben, oder auch auf einen anderen Computer zu verlegen. Es hat genügt das System zu kopieren und ein paar Pfade anzupassen und gut war. Des weiteren konnte man das System problemlos über mehrere Partitionen verteilen und derlei Spielchen. AmigaOS hat nicht mit Laufwerksbuchstaben wie Windows, sondern mit logischen Geräten, die sich auch über mehrere physikalische Geräte erstrecken konnten, gearbeitet und war auch ansonsten ziemlich flexibel. Beispielsweise konnte man man ihm sehr einfach neue Dateisysteme beibringen.
AmigaOS hat eine bessere Konsole als Windows, die auch gut erweiterbar war. z.B. konnte man problemlos das Konsolenfenster austauschen und auch der Befehlsumfang war mächtiger.
Wenn ich noch weiter überlegen würde, würden mir sicher noch mehr Dinge einfallen.
Allerdings darf man auch nicht verschweigen, daß es aus heutiger Sicht auch einige Macken hat. Beispielsweise fehlen so elementare Dinge wie Memory Protection und virtueller Speicher.
In der AMIGA OS Feature-Liste von Donnervogel fehlt ein ganz wichtiger Punkt, vielleicht sogar der wichtigste gegenüber den anderen OS.
AMIGA OS hatte schon mit der ersten offiziellen im AMIGA 1000 verwendeten V1.1 1986 echtes preemptives Multitasking. In der Windows-Welt hielt das erst mit NT 4.0 1996 Einzug. Win9x, Win 3.x hatten nur bescheidenes kooperatives Multitasking.
AMIGA OS hatte schon mit der ersten offiziellen im AMIGA 1000 verwendeten V1.1 1986 echtes preemptives Multitasking. In der Windows-Welt hielt das erst mit NT 4.0 1996 Einzug. Win9x, Win 3.x hatten nur bescheidenes kooperatives Multitasking.
Das ist so nicht richtig, in der Windowswelt kam 1988 OS/2 1.1 heraus und
das konnte Windows und DOS Programme ausführen und bot neben preemtives Multitasking auch noch folgende weitere Features:
# Preemptive multitasking
# Multithreading
# Interprocess communication
# Fully protected operation
# Dynamic linking (DLLs)
Mit diesen Merkmalen war OS/2 seiner Zeit den anderen PC & Homecomputer Betriebssystemen (Unix ausgenommen) technisch um Jahre vorraus.
D.h. wer für seinen PC ein brauchbares Betriebssystem haben wollte,
der hatte auch die Möglichkeit dazu.
http://pages.prodigy.net/michaln/history/os211/index.html
http://pages.prodigy.net/michaln/history/
Shink
2007-11-28, 08:59:23
Naja, so rückständig war Win9x auch wieder nicht dass es nicht einmal preemptives Multitasking hatte: http://de.wikipedia.org/wiki/Multitasking
Exxtreme
2007-11-28, 15:53:25
Naja, so rückständig war Win9x auch wieder nicht dass es nicht einmal preemptives Multitasking hatte: http://de.wikipedia.org/wiki/Multitasking
Win NT4.0 und Win 9x waren auch die ersten Windows-Versionen mit präemtiven Multitasking. Windows 3.1x hatte lediglich kooperatives Multitasking. Sprich, die Anwendung musste von sich aus Resourcen freigeben. Beim präemtiven Multitasking teilt das Betriebssystem die Resourcen ein ohne Zutun der Anwendungen.
Und das Coole am Amiga war, das ging auf einem 68000'er obwohl das eigentlich ein Microcontroller ist.
Das ist so nicht richtig, in der Windowswelt kam 1988 OS/2 1.1 heraus und
das konnte Windows und DOS Programme ausführen und bot neben preemtives Multitasking auch noch folgende weitere Features:
# Preemptive multitasking
# Multithreading
# Interprocess communication
# Fully protected operation
# Dynamic linking (DLLs)
Mit diesen Merkmalen war OS/2 seiner Zeit den anderen PC & Homecomputer Betriebssystemen (Unix ausgenommen) technisch um Jahre vorraus.Außer fully protectet operations konnte das der AmigaOS auch alles.
Und es gab eine Ramdisk, die sogar ab 2.0 resetfest gemacht werden konnte. Und das AmigaOS war in den Systemdateien sauber geordnet, nicht so wie in Windows, wo alles in System32 und System rumgammelt. Zudem war das OS unix-like bedienbar, und mit der Shell konnte man fast alles machen, was mit der Oberfläche auch möglich war.
Und es gab eine Ramdisk, die sogar ab 2.0 resetfest gemacht werden konnte.Das geht ja noch. Die Ramdisk war aber auch noch dynamisch! :D
Das geht ja noch. Die Ramdisk war aber auch noch dynamisch! :D
Korrekt, so was ist heute noch nicht auf nem PC möglich. Hach, die gute alte Zeit.
Avalox
2007-11-28, 18:01:29
Korrekt, so was ist heute noch nicht auf nem PC möglich. Hach, die gute alte Zeit.
Es gibt dynamische Ramdisks und auch resetfeste Ramdisks für den PC. Damit kann man dann auch booten. Was gibt es eigentlich nicht für den PC?
Omnicron
2007-11-28, 18:09:35
Gut habe ich auch gefunden, daß es sehr einfach war ein Rettungssystem zu bekommen. Im Prinzip hat eine Diskette mit dem Kommando "loadwb" (hatte so um die 4 KB) genügt um ein funktionsfähiges Betriebssystem zu booten. Allerdings ging das nur, da das AmigaOS großteils im ROM war.
Richtig, und das ganze war stets mit grafischer Oberfläche und Mausunterstützung, genauso wie das "BIOS", das nennt man einfache Bedienbarkeit für Homeuser.
Und die Zuordnung Icon -> Datei lief über den Header innerhalb der Datei, durch den auch eine Anwendung eindeutig feststellt ob sie was mit dem Dateityp anfangen kann, und nicht über die Dateiendung. Man brauchte keine Dateiendungen, eine JPG Datei wurde als Bild erkannt ob sie nun .exe.txt oder sonst wie heisst.
Es gibt dynamische Ramdisks und auch resetfeste Ramdisks für den PC. Damit kann man dann auch booten. Was gibt es eigentlich nicht für den PC?Heute gibt es alles. In deinen Beiträgen dagegen fehlen oft die Links ;)
AmigaOS 2.0 ist von 1990.
AmigaOS 2.0 ist von 1990.Da hast du Avalox noch den TOS genossen.
Avalox
2007-11-28, 18:40:41
Da hast du Avalox noch den TOS genossen.
Ja, bis 1992, dann kam Comanche für den PC, mir ist die Kinnlade runter geklappt und ich habe mir einen 80486 mit Diamond Speedstar24 gekauft.
Und ich weiss auch noch meine erste Beschäftigung. Ich habe mit Paint farbige Freihand Linien bei 16Bit Farbtiefe und 800x600 Pixel Auflösung gemalt. Das war echt beeindruckend. Die Soundblaster Pro habe ich dann schnell entsorgt, als die GUS auf dem Markt kam. Ja war nett.
Aber TOS hat auch Spass gemacht, war halt sehr einfach und funktionierte ordentlich. Mein erstes TOS wurde komplett von der Diskette geladen, die ROM Bausteine schickte Atari später nach und konnten dann in den Rechner gesetzt werden und bevor hier jemand rum lästert. Es gab auch technologisch sehr interessante Betriebssystem für den ST. MiNT z.B. Basis des späteren Atari OS.
Es gibt dynamische Ramdisks und auch resetfeste Ramdisks für den PC. Damit kann man dann auch booten. Was gibt es eigentlich nicht für den PC?
Wo bitte? Alle Ramdisks für den PC und Windows bzw XP, die ich kenne und die man heute mit XP installieren kann, sind weder dynamisch noch resetfest! Da will ich erst mal einen Beweis haben ;) . Ich habe bereits öfters verschiedene Ramdisks getestet (was ich auch mal im Vergleich I-Ram/Ramdisk (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=329090&highlight=Ramdisk) beschrieben habe), und keine gefunden, welche die genannten Kriterien erfüllen.
Und bitte eine, die unter XP läuft und kein alter Uralt-DOS-Mist, der sich heute nicht mehr installieren läßt. ;).
Avalox
2007-11-28, 19:23:56
Und bitte eine, die unter XP läuft und kein alter Uralt-DOS-Mist, der sich heute nicht mehr installieren läßt. ;).
Weiss nicht ob die unter XP läuft, mir fällt ja nicht mal mehr der Name der resetfesten Ramdisk ein. (mir fällt ehrlich auch kein Grund mehr eine, eine Ramdisk zu benutzen).
Weiss nicht ob die unter XP läuft, mir fällt ja nicht mal mehr der Name der resetfesten Ramdisk ein. (mir fällt ehrlich auch kein Grund mehr eine, eine Ramdisk zu benutzen).
Wie gesagt, ich habe mehrere getestet, und es gibt keine Ramdisk, die dynamisch arbeitet, man muß immer vorher einstellen, wie groß sie ist. Will man die Größe ändern, geht der Inhalt der Ramdisk sofort verloren.
Eine Ramdisk ist immer dann sinnvoll, ein temporäres Volume zu haben, um beispielsweise mal Dateien auspacken, kurzfristige Dateien zu erzeugen usw., im Prinzip das, was unter /temp oder /tmp in Unix bzw. unter Windows unter C:\Dokumente und Einstellungen\User\Lokale Einstellungen\Temp rumlummelt. Es hätte den Reiz, daß diese Zwischendateien keinen Plattenplatz verschwenden, die Zugriffszeiten sind schneller und die Verarbeitung doch etwas flotter als auf Platte. Beispielsweise hole ich beim Bearbeiten großer Audiodaten (Mastern mit ca. 700 MB) durch eine Ramdisk mal locker Faktor 3-5 raus. Da macht das Arbeiten schon mehr Spaß, und man hat nicht dieses Plattenrumgerödel.
Weiss nicht ob die unter XP läuft, mir fällt ja nicht mal mehr der Name der resetfesten Ramdisk ein. (mir fällt ehrlich auch kein Grund mehr eine, eine Ramdisk zu benutzen).
Mir schon, man kann darin verschlüsselte Dateien für temporäre Zwecke entschlüsselt ablegen ohne sich Sorgen machen zu müssen, daß jemand die Daten wiederherstellt.
Nach einem Reboot sind die Daten im Ram nämlich 100 % sicher nicht mehr wiederherstelltbar.
Als Einsatzfeld fallen mir da z.b. mit GnuPG und OpenPGP verschlüsselte Dateien ein, die man, wenn man sie zum temporären Betrachten entschlüsseln will, irgendwo ja ablegen muß.
Und das kann man dann entweder in einer verschlüsselten normalen Partition oder eben in einer RAM Disk machen.
Ansonsten fallen mir auch keine weiteren Einsatzfelder ein,
das könnte ja mal die ganzen Amiga Fans hier erläutern.
Wie gesagt, ich habe mehrere getestet, und es gibt keine Ramdisk, die dynamisch arbeitet, man muß immer vorher einstellen, wie groß sie ist. Will man die Größe ändern, geht der Inhalt der Ramdisk sofort verloren.
Eine Ramdisk ist immer dann sinnvoll, ein temporäres Volume zu haben, um beispielsweise mal Dateien auspacken, kurzfristige Dateien zu erzeugen usw., im Prinzip das, was unter /temp oder /tmp in Unix bzw. unter Windows unter C:\Dokumente und Einstellungen\User\Lokale Einstellungen\Temp rumlummelt. Es hätte den Reiz, daß diese Zwischendateien keinen Plattenplatz verschwenden, die Zugriffszeiten sind schneller und die Verarbeitung doch etwas flotter als auf Platte.
Du kannst unter Linux eine dynamische Ram Disk anlegen und diese
bei /tmp einbinden.
Dann wird für den /tmp Ordner auch die RAM Disk benutzt.
Hatte von 1989 bis 1995 mehrere Amigas und es war die Arbeits- und Spielekiste schlechthin. Der Performance von Windows 3.10/3.11 WFW war es Meilenweit voraus bei ungleich mehr Prozessortakt auf 486erDXen.
Der Amiga hatte so unglaublich großes Potential eine gewaltige Zukunfts-Multimediamaschine zu werden. Sie wurde mit aller Gewalt vernichtet. Gäbe es heute Amigas auf dem Stand der Technik (+ Entwicklungsfortschritt) Apple hätte böse mit Amiga zu kämpfen. Aber naja... PC's sind auch ganz nett und mittlerweile kann man damit auch gut arbeiten *g*
Wishnu
2007-11-28, 21:14:58
Hatte von 1989 bis 1995 mehrere Amigas und es war die Arbeits- und Spielekiste schlechthin.
Als Spielekiste ja, aber als Arbeitsrechner war mir der Atari ST in den 80ern dank flimmerfreiem Bild lieber.
Beim Amiga war das anfangs nur mit (schön teurem) Flickerfixer erträglich. ;)
Avalox
2007-11-28, 21:40:09
H Sie wurde mit aller Gewalt vernichtet.*
Mit aller Dummheit. Commodore war eine faule Firma. Gerät gekauft, Potential falsch eingeschätzt, Gerät falsch konzipiert, nach gerudert, dann sich selbst gefeiert und in einer Überraschung untergegangen.
War bei Atari nicht anders.
Apple war von den drei als erster da und hat bis heute durchgehalten. Haben eben so einiges besser gemacht und auch mehr Glück gehabt.
Matrix316
2007-11-28, 22:26:48
Auf aktueller Hardware, und dann noch nativ, würde AmigaOS wohl in zwei, drei Sekunden gestartet sein.
Auf meinem A1200 mit 28 MHz 68030 Turbokarte, 10 MB RAM und 130 MB Festplatte hat die Workbench (3.0) nur ca. 3 Sekunden gebraucht um zu booten.
In der Zeit haben selbst die heutigen schnellsten PCs nichtmal die Biosliste der Laufwerke angezeigt. ;)
Allerdings schön war selbst die 3er Workbench nicht wirklich. Auch das aktuelle 3.9 oder 4 oder was aktuell noch ist, sieht nicht wirklich überragend aus.
War bei Atari nicht anders.
Apple war von den drei als erster da und hat bis heute durchgehalten. Haben eben so einiges besser gemacht und auch mehr Glück gehabt.was denn jetzt? nicht anders oder besser gemacht?
Wie, bis heute durchgehalten? Die Firma Commodore gibt es heute auch noch :ulol: Beides halte ich in dieser Diskussion nicht für erwähnenswert.
Avalox
2007-11-28, 23:32:00
was denn jetzt? nicht anders oder besser gemacht?
Wie, bis heute durchgehalten? Die Firma Commodore gibt es heute auch noch :ulol: Beides halte ich in dieser Diskussion nicht für erwähnenswert.
na gut. Zu dem Diskussionsthema kann man schon mal feststellen, dass das AROS Projekt schon 12 Jahre alt ist.
Es startete genau mit dem Untergang der Firma Commodore. Wird also darin begründet liegen, dass der Commodore User einfach seine gewohnte Umgebung in ein neues Zeitalter retten wollte. Dafür spricht ja schon das vorrangigste Ziel, nämlich die möglichst 100% Kompatibilität zum alten Amiga.
Besonders bemerkenswert finde ich, dass das Fanprojekt AROS scheinbar nie für die Commodore Amiga Hardwareplattform bestimmt war. (so wie XaAES (http://xaaes.atariforge.net/index.php) für die Ataris z.B.)
Später nutzte man dann den Linux Fundus um AROS in der Entwicklung voranzutreiben. Ich finde das Projekt schon sehr beeindruckend, zumal es wirklich zu solch einem fortgeschrittenen Ergebnis geführt hat.
Es gab später auch noch den Arcorn Archimedes, der mich als Aussenstehender ein wenig an den Amiga erinnert hat. http://de.wikipedia.org/wiki/Acorn_Archimedes
Risc OS scheint es noch heute zu geben: http://de.wikipedia.org/wiki/RISC_OS
Shink
2007-11-29, 09:29:39
Win NT4.0 und Win 9x waren auch die ersten Windows-Versionen mit präemtiven Multitasking.
Nur zu meiner Verteidigung: Ich hab natürlich auf diesen Post geantwortet:
Win9x, Win 3.x hatten nur bescheidenes kooperatives Multitasking.
Du kannst unter Linux eine dynamische Ram Disk anlegen und diese
bei /tmp einbinden.
Dann wird für den /tmp Ordner auch die RAM Disk benutzt.
Linux nützt mir hier an der Stelle nichts, da mein Anwendungesprogramme alle nur unter XP verfügbar sind.
@Avalox
Kommt von Dir noch eine Antwort, oder siehst Du ein, daß Deine Behauptung bzgl. Ramsdisks für Windows und PC falsch ist.
In der Windows-Welt hielt das erst mit NT 4.0 1996 Einzug.
Windows NT bot schon immer präemptives Multitasking.
Shink
2007-11-29, 11:21:12
Windows NT bot schon immer präemptives Multitasking.
Ach ja, stimmt. NT 3.1 vergisst irgendwie immer jeder, obwohl es wohl M$s innovativstes (und laut einigen Leuten auch einziges) OS war.
Das war aber auch erst 1993.
Ach ja, stimmt. NT 3.1 vergisst irgendwie immer jeder, obwohl es wohl M$s innovativstes (und laut einigen Leuten auch einziges) OS war.
Das war aber auch erst 1993.
Das ging ja aus der Gemeinschaftsentwicklung von OS/2 hervor. OS/2 ist ja keine Eigenentwicklung von IBM, sondern wurde zusammen mit Microsoft entwickelt. Später wollte aber Microsoft sein eigenes System herausbringen, was dann der Beginn von NT war.
Omnicron
2007-11-29, 11:26:45
Auf meinem A1200 mit 28 MHz 68030 Turbokarte, 10 MB RAM und 130 MB Festplatte hat die Workbench (3.0) nur ca. 3 Sekunden gebraucht um zu booten.
Ich hatte mal ein Tool, mit dem man den kompletten RAM Inhalt in eine Datei speichern und lesen konnte. D.h. man hat ein Image gemacht als das OS und Startprogramme gestartet waren, und dann das beim Booten geladen statt einem normalen Start.
Da hat bei der Bootgeschwindigkeit nur die Festplatte limiert dieses 2 MB Image zu laden ;D
Avalox
2007-11-29, 14:01:20
@Avalox
Kommt von Dir noch eine Antwort, oder siehst Du ein, daß Deine Behauptung bzgl. Ramsdisks für Windows und PC falsch ist.
Gefunden haben ich wirklich nichts. Aber so was gab es dann zumindest mal. Ich werden noch mal heute Abend genauer suchen.
Shink
2007-11-29, 14:10:17
Das ging ja aus der Gemeinschaftsentwicklung von OS/2 hervor. OS/2 ist ja keine Eigenentwicklung von IBM, sondern wurde zusammen mit Microsoft entwickelt. Später wollte aber Microsoft sein eigenes System herausbringen, was dann der Beginn von NT war.
Naja, nur was die Hintergründe betrifft; das System ähnelt OS/2 nicht allzu sehr; da ist mE mehr VMS drin.
Geplant wäre ja gewesen, dass man damit OS/2, Dos und POSIX-Unix (!) Binaries gleichzeitig laufen lassen kann. Keine Ahnung ob das mal funktioniert hat.
Shink
2007-11-29, 14:13:07
Gefunden haben ich wirklich nichts. Aber so was gab es dann zumindest mal. Ich werden noch mal heute Abend genauer suchen.
Kann mich auch daran erinnern: Da gabs Shareware, mit der man ein RAMDisk-Verzeichnis einrichten konnte, in das man dann z.B. den Browser-Cache lenkte und dessen Größe man im Betrieb ändern konnte. Ich denke das war aber für Win9x; k.A. ob es dafür einen NT-Treiber gab.
Geplant wäre ja gewesen, dass man damit OS/2, Dos und POSIX-Unix (!) Binaries gleichzeitig laufen lassen kann. Keine Ahnung ob das mal funktioniert hat.
OS/2 und Posix Subsysteme sind auch schon immer in NT vorhanden gewesen. Natürlich wird man dann nie die aktuellsten Versionen nachgepfelgt haben, weil man ja klar die Win32 Schnittstelle vorziehen wollte (bzw. alle anderen Subsysteme mappen das Win32 Subsystem).
Stray_bullet
2007-11-29, 15:43:19
Auf meinem A1200 mit 28 MHz 68030 Turbokarte, 10 MB RAM und 130 MB Festplatte hat die Workbench (3.0) nur ca. 3 Sekunden gebraucht um zu booten.
In der Zeit haben selbst die heutigen schnellsten PCs nichtmal die Biosliste der Laufwerke angezeigt. ;)
Konnte man eigentlich damals die Workbench auf eine PCMCIA-Flashdisk installieren und davon Booten?
Shink
2007-11-29, 16:05:02
OS/2 und Posix Subsysteme sind auch schon immer in NT vorhanden gewesen. Natürlich wird man dann nie die aktuellsten Versionen nachgepfelgt haben, weil man ja klar die Win32 Schnittstelle vorziehen wollte (bzw. alle anderen Subsysteme mappen das Win32 Subsystem).
Toll, jetzt müssen wir wohl ordentlich OT werden aber das interessiert mich jetzt: Ging/geht das tatsächlich?
Würde das nicht heißen, man könnte einfache (was immer das nun heißt) Unix- bzw. OS/2-Anwendungen in Windows NT/2K/XP/Vista/etc. starten? Wenn nein: Was bedeutet das sonst?
Ging/geht das tatsächlich?
Würde das nicht heißen, man könnte einfache (was immer das nun heißt) Unix- bzw. OS/2-Anwendungen in Windows NT/2K/XP/Vista/etc. starten?
Theoretisch ja, aber wahrscheinlich eher schlecht als recht. Denn weiterentwickelt wird man diese Subsysteme wohl kaum haben. Ich kann dir das aber nicht mit Gewissheit sagen. Das habe ich dazu noch gefunden: http://www.microsoft.com/technet/prodtechnol/windows2000serv/reskit/prork/pric_run_jzxd.mspx?mfr=true
http://support.microsoft.com/kb/137861/de
Wenn nein: Was bedeutet das sonst?
AFAIK eher historischer Natur. Zur Zeit, wo Microsoft sich von IBM getrennt hat, wollte man die Win32 Schnittstelle fördern/durchsetzen. Diese war aber nicht recht verbreitet bzw. hat man sicherheitshalber noch die anderen Subsysteme mit integriert.
Das ging ja aus der Gemeinschaftsentwicklung von OS/2 hervor. OS/2 ist ja keine Eigenentwicklung von IBM, sondern wurde zusammen mit Microsoft entwickelt. Später wollte aber Microsoft sein eigenes System herausbringen, was dann der Beginn von NT war.
Und Schuld daran ist ein Programmierer der herausgefunden hat, wie man bei Windows 3.0 den 286er Prozessor in den Protected Mode und wieder zurück schalten kann.
Letzteres konnte die 16 Bit CPU nämlich nicht von Haus aus, bzw. war das zwar
von Intel vorgesehen, aber es hat wegen einem Bug nicht funktioniert.
Aber es gab einen anderen Bug mit 3 Befehlen, mit dem man die CPU resetten konnte und so lief die CPU wieder im Realmode.
Man hatte also eine Möglichkeit gefunden selbst bei einer 80286 CPU
vom Protected Mode wieder zurück in den RealMode zu schalten.
Und damit war Windows 3.1, was zum großen Teil 16 bittig war, möglich.
Da hat bei der Bootgeschwindigkeit nur die Festplatte limiert dieses 2 MB Image zu laden ;D
Das macht heutzutage jedes OS, wenn man es in den Standby schaltet.
Windows XP nutzt diese Möglichkeit sogar, um die Bootzeit zu verkürzen.
Toll, jetzt müssen wir wohl ordentlich OT werden aber das interessiert mich jetzt: Ging/geht das tatsächlich?
Würde das nicht heißen, man könnte einfache (was immer das nun heißt) Unix- bzw. OS/2-Anwendungen in Windows NT/2K/XP/Vista/etc. starten? Wenn nein: Was bedeutet das sonst?
OS/2 kann Windows anwendungen starten, aber Windows keine OS/2 anwendungen.
OS/2 hat seine eigene API die es bei Windows NT nicht gibt.
Allerdings darf man auch nicht verschweigen, daß es aus heutiger Sicht auch einige Macken hat. Beispielsweise fehlen so elementare Dinge wie ... virtueller Speicher.
VMM funktioniert aller erste Sahne, gibts im Aminet
Und es gab eine Ramdisk, die sogar ab 2.0 resetfest gemacht werden konnte.
ging auch schon unter 1.3 (und mit FFS :smile:) ;)
Ansonsten fallen mir auch keine weiteren Einsatzfelder ein, das könnte ja mal die ganzen Amiga Fans hier erläutern.
zu A500 Zeiten ohne Festplatte hab ich beim Proggen Source Code und Compiler (Includes, etc) so lange wie die Programme "klein genug" waren in der RAM-Disk gehalten und compiliert. Das Compilieren lief dann erheeeeblichst schneller als von Diskette.
Selbst heute mit der 20 GB Harddisk compiliere ich noch aus der RAM-Disk!
etc usw
eine andere Anwendung kommt vom OS selbst, eine Sache die mir bei Windows extremst fehlt:
Die Settings der Systemeinstellungen (aber auch von normalen Programmen) werden im "Laufwerk" ENVARC: auf der Festplatte gespeichert. Beim Booten werden die "Arbeitskopien" nach ENV: (per Default in der RAM-Disk) kopiert. Startet man das OS (oder ein normales Programm, etc) schaut es in ENV: nach seinen Settings (z.B. Bildschirmauflösung, Anzahl der Farben, Druckersettings, etc), ist dort nichts, schaut es in ENVARC: ist dort auch nicht, startet es mit seinen Default-Settings.
Genug der Vorrede. Verändert man nun irgendwelche Einstellungen hat man zwei Wahlmöglichkeiten "Speichern" oder "Benutzen". Im ersten Fall werden die neuen Settings aktiv und nach ENVARC: und ENV: gespeichert. Im zweiten Fall werden die neuen Settings aktiv und nur nach ENV: gespeichert d.h. wenn man neu bootet sind die alten Einstellungen wieder da.
Allererste Sahne wenn man am experimentieren ist, temporär irgendwelchen speziellen Krams macht, etc usw oder oder oder
Mit aller Dummheit. Commodore war eine faule Firma. Gerät gekauft, Potential falsch eingeschätzt, Gerät falsch konzipiert, nach gerudert, dann sich selbst gefeiert und in einer Überraschung untergegangen.
zum grösstenteil Ack
Allerdings schön war selbst die 3er Workbench nicht wirklich. Auch das aktuelle 3.9 oder 4 oder was aktuell noch ist, sieht nicht wirklich überragend aus.
genau, mein OS3.5 ist mir zu bunt ;) :biggrin:
Konnte man eigentlich damals die Workbench auf eine PCMCIA-Flashdisk installieren und davon Booten?
ich habe keine Flashdisk, aber von PCMCIA booten ist eigentlich generell möglich (wird zumindest Boot-Menu angezeigt)
hmmmm .... *nachdenk* "PCMCIA-FlashdiskBeiEbaySuch* :biggrin:
In der AMIGA OS Feature-Liste von Donnervogel fehlt ein ganz wichtiger Punkt, vielleicht sogar der wichtigste gegenüber den anderen OS.
AMIGA OS hatte schon mit der ersten offiziellen im AMIGA 1000 verwendeten V1.1 1986 echtes preemptives Multitasking. In der Windows-Welt hielt das erst mit NT 4.0 1996 Einzug. Win9x, Win 3.x hatten nur bescheidenes kooperatives Multitasking.
Windows 9x benützt preemtives Multitasking. Immer schön bei der Wahrheit bleiben.
OS/2 kann Windows anwendungen starten
Nur Win16-Zeug soweit ich weiß.
OS/2 kann Windows anwendungen starten, aber Windows keine OS/2 anwendungen.
OS/2 hat seine eigene API die es bei Windows NT nicht gibt.
Doch, auch wenn es wohl nur OS/2 1.x Anwendungen sind.
Und damit war Windows 3.1, was zum großen Teil 16 bittig war, möglich.
Die Rede war hier aber von NT! Sind zwei verschiedene Schienen.
Und damit war Windows 3.1, was zum großen Teil 16 bittig war, möglich.
NT war schon immer 32Bit, hatte Speicherschutz und präemptives Multitasking. Bis einschließlich Version 4 lief auch das Grafiksubsystem im Usermode.
Selbst heute mit der 20 GB Harddisk compiliere ich noch aus der RAM-Disk!
Das macht doch heute bei großen Projekten keinen Sinn mehr, da der Programmcode sowieso auf hunderte von Objektdateien aufgeteilt wird
und dank make & CO wird dann nur das verändert, was von gerade geändertem Code abhängig ist.
D.h. damit du nach einem Rechnerabsturtz nicht alles ganz von vorne compilieren mußt, legt man die OBJ Dateien natürlich auf der Festplatte ab und compiliert dort, dann erspart man sich auch die komplette neucompilierung.
eine andere Anwendung kommt vom OS selbst, eine Sache die mir bei Windows extremst fehlt:
Die Settings der Systemeinstellungen (aber auch von normalen Programmen) werden im "Laufwerk" ENVARC: auf der Festplatte gespeichert. Beim Booten werden die "Arbeitskopien" nach ENV: (per Default in der RAM-Disk) kopiert. Startet man das OS (oder ein normales Programm, etc) schaut es in ENV: nach seinen Settings (z.B. Bildschirmauflösung, Anzahl der Farben, Druckersettings, etc), ist dort nichts, schaut es in ENVARC: ist dort auch nicht, startet es mit seinen Default-Settings.
Die Registry wird bei Windows auch in den Arbeitsspeicher geladen
und dann bei Bedarf erst in diesem Cache gesucht.
Die Rede war hier aber von NT! Sind zwei verschiedene Schienen.
Nein, lese richtig.
Die Rede war von Windows im allgemeinen.
Wäre nur Windows NT gemeint wesen, dann gäbe der Satz keinen Sinn, da
Windows NT Multitasking beherrscht und genau das wurde bei der Windows Familie bemängelt, das es das nicht richtig könnte.
D.h. im Prinzip wurde Windows 3.1 und Win9x gemeint.
NT war schon immer 32Bit, hatte Speicherschutz und präemptives Multitasking. Bis einschließlich Version 4 lief auch das Grafiksubsystem im Usermode.
Ja und?
Thema verfehlt.
Auf NT beziehe ich mich gar nicht!
und dank make & CO wird dann nur das verändert, was von gerade geändertem Code abhängig ist.
ach nein? ach was? sooo macht man das heute !? :eek: :confused: :biggrin: :D ;D
Die Registry wird bei Windows auch in den Arbeitsspeicher geladen
und dann bei Bedarf erst in diesem Cache gesucht.
ich rede nicht von der Registry (mein OS3.5 ENVARC: ist 84 _KB_ klein)
Ja und?
Thema verfehlt.
Auf NT beziehe ich mich gar nicht!
Davon ist aber die ganze Zeit die Rede im Zusammenhang mit OS/2. Du hat das Thema verfehlt.
D.h. im Prinzip wurde Windows 3.1 und Win9x gemeint.
Es wurde ursprünglich behauptet, dass erst mit NT4 präemptives Multitasking Einzug in Windows hielt und Win9x nur kooperatives Multitasking hätte. Was ja falsch ist. Darauf baut die ganze Diskussion.
Davon ist aber die ganze Zeit die Rede im Zusammenhang mit OS/2. Du hat das Thema verfehlt.
Nein du, denn das Ursprungsposting lautete:
AMIGA OS hatte schon mit der ersten offiziellen im AMIGA 1000 verwendeten V1.1 1986 echtes preemptives Multitasking. In der Windows-Welt hielt das erst mit NT 4.0 1996 Einzug. Win9x, Win 3.x hatten nur bescheidenes kooperatives Multitasking.
Und ich habe dann auf OS/2 hingewiesen, das war vor NT.
Und OS/2 kann mit Windows 3.1 Code umgehen, also geht es nicht um Windows NT.
Außerdem könntest du dich mal registrieren.
Shink
2007-11-30, 09:08:26
Toll, jetzt müssen wir wohl ordentlich OT werden
ICH HABS JA GEAHNT!
Und OS/2 kann mit Windows 3.1 Code umgehen, also geht es nicht um Windows NT.
Aber was hat das denn mit präemptiven Multitasking zu tun, dass ab OS/2 2.1 Win 3.1 Anwendungen ausgeführt werden können?
Und wenn ich die ganze Zeit mit Shrink über NT geredet habe - und um nichts anderes - dann kannst du schlecht das Gegenteil behaupten.
Und OS/2 kann mit Windows 3.1 Code umgehen, also geht es nicht um Windows NT.
Ich verstehe die Logik nicht. Es ging darum, welches Windows als erstes präemptives Multitasking bot. Und wenn NT als direkte Konsequenz aus der IBM Trennung entstand, so konnte dieses System logischerweise zeitlich erst nach OS/2 2.1 präemptives Multitasking bieten. Oder siehst du das anders?
Aber was hat das denn mit präemptiven Multitasking zu tun, dass ab OS/2 2.1 Win 3.1 Anwendungen ausgeführt werden können?
Insofern das OS/2 schon Jahre vor Windows NT schon präemptives Multitasking konnte.
Und wenn ich die ganze Zeit mit Shrink über NT geredet habe - und um nichts anderes - dann kannst du schlecht das Gegenteil behaupten.
Nein, ich werde dir das erklären, du hast dich in das Gespräch zwischen mir und Shrink eingemischt.
Ich verstehe die Logik nicht. Es ging darum, welches Windows als erstes präemptives Multitasking bot.
Nein, es hieß "in der Windows-Welt" und damit ist im Prinzip nichts
anderes als der x86 PC als ganzes gemeint, weil die Amiga, Apple und CO User
ja eh nie wissen, daß es auf dem PC auch noch etwas anderes als Windows und DOS gab und gibt.
Und OS/2 ist damit ganz klar Teil dieser Windows Welt, denn es kann Windows Code ausführen.
Und wenn NT als direkte Konsequenz aus der IBM Trennung entstand, so konnte dieses System logischerweise zeitlich erst nach OS/2 2.1 präemptives Multitasking bieten. Oder siehst du das anders?
Natürlich erschien NT viel später, aber darum geht es ja nicht.
Insofern das OS/2 schon Jahre vor Windows NT schon präemptives Multitasking konnte.
Was ja logischerweise daran liegt, weil NT auch erst später das Licht der Welt erblickte. Aber NT konnte ab der ersten Version präemptives Multitasking, Speicherschutz, war 32Bit und unterstützte mehrere Prozessoren.
Nein, es hieß "in der Windows-Welt" und damit ist im Prinzip nichts
anderes als der x86 PC als ganzes gemeint, weil die Amiga, Apple und CO User
ja eh nie wissen, daß es auf dem PC auch noch etwas anderes als Windows und DOS gab und gibt.
Das ist jetzt deine Auffassung. Ich verstehe unter "Windows-Welt" die Windows-Plattform und nicht allgemein x86, denn Windows NT gab es z.B. für mehrere Plattformen.
[/QUOTE]
Und OS/2 ist damit ganz klar Teil dieser Windows Welt, denn es kann Windows Code ausführen.
[/QUOTE]
Es wurde doch auch mehrfach klargestellt, dass OS/2 vor irgend einer Windows Version präemptives Multitasking konnte.
Auf der anderen Seite sollte man dann aber auch erwähnen, dass OS/2 eine Gemeinschaftsentwicklung von Microsoft/IBM war. Microsoft hatte sogar auch an OS/2 3 mitgearbeitet bzw. sollte deren Entwicklung übernehmen. Man hat sich dann aber später endgültig davon getrennt und wollte ein eigenes NT herausbringen. IBM musste dann OS/2 3 alleine fertig stellen.
Avalox
2007-11-30, 13:18:51
Ich weiss gar nicht, was hier immer mit präemtiven Multitasking rumerzählt wird.
Wer kommt denn eigentlich auf die Idee, dass präemtives Mutlitasking überhaupt immer besser ist als kooperatives Multitasking?
Klar gibt es heute nur noch präemtives Multitasking, aber auch nur deshalb, weil die Performance und die Ressourcen dafür vorhanden sind.
Auch unterscheiden sich einzelne präemtive Ansätze so stark voneinander, dass man überhaupt nicht sagen kann... "Gucke mal der Amiga hatte präemtives Multitasking".
Dem Benutzer wird es eh egal sein hauptsache es funktioniert..
Meines Wissen hat der AMIGA z.B. nie Speicherschutz unterstützt. Damit war dar Amiga doch von heutigen Ansätzen noch meilenweit entfernt und schon den ersten zeitlich ja nicht sehr weit entfernten OS/2 Versionen kräftig unterlegen.
Wer hier erzählt, der Amiga hatte ein tolles Mutlitasking soll doch mal endlich die Hintergründe erläutern, weshalb er denkt, dass es so war. Bisher habe ich hier überhaupt nichts finden können. Kann man es nicht einfach mal mit anderen OS von damals vergleichen OS-9 z.B. war ja damals recht verbreitet.
Wer kommt denn eigentlich auf die Idee, dass präemtives Mutlitasking überhaupt immer besser ist als kooperatives Multitasking?
Das ist aber nun eindeutig der Fall, zumindest bei Desktop Betriebssystemen. Kooperatives Multitasking ist nun wirklich schlecht und alles andere als optimal. Bei irgendwelchen Spezialanfertigen, wo OS und Anwendung aus einer Hand kommen, mag kooperatives Multitasking eventuell effektiver sein.
Aber für ein stabiles OS, wo die unterschiedlichste Software läuft, ist ein präemptives Multitasking unerlässlich.
Avalox
2007-11-30, 19:51:33
Das ist aber nun eindeutig der Fall, zumindest bei Desktop Betriebssystemen. Kooperatives Multitasking ist nun wirklich schlecht und alles andere als optimal.
Vom Prinzip ist das kooperative Multitasking das beste MT was es gibt. Es ist nur schwer zu handhaben und weniger praxistauglich. Auf jeden Fall ist es einfacher und Ressourcen schonender. Aber auch präemtives Multitasking ist nicht gleich präemtiven Multitasking. Es gibt massive Unterschiede in der Umsetzung.
Aber für ein stabiles OS, wo die unterschiedlichste Software läuft, ist ein präemptives Multitasking unerlässlich.
Praxistauglicher ist es. Aber auch nur dort mit Speicherschutz. Warum sollte es eine Software, welche es nicht schaft kooperatives Multitasking ordentlich zu bedienen, dann aber schön ihre eigenen Speicherzugriffe unter Kontrolle zu haben? Präservatives MT ohne Speicherschutz ist nicht konsistent und eigentlich nicht vollständig.
Ich bin mir nicht mal sicher, ob man wirklich eine Multitasking Ansatz ohne Speicherschutz als gelungen betrachten kann. Der Amiga hatte natürlich keinen Speicherschutz und sollte auch Zeit seines Lebens nie einen ordentlichen Speicherschutz bekommen.
Das Problem war, dass das eigentlich modern konzipierte Amiga OS nun der grösste Hemmschuh geworden war.
Vom Prinzip ist das kooperative Multitasking das beste MT was es gibt.
Heute ist das ganze noch viel mehr unpraktikabler als früher, denn heute laufen auf einem Standard OS schon mal einige hunderte Threads. Die müssen alle gescheduled und dann auch optimal auf Prozessoren verteilt werden. Das geht gar nicht mit kooperativen MT, wo jede Anwendung nach Belieben die Kontrolle behalten bzw. ans OS zurückgeben kann, wie ihr das gefällt. Und wenn der Entwickler fehlerhaften Code hat, friert das ganze System ein. Ich kann mir auch nicht vorstellen, wie man echten Speicherschutz sinnvoll ohne präemptives MT hinbekommen sollte, denn im Falle, dass ein Prozess abschmiert, muss das OS dieses ja beenden können bzw. zum nächsten Prozess switchen. Ich kann mich im letzten Punkt allerdings auch irren.
Avalox
2007-11-30, 21:16:04
HUnd wenn der Entwickler fehlerhaften Code hat, friert das ganze System ein.
Präemtives Multitasking mit Speicherschutz. Das ist der einzig praktische Weg.
Ansonsten schmiert dir auch das System komplett ab, trotz präemtives MT.
Ohne Schutz nichts los. Präservatives MT.
Der Amiga war super 1986, sehr nett 1988, 1990 brauchbar und 1992 wurde er ärgerlich. Man sollte ihn in Ruhe lassen. Ist halt von der Zeit überholt worden.
Wer hier erzählt, der Amiga hatte ein tolles Mutlitasking soll doch mal endlich die Hintergründe erläutern, weshalb er denkt, dass es so war.
da hatte einer nie nen Amiga 500, wa?
zur Unterhaltung lief der Mod-Player, auf dem einen Diskettenlaufwerk wurde compiliert, auf dem anderen Laufwerk hat man die alten Quelltexte mit LHA archiviert, in der RAM-Disk - uhm - ach, da hat man auch noch irgendwas gehabt, nebenan war der Text-Editor mit den Quelltexten offen, aber da man gerade am compilieren war und daher gerade nciht proggte, hatte man noch in einem Fenster noch ein kleines Spielchen am Laufen. ggf hat man noch die Task-Prioriäten noch etwas angepasst (z.B. -1 auf LHA, z.B. +1 auf das Mini-Ballerspiel damit es sicher nicht ruckelt, o.ä.)
Klingt komisch, ist (war) aber so! Und das mit 7.09 MHz und 1 MB RAM... !
Mein erster Pentium mit Win 95 (MMX 166, 32MB) fing mit weit weniger "Last" an zu ruckeln, zu laggen, kurzum, so richtig träge zu werden.
Präemtives Multitasking mit Speicherschutz.
Genau so sehe ich das ja auch, präemptives Multitasking mit Speicherschutz.
Avalox
2007-12-01, 01:27:58
Das sind nun nicht grade technologische Argumente.
Es mag ja alles sein. Entwicklungstechnisch war ein Win95 trotz ruckeln einen deutlichen Schritt weiter. Auch im Multitasking.
Auch gab es zu Zeiten des Amigas fortschrittlichere OS, auch im Bezug auf Multitasking.
Damit will ich den Amiga nicht schlecht machen. Er war hat 1985/86 ein herausragender Heimcomputer. Danach viel er nur zurück.
Der Amiga kann sich auf die Fahnen schreiben, dass er der erste Heimcomputer mit Multitasking war. Dieses nicht perfekt, aber immerhin ein Anfang.
Der Amiga 500 mag ja nett gewesen sein, war aber mM schon der Anfang vom Ende. Die Faulheit von Commodore zeichnete sich schon bei diesem Gerät (und dem Amiga2000) überdeutlich ab.
Jay Miner verliess auch deshalb schon vorher Commodore.
Das sind nun nicht grade technologische Argumente.
Von mir aus ist die Multitasking Technologie in einem Windows besser als in einem AmigaOS, aber wenn der Anwender nur ruckeln und laggen und einfrierende Programme zu sehen bekommt, nun, ich sags mal so, pfeiff auf diese Technologie wenn der Anwender davon keinen spürbaren Nutzen hat.
Entwicklungstechnisch war ein Win95 trotz ruckeln einen deutlichen Schritt weiter. Auch im Multitasking.
da lach ich doch nur. Zu Zeiten als man bei Windows den Screen-Saver abstellen musste damit beim CD-Brennen die CD nicht verbrannt wird, hat das Amiga Magazin beim Testen einer CD-Brenn-Software zwei Brenner an einen Amiga angschlossen, das Brennprogramm zweimal gestartet und zwei unterschiedliche CDs gebrannt.
Der Amiga kann sich auf die Fahnen schreiben, dass er der erste Heimcomputer mit Multitasking war. Dieses nicht perfekt, aber immerhin ein Anfang.
jedenfalls perfekter als Windows XP. Selbst auf nem A64 oder nem Core Duo schaffen es Programme es immer wieder den Rechner in die Knie zu bringen und man sitzt ewige Zeiten vor dem Rechner und man fragt sich was der da eigentlich gerade macht (und nein, ich rede nicht von Raytracing, Videorendering, etc sondern z.B. Word, Excel und andere Software die man in Büros und Verwaltungen einsetzt)
mit so was habe ich mich auf dem Amiga nie rumärgern müssen
Die Faulheit von Commodore
dass Commodore viele viele, zu viele, Fehler aller Art gemacht hat, werden 99,9999% der Amiganer nicht bestreiten. Das kann man aber nicht dem Rechner aka der Hardware und dem OS d.h. der Philosophie die in dem Gerät steckt nicht ankreiden.
Avalox
2007-12-01, 13:26:22
Rechner aka der Hardware und dem OS d.h. der Philosophie die in dem Gerät steckt nicht ankreiden.
Doch ich denke schon. Der eigentlich innovative Amiga, war der AMIGA 1000.
Als der Amiga 1000 auf dem Markt kam 1986, tat er dieses mit einer CPU von 1979! Das Design des Gerätes geht auf das Jahr 1982 zurück. Commodore selbst war es, welcher durch eigener Unfähigkeit 1985 den Amiga noch mal um ein Jahr verzögerte.
Der Amiga 2000 und Amiga 500 waren nichts weiter als AMIGA 1000 im neuen Gehäuse und immer noch weit aus schlechter, als sich dieses die AMIGA Designer selbst für den AMIGA 1000 mal gedacht haben. Am Amiga 2000/500 arbeitet auch faktisch keiner mehr aus dem Team der Amiga Entwickler.
Jay Miner selbst war dermaßen frustriert von Commodore, dass er noch vor dem Amiga 500/2000 Generation abegdampft ist und Commodore verlassen hat.
Heute wissen wir, Jay Miner hatte schon 1986 weit leistungsfähigere Custom Chips fertig in der Schublade, welche er für einen AMIGA 1000 Nachfolger vorgesehen hatte. Kamen nicht zum Einsatz.
Commodore war mit das schlimmste, was dem Amiga passieren konnte.
Wenn man sich nur mal vorstellt, dass 1987 mit dem Amiga 500/2000 auch der mehr als 8 mal so schnelle Arcon Archimedes mit zudem 4 MB Ram und 20MB Festplatte in die Läden kam.
Ein überlegenes Gerät.
Nee. Rühmlich ist die Commodore Amiga Geschichte nicht. Na klar kann man Commodore anlasten, mit die kreativsten Köpfe verbrannt zu haben, der AMIGA war nie mehr als ein Schatten seiner selbst. Deshalb ist Commodore auch unter gegangen und von einer besseren Office Schreibmaschine in den Arsch getreten worden.
Doch ich denke schon. Der eigentlich innovative Amiga, war der AMIGA 1000.
...
Deshalb ist Commodore auch unter gegangen und von einer besseren Office Schreibmaschine in den Arsch getreten worden.
??? was hat das nun mit dem Rechner aka der Hardware und dem OS d.h. der Philosophie die in dem Gerät steckt zu tun ???
dass der Amiga mit schlechterer Hardware als möglich 1985 auf den Markt kam, so was unnützes wie ECS überhaupt herausgebracht wurde, AA (AGA) dann ausgeliefert wurde als AAA quasi fertig war (ein SLI System !!!!!!11111einseinseinselfelfelf), dass der Motorola DSP als neuer Audio-Chip nicht verbaut (und Paula auch mit AA noch die von 1985 war) wurde etc usw ist doch alles auf die Unfähigkeit von Commodore zurückzuführen!?!?
Das Amiga Hardware Design, das OS, hätte weit mehr Leistung erlaubt. Commodore war der Hemmschuh, nicht die Uridee der Amiga Plattform.
Mein erster Pentium mit Win 95 (MMX 166, 32MB) fing mit weit weniger "Last" an zu ruckeln, zu laggen, kurzum, so richtig träge zu werden.
Das liegt aber nicht am PC, sondern an der Tatsache, daß du dir IDE Festplatten anstatt SCSI Festplatten gekauft hast.
Ich hatte SCSI Festplatten in meinem Rechner und da hat nichts geruckelt.
Auch beim CD Brennen gab es keine Probleme.
Der SCSI Controller hat die ganze Arbeit übernommen und die CPU ihre Arbeit verrichten lassen.
Das liegt aber nicht am PC, sondern an der Tatsache, daß du dir IDE Festplatten anstatt SCSI Festplatten gekauft hast.
Ich hatte SCSI Festplatten in meinem Rechner und da hat nichts geruckelt.
Auch beim CD Brennen gab es keine Probleme.
Der SCSI Controller hat die ganze Arbeit übernommen und die CPU ihre Arbeit verrichten lassen.
Noch etwas.
Auch möchte ich nicht unerwähnt lassen, daß der Amiga am Anfang selbst auch nur SCSI Festplatten verwendet hat.
D.h. das auf deinem Amiga nichts laggte kannst du nicht deinem Amiga zuschreiben, sondern schlicht und einfach deinem SCSI Controller.
Aber das wissen die meisten Amiga User ja nicht und als sie einen PC kauften,
wußte sie auch nicht, daß es dafür auch SCSI Controller gab.
SCSI war auf jedenfall richtig geil.
Schade nur, daß es ca. nach 1999 unverhältnismäßig teuer im Vergleich zu EIDE wurde, so daß ich auf EIDE umgestiegen bin.
Noch etwas.
Auch möchte ich nicht unerwähnt lassen, daß der Amiga am Anfang selbst auch nur SCSI Festplatten verwendet hat.
....
äähhhmm ? In dem Post weiter oben redete ich von einem Amiga 500 mit 1 MB RAM, 7.09 MHz CPU und zwei DD Disketten Laufwerken!
Mein A1200 hat eine IDE Festplatte (und CD-ROM und PCMCIA Netzwerkkarte), nix SCSI und trotzdem laggt da nichts.
Ein Amiga-Besitzer der eine Festplatte hatte, wusste sehr wohl was SCSI und was IDE ist und auch dass PCs (damals und eigentlich auch noch heute) hauptsächlich mit IDE HDs arbeiteten. So jemand benutzte seinen Amiga nicht nur zum Spielen, meist wurde exzessiv programmiert und auch ein umfangreiches Hardwarewissen war vorhanden.
Und nur mal so nebenbei an unseren SCSI-Experten-Gast, es gab ein paar unsägliche SCSI Controller bei dem das DMA wegrationalisiert wurde. Die waren dann genau so schlecht wie IDE nur viel teurer. Die wurden dann in den Testberichten auch dementsprechend zerrissen.
Dass jemand der einen Amiga hatte und auf dem gerade mal so eben wusste wie man eine Diskette ins Laufwerk schiebt, nichts von IDE und SCSI weiss, ist ja wohl klar und habe ich auch nie behauptet.
Und nur mal so nebenbei an unseren SCSI-Experten-Gast, es gab ein paar unsägliche SCSI Controller bei dem das DMA wegrationalisiert wurde. Die waren dann genau so schlecht wie IDE nur viel teurer. Die wurden dann in den Testberichten auch dementsprechend zerrissen.
Es gab im Prinzip eh nur SCSI Controller von Adaptec, alles
andere waren billige Nachbauten oder Kopien.
D.h. wer SCSI wollte, der hat sich auch einen Adaptec SCSI Controller gekauft.
Dass jemand der einen Amiga hatte und auf dem gerade mal so eben wusste wie man eine Diskette ins Laufwerk schiebt, nichts von IDE und SCSI weiss, ist ja wohl klar und habe ich auch nie behauptet.
Wie schon gesagt, du hast behauptet das am PC alles laggt und ruckelt.
Bei meinem PC mit SCSI hat aber nichts gelaggt und auch nichts geruckelt.
Bei meinem PC mit SCSI hat aber nichts gelaggt und auch nichts geruckelt.
genau, Dein PC hatte SCSI, mein Amiga 500 mit 1MB und 7.09 MHz hatte 2 Diskettenlaufwerke d.h. beide hatten kein IDE und ruckelten nicht. Mein Pentium hatte IDE und hat geruckelt => es muss am IDE liegen ;)
Edit: nur zu doof, wie schon gesagt, mein Amiga 1200 hat eine IDE Festplatte (IDE mit PIO, nix DMA) und ruckelt nicht...
Edit: nur zu doof, wie schon gesagt, mein Amiga 1200 hat eine IDE Festplatte (IDE mit PIO, nix DMA) und ruckelt nicht...
Dann hat dein Amiga 1200 wohl einen Custom Chip, also ne 2. CPU die die IDE
Festplatte ansteuert, ähnlich wie bei einem SCSI Controller auch, so daß die Haupt-CPU sich nicht um das IDE Zeug kümmern mußte.
Bei Commodore waren solche Geschichten ja normal, man denke z.B. an den C64 und seine 2. CPU im Diskettenlaufwerk.
Der_Donnervogel
2007-12-03, 17:38:48
VMM funktioniert aller erste Sahne, gibts im Aminet
Habe ich auch schon mal verwendet, aber das ist ein externes Tool und ist nicht beim AmigaOS dabei. Ich hatte da nur Sachen aufgelistet die out-of-the-box dabei waren, nicht was alles möglich war.
Bei der Liste haben außerdem natürlich noch Sachen gefehlt, zB die Anmerkung dass das AmigaOS von beginn an ein 32-Bit-OS war und somit viele der Beschränkungen/Altlasten von anderen Systemen nicht hatte. Wie No.3 schon beschrieben hat konnte war aber das Multitasking wohl das wichtigste, da man auch auf sehr bescheidener Hardware sehr gut arbeiten konnte. Dank der sehr fein abgestuften Prozessprioritäten konnte man sehr gut arbeitsaufwändige Prozesse hinten anstellen und nur freie Rechenzeit nutzen lassen, und Vordergrundprozessen unter Umständen eine höhere Priorität geben, damit sie schneller reagiert haben. Hier sehe ich auch eine ziemliche Idiotie von Microsoft, den Explorer auf die selbe Prioritätsstufe zu geben als die anderen Prozesse. Beim AmigaOS hatte die Workbench eine leicht höhere Priorität als die normalen Prozesse und reagierte deshalb immer, auch wenn irgendwelche Programme 100% CPU-Auslastung gemacht haben. Ganz davon abgesehen, hatte der Amiga wohl ein besseres Interrupthandling als der PC, was sicher auch dazu beigetragen hat, dass sich alles flüssiger anfühlte.
Ich verstehe auch nicht warum Avalox so sehr darauf herumreitet, daß Speicherschutz und präemptives Multitasking zusammengehören müssen. Das sehe ich nicht so. Speicherschutz und päemptives Multitasking machen auch getrennt Sinn. Ersteres sorgt im Falle von verbuggten Programmen für Stabilität. Sofern mit Programmen gearbeitet wird, die tun was sie sollen, hat es aber keinen Nutzen. Ich war lange Jahre am Amiga aktiv und "Guru Meditationen" am Amiga waren auch nicht häufiger als "Blue Screens" bei Windows 9x. Wirklich überlegen was die Stabiliät im alltäglichen Betrieb angeht, war (aus Homeusersicht) erst Windows XP.
Außerdem konnte das AmigaOS noch einige Sachen, die mehr oder weniger Stark mit der Hardware verzahnt waren. zB. konnte man die Auflösungen/Farbtiefen/Overscan usw. recht frei definieren. Außerdem war auch mit Autoconfig so etwas wie Plug&Play lange Jahre vor dem PC möglich. Das ganze OS war insgesamt sehr flexibel und man konnte recht einfach gewisse Teile erweitern und austauschen. Es war mit "Locale" schon relativ früh eine Lösung vorhanden um Programme Länder/sprachenspezifisch ausliefern zu können. Mit AREXX war eine gute Möglichkeit gegeben um Programme fernzusteuern bzw. miteinander kommunizieren zu lassen, die auch wirklich von Anwendungen genutzt/bereitgestellt wurde.
Dann hat dein Amiga 1200 wohl einen Custom Chip, also ne 2. CPU die die IDE Festplatte ansteuert, ähnlich wie bei einem SCSI Controller auch, so daß die Haupt-CPU sich nicht um das IDE Zeug kümmern mußte.
oweh, da kennt einer den Amiga wohl maximal aus dem Bilderbuch!?
Der A1200 hat keinen Custom Chip für den IDE Controller der der CPU Arbeit abnimmt. Der IDE Controller ist zwar im Chip "Gayle" drin (nicht ein Custom Chip im klassischen Sinne, sondern der Bus-Logic Chip). Und selbst wenn es ein Custom Chip wäre, änderte es nichts daran, dass es ein simpelster IDE Anschluss ist, der nicht einmal DMA kann d.h. das Teil arbeitet (unbuffered!) mit PIO d.h. alles geht über die CPU!
Und selbst wenn das Teil DMA könnte, könnte es nur DMA in das langsame Chip-Ram ("shared memory") (gut, wäre immer noch schneller als PIO, aber der Turbo wäre es dennoch nicht)
Deswegen wurde vor allem der A4000 von den Amiga-Magazinen erheblichst bemängelt, weil der PIO IDE des A4000 (immerhin buffered) ein maximaler Rückschritt im Vergleich zum A3000 war, da der A3000 nen SCSI Controller onboard hatte. Erst der teure A4000 Tower hatte dann wieder SCSI onboard.
Habe ich auch schon mal verwendet, aber das ist ein externes Tool und ist nicht beim AmigaOS dabei. Ich hatte da nur Sachen aufgelistet die out-of-the-box dabei waren, nicht was alles möglich war.
okay, gut. Dann verstehe meinen Post einfach so als Info an die nicht-Amiganer, dass der Amiga schon Virtuellen Speicher kann (wenn man es denn unbedingt braucht) ;)
Wirklich überlegen was die Stabiliät im alltäglichen Betrieb angeht, war (aus Homeusersicht) erst Windows XP.
tja, da hat die NASA (http://www.polyphoto.com/upchug/AEcastro.html) wohl echt Glück gehabt, da denen offensichtlich niemand gesagt hat wie instabil so ein Amiga läuft... ;)
ansonsten, Full Ack.
Nur mal ein Beispiel für das bessere OS des Amigas. Ich hatte eine normale Midischnittstelle 3 out/1 in /1 thru über den Parallelport mit Steinberg Pro24 (Musiksequencer) betrieben. Mit Timings hatte ich mit einem 1000er und später 4000er keine Probleme. Dann bin ich (gezwungenermaßen) umgestiegen, als es mit Commodore bergab ging.
Mit einem Pentium 133 bis zu AMD 1 GHz Tbird mit Cubase hatte ich immer Probleme mit großen Timingschwankungen, sei es ISA, PCI oder USB-Midischnittstellen (alles ausprobiert). Ich stellte fest, daß jede normale Mausbewegung zu diesen stark hörbaren Schwankungen führte. Erst mit einem Steinberg Midex8 und LSB waren die Schwankungen verschwunden.
Für Busbelastungen ist ein PC, selbst mit PCIe, sehr sensibel, und führt bis heute dazu, daß das gesamte OS gnadenlos niedergebremst wird.
Für Busbelastungen ist ein PC, selbst mit PCIe, sehr sensibel, und führt bis heute dazu, daß das gesamte OS gnadenlos niedergebremst wird.
teilweise scheint es aber auch am OS zu liegen:
Windows 98, ISA Soundkarte: WinAMP spielt MP3 ab, dann greift man auf das Diskettenlaufwerk zu => der Sound "hängt sich auf" d.h. der aktuelle Audiopuffer wird endlos weitergespielt.
Gleiche Hardware, diesmal Windows NT => keine Probleme
Gleiche Situation mit W98, jedoch PCI Soundkarte => keine Probleme
Avalox/Gast
2007-12-03, 19:31:29
Ich verstehe auch nicht warum Avalox so sehr darauf herumreitet, daß Speicherschutz und präemptives Multitasking zusammengehören müssen. Das sehe ich nicht so. Speicherschutz und päemptives Multitasking machen auch getrennt Sinn. Ersteres sorgt im Falle von verbuggten Programmen für Stabilität. Sofern mit Programmen gearbeitet wird, die tun was sie sollen, hat es aber keinen Nutzen.
Nein. Solange das Programm tut was es soll, hat auch präemptives Multitasking keinen Sinn und du fährst viel besser mit kooperativen Multitasking. Das ist ist es doch genau.
Natürlich tun Programme nicht immer was sie sollen und deshalb mach präemtives MT auch Sinn. Aber eben nur mit Speicherschutz. Der Rest ist nicht halbens unds
Avalox/Gast
2007-12-03, 19:56:13
Es war ja auch jeden klar, dass fehlender Speicherschutz schlecht ist. Zum einen bot der Amiga gar keine MMU um einen effektiven Speicherschutz zu realisieren. Die hat man im AMIGA Design nicht berücksichtigt und der 68000er hatte keine. Zum anderen hat man bewusst drauf verzichtet, da so die Performance hoch gehalten werden konnte.
Nicht unerhebliche Teile des AmigaOS basieren ja auf das viel ältere Tripos (TRIvial Portable Operating System http://en.wikipedia.org/wiki/TRIPOS) mit eben dem fehlenden Speicherschutz, wie er damals bei Unix Systemem schon völlig normal war.
heute dazu, daß das gesamte OS gnadenlos niedergebremst wird.
Solche ähnlichen Dinge führen beim Mac auch die Intel-Mac-Gegner bzw. PPC-Fans an. Weiss aber nicht, ob da etwas wahres dran ist...
Der_Donnervogel
2007-12-03, 20:22:51
tja, da hat die NASA (http://www.polyphoto.com/upchug/AEcastro.html) wohl echt Glück gehabt, da denen offensichtlich niemand gesagt hat wie instabil so ein Amiga läuft... ;)
Der lief sogar mit Microsoft Software sehr stabil. Hab in meinen A500 Anfgangszeiten einige Zeit mit AmigaBASIC rumgespielt und hatte keine Probleme. ;D
Nein. Solange das Programm tut was es soll, hat auch präemptives Multitasking keinen Sinn und du fährst viel besser mit kooperativen Multitasking. Das ist ist es doch genau.
Solange man nur ein Programm hat fährt man mit einem Singletasksystem am besten ;)
Sobald man aber mehrere Tasks hat und ein Multitaskingsystem hat ist in den meisten Fällen ein präemptives System überlegen. Das kooperative System ist höchstens bei Systemen die für den Batchbetrieb ausgelegt sind besser. Der Grund liegt in den Taskwechseln begründet. Taskwechsel sind relativ teuer und sollten nach Möglichkeit vermieden werden. Am idealsten wäre es also Programm für Programm seine Aufgaben abarbeiten zu lassen, da auf diese Art am wenigsten Overhead entsteht. Ein kooperativer Ansatz kommt dem entgegen. Der Nachteil ist, dass dies dazu führen kann dass ein Programm zu viel (oder gar alle) Rechenleistung konsumiert und andere Tasks verhungern können indem sie keine Rechenleistung mehr abbekommen. Dies führt dann bei interaktiven Systemen zu Lags und Hängern, während die CPU mit 100% Volllast vor sich hin werkelt. Natürlich kann der Programmierer auch möglichst oft versuchen die Rechenzeit wieder ans System zurückzugeben, um so andere Tasks zum Zug kommen zu lassen, aber das müssen dann alle Tasks machen und vor allem ist es für den Programmierer kaum möglich festzustellen, wann ein idealer Punkt ist, die CPU freizugeben. Bei einem präemptiven System hingegen wird in gewissen Zeitintervallen die Ausführung der Tasks unterbrochen. Dabei kann das System festlegen, bzw. es wurde für das System festgelegt, was eine ideale Dauer für eine Zeitscheibe des Programmes ist. Folglich kann hier ein viel besserer und vor allem gleichmäßigerer Tradeoff zwischen möglichst geringem Overhead durch Taskwechsel und guter Reaktionszeit andererseits gefunden werden.
Die zweite Sache, dass ein Programm bei einem Laufzeitfehler im Betrieb angehalten und beendet werden kann, ist ein netter Bonus. Grundsätzlich wäre so etwas aber sogar auf einem Singletasksystem denkbar. Ein fehlerhafter Speicherzugriff führt ja zu einem Hardwareinterrupt durch die MMU, wodurch das Programm so oder so unterbrochen wird. So ein Interrupt kann auch von einem Singletask-OS gefangen werden das dann das Programm abschießt und dann zB wieder auf die Konsole zurückkehrt.
Natürlich tun Programme nicht immer was sie sollen und deshalb mach präemtives MT auch Sinn. Aber eben nur mit Speicherschutz. Der Rest ist nicht halbens unds
Natürlich ist Speicherschutz wünschenswert, aber nicht zwingend nötig. Natürlich hat es schon mal eine Guru Meditation gegeben, genauso wie es auch mal am Atari ein paar Bomben gehagelt hat. Trotzdem man kann es glauben oder nicht, aber es hat auch ohne Speicherschutz gut funktioniert. Dabei habe ich dann speziell am Amiga 1200 mit 68030 und 16 MB FastRam auch viele Programme gleichzeitig laufen gehabt. Da waren auch viele Tools am laufen die allerhand Sachen am System verändert haben, wie z.B. MCP, oder ein Tool das die Requister verbessert hat (hab den Namen grad vergessen :redface: ), uvm. die in ihrer Kombination die Stabilität sicher nicht verbessert haben.
Der lief sogar mit Microsoft Software sehr stabil. Hab in meinen A500 Anfgangszeiten einige Zeit mit AmigaBASIC rumgespielt und hatte keine Probleme. ;D
aber auch hier sieht man die Microsoft Qualität, AmigaBASIC ist so mit das langsamste Amiga Programm das ich kenne ;) (okay, nur AMOS ist noch schlechter :biggrin: )
Natürlich kann der Programmierer auch möglichst oft versuchen die Rechenzeit wieder ans System zurückzugeben, um so andere Tasks zum Zug kommen zu lassen, aber das müssen dann alle Tasks machen und vor allem ist es für den Programmierer kaum möglich festzustellen, wann ein idealer Punkt ist, die CPU freizugeben.
eben, wenn man ein Video rendert, so was dauert recht lange. Nicht toll wenn in einem kooperativen System dann der Rechner 1-2 Stunden blockiert ist. Natürlich kann die Schnittsoftware auch alle halbe Sekunde eine Pause von einer halben Sekunde einlegen, das bringts dann aber auch nicht wirklich. Mal bräuchten andere Programme noch mehr Rechenzeit, ein ander Mal liegt die CPU brach und das Videoprogramm könnte in dem Fall mehr CPU nutzen.
Da waren auch viele Tools am laufen die allerhand Sachen am System verändert haben, wie z.B. MCP, oder ein Tool das die Requister verbessert hat (hab den Namen grad vergessen :redface: ), uvm. die in ihrer Kombination die Stabilität sicher nicht verbessert haben.
ReqAttack ?
Nicht zu vergessen haben sich AHI (recht wenig), Picasso96 und Cybergraphics (extrem viel) ins System eingeklinkt um Custom Chip unabhängig Sound- und Grafikkarten ins System einbinden zu können. Mit FBlit konnte ohne Grafikkarte die Grafik ins FastRAM "auslagert" werden (vereinfacht ausgedrückt). Mit VMM wurde Virtueller Speicher ins System gepatched, etc usw pp. und das OS läuft trotz all dieser Programme keinen Deut instabiler!
sauberes Programmieren ist halt etwas was heutige Programmierer offensichtlich nicht mehr können...
teilweise scheint es aber auch am OS zu liegen:
Windows 98, ISA Soundkarte: WinAMP spielt MP3 ab, dann greift man auf das Diskettenlaufwerk zu => der Sound "hängt sich auf" d.h. der aktuelle Audiopuffer wird endlos weitergespielt.
Gleiche Hardware, diesmal Windows NT => keine Probleme
Gleiche Situation mit W98, jedoch PCI Soundkarte => keine Probleme
Das meinte ich ja, habe ich vergessen zu erwähnen. Mit Windows95-98 war es immer problematisch. Mit XP hat sich das entschärft, wobei ich hier Rechner ab 2,4 GHz dran hatte, und ob das nicht auch noch eine Rolle spielte, ist die Frage.
Fakt ist, daß ein AmigaOS sehr gut seine Sachen auf die Customchips verteilt hatte, und die Gui vom Bussystem unabhängig war.
Übrigens kann bei bei allen Desktopaufsätzen wie KDE, Gnome usw. unter Linux genau das selbe beobachten, ist das System belastet, geht die Bremse sofort auf die GUI.
Der_Donnervogel
2007-12-03, 23:14:45
ReqAttack ?
Nein, es war reqtools
Mir ist außerdem noch ein Vorteil von AmigaOS gegenüber Windows eingefallen. AmigaOS hatte eine funktionierende Versionsverwaltung bei libraries.
ShadowXX
2007-12-04, 00:19:18
aber auch hier sieht man die Microsoft Qualität, AmigaBASIC ist so mit das langsamste Amiga Programm das ich kenne ;) (okay, nur AMOS ist noch schlechter :biggrin: )
Das Basic war eine Lizenz von MS (schon seit dem PET), aber Programmiert habe Sie es nicht für den Amiga. MS triifft da also eigentlich gar keine Schuld.
Nicht zu vergessen haben sich AHI (recht wenig), Picasso96 und Cybergraphics (extrem viel) ins System eingeklinkt um Custom Chip unabhängig Sound- und Grafikkarten ins System einbinden zu können. Mit FBlit konnte ohne Grafikkarte die Grafik ins FastRAM "auslagert" werden (vereinfacht ausgedrückt). Mit VMM wurde Virtueller Speicher ins System gepatched, etc usw pp. und das OS läuft trotz all dieser Programme keinen Deut instabiler!
sauberes Programmieren ist halt etwas was heutige Programmierer offensichtlich nicht mehr können...
Der Vergleich hinkt extrem....von der größe der beiden OS mal abgesehen: Am PC hängst du auch tagtäglich irgendwelche HW ins System rein, ohne das der Rechner instabil wird.
Wenn was nicht läuft ist nicht Windows schuld, sondern der Treiber...die MS nicht selbst Programmiert.
Und auch auf dem Amiga konnte mehr Schieflaufen als Murphys Gesetz eigentlich erlaubt.
Bei einem präemptiven System hingegen wird in gewissen Zeitintervallen die Ausführung der Tasks unterbrochen. Dabei kann das System festlegen, bzw. es wurde für das System festgelegt, was eine ideale Dauer für eine Zeitscheibe des Programmes ist. Folglich kann hier ein viel besserer und vor allem gleichmäßigerer Tradeoff zwischen möglichst geringem Overhead durch Taskwechsel und guter Reaktionszeit andererseits gefunden werden.Wobei beim AmigaOS der User noch entscheiden konnte wie sehr ihm ein task am Herzen liegt und die Priorisierung durch den Kernel zwischen glaub ich -3 bis +3 festlegen konnte.
Natürlich ist Speicherschutz wünschenswert, aber nicht zwingend nötig. Natürlich hat es schon mal eine Guru Meditation gegeben, genauso wie es auch mal am Atari ein paar Bomben gehagelt hat. Trotzdem man kann es glauben oder nicht, aber es hat auch ohne Speicherschutz gut funktioniert.HAt es. Das war aber eben in den Neunzigern. Und die Entwickluntgswerkzeuge für den Amiga wie auch die meisten Programmierer waren sehr fortgeschritten.
Es gibt aber keine bugfreie Software und die Projekte waren dem System angepasst, also nicht wirklich groß. Daher noch halbwegs überschaubar. Ganze Ordner waren kleiner als heute eine einzige Exe unter XP ;)
Heutzutage hat sowas keine Chance mehr. Ein Fehler eines Usertasks darf nicht mal theoretisch das komplette System ins Verderben reissen.
Dabei habe ich dann speziell am Amiga 1200 mit 68030 und 16 MB FastRam auch viele Programme gleichzeitig laufen gehabt.Alleine die Zahl wirkt sich theoretisch auf die Stabilität nicht aus. Paraktisch konnte man nach einer gewissen Zeit an der Speicherfragmentierung scheitern, da keiner ausreichend großer Block mehr vorhanden war. Thor (nein, nicht der) hat dafür damals ein Tool geschrieben. MemPool glaub ich.
Das hat on the fly die freien Blöcke halbwegs gut wieder zusammengesetzt.
Was mich am AmigaOS oft gewundert hat, war die Tasache, daß man im Laufe der Jahre des Stillstands einige Systemtools ansammelte und das System war trotzdem keine Milisekunde langsamer als eine frische Installation oder war zum Teil sogar schneller.
Unixe ausgenommen und bis auf Speicherschutz war das System wirklich um eine ganze Epoche seiner Zeit voraus.
Extrem leistungsfähig und als Architektur genauso elegant aufgebaut wie es elegant auf der Festplatte seinen Platz nahm.
Am PC hängst du auch tagtäglich irgendwelche HW ins System reinUSB-Sticks und USB-Platten. Das wars auch mit tagtäglich ;)
Leider bedeutet eine WHQL-Zertifizierung überhaupt nicht, daß ein Treiber beim User wirklich rund läuft oder gar stabil. Wozu gibts das überhaupt?
Mir scheint es auch, daß MS sich keine großen Mühen macht ausgezeichnete Werkzeuge ausgerechnet für Kerneltreiberprogrammierung anzubieten und es sogar als freeware zu veroffentlichen. Sowas würde der Windowswelt wirklich gut tun.
Übrigens kann bei bei allen Desktopaufsätzen wie KDE, Gnome usw. unter Linux genau das selbe beobachten, ist das System belastet, geht die Bremse sofort auf die GUI.
Du kannst der GUI in diesem Fall einfach eine höhere Priorität geben.
Das können Unix Systeme schon seit eh und je.
Du kannst der GUI in diesem Fall einfach eine höhere Priorität geben.
Das können Unix Systeme schon seit eh und je.Warum soll sich der User darum kümmern? Und wieviel höher bei welchem Vollast Task ist hoch genug?
Gott sei dank brauch ich im Auto an der Spritmischung nicht dauernd rumstellen.
Der_Donnervogel
2007-12-04, 14:24:19
Wobei beim AmigaOS der User noch entscheiden konnte wie sehr ihm ein task am Herzen liegt und die Priorisierung durch den Kernel zwischen glaub ich -3 bis +3 festlegen konnte.
Bei den Prioritäten hatte man einen viel größeren Spielraum. Die Prioritäten gingen von -128 bis 127, wobei normale Anwendungsprogramme standardmäßig Prioriät 0 hatten. Die Systemprozesse hatten positive Prioriäten, zB devices hatten AFAIR eine Priorität von 20, die Workbench eine Priorität von 3. Nach oben hin war man also begrenzt, wollte man sich nicht das System womöglich komplett lahmlegen, aber nach unten hatte man viel Spielraum.
HAt es. Das war aber eben in den Neunzigern. Und die Entwickluntgswerkzeuge für den Amiga wie auch die meisten Programmierer waren sehr fortgeschritten.
Es gibt aber keine bugfreie Software und die Projekte waren dem System angepasst, also nicht wirklich groß. Daher noch halbwegs überschaubar. Ganze Ordner waren kleiner als heute eine einzige Exe unter XP ;)
Meine originale Systempartition am A1200 war mit 10 MB kleiner als die EXE von Civilisation 4 BtS die 13,4 MB hat. Selbst wenn man die 512 KB Rom noch dazupackt, war also das ganze OS inklusive einiger Zusatztools kleiner, als die Exe von einem heutigen Spiel. ;D
Alleine die Zahl wirkt sich theoretisch auf die Stabilität nicht aus.
Kommt auf den Blickwinkel an. Statistisch gesehen ist die Wahrscheinlichkeit ein Programm mit einem Bug zu verwenden umso größer, je mehr Programme verwendet werden. Dazu kommen dann noch Konflikte zwischen Programmen. Ich hatte zB mit solchen Konflikten zu kämpfen, da sich zB MCP nicht mit allen anderen Systemhacks vertragen hat und nur mit einer an die anderen Tools angepassten Konfiguration lief (ist ja auch klar, daß es Probs gibt, wenn zwei Programme die selben OS-Routinen patchen ;) ).
Hui, ein Amiga Thread bei 3dcenter...
Da bekommt man ja feuchte Augen;-) Ich vermisse mein AmigaOS, meinen A4000T + PPC604e. Ich glaube ich war einer der wenigen die sich nen CDTV gekauft hatten.
Hier bischen was über das OS. Mittlerweile gibts ja die 4.0.
http://os.amigaworld.de/index.php?lang=de&page=1
Ups, ich war nicht mal angemeldet.
Was ich noch hinzufügen wollte. Das bei uns regionale mittlere Erzgebirgsfernsehen arbeitet so weit ich weis noch mit vielen Amigas in den Sendestationen. Dort werden sie für die Bildschirmzeitung mit Scala, fxpaint, Cinema4D, ArtEffect etc. eingesetzt.
Nein, es war reqtools
okay, ReqTools war ein eigenes Requester-Paket (welches andere Requester aber auf sich umlenken konnte, vermutlich hast Du mit "verbessern" das gemeint?)
Der Vergleich hinkt extrem....von der größe der beiden OS mal abgesehen: Am PC hängst du auch tagtäglich irgendwelche HW ins System rein, ohne das der Rechner instabil wird.
Hallo? Jemand zu Hause?
Windows ist vom 1. Byte an darauf designt, dass unterschiedliche Grafik und Soundhardware eingebaut wird. Das Amiga OS ist auf die Custom Chips zugeschnitten.
Die "hardwareunabhängigen Systeme" AHI (Audio), Picasso96 und Cybergrafix (Grafik) stammen von Drittherstellern und klinken sich ein perfektest in ein OS ein, dass dafür eigentlich gar nicht vorgesehen ist.
Wenn was nicht läuft ist nicht Windows schuld, sondern der Treiber...die MS nicht selbst Programmiert.
mit all dem Speicherschutz und was Windows sonst so alles tolles kann, sollte es doch gar nicht möglich sein fehlerhafte Windows Treiber und Programme zu schreiben ;)
Und auch auf dem Amiga konnte mehr Schieflaufen als Murphys Gesetz eigentlich erlaubt.
bestreitet auch niemand, aber dennoch, oder vielleicht gerade deswegen lief der Amiga so stabil. Siehe oben, wäre das System so instabil, dann hätte die Nasa damit nicht Raketen in den Orbit geschossen, etc usw pp
Mit XP hat sich das entschärft, wobei ich hier Rechner ab 2,4 GHz dran hatte, und ob das nicht auch noch eine Rolle spielte, ist die Frage.
langsame Geräte wie Diskette, aber auch Zip100 und USB 1.1 Geräte zerren ziemlich an der Gesamtgeschwindigkeit
Wobei beim AmigaOS der User noch entscheiden konnte wie sehr ihm ein task am Herzen liegt und die Priorisierung durch den Kernel zwischen glaub ich -3 bis +3 festlegen konnte.
wie schon geschrieben wurde, -128 bis 127, ein normaler User sollte aber nicht höher als 3 gehen (es sei denn man weiss was man tut)
und die Projekte waren dem System angepasst, also nicht wirklich groß.
lol? nur weil ein Projekt nicht Gigabyte auf der Festplatte braucht, ist es nicht unbedint klein. Cinema 4D z.B. hat seinen Ursprung auf dem Amiga.
Heutzutage hat sowas keine Chance mehr. Ein Fehler eines Usertasks darf nicht mal theoretisch das komplette System ins Verderben reissen.
tjo, und trotzdem sieht man hin und wieder einen BSOD unter XP und trotzdem schafft man es unter XP immer wieder, dass der Rechner eine halbe Minute lang hängt und ein Programm von sich behauptet "program not responding" (würde da immer zu gerne wissen, was das Programm da gerade eigentlich macht).
Schade, dass es die W9x Meldung "das System ist ausgelastet... *blabla*" (was man sich auch immer unter einem "ausgelasteten System" vorstellen muss)
Was mich am AmigaOS oft gewundert hat, war die Tasache, daß man im Laufe der Jahre des Stillstands einige Systemtools ansammelte und das System war trotzdem keine Milisekunde langsamer als eine frische Installation oder war zum Teil sogar schneller.
tja, gewusst wie :smile:
wie es elegant auf der Festplatte seinen Platz nahm.
oja - "hmm, ich möchte was ausprobieren, mir aber das OS nicht zerschiessen" => die Bootpartition d.h. die Dateien darauf einfach auf eine andere Partition kopieren wo noch genug Platz ist, diese Partition ggf noch bootfähig machen und dann davon booten :biggrin:
Kommt auf den Blickwinkel an. Statistisch gesehen ist die Wahrscheinlichkeit ein Programm mit einem Bug zu verwenden umso größer, je mehr Programme verwendet werden. Dazu kommen dann noch Konflikte zwischen Programmen. Ich hatte zB mit solchen Konflikten zu kämpfen, da sich zB MCP nicht mit allen anderen Systemhacks vertragen hat und nur mit einer an die anderen Tools angepassten Konfiguration lief (ist ja auch klar, daß es Probs gibt, wenn zwei Programme die selben OS-Routinen patchen ;) ).
jou, ich habe bei mir auch diverse Systemhacks drauf, anfangs war da halt ausprobieren angesagt, welche speziellen Features sich da gegenseitig beissen und abgeschaltet werden müssen.
Was ich noch hinzufügen wollte. Das bei uns regionale mittlere Erzgebirgsfernsehen arbeitet so weit ich weis noch mit vielen Amigas in den Sendestationen. Dort werden sie für die Bildschirmzeitung mit Scala, fxpaint, Cinema4D, ArtEffect etc. eingesetzt.
http://www.amigahistory.co.uk/fau/main.html
Der_Donnervogel
2007-12-04, 23:59:09
okay, ReqTools war ein eigenes Requester-Paket (welches andere Requester aber auf sich umlenken konnte, vermutlich hast Du mit "verbessern" das gemeint?)
Ja ich hatte es so eingestellt, dass es (fast) alle Requister auf sich umgelenkt hat. Ich habe mein AmigaOS damals mit so ziemlich allem aufgebohrt was sinnvoll war und einen ganze Schwung von kleinen Tools und Hacks angesammelt und aufeinander abgestimmt. Dazu dann noch ein kräftig selber angepasstes DirectoryOpus und ein Schwung Shell-Skripte um die Sache abzurunden.
lol? nur weil ein Projekt nicht Gigabyte auf der Festplatte braucht, ist es nicht unbedint klein. Cinema 4D z.B. hat seinen Ursprung auf dem Amiga.Solche Sachen kann man an einer Hand abzählen. Gemeint war die alltägliche Software die wir benutzt habe. Spiel mal nicht den Fanboy hier. Bleib sachlich. Den Rest meines Beitrags hat Donnervogel schon korrekt kommentiert.
Solche Sachen kann man an einer Hand abzählen. Gemeint war die alltägliche Software die wir benutzt habe. Spiel mal nicht den Fanboy hier. Bleib sachlich. Den Rest meines Beitrags hat Donnervogel schon korrekt kommentiert.
Spiel Du mal nicht den Anti-Fanboy und bleib selber mal sachlich.
Erst redest Du von (nicht grossen) Projekten die dem System angepasst waren und nun von alltäglicher Software. Also was denn nun?
Die ersten Semester meines Studiums habe ich mit dem Amiga und Wordworth ("Word"), Turbocalc ("Excel") und anderen Programmen problemlos über die Bühne gebracht. Kenne auch Leute die Ihr (Mathe) Studium mit dem Amiga und TeX komplett durchgezogen haben!
Früher und heute mache ich ein wenig Soundbearbeitung und spiele mit Grafiken rum, damals hiessen die Tools eben SampleZ und PPaint/XiPaint und heute halt CoolEdit/Audacity/etc und Corel/Gimp/etc.
Was muss ein Programm denn nun "mitbringen" damit es als "alltäglich" und "gross" anzusehen ist?
Erst redest Du von (nicht grossen) Projekten die dem System angepasst waren und nun von alltäglicher Software. Also was denn nun?Ist das nicht das gleiche? Wie groß kann ein Prjekt sein der auf einem System mit 1MB Speicher läuft?
Nicht jeder hatte gleich eine Mk2 im Rechner. Ich rede von dem alltäglichen Geschäft mit dem Amiga um 1990.
In den nächsten 5 Jahren tat der Fehlende Speicherschutz genauso immer mehr weh wie die allseits gefürchtete jagt nach dem größten zusammenhängenden Speicherblock.
Ich weiß schon was ich schreibe ;)
Ist das nicht das gleiche? Wie groß kann ein Prjekt sein der auf einem System mit 1MB Speicher läuft?
Nicht jeder hatte gleich eine Mk2 im Rechner. Ich rede von dem alltäglichen Geschäft mit dem Amiga um 1990.
sooooo viel mehr an (freien) Speicher hatte 1990 ein Windows 3.x PC auch nicht ;)
Auf jeden Fall reichte PWrite, PPaint und die Demo Version von TurboCalc auf meinem A500 bestens aus um die (wenigen) Schulaufgaben welche man auch auf dem Computer machen konnte, zu erledigen. Auch die TurboPascal Hausaufgaben in Informatik konnte ich mit PCTask (sofern Du weisst was das ist ;) ) ohne Probleme auf dem Amiga machen (das dann mit dem A1200). :smile:
In den nächsten 5 Jahren tat der Fehlende Speicherschutz genauso immer mehr weh
tut mir bis heute nicht wirklich weh, und mein 1. PC mit Win95 und Office 97 war jetzt nicht unbedingt ein Vorbild an Stabilität ;)
Beim Proggen funktionieren Enforcer, Mungwall und Co bestens, auch lernt man von Anfang an (nahezu) "fehlerfreien" Code zu schreiben.
wie die allseits gefürchtete jagt nach dem größten zusammenhängenden Speicherblock.
nun, die Sorge hatte/habe ich eher selten bis nie
Ich weiß schon was ich schreibe ;)
dann ists ja gut ;)
sooooo viel mehr an (freien) Speicher hatte 1990 ein Windows 3.x PC auch nicht ;)Es ging mir ja nicht um 1990.
Auf jeden Fall reichte PWrite, PPaint und die Demo Version von TurboCalc auf meinem A500 bestens aus um die (wenigen) Schulaufgaben welche man auch auf dem Computer machen konnte, zu erledigen.Damals reichte für sowas noch 1MB aus. Wovon sprach ich denn? ;)
konnte ich mit PCTask (sofern Du weisst was das ist ;) )ha ha
Die Projekte waren für heutige Zeit winzig und daher sehr gut überblickbar.
Es ging mir ja nicht um 1990.
oh Junge oh Junge, okay, ein Troll...
mein
sooooo viel mehr an (freien) Speicher hatte 1990 ein Windows 3.x PC auch nicht
war die Antwort auf
Ich rede von dem alltäglichen Geschäft mit dem Amiga um 1990.
Haarmann
2007-12-08, 18:24:54
1MB reicht weit...
Man ziehe den Grafikspeicher ab bei der Amiga typischen Auflösung ab... recht wenig.
Und was passt nun genau auf eine Bildschirmseite? Mehr muss eigentlich gar nicht geladen sein. Auch muss ich ein Bild nicht sehen, damit ichs positionieren kann...
Am Ende zählt, was auf dem Papier ist...
Winnie
2007-12-08, 18:39:21
Ich habe damals meinen monatlichen Ausbildungsnachweis mit dem A500 geschrieben. Hatte mir für 500 DM nen Panasonic 24Pin-Nadler gekauft und die Texte in nem Texteditor geschrieben und dann in den Vordruck gedruckt. Klappte wunderbar und war deutlich komfortabler als auf dem Dienstrechner mit DOS-Word das Ganze zu erstellen. Konnte damals immer nicht verstehen, was an der DOS-Kiste so toll war. Später stand uns dann auch nen Win3.1-Rechner zur Verfügung, wo uns stolz MSPaint gezeigt wurde...was ja gegen DPaint eh nich ankam :p
Der A500 war irgendwann nicht mehr genug, also wurde ein A1200 mit 68030/50MHz + 16MB FastRAM + 2GB HDD + CD angeschafft...hach, das war ne geile Zeit :) Irgendwo habe ich die Kiste auch noch stehen (eingebaut in nen angepasstes ATX-Gehäuse), weiss nur nicht mehr wo :-)
Ich habe damals meinen monatlichen Ausbildungsnachweis mit dem A500 geschrieben. Hatte mir für 500 DM nen Panasonic 24Pin-Nadler gekauft und die Texte in nem Texteditor geschrieben und dann in den Vordruck gedruckt. Klappte wunderbar und war deutlich komfortabler als auf dem Dienstrechner mit DOS-Word das Ganze zu erstellen. Konnte damals immer nicht verstehen, was an der DOS-Kiste so toll war. Später stand uns dann auch nen Win3.1-Rechner zur Verfügung, wo uns stolz MSPaint gezeigt wurde...was ja gegen DPaint eh nich ankam :p
Kein wunder, wenn man Word genutzt hat...
WordPerfect war damals aber das beste, wo gab. Deutlich besser als Word. Gab es auch für ST und Amiga, auch wenn die Ports nicht so toll waren.
Word war damals übrigens noch ein "Zwerg" gegenüber WordPerfect weltweit gesehen ;)
Auf dem Atari ST war Signum eine recht ordentliche Textverarbeitung.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.