Archiv verlassen und diese Seite im Standarddesign anzeigen : Linux - Und immer dran denken: Linux ist nur kostenlos, wenn deine Zeit keinen Wert hat.
Schnuller4u
2008-01-20, 14:17:08
Vorhin noch gelesen, wie sich Linux-Freaks mehr oder weniger lustig darüber gemacht haben, daß Leute Geld für ein OS ausgeben. Leider vergessen diese Leute nur, daß Linux ganz schön schnell frickelig wird, wenn es über den Standardkram einer üblichen Distribution hinausgeht, selbst für manch einen Linux-Freak. Beispiel kann z.B. sein, eine TV-Karte einzurichten oder Software, die nicht in den Repos liegt.
Daher ist Linux häufig überhaupt nicht mehr kostenlos, wenn man die ganze Zeit in Geld umrechnen würde. Frustrationsfaktor inbegriffen.
:ulol:
GeneralHanno
2008-01-20, 14:28:40
Das kalkulieren auch Firmen so, wenn sie bereit sind, für eine Windoof Server Version 1000$ zu zahlen. Linux ist ja kostenlos, aber ein "experte" kostet schnell mal 100€/h ...
So gesehen lohnt sich auch OC (meist) nicht. schließlich sind das auch 10std "arbeitszeit" ...
dennoch linux und OC sind hobbies und da "opfert" man seine zeit gerne für ;)
Exxtreme
2008-01-20, 14:32:06
Das kalkulieren auch Firmen so, wenn sie bereit sind, für eine Windoof Server Version 1000$ zu zahlen. Linux ist ja kostenlos, aber ein "experte" kostet schnell mal 100€/h ...
Ach, und ein Windows Server läuft von alleine oder wie?
GeneralHanno
2008-01-20, 14:35:20
Die Personalkosten (Einrichtung und Erweiterung) sind unter Windoof geringer als unter Linux. U.a. auch weil die meiste Software für Windoof genormt ist ...
_DrillSarge]I[
2008-01-20, 14:47:21
bei servern nehmen sich win un d linux nicht viel, da linux unendlich viele tools/software dafür selber mitbringt, bzw. diese angeboten wird.
windows server ist schwieneteuer, da sich die lizensierung nach packages (phys. prozessoren) richtet.
Vorhin noch gelesen, wie sich Linux-Freaks mehr oder weniger lustig darüber gemacht haben, daß Leute Geld für ein OS ausgeben. Leider vergessen diese Leute nur, daß Linux ganz schön schnell frickelig wird, wenn es über den Standardkram einer üblichen Distribution hinausgeht, selbst für manch einen Linux-Freak. Beispiel kann z.B. sein, eine TV-Karte einzurichten oder Software, die nicht in den Repos liegt.
Daher ist Linux häufig überhaupt nicht mehr kostenlos, wenn man die ganze Zeit in Geld umrechnen würde. Frustrationsfaktor inbegriffen.
:ulol:
Gib nicht dem Kernel die Schuld, wenn Hersteller keine Treiber für ihre Produkte schreiben.
SavageX
2008-01-20, 15:23:11
U.a. auch weil die meiste Software für Windoof genormt ist ...
Wie sieht für Windows normierte Software aus?
Ansonsten kann "kostenlos" für den Unternehmenseinsatz natürlich kein durchschlagendes Argument sein. Für alle unternehmenskritischen Dinge gehört im Regelfall auch ein Supportvertrag dazu. Aber für sowas gibt es ja den Red Hat Enterprise Server oder das Äquivalent von vielen anderen Anbietern.
Mit Linux wird aus meiner Sicht IT erstmal nicht "billiger". Ein besseres Argument mag eher sein, dass man unter Umständen leichter die Option hat auf eine andere Lösung zu migrieren, wenn man mit Red Hat oder Novell nicht mehr auf einen Nenner kommt.
Zum Thema Treibergefrickel:
- Im Privaten: Kein Mac Benutzer kauft sich Gedöns vom Grabbeltisch, wenn da nicht ausdrücklich "läuft auch auf dem Mac" draufsteht. Davon kann man sich als Linuxer eine Scheibe abschneiden und sich *vorher* kundig machen, ob das Zeug unterstützt wird. Drucker anwerfen, Liste ausdrucken, ab in den Blöd-Markt. Macht vieles viel einfacher.
- Im Unternehmenseinsatz: RHEL hat gefälligst auf Hardware zu laufen, die für RHEL zertifiziert ist (ansonsten wird das mit dem Support auch nicht so laufen wie erhofft). Dann gibt es kein Frickelproblem.
Exxtreme
2008-01-20, 15:27:31
Die Personalkosten (Einrichtung und Erweiterung) sind unter Windoof geringer als unter Linux. U.a. auch weil die meiste Software für Windoof genormt ist ...
Linux bringt schon für viele Anwendungsfälle passende Software mit.
Ach, und ein Windows Server läuft von alleine oder wie?
Zumindest sehr sehr unproblematisch.
Von dem Debian-Etch das ich auf nem Root-Server hab kann ich das was Zeitaufwand angeht nicht behaupten.
The_Invisible
2008-01-20, 16:18:33
für einen linux-server braucht man aber auch keine tv-karte und so spielzeug.
die serveranwendungen laufen mindestens so stabil wie unter windows, die konfiguration bleibt auch keinem erspart. gerade für server kann man einen sehr spezialisierten kernel kompilieren und unnötiges zeugs raushauen. mit xen und paravirtualisierung spart man sich nochmal bares geld und hardware.
außerdem, überlegt mal wie lange ihr schon mit windows arbeitet und zeit damit verbracht habt. würde man von anfang an nur mit linux arbeiten könnte man das argument auch gegen windows bringen. frustmomente hat ein admin sowieso immer, egal welches os.
mfg
die serveranwendungen laufen mindestens so stabil wie unter windows, die konfiguration bleibt auch keinem erspart. gerade für server kann man einen sehr spezialisierten kernel kompilieren und unnötiges zeugs raushauen. mit xen und paravirtualisierung spart man sich nochmal bares geld und hardware.
Die Konfiguration ist bei einem Windows-Server weitaus einfacher. Das weiß ich aus der Praxis.
Das größte Ärgernis, ist dass es tausend verschiedene FTP- Mail- und sonstwas-Server gibt und diese dann auch noch alle eine unterschiedliche Konfigurationsstruktur haben. Unglaublich lästig, bis man da mal den Durchblick hat.
außerdem, überlegt mal wie lange ihr schon mit windows arbeitet und zeit damit verbracht habt. würde man von anfang an nur mit linux arbeiten könnte man das argument auch gegen windows bringen. frustmomente hat ein admin sowieso immer, egal welches os.
Ich hab schonmal ein LFS aufgesetzt und verwende es schon jahrelang für bestimmte Dinge. Das ist sicher nicht das Problem.
SavageX
2008-01-20, 17:31:59
Das größte Ärgernis, ist dass es tausend verschiedene FTP- Mail- und sonstwas-Server gibt und diese dann auch noch alle eine unterschiedliche Konfigurationsstruktur haben. Unglaublich lästig, bis man da mal den Durchblick hat.
Diesen Punkt kann ich durchaus nachvollziehen, wenn auch manch einer behaupten mag, dass man natürlich nicht tausend verschiedene Server konfiguriert (man beschränkt sich ja meist auf einen der entsprechenden Art) und dass Leute, die nicht bereit sind, sich da einzuarbeiten, besser gar keinen Server aufsetzen sollten.
Wobei man jedoch sagen muss, dass man es den Leuten ja nicht unnötig schwer machen muss. So schätze ich persönlich ja Dinge sehr, die "sinnvoll" vorkonfiguriert sind. Und da hapert es an so einigen Stellen dann doch. Wobei man da natürlich sagen muss, dass es oft keine "one fits all" Konfiguration geben kann...
Schnuller4u
2008-01-20, 20:25:50
Gib nicht dem Kernel die Schuld, wenn Hersteller keine Treiber für ihre Produkte schreiben.
'tschuldigung! Hätte Linux eine etablierte, offizielle und stabile Kernel-Schnittstelle dann würden sich die Hersteller sicherlich weniger schwer tun. Das ist keine zuverlässige Grundlage!!! Neuer Kernel - (häufig) neues Spiel!
:ucoffee:
SavageX
2008-01-20, 21:35:08
'tschuldigung! Hätte Linux eine etablierte, offizielle und stabile Kernel-Schnittstelle dann würden sich die Hersteller sicherlich weniger schwer tun. Das ist keine zuverlässige Grundlage!!! Neuer Kernel - (häufig) neues Spiel!
Spezifikationen auf den Tisch und Treiber in den Kernel. Und schon ist der
:ucoffee:
aufgetrunken. Die Hersteller haben sogar das Angebot, dass *kostenlos* für sie Treiber geschrieben und gewartet werden. So einige Firmen haben den Dreh raus, wie man an Treiber für Linux kommt, so einige andere hingegen quälen die Entwickler durch reverse-engineering und brennende Reifen Geschichten.
Exxtreme
2008-01-20, 23:18:17
Spezifikationen auf den Tisch und Treiber in den Kernel. Und schon ist der
aufgetrunken. Die Hersteller haben sogar das Angebot, dass *kostenlos* für sie Treiber geschrieben und gewartet werden. So einige Firmen haben den Dreh raus, wie man an Treiber für Linux kommt, so einige andere hingegen quälen die Entwickler durch reverse-engineering und brennende Reifen Geschichten.
Ich halte das Fehlen jeglicher APIs/Abstraction Layer im Linuxkernel trotzdem für eine der grössten Schwächen, die Linux so hat. Und nein, die Kernelheader sehe ich nicht als API an sorry.
Dummerweise ist das volle Absicht weil einige der Kernelheinis ihre Ideologien ausleben wollen. ;(
Controller Khan
2008-01-21, 07:18:29
Ich halte das Fehlen jeglicher APIs/Abstraction Layer im Linuxkernel trotzdem für eine der grössten Schwächen, die Linux so hat. Und nein, die Kernelheader sehe ich nicht als API an sorry.
Dummerweise ist das volle Absicht weil einige der Kernelheinis ihre Ideologien ausleben wollen. ;(
Documentation/stable_api_nonsense.txt beantwortet das Thema aus Sicht der Kernelentwickler.
Die NVidia Treiber sind eigentlich die einzig brauchbaren proprietären Treiber.
Was Ati /Creative /AWM da manchmal aushauen, ist einfach nur zum Heulen.
Die Qualität der proprietären Treiber unter Windows ist auch nicht gerade der Hit.
Scheinbar geht oft nur darum,daß niemand sieht wie häßlich und hack-mäßig
der Treiber zusammengestrickt wurde.
Die Anforderungen, damit Quellcode in den Kernel kommt sind halt hoch, sonst wird der ganze Kernel unwartbar.
Grestorn
2008-01-21, 07:40:20
Spezifikationen auf den Tisch und Treiber in den Kernel. Und schon ist der
Es gibt keinen Grund warum ein Hersteller seine Spezifikationen veröffentlichen sollte. Zumal da oft ja auch ein gehöriger Anteil an KnowHow drinsteckt, von dem man explizit nicht will, dass die Konkurrenz profitiert.
Diese "alles muss offen sein"-Gedöns ist der größte Klotz am Bein von Linux.
Software ist eben nicht nur "Wissen" und gehört damit eben nicht einfach immer allen, auch wenn uns das ein Stallmann immer und immer wieder weißmachen will.
Radeonator
2008-01-21, 08:25:48
'tschuldigung! Hätte Linux eine etablierte, offizielle und stabile Kernel-Schnittstelle dann würden sich die Hersteller sicherlich weniger schwer tun. Das ist keine zuverlässige Grundlage!!! Neuer Kernel - (häufig) neues Spiel!
:ucoffee:
Ist das nen Witz?
Windows auf Dauer günstiger? Nochn Witz?
-LINUX ist und bleibt ein Community Project
-LINUX kann (!!!) sogar mit "etabliertem" Kernel "eingekauft" werden
(z.B. Novell SuSE, Mandriva, Red Hat)
-Stabile Kernel Schittstellen...erm welche sind den nicht stabil? LINUX schon mal benutz oder nur vom Hörensagen?
-Support wird von z.B. Novell sehr günstig angeboten, LINUX Admins bekommt man inzwischen verhältnismäßig für die gleichen Lohn wie Mickrigsoft Admins.
-MS lässt sich Lizens + Support bezahlen. Kostenpflichtige Upgrades sind allenthalben Fällig, wenn der Admin up-to-date bleiben will.
etc etc etc
Ergo conclusio : Microsoft kostet auf jeden Fall mehr, ausser man hat keinen LINUX Admin, um LINUX zu nutzen.Damit ist LINUX nichts für jedermann, sondern nur für die, die sich komplett umstellen.
Exxtreme
2008-01-21, 08:35:05
Documentation/stable_api_nonsense.txt beantwortet das Thema aus Sicht der Kernelentwickler.
Jo, und genau das stösst mir sauer auf. Ich finde die Argumentation da drinne richtig Bullshit, sorry.
Die NVidia Treiber sind eigentlich die einzig brauchbaren proprietären Treiber.
Was Ati /Creative /AWM da manchmal aushauen, ist einfach nur zum Heulen.
Mag schon sein. Jedes Mal Treiber neu installieren weil man einen neuen Kernel eingespielt hat nervt halt irgendwannmal. Und nutzt man mehrere Kernel (aus welchen Gründen auch immer) hat man die Treiber auch mehrfach im System. Mit einem stabilen API wäre das nicht nötig gewesen.
Die Qualität der proprietären Treiber unter Windows ist auch nicht gerade der Hit.
Scheinbar geht oft nur darum,daß niemand sieht wie häßlich und hack-mäßig
der Treiber zusammengestrickt wurde.
Also ich bin mit den meisten Treibern zufrieden. Und mich wundert es überhaupt nicht, daß die Treiber von AMD/Ati unter Windows sehr viel besser funktionieren. Das Hickhack die Treiber anpassen zu müssen bloß weil sich im Kernel wieder was geändert hat kostet halt Resourcen, die dann woanders fehlen.
Zudem ist das halt so, daß die Unternehmen die Sourcen gar nicht rausgeben dürfen. Denn die Treiber sind nicht immer zu 100% selbst programmiert. Und das Knowhow in den Grafikchips ist auch nicht unbedingt zu 100% selbst entwickelt sondern Teile sind lizenziert. Der Lizenzgeber ist bestimmt ganz zufrieden wenn der Partner die Sourcecodes einfach mal so zum Download anbietet, gelle? ;)
Und offene Spezifikationen machen noch lange keinen guten Treiber aus.
Die Anforderungen, damit Quellcode in den Kernel kommt sind halt hoch, sonst wird der ganze Kernel unwartbar.
Das Witzige daran ist ja, Treiber-API und Source in den Kernel schliessen sich gar nicht aus. Nur wollen die Kernelheinis das mehr oder weniger erzwingen und legen Steine in den Weg, die nicht sein müssten. Und solche Ideologieverbohrheit ist meistens kontraproduktiv IMHO.
Grestorn
2008-01-21, 08:47:35
Ist das nen Witz?
Windows auf Dauer günstiger? Nochn Witz?
-LINUX ist und bleibt ein Community Project
-LINUX kann (!!!) sogar mit "etabliertem" Kernel "eingekauft" werden
(z.B. Novell SuSE, Mandriva, Red Hat)
-Stabile Kernel Schittstellen...erm welche sind den nicht stabil? LINUX schon mal benutz oder nur vom Hörensagen?
-Support wird von z.B. Novell sehr günstig angeboten, LINUX Admins bekommt man inzwischen verhältnismäßig für die gleichen Lohn wie Mickrigsoft Admins.
-MS lässt sich Lizens + Support bezahlen. Kostenpflichtige Upgrades sind allenthalben Fällig, wenn der Admin up-to-date bleiben will.
etc etc etc
Ergo conclusio : Microsoft kostet auf jeden Fall mehr, ausser man hat keinen LINUX Admin, um LINUX zu nutzen.Damit ist LINUX nichts für jedermann, sondern nur für die, die sich komplett umstellen.
Wie soll man jemanden ernst nehmen mit Deinem Avatar-Bild, jemanden der es nötig hat von "Mickrigsoft" zu schreiben und ganz offensichtlich ein echtes Problem mit seinem Selbstbewustsein als Linux User hat?
Linux ist eine wichtige und wertvolle Alternative in der sonst viel zu sehr monokulturartigen Betriebssystemwelt. Für viele Einsatzzwecke, gerade bei Servern, ist Unix immer noch der Windows-Plattform vorzuziehen.
ABER: Wer daraus einen Glaubenskrieg macht, ist von vorne herein falsch gewickelt. Wer meint, MS wäre nur deswegen schlecht, weil sie kommerziell sind, der lässt sich total blenden (sind IBM und Novell weniger kommerziell?). Wer meint dass Software nur dann gut ist, wenn sie open ist, dann hat er noch nie versucht von seiner Entwicklungsarbeit zu leben (oder wird durch eine der kommerziellen OSS Firmen gesponsort).
Haarmann
2008-01-21, 08:54:35
Schnuller4u
Bis Du nen XP SP2 installiert hast, vergehen Stunden.
Nicht etwa, weils kompliziert ist, sondern weil die Patches Ewigkeiten haben, bis se alle da sind.
Du kannst natürlich auch alle Monate ne eigene CD machen, aber der Aufwand lohnt für ein Gerät nicht.
Dort hat Linux immerhin seine Stärken. Du kriegst aktuelle Images.
Grestorn
2008-01-21, 09:04:42
Schnuller4u
Bis Du nen XP SP2 installiert hast, vergehen Stunden.
Nicht etwa, weils kompliziert ist, sondern weil die Patches Ewigkeiten haben, bis se alle da sind.
Du kannst natürlich auch alle Monate ne eigene CD machen, aber der Aufwand lohnt für ein Gerät nicht.
Dort hat Linux immerhin seine Stärken. Du kriegst aktuelle Images.
Wie kommst Du darauf, dass man von XP keine aktuellen Images kriegt?
Radeonator
2008-01-21, 09:08:15
Wie soll man jemanden ernst nehmen mit Deinem Avatar-Bild, jemanden der es nötig hat von "Mickrigsoft" zu schreiben und ganz offensichtlich ein echtes Problem mit seinem Selbstbewustsein als Linux User hat?).
Offensichtlich ist das Problem auf deiner Seite, ich habe da keins. Das du mich persönlich anzugreifst, macht dich nicht gerade zu jemandem, den man ernst nehmen sollte...
Linux ist eine wichtige und wertvolle Alternative in der sonst viel zu sehr monokulturartigen Betriebssystemwelt. Für viele Einsatzzwecke, gerade bei Servern, ist Unix immer noch der Windows-Plattform vorzuziehen.
Full Ack
ABER: Wer daraus einen Glaubenskrieg macht, ist von vorne herein falsch gewickelt. Wer meint, MS wäre nur deswegen schlecht, weil sie kommerziell sind, der lässt sich total blenden (sind IBM und Novell weniger kommerziell?). Wer meint dass Software nur dann gut ist, wenn sie open ist, dann hat er noch nie versucht von seiner Entwicklungsarbeit zu leben (oder wird durch eine der kommerziellen OSS Firmen gesponsort).
Habe ich soetwas irgendwo in meinem Posting behauptet? Ich weiss, das viele Menschen auf ein Triggerwort warten, um ihre Meinung jemandem aufdrücken zu können, schade nur, wenn man einen Text nicht ganz liest.
Günstiger != nicht kommerziell und das nur OS/GPL Software gut ist, habe ich auch nie geschrieben...
Lieben Gruß von einem, der immer versucht jeden ernst zu nehmen, auch wenns manchmal schwer fällt ;)
Controller Khan
2008-01-21, 09:41:44
Jo, und genau das stösst mir sauer auf. Ich finde die Argumentation da drinne richtig Bullshit, sorry..
Was stört dich an der Argumentation ?
Also ich bin mit den meisten Treibern zufrieden. Und mich wundert es überhaupt nicht, daß die Treiber von AMD/Ati unter Windows sehr viel besser funktionieren. Das Hickhack die Treiber anpassen zu müssen bloß weil sich im Kernel wieder was geändert hat kostet halt Resourcen, die dann woanders fehlen.
Zudem ist das halt so, daß die Unternehmen die Sourcen gar nicht rausgeben dürfen. Denn die Treiber sind nicht immer zu 100% selbst programmiert. Und das Knowhow in den Grafikchips ist auch nicht unbedingt zu 100% selbst entwickelt sondern Teile sind lizenziert. Der Lizenzgeber ist bestimmt ganz zufrieden wenn der Partner die Sourcecodes einfach mal so zum Download anbietet, gelle? ;)
Nvidia schafft es übrigens Linux,FreeBSD,Solaris Treiber von hoher Qualität bereit zu stellen.
Die tun das nicht aus reiner Nächstenliebe.
Bei vorletzem Ati-treiber für Linux fehlte der Support für FireGL Karten.
Die OpenGL-Implementierung ist nicht brauchbar für seriöse Anwendungen.
Support für Nicht-DirectX 9 Karten vor einem Jahr eingestellt.
Ati konzentiert sich scheinbar nur auf Spiele.Die Tendenz ist unter Windows auch erkennbar.
Solaris hat eine stabile Treiber ABI. Wo sind die Treiber ?
Vom Linux Driver project des Greg Kroah-Hartman hast du gehört ?
Die Unterzeichnung von NDA ist ausdrücklich möglich.
Intel gibt nur Tungsten Graphics die specifications und die schreiben die x.org Treiber.
etliche Treiber im Kernel mit Hilfe von NDA entwickelt worden.
Der creative linux treiber für x-fi ist eigentlich ein Witz und im Alphastadium.
AVM dropt hin und wieder einen Treiber für Suse, der vielleicht geht.
Und offene Spezifikationen machen noch lange keinen guten Treiber aus.
Bei closed-source kann nur der Hersteller es warten und verbessern, bei FOSS jeder.
Grestorn
2008-01-21, 09:44:28
Bei closed-source kann nur der Hersteller es warten und verbessern, bei FOSS jeder.
Das zu glauben ist pure Illusion.
Exxtreme
2008-01-21, 10:01:43
Was stört dich an der Argumentation ?
Daß alles als Source in den Kernel rein muss. Ist illusorisch zu glauben, daß das funktioniert solange wir sowas wie Patente haben.
Nvidia schafft es übrigens Linux,FreeBSD,Solaris Treiber von hoher Qualität bereit zu stellen.
Die tun das nicht aus reiner Nächstenliebe.
Bei vorletzem Ati-treiber für Linux fehlte der Support für FireGL Karten.
Die OpenGL-Implementierung ist nicht brauchbar für seriöse Anwendungen.
Support für Nicht-DirectX 9 Karten vor einem Jahr eingestellt.
Ati konzentiert sich scheinbar nur auf Spiele.Die Tendenz ist unter Windows auch erkennbar.
Solaris hat eine stabile Treiber ABI. Wo sind die Treiber ?
Nun, AMD/ATi scheint sich nicht auf Solaris zu konzentrieren. Bei Nischenbetriebssystemen ist das halt so, daß die Unterstützung eher mau ist.
Daß die Linux-Treiber bisher nicht so dolle waren da stimme ich zu. Nur wundert mich das ehrlich gesagt nicht wirklich. Müsste ich mich andauernd mit wechselnden Pseudo-APIs rumschlagen dann würden die Resourcen fehlen für einen besseren Treiber. Unter Windows besteht das Problem halt nicht. Ab und zu mal eine neue Direct3D-Version und das war's. Die Treiber-APIs wechseln vielleicht mit einer neuen Windowsversion. Jetzt ist das mit Vista der Fall.
Vom Linux Driver project des Greg Kroah-Hartman hast du gehört ?
Die Unterzeichnung von NDA ist ausdrücklich möglich.
Intel gibt nur Tungsten Graphics die specifications und die schreiben die x.org Treiber.
etliche Treiber im Kernel mit Hilfe von NDA entwickelt worden.
Der creative linux treiber für x-fi ist eigentlich ein Witz und im Alphastadium.
AVM dropt hin und wieder einen Treiber für Suse, der vielleicht geht.
Siehe oben. Wundern tut mich das nicht wirklich wenn ein Teil der Resourcen ins Ausgleichen von dauernd wechselnden Headern geht.
Bei closed-source kann nur der Hersteller es warten und verbessern, bei FOSS jeder.
Theoretisch ja.
/dev/NULL
2008-01-21, 10:16:41
Zumindest sehr sehr unproblematisch.
Von dem Debian-Etch das ich auf nem Root-Server hab kann ich das was Zeitaufwand angeht nicht behaupten.
Hmm dann liegt es wohl an Dir oder deinem Rootserver:
mein Debain stable:
devnull@my_server:~$ uptime
10:14:14 up 522 days, 15:35, 1 user, load average: 0.09, 0.05, 0.04
522 Tage.. hat mein Windows nie geschafft.
Und wegen der verschiedenen FTP Server.. ein bischen vergleichbar zu 10000 Windwos Notepad Ersatzen.. niemand zwingt dich 10000 unterschiedliche zu nutzen, jeder nimmt das was ihm am besten passt. Ist bei Windows nicht anders.. oder sollte da jeder nur ein 3D Ballerspiel spielen, weil ja sonst die Grafik und die Steuerung unterschiedlich ist?
Haarmann
2008-01-21, 10:35:33
Grestorn
Nicht jede Firma wirft das Geld auf für einen Vertrag mit M$, da dies mindestens in der Schweiz mehr Geld kostet, denn DSP Versionen. Und die DSP Versionen sind restlos veraltet. Da installiert man sich nen Wolf mit den Updates, wenn man nur nen XP SP2 kriegt.
iDiot
2008-01-21, 11:05:50
Sry, aber jeder admin kann doch mit nlite eine CD erstellen die die aktuellen updates enthält?!
Im Firmenumfeld rennt wohl kaum einer rum der den ganzen Tag händisch updates installiert?
-> Nutzung von Images, oder RIS bzw WDS.
Haarmann
2008-01-21, 11:32:07
iDiot
Eine Firma mit 10 Rechnern hat gar keine eigene IT Abteilung und wird genau das nicht tun.
Es gibt auf dieser Welt nicht nur Grossbetriebe - zum Glück.
SavageX
2008-01-21, 11:41:49
Es gibt keinen Grund warum ein Hersteller seine Spezifikationen veröffentlichen sollte. Zumal da oft ja auch ein gehöriger Anteil an KnowHow drinsteckt, von dem man explizit nicht will, dass die Konkurrenz profitiert.
Als Kunde erwarte ich, dass ich optimal unterstützt werde. Da ist es mir vollkommen egal, ob ein Hersteller gerne ein Versteckenspielchen mit der Konkurrenz durchziehen will oder nicht. Für viele Produkte werden auch ohne Herstellerunterstützung offene Treiber entwickelt, so dass das mit der Geheimhaltung sowieso eher nur ein Wunschtraum ist. Dann lieber sofort Spezifikationen auf den Tisch, damit ich als Kunde so gut wie möglich mit Treibern versorgt bin.
Ohne offene Treiber hätte mein Notebook mit mobiler Radeon 9000 nur noch gehobenen Schrottwert. Und selbst unter Windows sieht es mit Unterstützung für olle Kamellen ziemlich düster aus. Kein Hersteller will altes Zeug bis in alle Ewigkeit unterstützen (sehr nachvollziehbar) - also zumindest für sowas darf man doch gerne mal einen documentation drop machen.
Setze übrigens für meine Radeon HD 3850 den geschlossenen ATI-Treiber ein, darf mich aber in Zukunft darauf freuen, auch dann noch eine Chance auf einen Treiber zu haben, wenn ATI zwei Generationen weiter ist. Soooooo viel Geschäftsgeheimnis kann in der blöden Chipschnittstelle wohl nicht dringesteckt haben, wenn AMD jetzt für die wichtigsten Teile Dokumentation veröffentlicht. Insofern ist es mir unverständlich, dass sowas für weitaus weniger komplexe Teile nicht möglich sein soll.
Aber als Kunde hat man ja glücklicherweise die Qual der Wahl.
AMD hat kein Problem damit, die kompletten Spezifikationen für ihre Grafikkarten mit 2D, 3D (!) usw. rauszuhauen, also kann man nicht sagen, dass das für die Hersteller unmöglich ist. Den Treiber daraus schreibt nicht AMD selber.
iDiot
2008-01-21, 12:07:42
iDiot
Eine Firma mit 10 Rechnern hat gar keine eigene IT Abteilung und wird genau das nicht tun.
Es gibt auf dieser Welt nicht nur Grossbetriebe - zum Glück.
Für die gibts dann immer noch die Nlite Lösung, Updates können einfach integriert werden.
Anarchy-HWLUXX
2008-01-21, 12:21:41
Bis Du nen XP SP2 installiert hast, vergehen Stunden.
Nicht etwa, weils kompliziert ist, sondern weil die Patches Ewigkeiten haben, bis se alle da sind.
Du kannst natürlich auch alle Monate ne eigene CD machen, aber der Aufwand lohnt für ein Gerät nicht.
Dort hat Linux immerhin seine Stärken. Du kriegst aktuelle Images.
Blankes XP SP2 install dauert mit Updateorgie ca. 2 stunden, mach ich ja oft genug in letzter zeit :)
Wenn jetzt SP3 kommt reduziert sich das dann auf weit unter 1h je nachdem was für ne HDD man hat und ob man einen Quick-Format macht.
Bei den Linux distros hingegen kenn ich das von mir das ich jedes mal das neue Image ziehe ... andauerndes saugen + brennen ist keinesfalls angenehmer oder schneller.
Haarmann
2008-01-21, 13:41:51
iDiot
Wenn man alle 2 Monate nen Rechner neu aufsetzen muss, lohnt das monatliche Erstellen einer CD nicht. Aufwand und Ertrag stehen da in einem Misverhältnis. Auch sind die automatischen Updates mit heutigem Breitbandinternet kein Problem mehr bei nur 10 Geräten.
Anarchy-HOCP
Du musst nur ziehen, wenn es was aufzusetzen gibt. Du kannst sogar direkt aus dem Netz aufsetzen. Wer also ne 10MBit + Verbindung hat, kann problemlos aus dem Netz aufsetzen.
Exxtreme
2008-01-21, 14:00:25
Bei den Linux distros hingegen kenn ich das von mir das ich jedes mal das neue Image ziehe ... andauerndes saugen + brennen ist keinesfalls angenehmer oder schneller.
Musst du auch nicht. Kannst direkt beim Installieren die aktuellen Pakete nutzen. Musst halt bei der Installation angeben, daß du vom Internet installierst und nicht vom Datenträger.
Schnuller4u
2008-01-21, 23:24:15
@SavageX: Das ist eine naive Denkweise. Die Marktanteile bzw. die Bedeutung von Linux ist Massenmarkt ist zu niedrig, um hier groß Forderungen zu stellen. Offene Treiber widersprechen auch keiner vernünftigen Treiber-API. Damit hätten alle gewonnen!
The Cell
2008-01-22, 07:11:33
iDiot
Eine Firma mit 10 Rechnern hat gar keine eigene IT Abteilung und wird genau das nicht tun.
Es gibt auf dieser Welt nicht nur Grossbetriebe - zum Glück.
Das stimmt, aber eine arme Haut, die sich mit der IT auskennen sollte. Und wenn er kein SP2 in eine Windows XP CD integriert bekommt, ist er der falsche Mann an der falschen Position. :)
SavageX
2008-01-22, 07:58:46
@SavageX: Das ist eine naive Denkweise. Die Marktanteile bzw. die Bedeutung von Linux ist Massenmarkt ist zu niedrig
Mit Verlaub, das ist mir egal. Natürlich dürfen die Hersteller ihre Spezifikationen horten, wenn sie meinen, dass sie da irgendwas mit gewinnen. *Deren* Entscheidung, niemand kann sie zwingen. Nur *mir* als potentieller Kunde steht natürlich die Entscheidung zu, ob ich tatsächlich deren Krempel kaufe. Als Linux-Nutzer ist für mich ganz klar, dass ich besser mit Hardware fahre, für die ein offener Treiber existiert. Zum einen ist das Kernel-API (bewusst!) ein bewegliches Ziel (und ja, da kann man ja gerne mal über ein Abstraktions-API nachdenken, ähnlich dem neuen userspace Treiber-API, nur halt universeller - allerdings fehlt dann das bisschen Druckmittel, um Hersteller zur Kooperation zu bewegen), zum Anderen lehrt mich die Erfahrung, dass proprietäre Treiber, selbst wenn sie laufen, oftmals nur mittelmäßige Qualität haben. Zumal selbst mit einem so fantastisch stabilen Tŕeiberinterface wie das von Windows einfach mal Hardware hinten runterfällt. Nforce 2 und Vista?
Haarmann
2008-01-22, 11:04:42
The Cell
Ohne SP2 gehts etwa 3 Stunden ;). Mit SP2 nur noch 2 Stunden...
Warum bietet M$ keine aktuellen Images?
Und wenn man noch Telefonisch aktivieren muss - setzen wird noch 1 Stunde Telefon und 2 Stunden Beruhigungsphase hinzu.
Wie schon der Thread sagt... Zeit spielt keine Rolle, denn sonst würde das Volk wegen der Aktivierung schon lange laut maulen. Wer mal einem defekten Markengerät das MB tauschte und danach das OS wieder aktivieren wollte, der weiss, wie heiter das wird. Die Hotlines von Hersteller und M$ stellen beide auf stur und wissen die Lösung nicht (die ganz einfach wäre).
Blacksoul
2008-01-22, 15:23:49
[...] Wer mal einem defekten Markengerät das MB tauschte und danach das OS wieder aktivieren wollte, der weiss, wie heiter das wird. Die Hotlines von Hersteller und M$ stellen beide auf stur und wissen die Lösung nicht (die ganz einfach wäre).
Wie heiter wird das denn im Bezug auf Windows (wenn denn das MS-Produkt gemeint war) und wie quer stellt sich Microsoft denn?
t.b.d
The_Invisible
2008-01-22, 15:56:08
Die Konfiguration ist bei einem Windows-Server weitaus einfacher. Das weiß ich aus der Praxis.
Das größte Ärgernis, ist dass es tausend verschiedene FTP- Mail- und sonstwas-Server gibt und diese dann auch noch alle eine unterschiedliche Konfigurationsstruktur haben. Unglaublich lästig, bis man da mal den Durchblick hat.
Ich hab schonmal ein LFS aufgesetzt und verwende es schon jahrelang für bestimmte Dinge. Das ist sicher nicht das Problem.
wieso ist die konfiguration schwieriger?
für die großen projekte gibt es immer mehr als genug dokumentationen und howtos, die meisten config examples braucht man nur kopieren und abändern und schon funktioniert die basis-funktionalität. apache unter etch zb ist nach der installation vollkommen funktionstüchtig mit vhost vorbereitung, nach einem weiteren befehl hat man sogar php am laufen. konfigurationsdateien sind zu 99% immer unter /etc/[programmname] zu finden, auch kein problem.
bei manchen dingen braucht man aber einfach wissen über den jeweiligen service, egal ob windows oder linux. bei mailservices zb läuft man sehr schnell gefahr ein open-relay zu sein und so gleich ein ganzes öffentliches subnetz zu gefärden weil dieses blacklistet ist. bei windows hat hat man durch die gui zwar schneller erfolge, umschifft aber vielleicht so manch wichtige einstellungen die defaultmäßig zwar funktionien aber gefährlich sein können.
mir ist im prinzip egal ob oss/non-oss, linux/windows oder sonstiges os geplänkel, dass wichtiges ist das es so funktioniert wie man es sich vorstellt.
mfg
Monger
2008-01-22, 16:22:03
wieso ist die konfiguration schwieriger?
für die großen projekte gibt es immer mehr als genug dokumentationen und howtos, die meisten config examples braucht man nur kopieren und abändern und schon funktioniert die basis-funktionalität. apache unter etch zb ist nach der installation vollkommen funktionstüchtig mit vhost vorbereitung, nach einem weiteren befehl hat man sogar php am laufen. konfigurationsdateien sind zu 99% immer unter /etc/[programmname] zu finden, auch kein problem.
Sorry, aber bei sowas kann ich mir immer ein Lachen kaum verkneifen! :D
"Wir müssen nur mal kurz die richtigen Packages im Internet suchen, den Kernel neu kompilieren, das richtige Tutorial finden, uns die richtigen Config Dateien raussuchen und abändern, und schon flutscht mein Mail Server in den allermeisten Fällen. Ganz einfach!" ;D
Das ist sehr, SEHR weit von dem entfernt, was ich (ja, selbst als Admin) von einem Betriebssystem erwarte!
Liszca
2008-01-22, 16:31:18
Vorhin noch gelesen, wie sich Linux-Freaks mehr oder weniger lustig darüber gemacht haben, daß Leute Geld für ein OS ausgeben. Leider vergessen diese Leute nur, daß Linux ganz schön schnell frickelig wird, wenn es über den Standardkram einer üblichen Distribution hinausgeht, selbst für manch einen Linux-Freak. Beispiel kann z.B. sein, eine TV-Karte einzurichten oder Software, die nicht in den Repos liegt.
Daher ist Linux häufig überhaupt nicht mehr kostenlos, wenn man die ganze Zeit in Geld umrechnen würde. Frustrationsfaktor inbegriffen.
:ulol:
für privat kannst du recht haben, bei firmen und servern auf keinen fall, Anfänger :tongue:
lumines
2008-01-22, 16:34:44
monger, wie stellst du dir das denn vor?
klick und fertig?
es gibt einfach dinge, die man an die eigenen bedürfnisse anpassen muss...
"Wir müssen nur mal kurz die richtigen Packages im Internet suchen, den Kernel neu kompilieren, das richtige Tutorial finden, uns die richtigen Config Dateien raussuchen und abändern, und schon flutscht mein Mail Server in den allermeisten Fällen. Ganz einfach!"
nein, das muss man nicht.
ich hab mit apache zwar wenig zu tun, aber in meiner etch testinstallation war es sogar für mich als laien sehr einfach einzurichten.
Monger
2008-01-23, 11:47:03
monger, wie stellst du dir das denn vor?
klick und fertig?
es gibt einfach dinge, die man an die eigenen bedürfnisse anpassen muss...
Ich hab zugegebenermaßen noch nicht sooo viel mit dem Windows Server gearbeitet. Aber als ich ihn gebraucht habe, war er wirklich erfreulich simpel aufzusetzen: Terminal Server? Ein Klick. Web-Server? Ein Klick. Dann einfach in den integrierten Datei Explorer seine Daten einbinden, und schon kann es losgehen.
Wenn irgendwas gefehlt hat, war immer die nächste Hilfe nicht fern bzw. die meisten Optionen sind so schon hervorragend erklärt. Mag sein, dass ein Experte Bedarf an tiefergehender Kontrolle hat, ich hatte das aber nicht nötig.
The_Invisible
2008-01-23, 12:29:12
Sorry, aber bei sowas kann ich mir immer ein Lachen kaum verkneifen! :D
"Wir müssen nur mal kurz die richtigen Packages im Internet suchen, den Kernel neu kompilieren, das richtige Tutorial finden, uns die richtigen Config Dateien raussuchen und abändern, und schon flutscht mein Mail Server in den allermeisten Fällen. Ganz einfach!" ;D
Das ist sehr, SEHR weit von dem entfernt, was ich (ja, selbst als Admin) von einem Betriebssystem erwarte!
in jeder modernen linux-distri gibt es generic kernels die quasi alle features/treiber vom kernel als module bereitstellen und bei bedarf automatisch geladen werden. selber kompilieren braucht man nur wenn man was sehr exotisches will oder genau weiß was man will, dann wird der kernel auch sehr kompakt und minimiert sicherheitsrisiken.
im internet braucht man dank paketmanager gar nichts suchen, man muss nur wissen welche software man einsetzen will. das bleibt einem aber auch unter windows nicht erspart. das die konfigurationsdateien immer anders aussehen ist auch normal, unter windows schauen die konfig-guis auch alle unterschiedlich aus. genauso wie man unter linux & windows ohne dem nötigen wissen keinen mailserver anständig betreiben kann, das ist quasi os unabhängig.
daher verstehe ich nicht ganz auf was du hinaus willst. ich finde es sogar gut das die konfigs manchmal abschreckend sind damit nicht jeder dau im internet einen open-relay platzieren kann.
mfg
Liszca
2008-01-23, 20:30:04
in jeder modernen linux-distri gibt es generic kernels die quasi alle features/treiber vom kernel als module bereitstellen und bei bedarf automatisch geladen werden. selber kompilieren braucht man nur wenn man was sehr exotisches ...
leider zählen darunter aber auch soundkarten, mäuse, touchpads und viele kleine buttons an meinem notebook zum beispiel. andererseits kriegt es linux gebacken von haus aus meine display helligkeit zu steuern windows nicht!!!
linux fehlt halt noch der feinschliff an der oberfläche, das ist alles.
Haarmann
2008-01-24, 11:39:27
Blacksoul
Die Tante an der M$ Hotline sagt, dass sie das Produkt nicht aktivieren kann, verweigert nen Vorgesetzten und eine Begründung. Man solle sich an den Hersteller wenden und eine neue Serial beantragen. Eine Telefonnummer gab sie mir auch gleich zur Hotline des Herstellers - echt nett - nur die Meldung kein Anschluss unter dieser Nummer beim Wählen ihres Vorschlags lässt die Kompetenz dieser Leute in einem fahlen Lichte scheinen...
Danach also beim Hersteller - Telefonbuch sei Dank. Ich wolle wieder aktivieren und erklärte die Situation. Daraufhin... ich solle neu installieren. Ich erklärte ihm nochmal die Sachlage und auch, dass neu installieren nicht in Frage komme. Antwort: Wieso installieren sie nicht neu... Die Debatte ging noch ne Weile mit der ewig gleichen Antwort des Gegenübers weiter.
Retour zu M$ - gleiche Inkompetenz wie zuvor.
Wäre nur eine der Beiden Armleuchten auf die Idee gekommen zu sagen, man solle die Serial einfach ändern... aber das sagten die während einer ganzen Stunde BlaBla nicht. Dabei muss es der Tante von M$ absolut klar gewesen sein, dass dies das Problem ist.
BananaJoe
2008-02-03, 10:12:26
Da ich mich vorm Hardwarekauf informiere (macht man ja ohnehin), kann man noch gleich die Linuxtauglichkeit mit abchecken.
Anschließend wird kurz installiert, dann synaptic geöffnet, die benötigten Programme angeklickt, eine Runde Rad gefahren und wenn man wieder kommt hat man ein fertiges und voll Einsatzfähiges System- ganz im Gegensatz zu Windows (schon alleine der Zeitverlust durch Program installieren und neustarten und das separate laden der jeweils aktuelle versionen).
Kommandofrosch
2008-02-15, 14:19:59
Um auf den Faktor Zeit und Wert zurück zukommen kann ich aus eigner Perspektive darüber berichten. Vom Zeitaufwand ist das Linuxsystem genauso aufwendig, wie ein Windowssystem. Ein Großteil nach einer Neuinstallation von Windows verbringt man mit erneuter Produktaktivierung, Updateservice in Anspruch zu nehmen, Treiber zusammenkratzen, alles auf gewohnte Konfiguration setzen ... .
Nun bei M$ Windows ist es nicht nur die einzige Sache die einen am Arbeiten hindert.
Uneffektiv sind die scheinbaren Sicherheitsvorrichtungen für Microsoft Produkte.
Virenscanner, Antiscript-tools, Spywareremover, All1on Firewall Suites die gewartet werden müssen und vorallem klauen solche Zusatzanwendungen viel Rechenpower.
Wenn ich mir mein Linux zuhause anschaue, bemerke ich wie effizient es im Vergleich zu anderen Produkten arbeitet. Man legt die Distributions CD/DVD in Laufwerk und hat nach 20 - 60 Minuten ein System mit allen Anwendungen die man braucht. Bei Windows müsste man dies Schritt für Schritt nachrüsten.
Wenn ich zurückdenke wo ich zum ersten mal vor einer Windows/MS-Dos Maschine saß, musste ich mir verdammt viel an Wissen aneignen um mit diesem System Überhaupt Arbeiten und Spielen zu können.
Die Problematik ist die Gewöhnungsphase und die Zeit die man benötig, um mit dem neuen OS überhaupt vertraut zu sein.
Linux an sich fehlt Überhaupt nichts, auch wenn es Treibermängel und so weiter gibt. Der Rest der Software sind die GNU-Tools und andere quelloffene Komponenten die auf anderen Kerneln auch laufen würden.
Grafische Oberflächen und Bedienbarkeit sind eigene Initiativen welche nicht mit dem Linux-Kernel in Zusammenhang gebracht werden sollten.
Linuz Torvald hat seine Hausaufgaben richtig gemacht, er wollte nur einen freien Kernel veröffentlichen.
Selbst die Kommandos bei Linuxrechnern haben nichts mehr mit dem Kernel zu tun. --> Coreutils und Shell.
iDiot
2008-02-15, 14:30:52
Naja, das war vielleicht bei XP so. Die installationseit ist ausserdem im vergleich zur arbeitszeit zu vernachlässigen.
MadMan2k
2008-02-20, 00:33:37
Naja, das war vielleicht bei XP so. Die installationseit ist ausserdem im vergleich zur arbeitszeit zu vernachlässigen.
du musst hinterher trotzdem jede anwendung einzeln aktuell halten.
iDiot
2008-02-20, 09:43:30
Jede Anwendung einzeln ist übertrieben, ausserdem bringt so gut wie jede software schon Update routinen mit. Die wichtigen Suiten (Office, Adobe, macromedia usw) ebenfalls.
Exxtreme
2008-02-20, 09:53:03
Naja, ist trotzdem umständlicher als alles in einem Rutsch wie unter Linux per Paketmanager. Hat Windows zwar auch aber den nutzt keiner für Updates.
Radeonator
2008-02-20, 09:59:27
Du musst einen Virenscanner haben, ohne bist du am Arsch. Wenn ich sehe was diese tollen "Toolz" an Performance einbremsen, wie schlecht die Anbindung der Komponenten ist (USB Speed etc) , dann wundert es mich, wieso Linux so selten eingesetzt wird.
Im Gegensatz dazu lese und höre ich die Vorurteile, die zu 99% durch veraltetes bzw nicht vorhandenes KnowHow enstehen und kann mir, auch als Sysadmin, das lachen nicht verkneifen...
Aquaschaf
2008-02-20, 10:41:39
Und wenn man noch Telefonisch aktivieren muss - setzen wird noch 1 Stunde Telefon und 2 Stunden Beruhigungsphase hinzu.
Wie schon der Thread sagt... Zeit spielt keine Rolle, denn sonst würde das Volk wegen der Aktivierung schon lange laut maulen. Wer mal einem defekten Markengerät das MB tauschte und danach das OS wieder aktivieren wollte, der weiss, wie heiter das wird. Die Hotlines von Hersteller und M$ stellen beide auf stur und wissen die Lösung nicht (die ganz einfach wäre).
Eher 5-10 Minuten Telefon. Meine Erfahrung mit der Reaktivierung von Windows nach Hardwaretausch ist dass das problemlos funktioniert. Die 2 Standard-Fragen beantworten (Was für Hardware wurde getauscht? Wird die Windows-Kopie auf mehr als einem PC verwendet?) und damit hat man eine neue Aktivierung.
Du musst einen Virenscanner haben, ohne bist du am Arsch.
Ich benutze Windows seit Jahren ohne Virenscanner, ohne Probleme.
Radeonator
2008-02-20, 11:12:32
Eher 5-10 Minuten Telefon. Meine Erfahrung mit der Reaktivierung von Windows nach Hardwaretausch ist dass das problemlos funktioniert. Die 2 Standard-Fragen beantworten (Was für Hardware wurde getauscht? Wird die Windows-Kopie auf mehr als einem PC verwendet?) und damit hat man eine neue Aktivierung.
Ich benutze Windows seit Jahren ohne Virenscanner, ohne Probleme.
Die Nase wächst und wächst...
ohne den Rechner im Netz zu betreiben vielleicht. :rolleyes:
Er sprach ja auch von Viren und nicht von Würmern. ;)
Grestorn
2008-02-20, 11:23:47
Selbstverständlich kann man einen Rechner ohne Virenscanner betreiben. Auch online.
Mache ich auch schon immer so. Viren/Wurmcount: 0 (hin und wieder mal ein manueller Scan, des guten Gefühls wegen).
Der beste Virenschutz sitzt vor dem Rechner! Und er kostet auch keine Performance... :)
Selbstverständlich kann man einen Rechner ohne Virenscanner betreiben. Auch online.
Mache ich auch schon immer so. Viren/Wurmcount: 0 (hin und wieder mal ein manueller Scan, des guten Gefühls wegen).
Der beste Virenschutz sitzt vor dem Rechner! Und er kostet auch keine Performance... :)
Deine letzte Aussage würde ich nicht verallgemeinern. ;)
SavageX
2008-02-20, 11:33:43
Der beste Virenschutz sitzt vor dem Rechner! Und er kostet auch keine Performance... :)
Das ist sicherlich wahr. Nur leider kann auch ein aufmerksamer Nutzer nicht verhindern, dass über z.B. Browserlücken irgendein Gedöns installiert wird (nein, passiert auch auf seriösen Seiten, wenn z.B. Bilder, Werbung etc. "von draussen" nachgeladen werden und solche Drittserver wackelig sind). Dann kann man nur hoffen, dass der Virenscanner das Windows-Rootkit ankreidet, bevor es installiert ist. Wenn das Rootkit erstmal aktiv ist, besteht eine gute Chance, dass Virenscanner in diesem verseuchtem Umfeld an der Nase herumgeführt werden.
Auch, wenn man nicht den Internet Explorer benutzt, ist man nicht automatisch im Trockenen. Mozilla und Opera brauchen auch ein paar Tage, bis Lücken dicht sind.
Grestorn
2008-02-20, 13:07:00
Das ist sicherlich wahr. Nur leider kann auch ein aufmerksamer Nutzer nicht verhindern, dass über z.B. Browserlücken irgendein Gedöns installiert wird
Das ist zweifellos richtig.
Aber dagegen gibt es mehrere Schutzmaßnahmen, die es zumindest unwahrscheinlich machen, dass man sich so ansteckt:
- Nicht als Admin Surfen (oder unter Vista UAC nutzen)
- Alle Tools immer aktuell halten, nicht nur den Browser sondern auch sowas wie den Acrobat Reader usw.
- Mit dem normalen OS nur in einigermaßen vertrauenswürdige Ecken des Netzes surfen. Wenn eine namhafte Seite gehackt und zur Verbreitung von Schad-SW genutzt wurde, dann bekommt man das auch mit - so etwas verbreitet sich schnell im Netz.
Wenn man sich wirklich mal in etwas halbseidenere Gefilde des Netzes wagt, sollte man sowieso besser eine virtuelle OS Installation nutzen, die man immer wieder auf den Ausgangszustand zurücksetzt.
Arcanoxer
2008-02-21, 01:38:17
Das ist zweifellos richtig.
Aber dagegen gibt es mehrere Schutzmaßnahmen, die es zumindest unwahrscheinlich machen, dass man sich so ansteckt:
- Nicht als Admin Surfen (oder unter Vista UAC nutzen)
- Alle Tools immer aktuell halten, nicht nur den Browser sondern auch sowas wie den Acrobat Reader usw.
- Mit dem normalen OS nur in einigermaßen vertrauenswürdige Ecken des Netzes surfen. Wenn eine namhafte Seite gehackt und zur Verbreitung von Schad-SW genutzt wurde, dann bekommt man das auch mit - so etwas verbreitet sich schnell im Netz.
Wenn man sich wirklich mal in etwas halbseidenere Gefilde des Netzes wagt, sollte man sowieso besser eine virtuelle OS Installation nutzen, die man immer wieder auf den Ausgangszustand zurücksetzt.
Was ist denn ein "normales" OS?
Und noch viel wichtiger, was sind "einigermaßen vertrauenswürdige Ecken"?
Jedes mal wenn ich mich auf der Microsoft homepage schlau machen möchte, muss ich ein nicht normales OS in einer VM Ware Installieren? :uponder:
Grestorn
2008-02-21, 05:44:00
Was ist denn ein "normales" OS?
Und noch viel wichtiger, was sind "einigermaßen vertrauenswürdige Ecken"?
Jedes mal wenn ich mich auf der Microsoft homepage schlau machen möchte, muss ich ein nicht normales OS in einer VM Ware Installieren? :uponder:
:rolleyes:
Geht das auch ohne ideologische Verblendung?
Arcanoxer
2008-02-21, 05:57:07
:rolleyes:
Geht das auch ohne ideologische Verblendung?
Die Frage ist noch offen!
Ich möchte doch nur dein Surf 1x1 verstehen. :rolleyes:
Grestorn
2008-02-21, 06:48:16
Die Frage ist noch offen!
Ich möchte doch nur dein Surf 1x1 verstehen. :rolleyes:
Vertrauenswürdige Ecken sind die Teile des Internets, die eine gewisse Frequentierung aufweisen, die von Firmen betrieben werden, die einen Ruf und Kunden zu verlieren haben und über die berichtet wird, wenn sie gehackt werden.
Nach diesen Kriterien wäre microsoft.com ziemlich weit oben auf der Liste. Ganz egal, wie man zu der Firma ideologisch eingestellt ist.
SavageX
2008-02-21, 07:58:23
Mit dem normalen OS nur in einigermaßen vertrauenswürdige Ecken des Netzes surfen. Wenn eine namhafte Seite gehackt und zur Verbreitung von Schad-SW genutzt wurde, dann bekommt man das auch mit - so etwas verbreitet sich schnell im Netz.
Also, ich wüsste ehrlich gesagt nicht, wie mich rechtzeitig die Nachricht erreichen sollte, dass spiegel.de, gmx.net oder heise.de Schadcode ausliefern. Sowas muss erstmal entdeckt werden, da ist locker ein guter Tag Verzögerung drin. Das reicht schon.
(Und es wäre ja nicht mal auch nichts Neues, dass "einigermaßen vertrauenswürdige" Boards zu Trojanerschleudern werden - war da nicht mal was mit dem deutschen AMD Forum?)
(Ach, und dann wären da ja auch noch EMails, die Lücken im EMail-Client ausnutzen. Die brauche ich gar nicht zu meiden, die kommen vollautomatisch zu mir.)
Selbst als nicht-Administrator kann Schadsoftware schon unangenehm werden. Wer nur einmal die Woche einen manuellen Scan anschubst, liefert im Fall der Fälle im Durchschnitt für 3,5 Tage Spammails aus. Dazu reichen simple Benutzerrechte.
Virenscanner sind auch nicht auf die Minute aktuell - aber ich traue mir selber keineswegs zu, mich schneller "aktuell" halten zu können, um dann nur noch "im sicheren Eck" (wo auch immer der sein mag) zu surfen.
Radeonator
2008-02-21, 08:35:56
Komisch, wenn man ein Frisch aufgesetztes Windows System in einer dmz laufen lässt, kommt bei jedem Versuch das gleiche Raus: Viren und Würmer.Meist reicht es sogar einfach die Kiste überhaupt im Netz zu haben. Wer mir hier nun erzählen will, das Windows ohne Virenscanner auskommt, ne leute, macht euch nicht lächerlich!
superdash
2008-02-21, 08:40:56
iDiot
Eine Firma mit 10 Rechnern hat gar keine eigene IT Abteilung und wird genau das nicht tun.
Es gibt auf dieser Welt nicht nur Grossbetriebe - zum Glück.
Bei einer Firma ohne IT-Abteilung kann man aber Linux komplett vergessen. Das sind dann 10 Leute die vor dem Rechner irgend etwas produktives machen wollen. Zunächst gibt es für die meisten Fachbereiche gar keine Spezialsoftware, die unter Linux überhaupt läuft. Zweitens müsste diese kleine Firma, dann ihre Mitarbeiter im Umgang mit Linux erst mal schulen.
Imho hat Linux im Firmengebiet auf den Arbeitsrechnern kaum eine Chance (aus oben genannten Gründen). Als Server ists brauchbar in größeren Betrieben mit IT-Abteilung. Aber in kleineren oder mittelständischen Betrieben, die nicht gerade mit Softwareentwicklung zu tun haben, ist Linux wohl unbrauchbar.
Mit n-lite ein selbsinstallierendes Image zu erstellen ist selbst für den Laien Problemlos möglich. Da kann man in 30 Minuten alle Updates usw. integrieren. Da dauert dann eine Windows-installation auch keine 45 Minuten. Und da das ganze unbeaufsichtigt abläuft, kann man an einem anderen Rechner schon was anderes tun. Also die Linux Installation lief bei mir noch nie so unproblematisch ab. Das muss ich hier schon mal sagen. Ich nutze sowohl Ubuntu als auch Vista. Und mit Vista hab ich weit aus weniger arbeit. Bring du da mal ne TV-Karte zum laufen oder bluetooth... das ist mist hoch 3.
gruß
Skullcleaver
2008-02-21, 08:41:50
Nur das bei diesesn Versuchen meistens ein ungepatchtes XP ohne SP zum Einsatz kommt.
XPSP2 oder Vista kannst du wunderbar direkt am Netz betreibern. Glaubs oder nicht es ist so.
Dein Kurztest in der Sig lässt aber schon auf deine befangenheit schließen von daher...
Kelron
2008-02-21, 08:48:47
Nur das bei diesesn Versuchen meistens ein ungepatchtes XP ohne SP zum Einsatz kommt.
XPSP2 oder Vista kannst du wunderbar direkt am Netz betreibern. Glaubs oder nicht es ist so.
Dein Kurztest in der Sig lässt aber schon auf deine befangenheit schließen von daher...
Naja, bei frischen Windows XP oder Windows 2000 Installationen hat man ohne entsprechende Sicherung durch Zusatzsoftware schon beim Download der Sicherheitsupdates die ersten Schädlinge im System.
Natürlich kann man direkt ein gepatchtes Windows installieren.
Gruß,
Christian
Grestorn
2008-02-21, 08:53:46
Also, ich wüsste ehrlich gesagt nicht, wie mich rechtzeitig die Nachricht erreichen sollte, dass spiegel.de, gmx.net oder heise.de Schadcode ausliefern. Sowas muss erstmal entdeckt werden, da ist locker ein guter Tag Verzögerung drin. Das reicht schon.
Für eine Firma kann es zu spät sein, da stimme ich Dir zu. Ich muss mich aber nur um meine eigenen Kisten in meiner eigenen Ein-Mann Firma kümmern. Da kann ich notfalls jederzeit das Backup zurückspielen.
(Und es wäre ja nicht mal auch nichts Neues, dass "einigermaßen vertrauenswürdige" Boards zu Trojanerschleudern werden - war da nicht mal was mit dem deutschen AMD Forum?)
Wie kam der Trojaner ins System? Über etwas, was der Anwender aktiv installieren musste? Über eine Lücke für die es zu dem jeweiligen Zeitpunkt einen Patch gab? Oder wirklich über eine Lücke für die es noch keinen Patch gab, und konnte diese Lücke ohne Adminrechte genutzt werden?
Nur im letzten Fall wäre ich angreifbar gewesen. Da hätte dann aber auch kaum ein Virenscanner etc. mehr geholfen.
(Ach, und dann wären da ja auch noch EMails, die Lücken im EMail-Client ausnutzen. Die brauche ich gar nicht zu meiden, die kommen vollautomatisch zu mir.)
Ohne dass Du etwas aktiv machst wird aber ein E-Mail Virus nicht aktiv. Inzwischen sind alle E-Mail Programme so weit, dass sie weder Bilder laden noch aktiven Inhalt zulassen.
Selbst als nicht-Administrator kann Schadsoftware schon unangenehm werden. Wer nur einmal die Woche einen manuellen Scan anschubst, liefert im Fall der Fälle im Durchschnitt für 3,5 Tage Spammails aus. Dazu reichen simple Benutzerrechte.
Wie aktiviert sich die SW ohne Adminrechte? Wie nistet sie sich ein? Ohne Adminrechte kannst Du kein existierendes Programm überschreiben und kein Programm automatisch starten lassen.
Grestorn
2008-02-21, 08:55:04
Komisch, wenn man ein Frisch aufgesetztes Windows System in einer dmz laufen lässt, kommt bei jedem Versuch das gleiche Raus: Viren und Würmer.Meist reicht es sogar einfach die Kiste überhaupt im Netz zu haben. Wer mir hier nun erzählen will, das Windows ohne Virenscanner auskommt, ne leute, macht euch nicht lächerlich!
Wie Skullcleaver schon schrieb gilt das nur für ein ungepatchtes XP ohne SP. Und das weißt Du sicher.
Deswegen ist das nur ein billiges Flame. Ein altes Linux ist genauso anfällig wie ein altes Windows.
Grestorn
2008-02-21, 08:56:39
Naja, bei frischen Windows XP oder Windows 2000 Installationen hat man ohne entsprechende Sicherung durch Zusatzsoftware schon beim Download der Sicherheitsupdates die ersten Schädlinge im System.
Natürlich kann man direkt ein gepatchtes Windows installieren.
Man muss sich direkt anstrengen heute noch eine XP DVD OHNE SP 3 zu finden. Aber klar, natürlich hast Du prinzipiell recht. Nur ist das nichts neues und nichts besonderes. Uralt-SW hat jede Menge Lücken. Egal von welcher Plattform die Rede ist.
Radeonator
2008-02-21, 09:34:30
Sorry, aber eure Lobeshymnen sind fern jeglicher Realität. Selbst gepatcht und auch Vista ohne Virenscanner im Netz zu betreiben, ist leichtsinnig.
Sicher, ein altes Linux ist auch nicht gerade eine Bastion, aber immer noch sicherer als ein Standard Windwos Rechner. Ganz einfach schon aufgrund der Popularität von Windows, ist es Unsicher. Wenn es ein Standard Linux gäbe, das ähnlich hohen Marktanteil wie MS Windows vorzuweisen hätte, würden die gleichen Probleme dort auftauchen. Da Linux als Desktop jedoch nicht so verbreitet und die Community eine andere ist, gibt es solche Probleme idR einfach nicht.Ich bin beruflich seit Jahren mit Novell,Linux und MS unterwegs, habe einige der größten Firmennetze Europas mit betreut, also versucht mir hier keine Unwissenheit oder Befangenheit vorzuwerfen, das ist schlichtweg Unsinn!
Mit MS bin ich eurem Credo nach immer dann sicher, wenn ich nur vermeindlich sichere Seiten ansurfe. Um diese zu finden oder zu kennen, müsste ich nach Erfahrungen anderer suchen oder mit try&error arbeiten.Wie Kelron schon schrieb, alleine ein Update reicht, ja sogar die Verbindung zum Netz reicht, um befallen zu werden. Wenn du eine FW hast, schau dir mal die logs durch...
Mit einem z.B. Fedora, kann ich mich ungezwungen im Netz bewegen ohne das mein System gleich nach 2h komplett verwanzt ist.Wenn doch was ist, bekomme ich mein Sys in 0,nichts wieder gerade. Das gleiche ist mit nem Mac machbar.
Grestorn
2008-02-21, 09:51:29
Sorry, aber eure Lobeshymnen sind fern jeglicher Realität. Selbst gepatcht und auch Vista ohne Virenscanner im Netz zu betreiben, ist leichtsinnig.
Na, dann bin ich trotz meines Leichtsinns jetzt seit etwa 12 Jahren virenfrei im Internet unterwegs. Mit MS Software. Ohne Virenscanner. Irgendwas muss ich falsch machen.
Radeonator
2008-02-21, 09:56:50
Da würde ich mal schauen, ob deine Netzwerkverbindung aktiv ist, denn das ist bei dir scheinbar nicht der Fall...cdzilla ist btw nicht das Internet ;)
Da bist du wohl derjenige, der nur 2 Seiten im Internet ansurft. Ich und 99,9% der sich im Internet bewegenden und mit MS agierenden Menschen, wollen jedoch frei und unbedarft surfen, ohne jeweils eine Referenz für jeden Klick abfragen zu müssen... :rolleyes:
p.s.: Ich habe zu hause derzeit XP Pro MCE,Dreamlinux und PCLINUXOS im Einsatz nur damit hier nicht wieder diese FB Unterstellungen kommen.
Grestorn
2008-02-21, 09:58:48
Da würde ich mal schauen, ob deine Netzwerkverbindung aktiv ist, denn das ist bei dir scheinbar nicht der Fall...cdzilla ist btw nicht das Internet ;)
Was soll das, für wie blöd hältst du mich eigentlich?
Du behauptest ständig, dass man ein (aktuelles) XP oder Vista nicht ohne Zusatzsoftware oder externe Firewall im Netz betreiben könne. Aber das ist schlicht falsch.
Auch wenn Du es nicht einsehen willst. Daran kann ich aber leider nichts ändern.
Birdman
2008-02-21, 10:10:21
Komisch, wenn man ein Frisch aufgesetztes Windows System in einer dmz laufen lässt, kommt bei jedem Versuch das gleiche Raus: Viren und Würmer.Meist reicht es sogar einfach die Kiste überhaupt im Netz zu haben. Wer mir hier nun erzählen will, das Windows ohne Virenscanner auskommt, ne leute, macht euch nicht lächerlich!
Wir betreiben seit Jahren hunderte von Windows Server ohne Antivirus, und die stehen alle im Netz.
Mein eigener Rechner zuhause steht direkt im Netz mit public IP 24/7, ist ein WindowsXP ohne Antivirus und Firewall, ohne Router.
Nie einen Virus oder Worm draufgehabt....
Btw. wir hatten hier @work genauso oft Probleme mit Trojanern/Rootkits auf Linux Server als Vergleichbares auf Windows Servern.
SavageX
2008-02-21, 10:15:17
Ohne dass Du etwas aktiv machst wird aber ein E-Mail Virus nicht aktiv. Inzwischen sind alle E-Mail Programme so weit, dass sie weder Bilder laden noch aktiven Inhalt zulassen.
Bufferoverflows bei der Behandlung von EMail-Headern oder angehängter Signaturen oder ähnliche Lücken sind, wenn sie im Client stecken, beim Lesen ohne weitergehende Benutzerinteraktion ausbeutbar. Ist aber selten geworden. Zumindest bei Outlook gab es da in der Vergangenheit so einige "lesen reicht schon" Ausreißer.
Wie aktiviert sich die SW ohne Adminrechte? Wie nistet sie sich ein? Ohne Adminrechte kannst Du kein existierendes Programm überschreiben und kein Programm automatisch starten lassen.
Schreiben kann sich das Zeug überall dort, wo auch der Normalobenutzer hinschreiben kann. Einen geplanten Task kann das Ding zumindest dann, wenn das Passwort schwach ist, einrichten. Alternativ ändert man halt einen vielbenutzten Eintrag im Startmenü/Desktop (erst die Virenschleuder starten, dann das eigentliche Programm). Und im "schlimmsten" Fall kann sich das Schadprogramm halt nur im Speicher halten, bis frisch durchgestartet wird. Dank Suspend kann das schonmal ein paar Tage halten.
Man *will* keinen fremden Code laufen lassen, auch nicht als eingeschränkter Nutzer.
Radeonator
2008-02-21, 10:23:28
Ich kann wie geschrieben, natürlich nur 2 Seiten im Netz ansurfen und dabei nur https Server anfahren, wer aber "normal" mit dem PC arbeiten will/muss , für den ist dies unmöglich. Allein deine Bewertung für vermeindlich Seriöse Server ist subjektiver Unsinn.
Deine Argumentation ist ungefähr so sinvvoll wie folgende: "Ich verbauche mit meinem Auto kein Benzin. Mann kann also ein Auto Fahren ohne Benzin zu verbrauchen...Wie das geht? Ich wohne in den Bergen und lass mein Auto immer Bergab rollen und Bergan lass ich mich von Eseln hochziehen.OK, im Flachland hab ich so meine Probleme, deshalb fahre ich auch nur im Bergenland..."
Das ganze hat mit Einsicht meinerseits nichts zu tun, sondern mit deinem Willen, unbedingt recht zu bekommen, egal wie hanebüchend unsinnige Methoden zu diesem Ziel führen.
Ergo conclusio : Will ich mich relativ frei im Netz bewegen, sind z.B.: Linux,BeOS,Zeta oder MacOS die definitiv bessere Wahl. Will ich mich auf einige wenige Seiten beschränken, geht auch ein aktuell gehaltenes Windows eingeschränkt.
Für mich ist hier der Punkt erreicht, wo ich nichts mehr zu dem Teilaspekt Internet/Netz Sicherheit schreiben werde, weil ich eh vorher weiss, was kommt...
Radeonator
2008-02-21, 10:30:07
Wir betreiben seit Jahren hunderte von Windows Server ohne Antivirus, und die stehen alle im Netz.
Mein eigener Rechner zuhause steht direkt im Netz mit public IP 24/7, ist ein WindowsXP ohne Antivirus und Firewall, ohne Router.
Nie einen Virus oder Worm draufgehabt....
Btw. wir hatten hier @work genauso oft Probleme mit Trojanern/Rootkits auf Linux Server als Vergleichbares auf Windows Servern.
OK, einen noch. Gut, dann sind wohl so ziemlich 99% (ausser deiner Frima) aller Firmen einfach nur Paranoide Idioten die ihr Geld zum Fenster herauswerfen. Hey, man braucht noch nichtmal eine Firewall um Firmennetze zu schützen...OMG :uconf3::uhammer:
Grestorn
2008-02-21, 10:30:24
Bufferoverflows bei der Behandlung von EMail-Headern oder angehängter Signaturen oder ähnliche Lücken sind, wenn sie im Client stecken, beim Lesen ohne weitergehende Benutzerinteraktion ausbeutbar. Ist aber selten geworden. Zumindest bei Outlook gab es da in der Vergangenheit so einige "lesen reicht schon" Ausreißer.
Das ist mir bekannt. Aber ich rede auch von einem aktuellen, gepatchten E-Mail Client.
Gegen einen solchen Eindringling hilft auch ein Virenscanner nur bedingt. Der beste Schutz dagegen ist nicht mit Admin-Rechten zu surfen.
Schreiben kann sich das Zeug überall dort, wo auch der Normalobenutzer hinschreiben kann.
Richtig. Aber "da wo Normalbenutzer hinschreiben kann" sollten normalerweise keine Programme liegen, zumindest keine normal installierten oder gar automatisch gestarteten Programme.
Einen geplanten Task kann das Ding zumindest dann, wenn das Passwort schwach ist, einrichten.
Wenn das PW schwach ist, geht sowieso alles.
Alternativ ändert man halt einen vielbenutzten Eintrag im Startmenü/Desktop
Geht mit Default-Einstellungen nicht (einer der viel gescholtenen Quellen für UAC-Abfragen...)
Man *will* keinen fremden Code laufen lassen, auch nicht als eingeschränkter Nutzer.
Schon klar. Aber nichts desto trotz lässt sich der Schaden mit einem eingeschränkten User gut eindämmen. Besser jedenfalls wie mit einem Virenscanner, der tief ins System eingreift und aktuell gehalten werden muss um zu funktionieren.
Grestorn
2008-02-21, 10:34:46
Ich kann wie geschrieben, natürlich nur 2 Seiten im Netz ansurfen und dabei nur https Server anfahren, wer aber "normal" mit dem PC arbeiten will/muss , für den ist dies unmöglich. Allein deine Bewertung für vermeindlich Seriöse Server ist subjektiver Unsinn.
Das ist absoluter Quatsch, und Du weißt es auch.
Ich bin mir sicher, dass Du mit einem aktuellen Windows auch ohne Firewall bis tief in irgendwelche XXX Seiten surfen kannst ohne Dir etwas zu fangen (so lange Du nicht aktiv als Anwender irgendwelche Programme oder Controls zulässt).
Das Risiko, dass Du Dir da einen Schädling holst, der eine noch unbekannte und ungepatchte Lücke nutzt ist auf solchen Seiten zwar höher, aber einen solchen Schädling gibt es alle heilige Zeiten mal.
Du tust gerade so, als ob zu jeder Zeit eine ganze Latte von Schädlingen gibt, die unbekannte Lücken nutzen können.
Ergo conclusio : Will ich mich relativ frei im Netz bewegen, sind z.B.: Linux,BeOS,Zeta oder MacOS die definitiv bessere Wahl. Will ich mich auf einige wenige Seiten beschränken, geht auch ein aktuell gehaltenes Windows eingeschränkt.
Warum? Wegen Deiner ideologischen Verblendung? Einen anderen Grund kann ich dafür nicht erkennen.
Crow1985
2008-02-21, 10:54:39
Also ich meine ja auch auch das Software in Sachen Sicherung des Systems überschätzt wird. Speziell Softwarefirewalls, aber auch zum Teil Antivirentools, da diese nur zum Eimsatz kommen wenn vorherige Sicherungssysteme versagt haben.
ist ein WindowsXP ohne Antivirus und Firewall, ohne Router.
Nie einen Virus oder Worm draufgehabt....
Natürlich ist Brajn.exe sehr wichtig, aber das schießt schon nen Vogel ab.
SavageX
2008-02-21, 11:52:52
Das ist mir bekannt. Aber ich rede auch von einem aktuellen, gepatchten E-Mail Client.
Gegen einen solchen Eindringling hilft auch ein Virenscanner nur bedingt. Der beste Schutz dagegen ist nicht mit Admin-Rechten zu surfen.
Software auf dem aktuellen Stand zu halten ist fürwahr sinnvoll.
Nur frage ich mich, ob es nicht Sinn macht, sich über eine zweite Verteidungslinie Gedanken zu machen.
Richtig. Aber "da wo Normalbenutzer hinschreiben kann" sollten normalerweise keine Programme liegen, zumindest keine normal installierten oder gar automatisch gestarteten Programme.
Nun, ich glaube, es wird der Schadsoftware egal sein, wo "normalerweise Programme liegen" ;)
Wenn das PW schwach ist, geht sowieso alles.
Aye.
Geht mit Default-Einstellungen nicht (einer der viel gescholtenen Quellen für UAC-Abfragen...)
Oh, habe mir nur XP angeschaut. Wenn UAC aber schon beim Ändern von Verknüpfungen auf dem eigenen Desktop rummault, dann muss das Teil ja so omnipräsent sein, dass viele Benutzer entnervt "OK" klicken.
Schon klar. Aber nichts desto trotz lässt sich der Schaden mit einem eingeschränkten User gut eindämmen. Besser jedenfalls wie mit einem Virenscanner, der tief ins System eingreift und aktuell gehalten werden muss um zu funktionieren.
Mag zutreffen für einen mustergültigen Benutzer und Glückwunsch und Anerkennung, wenn Du alles so weit im Blick hast.
Selbst dem etwas erfahrenen Normalbenutzer würde ich aber auf jeden Fall einen Virenscanner zur Seite stellen. Das mag aber jeder handhaben, wie er will.
IceKillFX57
2008-02-21, 12:05:11
Hallo zusammen.
Allso ich nutze Windows XP und Linux
Allso bei Windows XP habe ich sogut wie nie Viren drauf.
Ich nutze keine Antivieren software.
Das einziege was ich mir einfange sind Spyware :redface:
Da gegen kann man nix machen.. spyware hat jedes XP rechner...da kann er sagen was er will.
Bei Viren muss ich auch sagen das ich noch nie mit Viren befallen war.
Getestet habe ich es immer mit Kaspersky.
Mein Windows habe ich neu installiert so vor 3 Tagen.
Hab eben wieder Kaspersky installiert und update gemacht und dan scannen lassen.
Der Scan ergab das ich kein Virus habe.
Tja dan ein scan mit addware auf Spyware.
Ergebnis waren dan ca. 30 Spyware.
Mein Record in sachen Spyware lag so bei 180 oder so xD
Allso meiner Meinung nach braucht man nicht unbedingt Anti Viren Tools.
Wiederum vll. hatte ich bisher nur Glück und das wars auch schon.
Aber jemand der sich nur auf Seriösen und legalen seiten auftreibt, denke ich das da man sich nicht so schnell was einfängt wie auf den ganzen WareZ Seiten oder illegalen P2P Downloads.
PS: Sry falls ich den Topic verfehlt habe^^
PatkIllA
2008-02-21, 12:10:35
Richtig. Aber "da wo Normalbenutzer hinschreiben kann" sollten normalerweise keine Programme liegen, zumindest keine normal installierten oder gar automatisch gestarteten Programme.
Normalerweise kann man (also auch ein Wurm) auch als eingeschränkter Benutzer Anwendungen in seinem Profil ablegen und starten. Und auch eine Verknüpfung im eigenen Autostart oder Run Key im HKCU der Registry ablegen.
Da muss man dann schon Softwareeinschränkung in den Gruppenrichtlinien verwenden. Geht aber in den Home Versionen nicht.
Oh, habe mir nur XP angeschaut. Wenn UAC aber schon beim Ändern von Verknüpfungen auf dem eigenen Desktop rummault, dann muss das Teil ja so omnipräsent sein, dass viele Benutzer entnervt "OK" klicken.
Im eigenen Startmenü/Desktop nicht, aber im All Users Bereich darf man korrekterweise nur mit Adminrechten was ändern.
@IceKillFX57
Die Tools markieren meist schon Werbecookies als Spyware.
IceKillFX57
2008-02-21, 12:20:34
@IceKillFX57
Die Tools markieren meist schon Werbecookies als Spyware.
Wie meinst du das?
Versteh irgendwie den Sinn des Satzes nicht.
Also ich meine ja auch auch das Software in Sachen Sicherung des Systems überschätzt wird. Speziell Softwarefirewalls, aber auch zum Teil Antivirentools, da diese nur zum Eimsatz kommen wenn vorherige Sicherungssysteme versagt haben.
Natürlich ist Brajn.exe sehr wichtig, aber das schießt schon nen Vogel ab.
Glück gehabt!
Ein XP ohne PFW ist schutzlos gegen diverse Würmer. Wer im Inet ist, kann sich definitiv einen Wurm einfangen.
Ich erinnere an Blaster und Sasser:
http://de.wikipedia.org/wiki/Sasser
http://www.bsi.de/av/vb/sasser.htm
http://de.wikipedia.org/wiki/W32.Blaster
PatkIllA
2008-02-21, 12:25:45
Wie meinst du das?
Versteh irgendwie den Sinn des Satzes nicht.
Du gehst auf eine Seite die Werbung hat. Die Werbung legt einen Cookie in deinem Browser ab. Der Spywarescanner markiert den Cookie als Spyware.
Das hat aber nichts mit dem OS zu tun.
IceKillFX57
2008-02-21, 12:45:12
Du gehst auf eine Seite die Werbung hat. Die Werbung legt einen Cookie in deinem Browser ab. Der Spywarescanner markiert den Cookie als Spyware.
Das hat aber nichts mit dem OS zu tun.
Naja du kannst aber Cookies auch blocken..ist ja kein Problem
iDiot
2008-02-21, 12:46:24
Glück gehabt!
Ein XP ohne PFW ist schutzlos gegen diverse Würmer. Wer im Inet ist, kann sich definitiv einen Wurm einfangen.
Ich erinnere an Blaster und Sasser:
http://de.wikipedia.org/wiki/Sasser
http://www.bsi.de/av/vb/sasser.htm
http://de.wikipedia.org/wiki/W32.Blaster
XP bringt aber out of the Box schon eine brauchbare FW mit.
nichtsdestotrotz sollten wir zu Linux zurückkehren.
PatkIllA
2008-02-21, 13:03:27
Naja du kannst aber Cookies auch blocken..ist ja kein ProblemJup das hat aber nichts mit dem OS und auch nur entfernt mit dem Browserhersteller zu tun.
Ist wie PFW, die einen Ping schon als Angriff werten.
XP bringt aber out of the Box schon eine brauchbare FW mit.
nichtsdestotrotz sollten wir zu Linux zurückkehren.
Ungepatcht war da imho keine FW mit dabei. Wer isch mometan allerdings ein XP mit SP2 installiert, der ist sicherlich davor gefeit.
Um zum Thema zurückzukommen. Da hat Linux einfach den Vorteil, dass die meisten Ports auch ohne PFW erst einmal geschlossen sind.
Und von Haus aus wird nur mit User-Rechten gesurft. Im übrigen fahre ich mein Linux auch seit Jahren ohne Virenscanner. ;)
Grestorn
2008-02-21, 13:10:00
Um zum Thema zurückzukommen. Da hat Linux einfach den Vorteil, dass die meisten Ports auch ohne PFW erst einmal geschlossen sind.
Und von Haus aus wird nur mit User-Rechten gesurft. Im übrigen fahre ich mein Linux auch seit Jahren ohne Virenscanner. ;)
MS ist tatsächlich lernfähig. Bei Vista sind per Standard auch erst mal alle Ports auf allen externen NICs zu. Auch ohne Firewall.
War aber ein durchaus schmerzhafter Prozess bis sich diese naheliegende Praxis durchgesetzt hat. Mit dem Nachteil, dass man natürlich jetzt erst mal für früher direkt funktionierende Dinge wie z.B. Netzwerkfreigaben etc. etwas umstellen muss.
The Cell
2008-02-21, 13:12:05
Ungepatcht war da imho keine FW mit dabei. Wer isch mometan allerdings ein XP mit SP2 installiert, der ist sicherlich davor gefeit.
Doch, ein vernünftiger Paketfilter ist schon seit Win2k an Board. Nur kenne ich wenige Leute, die sich mal mit den IP Sicherheitsrichtlinien befasst haben.
The Cell
2008-02-21, 13:17:34
Im übrigen fahre ich mein Linux auch seit Jahren ohne Virenscanner. ;)
Was erneut mit der Verbreitung und nichts mit dem Softwaredesign zu tun hat.
Paradebeispiel Apache vs IIS. Die eine Software gutes Beispiel für freie Software, die sich durchgesetzt hat.
Wie sieht die Exploitverteilung aus? Wenn es danach ginge, sollte man auf jeden Fall IIS verwenden.
Wenn ich an dieser Stelle Schlüsse ziehen würde wie die Linux Fraktion, wäre ich sehr schnell bei "Apache blöd, IIS supi!", weil es für Apache einfach mehr Exploits gab.
Anders ausgedrückt: Man will mir doch bitte nicht erzählen, dass die IIS Coder so viel geiler sind, als die Leute, die andere Teile des OS hacken? Man kann mir auch nicht erzählen, dass Apache schlecht ist.
Kurzum: It's all about distribution on a large scale, baby!
Was Windows zeigt: Monokulturen sind schlecht. Immer.
Das gilt auch im OSS Bereich. ;)
iDiot
2008-02-21, 13:18:02
Eigentlich lustig, da wird ein Thread aufgemacht um an linux Kritik zu üben und nun wird heftigst über Windows diskutiert :D
*edit* Naja beim Apache kann man nicht wirklich von einem Monopol sprechen, der IIS hat imho 35% Marktanteil.
Doch, ein Paketfilter ist schon seit Win2k an Board. Nur kenne ich wenige Leute, die sich mal mit den IP Sicherheitsrichtlinien befasst haben.
Richtig, allerdings kennst Du sicherlich auch die Aversionen der Consumer sich auf der Konsole rumzutreiben. Batch-Skripte existieren unter Windows anscheinend nur um deren Admins glücklich zu machen.
Außerdem glaube ich nicht, das sich Otto-Normal-Vernraucher wirklich mit IPSECPOL.EXE abgeben möchte. Ohne gewisse Vorkenntnisse würde ich jedem User pauschal erst einmal abraten.
Im übrigen hat sich imho die Sicherheitsdebatte unter Windows in den letzten Jahren durchaus sehr zu Gunsten der Redmonder verschoben. Ich würde den Redmondern auch niemals den Vorwurf machen, Raubkopien zu unterstützen, allerdings existieren im Netz genügend ungepatchte Kopien von XP, die sicherlich schon lange als Dreckschleudern zweckentfremdet wurden.
Was erneut mit der Verbreitung und nichts mit dem Softwaredesign zu tun hat.
Paradebeispiel Apache vs IIS. Die eine Software gutes Beispiel für freie Software, die sich durchgesetzt hat.
Wie sieht die Exploitverteilung aus? Wenn es danach ginge, sollte man auf jeden Fall IIS verwenden.
Wenn ich an dieser Stelle Schlüsse ziehen würde wie die Linux Fraktion, wäre ich sehr schnell bei "Apache blöd, IIS supi!", weil es für Apache einfach mehr Exploits gab.
Anders ausgedrückt: Man will mir doch bitte nicht erzählen, dass die IIS Coder so viel geiler sind, als die Leute, die andere Teile des OS hacken? Man kann mir auch nicht erzählen, dass Apache schlecht ist.
Kurzum: It's all about distribution on a large scale, baby!
Was Windows zeigt: Monokulturen sind schlecht. Immer.
Das gilt auch im OSS Bereich. ;)
Das war nur eine Anspielung für Grestorm. Denn ich glaube ihm natürlich, dass er mit Viren keine Probleme hat, da ich ja auch etwas über seinen Background weiß. Allerdings würde ich persönlich diese Meinung gegenüber dem Großteil der User so nicht vertreten. Da kannst Du aber sicherlich aus eigener Erfahrung auch ein Lied davon singen. ;)
Ja, wie üblich bringen diese Pauschalaussagen für die Diskussion relativ wenig. Man muss viel zu sehr ins Detail gehen und damit nimmt die Allgemeingültigkeit entsprechend ab.
Deswegen mein Beitrag zum Topic:
Out of the Box und mit entsprechender Hardwareunterstützung benötigt Lin relativ wenig Zeitaufwand um produktiv zu werden.
Birdman
2008-02-22, 12:37:37
OK, einen noch. Gut, dann sind wohl so ziemlich 99% (ausser deiner Frima) aller Firmen einfach nur Paranoide Idioten die ihr Geld zum Fenster herauswerfen. Hey, man braucht noch nichtmal eine Firewall um Firmennetze zu schützen...OMG :uconf3::uhammer:
Schnarch, bitte lies doch zumindest die Postings richtig, wenn du dich sonst schon so uneinsichtig gibts.
Habe nirgends geschrieben, dass keine Firewalls zum Einsatz kommen - nur für meinen HomePC verwende ich gar nichts.
Dass Server welche Dienste gegen aussen anbieten, hinter eine Firewall gehören versteht sich von selbst - doch hier spielt das verwendete OS so gut wie gar keine Rolle. (sofern dies natürlich regelmässig gewartet und gepatched wird)
Und dass viele Firmen für irgendwelche crappige Antivirus Software Geld ausgehen, die sie danach auf Ihren Servern einstezen...na ja, ich kann meine $$$ auch verbrennen.
Wieso soll ich z.B. auf einem DB Server einen Virenscanner haben? Angst dass jemand einen Virus eingebettet in einen Datenbankdump hochlädt? Und wenn ja, wayne? der Server macht ja nix damit, das wird nicht aktiv ausgeführt.
iDiot
2008-02-22, 12:44:14
Auf einem Fileserver sollte trotzdem ein Virenscanner laufen, du weist ja nicht woher die Daten kommen.
Birdman
2008-02-22, 20:42:28
Auf einem Fileserver sollte trotzdem ein Virenscanner laufen, du weist ja nicht woher die Daten kommen.
Kommt drauf an, i.d.R. reicht es wenn auf den Clients einer drauf ist, was eigentlich immer der Fall ist. (wenn man das Umfeld der Clients kennt)
Von da kommt also nix drauf und wenn doch, wer da was runterlädt hat ja selber auch wieder nen Scanner. Für den unwarscheinlichen Fall fass beides nicht der Fall ist --> wayne, ist dem User sein Problem.
Dem Server sind diese "passive" rumliegenden Viren eh kein egal- sind nur bits und bytes.
Zudem, wann habt ihr den letzten Virus gesehen, der nicht übers Outlook/InternetExplorer auf eurer System gewollt hat? Mit einem gescheiten Emailscanner bekämpft man heut 99.99% aller Bösewichte.
iDiot
2008-02-23, 09:55:08
In meiner Arbeitsumgebung habe ich ehrlich gesagt noch nie einen Virus gesehen.
Bei uns hat der FS einen Virenscanner da teilweise auch private Notebooks darauf zugreifen.
(del)
2008-02-23, 13:59:49
Bei uns hat der FS einen Virenscanner da teilweise auch private Notebooks darauf zugreifen.Das ist schon der erste konzeptionelle Fehler in eurem Netzwerk.
Dienstliche und Private Hardware sollten immer einer kategorischen Trennung unterliegen.
Da würde ich als Admin graue Haare bekommen, zu wissen, dass diese Rechner in meinem Netz sind aber nicht zentral administrierbar sind.
iDiot
2008-02-23, 14:46:21
Prinzipiell hast du recht, praktisch funktioniert das bei uns aber nicht. -> Grund: es kommen Gastvortragende usw die alle Internet oder Daten benötigen, die aber nur für einen kurzen Zeitraum da sind und die Notebooks meist schon von anderen Firmen oder Unis betreut werden so dass sie selbst nichmal Admin rechte haben.
Interressant wäre hier Server und NAP, aber naja... das liebe Budget :D
yahooligan
2008-02-24, 14:54:41
Hallo!
Ich bin seit DOS und Windows 3.11 PC-User und hab immer nur Windows verwendet. Von Spielen habe ich mich abgewendet, dafür kommt für mich aufgrund des Gemütlichkeits-Konzepts nur noch eine Konsole in Frage. Ansonsten brauch ich nur Office, Internet, Skype und einen Audio-/Video-Player. Im Moment benutze ich Windows XP und Office 2007.
Kurz zur Kompatibilität:
Office 2007 ist gut gelungen nur leider fällt mir auf, dass die Dokumente (und damit meine ich nichtmal .docx) nicht 100 % kompatibel zu alten Versionen sind. Wenn ich zusammen mit Studienkollegen ein Dokument bearbeite, sieht es nicht bei allen gleich aus. Auch in PowerPoint gibts diese Probleme. Ich hatte auch schon mal OpenOffice in Verwendung aber da war das noch schlimmer. Eine PowerPoint Präsentation zu erstellen, herumzuschicken und zu bearbeiten war zwischen MS- und OpenOffice ein Graus. Überhaupt bin ich sehr gespannt ob sich die neuen, von mit .docx genannten, Office-Formate durchsetzen werden und welche Probleme da nicht wieder auf uns zu kommen. Da mein Studium in Kürze vorbei ist und ich hoffe in einer Branche zu arbeiten, wo ich nur am Arbeitsplatz vor dem PC sitze und privat nichts damit zu tun habe, hab ich nun für den Privatgebrauch freie Hand und die Kompatibilität bei der Formatierung ist nicht mehr so wichtig wie während des Studiums.
Also:
Ist Linux für private Desktops (und Private User, die ein paar Stunden zu Einarbeitung, aber nicht ihr halbes Leben opfern wollen) empfehlenswert?
Und welche Vor- und Nachteile gibt es für dieses Anwendungsgebiet? Die Kosten von Windows zählen hier nicht, da ich weniger als 100 € für ein Betriebssystem wie Windows sehr niedrig ansehe und durch die Einarbeitungszeit für Linux sowieso viel mehr Zeit draufgeht.
Danke!
Grestorn
2008-02-24, 15:25:44
Wenn ein Office-Dokument unterschiedlich aussieht, dann liegt das in fast allen Fällen am eingestellten Druckertreiber.
Ansonsten zu Deiner Frage:
Ich würde einfach mal eine der namhaften Linux-Distris installieren und mir selbst ein Bild machen. Arbeit und Umgewöhnung ist immer notwendig, das sollte Dir klar sein. Es kann sich aber schon rentieren.
yahooligan
2008-02-24, 17:27:57
Warum der Druckertreiber, wie das?
Ich mein, selbst wenn noch gar kein Drucker im System installiert ist, schauts verschieden aus. Das weiß ich, weil ich im Auslandssemester OpenOffice und MS Office installiert hab und dort keinen Drucker hatte.
iDiot
2008-02-24, 17:36:26
verwendest du docx oder doc dateien für den Austausch?
Grestorn
2008-02-24, 17:46:30
Warum der Druckertreiber, wie das?
Weil das Schriftbild, Zeichengröße, DPI usw. vom Drucker abhängig sind. Der Druckertreiber steuert diese Dinge.
Ich mein, selbst wenn noch gar kein Drucker im System installiert ist, schauts verschieden aus. Das weiß ich, weil ich im Auslandssemester OpenOffice und MS Office installiert hab und dort keinen Drucker hatte.
Was heißt denn genau "es sieht verschieden aus"? Wo genau sind die Unerschiede?
yahooligan
2008-02-24, 17:46:39
.doc natürlich.
Mir .docx kann doch niemand was anfangen. Das größte Problem ist doch, dass wenn man z.B. ein docx versenden würde 3/4 der Leute nichtmal wissen was das ist. Das heißt Kompatibilitätsprobleme sind deshalb nicht zu vermeiden weil man den anderen "Mitarbeitern" nicht klar machen kann was das Problem ist.
Ich kann ja eh mit OO alle Dateien öffnen, die ich bekomme aber die huntertprozentige Kompatibilität ist eben nicht vorhanden. Ob Aufzählungszeichen in PowerPoint oder Zeilenabstände und Absätze in Word.
Bin echt froh, wenn ich in einem Unternehmen arbeite wo alle die selbe Software verwenden und mir die Kompatibilität privat wurscht sein kann, während des Studiums ist es allerdings sehr nervenaufreibend. Ganz schlimm zum Beispiel mit mac.Office2004 Usern. (zumindest denen, die keine Ahnung haben)
Grestorn
2008-02-24, 17:48:19
.doc natürlich.
Mir .docx kann doch niemand was anfangen. Das größte Problem ist doch, dass wenn man z.B. ein docx versenden würde 3/4 der Leute nichtmal wissen was das ist. Das heißt Kompatibilitätsprobleme sind deshalb nicht zu vermeiden weil man den anderen "Mitarbeitern" nicht klar machen kann was das Problem ist.
Ich kann ja eh mit OO alle Dateien öffnen, die ich bekomme aber die huntertprozentige Kompatibilität ist eben nicht vorhanden. Ob Aufzählungszeichen in PowerPoint oder Zeilenabstände und Absätze in Word.
Ach so, Du meinst die Dokumente sehen in OO anders aus als in MS-Office? Ja klar. Dagegen können aber nur die OO Entwickler etwas machen.
yahooligan
2008-02-24, 17:50:51
Nein, auch zwischen Office XP und Office 2007 zb.
Unterschiede wie gesagt zum Beispiel:
- Aufzählungszeichen (Form und Farbe)
- Absätze und Zeilenabstände
- Grafiken passen nicht (gehen zum Beispiel rechts oder links über das Blatt hinaus)
Passiert sehr oft bei angepassten Formvorlagen. Jeder verwendet die Vorlage. Irgendjemand fügt dann aber wieder was aus einem normal.doc ein und schon kann mans vergessen. Da wär es wünschenswert wenn man solche "Userfehler" schnell wieder ausbügeln könnte aber leider bekommt man so ein Gefrickel-Dokument nur schwer wieder auf die Reihe.
Ach so, Du meinst die Dokumente sehen in OO anders aus als in MS-Office? Ja klar. Dagegen können aber nur die OO Entwickler etwas machen
Naja, so kann ich aber eben nicht arbeiten wenn es um eine Arbeit für die Uni geht.
iDiot
2008-02-24, 17:57:51
.docx kann über das compatability pack (gratis dl bei ms) auch in alten office Versionen geöffnet werden.
http://office.microsoft.com/en-us/products/HA101686761033.aspx
bei .doc dürfte es aber (verwenden nur 2003 und 2007 @ work) keine unterschiede geben.
Aber bei uns ist die Software auch immer auf aktuellem Stand, was bei einer Uralt Install ohne SP passiert weis ich nicht.
Open Office verwendet kein mir bekanntes Unternehmen und auch an der Uni (mein Arbeitsplatz) hats kein Mensch.
yahooligan
2008-02-24, 18:57:10
.docx kann über das compatability pack (gratis dl bei ms) auch in alten office Versionen geöffnet werden.
http://office.microsoft.com/en-us/products/HA101686761033.aspx
Aber bei uns ist die Software auch immer auf aktuellem Stand, was bei einer Uralt Install ohne SP passiert weis ich nicht.
Compatability Pack kenn ich, Software ist am neuesten Stand. Darum gehts nicht. Das hilft dir nämlich alles nix wenn du der einzige bist. Wie gesagt: mir gehts darum, das die meisten das compatability pack gar nicht kennen und auch sonst keine Gedanken an so was verschwenden und dafür gibts keine Softwarelösung.
Kommandofrosch
2008-03-02, 13:56:30
Muss es Linux als Alternative sein ?
Die vom Zeitaufwand effektivsten Non_Windows Systeme sind meiner Erfahrung Nach die RedHat-Linie (Fedora/RHEL/Centos) und DragonflyBSD und OpenBSD.
OpenBSD lässt sich in genau 5 Minuten auf nen Rechner prügeln. Dann muss man sich nur noch einen Useraccount anlegen + .xinitrc auf fvwm umstellen. 1 Zeile Code : exec fvwm
FVWM ist der schwerpunkmäßige WM, sieht zwar erschreckend veraltet aus aber verdammt gut.
Denn rest holt man sich über die Ports. Wer pfiffig genug ist und einen schnellen Rechner hat baut sich innerhalb von 120 Minuten seinen Kernel, Basissystem/Userland und das X11 neu. Nebenbei hat man einen unglaublich performanten PC.
Wenn man als "Nixchecker" sich noch enorm kool vorkommt und meint damit anderen Mitmenschen imponieren zu können checkt die Lage nicht. Selbst MS setzt mehrere Stunden Lern und Übungszeit vorraus, wenn man Herr der Lage sein möchte.
Cosmos2000
2008-03-05, 16:40:08
Betrachten wir das Ganze einmal aus der Sicht eines Otto-Normal-Bürgers:
Für Coder und Bastler is ein Linux-Desktop sicherlich gant toll, und auch sonst wird der ein oder andere Freak sich an seinem Suse, Kubuntu oder Gentoo erfreuen.
In Privathaushalten funktioniert Linux als Desktop-Betriebssystem aber leider nicht. Das hat meiner Meinung nach mehere Gründe:
Die grafische Benutzeroberfläche ist unter aller Sau und kann mit kommerziellen Produkten wie Windows oder Mac OS X einfach nicht mithalten.
Anstatt einmal zu versuchen, bei den Großen abzukupfern, werden total komplizierte grafische Interfaces zusammen gefrickelt, mit denen nur "Nerds" und "Kellerkinder" umgehen können.
Programmierer mögen sehr viel drauf haben und ich habe Respekt vor ihren Leistungen, aber von sogenannter "Eye Candy" und guter Bedienbarkeit haben sie keinerlei Ahnung.
Letztendlich müssen sie aber mal kapieren, dass für den normalen Menschen gerade dieser "Augenschmaus" und leichte Bedienbarkeit sehr wichtig ist. Anders wird man nie eine große Masse für Linux begeisern können.
Linux erfordert sehr viel Arbeit. Ich komme selbst nach Monaten noch nicht damit klar. Will man auch mal was machen, was über die installierten Programme hinaus geht, wird man gezwungen, sich auf die Kommando-Ebene zu begeben. Das ist für mich, der zu DOS-Zeiten noch nichts mit PCs zu tun hatte, einfach nur total ärgerlich. Die Konfiguration der Programme und des Systems ist noch um einiges schlimmer. Ubuntu ist sicherlich ein guter Schritt Richtung guter Benutzerführung, aber selbst da ist es noch unnötig kompliziert.
Es werden von Linux-Jüngern dauernd nur die Vorteile von Linux hervorgebracht.
Den größten Vorteil, den sie hierbei aufführen, ist der offene Quellcode.
Aber ist das für die meisten normalen User nicht eher ein Nachteil!? Welcher Durchschnitts-Hans programmiert und kompiliert denn sein eigenes Linux-Kernel? Die meisten sind doch froh, wenn ihnen die Entscheidungen abgenommen werden.
Was will ich als Privatperson mit einem BS, bei dem ich nach der Installation noch mindestens 2 Wochen Feintuning betreiben muss, bis auch die letzte Komponente einigermaßen anständig läuft!?
Die Installation und Konfiguration von Linux ist nun mal komplizierter und anstrengender, als bei Windows. Bei Windows muss ich mir keine beschissenen Konsolenbefehle merken. Doppelklick reicht!
Außerdem gibt es für Windows sehr viel Software, die mir bei Linux einfach fehlt.
Zu guter die Linux-Gemeinde:
Als Windows-User ist man bei den Linuxern pauschal als dumm und unflexibel Man kriegt immer zu hören, "klickibunti" wäre absolout scheiße und nur für DAUs. Windows sei ja so großartig scheiße, weil der Quellcode dem User nicht offen liegt, auch wenn das in den meisten Fällen total unnötig ist.
Und hat man mal wieder Probleme mit dem Linux-Konsolen-Gefrickel, wird man von den Linuxern wie ein Trottel behandelt, der sich gefälligst aus dem Linux-Lager verpissen soll. GUI ist ja nur was für DAUs und Obertrottel. Das gilt nicht pauschal für alle Linuxer, aber der Anteil an solchen Leuten ist in der Gemeinde nicht klein. Anstatt den Newbies Hilfestellung zu geben, werden sie verscheucht.
iDiot
2008-03-05, 17:44:16
Die grafische Benutzeroberfläche ist unter aller Sau und kann mit kommerziellen Produkten wie Windows oder Mac OS X einfach nicht mithalten.
Anstatt einmal zu versuchen, bei den Großen abzukupfern, werden total komplizierte grafische Interfaces zusammen gefrickelt, mit denen nur "Nerds" und "Kellerkinder" umgehen können.
Allgemeins Gebashe. Ein aktuelles KDE oder Gnome ist wirklich nicht schlecht und man kommt gut damit zurecht. Klar gibt es Feinheiten wie die Fonts z.B.: die mir unter Linux nicht so gefallen
Programmierer mögen sehr viel drauf haben und ich habe Respekt vor ihren Leistungen, aber von sogenannter "Eye Candy" und guter Bedienbarkeit haben sie keinerlei Ahnung.
Letztendlich müssen sie aber mal kapieren, dass für den normalen Menschen gerade dieser "Augenschmaus" und leichte Bedienbarkeit sehr wichtig ist. Anders wird man nie eine große Masse für Linux begeisern können.
Hast du dir schonmal eine Beryl Oberfläche angesehen? Da gibts Eye Candy en masse.
Linux erfordert sehr viel Arbeit. Ich komme selbst nach Monaten noch nicht damit klar. Will man auch mal was machen, was über die installierten Programme hinaus geht, wird man gezwungen, sich auf die Kommando-Ebene zu begeben. Das ist für mich, der zu DOS-Zeiten noch nichts mit PCs zu tun hatte, einfach nur total ärgerlich. Die Konfiguration der Programme und des Systems ist noch um einiges schlimmer. Ubuntu ist sicherlich ein guter Schritt Richtung guter Benutzerführung, aber selbst da ist es noch unnötig kompliziert.
Eine Systemumstellung erfordert immer mehr arbeit, da hinter Linux eben völlig andere Konzepte stehen.
Es werden von Linux-Jüngern dauernd nur die Vorteile von Linux hervorgebracht.
Den größten Vorteil, den sie hierbei aufführen, ist der offene Quellcode.
Aber ist das für die meisten normalen User nicht eher ein Nachteil!? Welcher Durchschnitts-Hans programmiert und kompiliert denn sein eigenes Linux-Kernel? Die meisten sind doch froh, wenn ihnen die Entscheidungen abgenommen werden.
Prinzipiell stimme ich dir zu, aber deswegen ist der offene Code kein Nachteil - für Profis ist er offen, sie können etwas damit anfangen. Der normale User sollte mit dem Code nicht in berührung kommen.
Was will ich als Privatperson mit einem BS, bei dem ich nach der Installation noch mindestens 2 Wochen Feintuning betreiben muss, bis auch die letzte Komponente einigermaßen anständig läuft!?
Die Installation und Konfiguration von Linux ist nun mal komplizierter und anstrengender, als bei Windows. Bei Windows muss ich mir keine beschissenen Konsolenbefehle merken. Doppelklick reicht!
Außerdem gibt es für Windows sehr viel Software, die mir bei Linux einfach fehlt.
Natürlich gibt es noch Software die für Linux fehlt. Aber trotzdem finde ich dass Vista und ein aktuelles Ubuntu sich von der Schwirigkeit einer Installation nicht unterscheiden. XP hingegen ist wesentlich schlechter.
Zu guter die Linux-Gemeinde:
Als Windows-User ist man bei den Linuxern pauschal als dumm und unflexibel Man kriegt immer zu hören, "klickibunti" wäre absolout scheiße und nur für DAUs. Windows sei ja so großartig scheiße, weil der Quellcode dem User nicht offen liegt, auch wenn das in den meisten Fällen total unnötig ist.
Und hat man mal wieder Probleme mit dem Linux-Konsolen-Gefrickel, wird man von den Linuxern wie ein Trottel behandelt, der sich gefälligst aus dem Linux-Lager verpissen soll. GUI ist ja nur was für DAUs und Obertrottel. Das gilt nicht pauschal für alle Linuxer, aber der Anteil an solchen Leuten ist in der Gemeinde nicht klein. Anstatt den Newbies Hilfestellung zu geben, werden sie verscheucht.
Nunja, ich weis nicht wo du so unterwegs bist, aber ich finde die Linuxer bis auf einige Ausnahmen freundlich. Natürlich gibt es noobs die meinen weil sie Ubuntu installiert haben und neben dem gecrackten Windows am laufen haben sind sie der 1337 haxx0r.
Die Zahl an Idioten (mein Nick ausgenommen :D) ist aber im Windows lager sicher größer (Achtung: Ironie).
MojoMC
2008-03-05, 18:22:53
Was will ich als Privatperson mit einem BS, bei dem ich nach der Installation noch mindestens 2 Wochen Feintuning betreiben muss, bis auch die letzte Komponente einigermaßen anständig läuft!?
Die Installation und Konfiguration von Linux ist nun mal komplizierter und anstrengender, als bei Windows. Bei Windows muss ich mir keine beschissenen Konsolenbefehle merken. Doppelklick reicht!
Außerdem gibt es für Windows sehr viel Software, die mir bei Linux einfach fehlt.Codinguser, du hier?
Ich weiss ja nicht, wann du das letzte Mal ein Windows-System komplett neu aufgesetzt hast, aber ich habe diese Erfahrung erst kürzlich hinter mich gebracht und war erstaunt, wieviel Zeit das doch kostet. Das überaus lang andauernde Feintuning muss nämlich auch bei Win-Systemen durchgeführt werden, bis alles so läuft, wie es soll...
"WAAAS, das kann doch gar nicht sein?"
Ja, Windows hat eine grafische Oberfläche. Da muss man keine 10000 Konsolenbefehle auswendig können. Nur brauch ich die bei einem Linux ja auch nicht - zur Not reicht ja ein nettes Forum und ich tipp die meiste Zeit die Befehle nur ab. Eine grafische Oberfläche ist ja nicht automatisch schneller. Gerade im Ubuntu-Bereich wird einem bei Konsolen-Problemen so freundlich und prompt geholfen, dass man kaum in Verlegenheit kommt, die ganzen Befehle mal zu behalten.
Ausserdem sind gerade bei XP dermassen viele Programme nötig, die nachinstalliert werden müssen, dass dein Gequengel von einem zeitaufwendigen Linux nicht greift. So viele Selbstverständlichkeiten wie der Umgang mit diversen Archiven, ein brauchbarer Audioplayer, ein brauchbarer Video-Player, ein brauchbarer Multi-Messenger und all die kleinen Sachen, die ein XP nicht von Beginn an mitbringt. Rechne das alles mal mit, da nähern sich die beiden Betriebssysteme vom Aufwand her an.
Wat war ich froh, als nach 2 Wochen endlich das Feintuning halbwegs beendet war und ein normales Arbeiten mit Windows möglich war. Einige meiner Linux-Installationen haben deutlich weniger Zeit gekostet bis zum fertigen System. Einige aber auch mehr...
Welche Software fehlt dir im übrigen? Spiele dürfte klar sein, aber ich meine eher die Art der Software, die dir fehlt.
Sven77
2008-03-05, 18:33:12
Ich hab mal für meine Eltern Suse installiert, um die 80Eur füe XP zu sparen. Musste nix einrichten, alles ging sofort, inkl. Drucker. Sie fanden sich auch schnell zurecht, mangels des Admin-passworts konnten sie auch nix zerstören.
Linux musste dann doch XP weichen, da mein Vater sein zig Spielzeuge (2 Navis, Telefonanlage usw.) ohne nicht bedienen konnte.
Gegen Linux sprechen einige Gründe, aber Zeit, Bedienbarkeit und Optik sicherlich nicht. Es ist und bleibt der Mangel an properitärer Software und Treiber, der Linux noch(!) ins abseits schiebt..
Hast du dir schonmal eine Beryl Oberfläche angesehen? Da gibts Eye Candy en masse.
Es gibt einen Unterschied zwischen Eye-Candy und Spielereien mit Coder-Artwork.
Skullcleaver
2008-03-05, 18:58:02
Ich hab mal für meine Eltern Suse installiert, um die 80Eur füe XP zu sparen. Musste nix einrichten, alles ging sofort, inkl. Drucker. Sie fanden sich auch schnell zurecht, mangels des Admin-passworts konnten sie auch nix zerstören.
Linux musste dann doch XP weichen, da mein Vater sein zig Spielzeuge (2 Navis, Telefonanlage usw.) ohne nicht bedienen konnte.
Gegen Linux sprechen einige Gründe, aber Zeit, Bedienbarkeit und Optik sicherlich nicht. Es ist und bleibt der Mangel an properitärer Software und Treiber, der Linux noch(!) ins abseits schiebt..
Dieses NOCH wird seit JAHREN betont (wenn nicht sogar Jahrzehnten) das wirklich noch Leute Hoffnung haben das sich da mal was ändert wundert mich.
deLuxX`
2008-03-05, 19:19:56
In Privathaushalten funktioniert Linux als Desktop-Betriebssystem aber leider nicht.
Das sagst du so einfach daher. In unserem Privathaushalt funktioniert das. Aber sowas von. 3 Desktop Recher, 1 Laptop, 1 Router. Der Router könnte aber tatsächlich etwas besser sein. Aber was ist schon perfekt.
Anstatt einmal zu versuchen, bei den Großen abzukupfern, werden total komplizierte grafische Interfaces zusammen gefrickelt, mit denen nur "Nerds" und "Kellerkinder" umgehen können.
Polemik ahoi. Ich kann nun wirklich nicht erkennen, was an einem Gnome Desktop kompliziert sein soll. Du meinst vielleicht 'anders'. Da würde ich dir zustimmen.
Letztendlich müssen sie aber mal kapieren, dass für den normalen Menschen gerade dieser "Augenschmaus" und leichte Bedienbarkeit sehr wichtig ist. Anders wird man nie eine große Masse für Linux begeisern können.
Jop ACK. In das Thema Usability muss noch einiges an Gehirnschmalz fließen.
Linux erfordert sehr viel Arbeit. Ich komme selbst nach Monaten noch nicht damit klar.
Ja 'mal eben' ein neues OS zu beherschen is halt nicht. Das liegt aber weiß Gott nicht an dem neuen OS xyz.
Den größten Vorteil, den sie hierbei aufführen, ist der offene Quellcode.Aber ist das für die meisten normalen User nicht eher ein Nachteil!? Welcher Durchschnitts-Hans programmiert und kompiliert denn sein eigenes Linux-Kernel? Die meisten sind doch froh, wenn ihnen die Entscheidungen abgenommen werden.
Bleiben wir doch mal bei deinem Beispiel: Ubuntu. Wird mir da denn nicht das Kompilieren des Kernels abgenommen?
Ich kann, muss aber nicht.
Was will ich als Privatperson mit einem BS, bei dem ich nach der Installation noch mindestens 2 Wochen Feintuning betreiben muss, bis auch die letzte Komponente einigermaßen anständig läuft!?
Wenn Hardware Vendors, durch größere Verbreitung gezwungen wären mehr und bessere Treiber für Linux zu schreiben, würde sich das Problem von alleine lösen. Dann würdest du auch zu deinem "Doppelklick" kommen.;)
Außerdem gibt es für Windows sehr viel Software, die mir bei Linux einfach fehlt.
S.o..
Zu guter die Linux-Gemeinde.Als Windows-User ist man bei den Linuxern pauschal als dumm und unflexibel Man kriegt immer zu hören, "klickibunti" wäre absolout scheiße und nur für DAUs. Windows sei ja so großartig scheiße, weil der Quellcode dem User nicht offen liegt, auch wenn das in den meisten Fällen total unnötig ist.Und hat man mal wieder Probleme mit dem Linux-Konsolen-Gefrickel, wird man von den Linuxern wie ein Trottel behandelt, der sich gefälligst aus dem Linux-Lager verpissen soll. GUI ist ja nur was für DAUs und Obertrottel. Das gilt nicht pauschal für alle Linuxer, aber der Anteil an solchen Leuten ist in der Gemeinde nicht klein. Anstatt den Newbies Hilfestellung zu geben, werden sie verscheucht.
Ach komm. So ein Käse. Schwarze Schafe gibt es überall.
Birdman
2008-03-05, 19:20:44
Was will ich als Privatperson mit einem BS, bei dem ich nach der Installation noch mindestens 2 Wochen Feintuning betreiben muss, bis auch die letzte Komponente einigermaßen anständig läuft!?
Die Installation und Konfiguration von Linux ist nun mal komplizierter und anstrengender, als bei Windows. Bei Windows muss ich mir keine beschissenen Konsolenbefehle merken. Doppelklick reicht!
Außerdem gibt es für Windows sehr viel Software, die mir bei Linux einfach fehlt.
Diese Punkt solltest Du etwas differenzierter sehen.
Es gibt verdammt viel Software für GNU/Linux, und öfters mal auch Sachen die man für Windows vergebens sucht.
Das Problem ist nur, dass Du/man die nicht kennt und daher nicht findest. Bei 90/5/5% Windown/Mac/Linux Usern ist auch klar, dass Du in deinem Alltag immer wieder auf Windows Programme aufmerksam gemacht wirst, von LMac und vor allem Linux aber fast nix hörst.
Aber es gibt schon einige Beispiele wo die Softwareflut für Windows immens ist, für Linux aber eher bescheiden..
z.B. Media Players, Brennprogramme, Antivirus, Grafikkartenutilitys, FTP Client, uvm.
Da gibts für Linux immer genau eins oder zwei die man vernünftig einsetzen kann, für Windows aber fast unüberschaubar viele....
Birdman
2008-03-05, 19:24:23
[LEFT]
Wenn Hardware Vendors, durch größere Verbreitung gezwungen wären mehr und bessere Treiber für Linux zu schreiben, würde sich das Problem von alleine lösen. Dann würdest du auch zu deinem "Doppelklick" kommen.;)
Na ja, wenn man Lust hat alle 3 Monate den Treiber neu zu schreiben weil sich der alte nicht mehr gegen den aktuellen Kernel kompilieren lässt.....
Was bei Windows alle 3-5 Jahren wegen neuem OS nötig ist, ist bei Linux fast bei jedem zweiten Update an dritter Versionsstelle vonnöten, ansonsten geht mal gar nix ohne 3h Google research, Makefile editieren, symlinks erstellen, etc.
Ich würde gerne erfahren woher all diejenigen, die keinen Virenscanner installiert haben, denn wissen das sie keine Viren/Trojaner/Würmer/Rootkits haben... Festplattendump im Hexeditor geöffnet und mal eben durchgesehen? Einem Wurm liegt viel daran nicht erkannt zu werden.
Und ja, man kann Windows SICHER ohne Virenscanner betreiben. In den letzten 2 Jahren MIT Virenscanner (und vernünftigem/sicherem Surfverhalten) hat dieser noch nicht eine Meldung ausgespuckt. Weder beim Scan noch die live Überwachung. Wenn daraus folgt das ich keine Viren habe (hatte), hätte ich sie auch ohne den Scanner nicht gehabt ;)
Von Viren, die allein die Tatsache das ein Scanner installiert ist zum aufgeben bewegt, habe ich noch nicht gehört.
Cosmos2000
2008-03-05, 20:24:23
[LEFT]
Wenn Hardware Vendors, durch größere Verbreitung gezwungen wären mehr und bessere Treiber für Linux zu schreiben, würde sich das Problem von alleine lösen. Dann würdest du auch zu deinem "Doppelklick" kommen.;)
Ja, das stimmt allerdings. Unter Umständen könnte ich mich an die neuen Linux-Ableger wie z.B Ubuntu gewöhnen, die sind von der Benutzerfreundlichkeit schon recht gut, aber an den Treibern happert es.
Mein Drucker und die TV-Karte kriege ich unter Ubuntu nicht zum Laufen.
Das ist sehr ärgerlich, weil ich auf diese Komponenten angewiesen bin.
Ach komm. So ein Käse. Schwarze Schafe gibt es überall.
Hast ja Recht ;)
Diese Punkt solltest Du etwas differenzierter sehen.
Es gibt verdammt viel Software für GNU/Linux, und öfters mal auch Sachen die man für Windows vergebens sucht.
Das Problem ist nur, dass Du/man die nicht kennt und daher nicht findest. Bei 90/5/5% Windown/Mac/Linux Usern ist auch klar, dass Du in deinem Alltag immer wieder auf Windows Programme aufmerksam gemacht wirst, von LMac und vor allem Linux aber fast nix hörst.
Ack.
Das ist mitunter das Problem. An allen Ecken werden Windows- und Mac-Programme beworben.
Sag mal! Bist Du wirklich an einer ernsthaften Diskussion interessiert?
deLuxX`
2008-03-05, 22:57:04
Na ja, wenn man Lust hat alle 3 Monate den Treiber neu zu schreiben weil sich der alte nicht mehr gegen den aktuellen Kernel kompilieren lässt.....
Was bei Windows alle 3-5 Jahren wegen neuem OS nötig ist, ist bei Linux fast bei jedem zweiten Update an dritter Versionsstelle vonnöten, ansonsten geht mal gar nix ohne 3h Google research, Makefile editieren, symlinks erstellen, etc.
Sollte es so weit kommen, sehe ich das als das kleinere Problem an.;)
Schnuller4u
2014-11-09, 11:13:30
Push :biggrin:
Grestorn
2014-11-09, 11:26:02
Lol. Zombi Thread. Aber immer noch unverändert wahr :)
Aber ehrlich gesagt: Auch Windows Systeme können viel Zeit fressen.
lumines
2014-11-09, 11:54:45
Lol. Zombi Thread. Aber immer noch unverändert wahr :)
Würde ich so nicht sagen. Mittlerweile ist der Hardware-Support so gut, dass man oft nicht einmal mehr nach der Installation irgendetwas konfigurieren muss. Die Hardware wird oft genug einfach sofort perfekt unterstützt. Gerade Intel-Hardware ist absolut unproblematisch. Der lange Support von z.B. Ubuntu LTS, die einfachen Upgrades und das relativ sinnvoll vorkonfigurierte System tun ihr übriges.
Vieles ist in der Zeit auch ins Web gewandert. Da stellt sich schon die berechtigte Frage, wofür man Windows noch braucht, außer eben aus Kompatibilitätsgründen. Selbst Microsoft scheint das ja mittlerweile so zu sehen. Keine besonders gute Ausgangsbasis für ein ehemals sehr erfolgreiches Betriebssystem.
Der Tod von Windows wird Desktop-Linux vermutlich nie sein, sondern die Cloud und das Web. Microsoft steuert einen nicht unerheblichen Teil dazu bei. Als netten Nebeneffekt pusht es aber eben auch Nischen wie GNU/Linux auf dem Desktop, weil die von der Kompatibilität durch das Web profitieren.
Avalox
2014-11-09, 12:16:04
Aber ehrlich gesagt: Auch Windows Systeme können viel Zeit fressen.
Wow. Der Thread beweist es, dass man 6 Jahre im Atomschutzbunker abgekoppelt vom Rest der Welt verbringen kann.
Schon 2012 sah es so aus.
http://cdn-static.zdnet.com/i/r/story/70/00/008699/meeker620-620x466-620x466.jpg?hash=ZQxmZmDjAz&upscale=1
Der Ubuntu Bug 1 der ewigen Liste wurde 2013 gestrichen
"Microsoft has a majority market share"
http://www.zdnet.com/ubuntu-declares-bug-1-microsoft-has-a-majority-market-share-closed-7000016129/
Seit Start des Threads hat sich Linux auf Milliarden von Endanwendersystemen verbreitet, welche alle offensichtlich sehr schnell und gut damit zurecht kommen.
Grestorn
2014-11-09, 12:41:28
Sorry, aber Android != Linux auf dem PC, auch wenn es die selbe Basis hat. Aber für den Endanwender sind das zwei völlig verschiedene Paar Schuhe, in keinster Weise vergleichbar was Anwendung und Konfiguration angeht.
myMind
2014-11-09, 13:28:28
Mittlerweile ist der Hardware-Support so gut, dass man oft nicht einmal mehr nach der Installation irgendetwas konfigurieren muss. Die Hardware wird oft genug einfach sofort perfekt unterstützt. Gerade Intel-Hardware ist absolut unproblematisch. Der lange Support von z.B. Ubuntu LTS, die einfachen Upgrades und das relativ sinnvoll vorkonfigurierte System tun ihr übriges.
Naja, du machst die Einschränkung ja schon selbst. Wenn man Hardware XY einsetzt, dann geht es. Das ist besser geworden, ja, gilt Grundsätzlich eben aber noch immer. Privat soll es dann doch irgendwann ein bestimmer SD-Cardreader, Webcam, Game-Controller, Gamer-Maus, 3D-Drucker o.ä. sein. Und dann sieht es bei Linux-Systemen sehr dünn aus. Beim PC kann man durch das Komponentensystem zumindest zum Teil noch gegensteuern, beim Laptop wird das schon schwieriger. Wenn der Card-Reader da nicht will, dann kann ich ihn nicht tauschen.
Und "unproblematisch" heisst letztlich, dass es läuft, nicht dass die Hardware im vollen Umfang ausgereizt wird.
Auf dem Server tut sich Linux leichter. Meist ist dort eh schon alles virtualisiert, so dass man Null Probleme in der Richtung Hardware hat. Der Frickelfaktor ist dort geringer und durch entsprechende Distributionen gut beherrschbar.
lumines
2014-11-09, 13:37:25
Beim PC kann man durch das Komponentensystem zumindest zum Teil noch gegensteuern, beim Laptop wird das schon schwieriger.
Das gleiche Problem hast du bei Windows auch. Versuch mal für etwas exotischere Hardware, die mit Windows 7 ausgeliefert wurde, auf Windows 8 zu updaten. Die Chancen stehen oft nicht schlecht, aber trotzdem ist auch mit Windows nicht so viel garantiert, wie man sich das gerne wünschen würde. Das ist bei Laptops leider oft der Fall. Die meisten Leute updaten ihr Windows daher darauf einfach nie.
Und "unproblematisch" heisst letztlich, dass es läuft, nicht dass die Hardware im vollen Umfang ausgereizt wird.
Das kann man so nicht stehen lassen. Ich habe viel WLAN-Hardware, die unter Linux bedeutend besser und mit mehr Features läuft als unter Windows. Auch HP liefert hervorragende Treiber für Linux und vor allem ohne die absolut grausige Bloatware aus der Windows-Version. Da gibt es noch einige andere Sachen, bei denen das der Fall ist. Z.B. freie Treiber für Grafikchips, für die der Hersteller unter Windows nur noch Legacy-Treiber anbietet (AMD z.B.).
Auch hast du ja oft das Problem, dass bei Druckern irgendwann der Support unter Windows vom Hersteller ab bestimmten Versionen eingestellt wird. Ich kenne viele Leute, die deshalb alte Windows-Versionen benutzen.
Auf die Kompatibilität muss man daher immer achten, vollkommen egal ob Linux oder Windows, wenn man sichergehen will.
Bei Linux ist dann nur meiner Erfahrung nach die UX gar nicht so übel, weil einfach alles per Plug and Play funktioniert. Unity und Co. sind auch von der Usability her gar nicht mehr so schlecht. Kein Vergleich zu modernen Betriebssystemen für mobile Geräte, aber mit Windows am Desktop ist die Konkurrenz eben auch nicht besonders rosig aufgestellt. Ich kenne wenig Leute, die Windows gerne benutzen, weil viele Anwendungen und Teile des OS einfach nur ein absoluter UI-Clusterfuck sind. Da müssen Ubuntu und Co. gar nicht übermäßig positiv herausstechen, sondern einfach nur ein bisschen weniger schlecht sein, was offenbar gar nicht so schwierig ist.
Avalox
2014-11-09, 14:16:35
Sorry, aber Android != Linux auf dem PC
PC war doch das, was sich so zirka zwei Jahre nach dem Start dieses Threads in den Verkaufszahlen wandelte und seitdem immer schlechter verkauft und auch niemanden mehr so richtig interessiert?
Doch, Android ist absolut Linux. GNU ist Android nicht.
Will ein Linux erfolgreich sein, muss man anscheinend den Stallman weglassen. Dann funktioniert es auch mit der Massenkompatibilität. Eine Tatsache, die sich inzwischen immer wieder bewahrheitet.
Grestorn
2014-11-09, 14:56:02
Für die Belange dieses Threads ist Android nicht von belang, genauso wenig wie OSX. In diesem Thread ist die Kernaussage, dass auf einem PC mit all seiner Hardwarevielfalt Linux mehr Zeit in Anspruch nimmt, als Windows.
Auch wenn Du es noch 1000x schreibst, es bleibt eine Tatsache.
Das heißt natürlich nicht, dass man nicht einen PC zusammenstellen kann mit Komponenten, von denen man genau weiß, dass sie von einer bestimmten Distri optimal unterstützt wird. Im Allgemeinen Fall, mit vorher unbekannter Hardware kann man davon aber nicht ausgehen.
Mit Stallman gebe ich Dir zu 100% recht.
Leonidas
2014-11-09, 16:11:19
Und trotzdem hat es eine klare Verbesserung gegenüber dem Thread-Start anno 2008 gegeben. Und rechnen wir nochmal 6 Jahre drauf - wieso soll es anno 2020 nicht noch besser sein? Die interessante Linux/PC-Projekte laufen ja gerade erst an (SteamOS). Die Auswirkungen der Marktmacht von Android/iOS im Tablet-Geschäft beginnen erst jetzt so richtig zu wirken. Und da das alles ein eher langsamer Prozeß ist, sind weitere Fortschritte zugunsten von Linux auch im Desktop damit eigentlich schon vorprogrammiert ... ich sehe jedenfalls gute Chancen dafür, zum Supportende von Windows 7 eventuell auf Linux umsteigen zu können, trotz weiterhin der Anforderung "Gamer-Tauglichkeit".
Eine Chance wohlgemerkt, keine feststehende Tatsache.
Watson007
2014-11-09, 16:57:42
interessant wird es, wenn sich Android vermehrt als Desktop-Betriebssystem durchsetzen sollte, erste All in One PCs damit gibt es ja bereits
Grestorn
2014-11-09, 17:08:27
Gott bewahre. Dann haben wir unsere Freiheit endgültig an der Kasse abgegeben.
lumines
2014-11-09, 17:11:18
Gott bewahre. Dann haben wir unsere Freiheit endgültig an der Kasse abgegeben.
Inwiefern ist Windows freier?
Grestorn
2014-11-09, 17:35:03
Ich kann unter Windows installieren was mir gefällt. Ich muss nicht tricksen, um volle Administrationsrechte zu erlangen. Ich habe volle Kontrolle über alles, was ich will. Alle Sicherheitsmaßnahmen (SecureBoot etc.) kann ich nutzen, wenn ich will, muss es aber nicht.
Google will sein online Betriebssysteme etablieren und alles in die Cloud und auf die eigenen Server ziehen. Nein Danke!
Ganon
2014-11-09, 17:40:11
Das ist das Hauptproblem von Windows. Der Standard-Nutzer kann allen möglichen Scheiß mit dem PC anstellen. Das macht auch nur Windows so. Alle anderen Systeme verlangen wenigstens nach einem Passwort. Windows will nur ein Klick auf "Ja".
Grestorn
2014-11-09, 17:43:07
Das ist das Hauptproblem von Windows. Der Standard-Nutzer kann allen möglichen Scheiß mit dem PC anstellen. Das macht auch nur Windows so. Alle anderen Systeme verlangen wenigstens nach einem Passwort. Windows will nur ein Klick auf "Ja".
Oh... Mein... Gott
Da hat aber jemand echt voll die Ahnung. Nicht.
Ok, das war zu unfreundlich. Lass es mich anders schreiben: Das ist noch nicht mal das Standard-Verhalten. Im Standardverhalten wird vorgeschlagen, einen Account mit User-Rechten einzurichten. Und der verhält sich dann genau so, wie von Dir vorgeschlagen (Amin-Rechte gibt's, wenn nötig, nach Eingabe eines Passworts, also genau wie bei Nutzung von sudo). Nur Administrator Accounts verhalten sich so, wie von Dir beschrieben ("Klick auf 'Ja'"). Unter Linux nennt man das dann "unter Root arbeiten", man muss dort also noch nicht mal "Ja" klicken sondern hat sogleich verloren.
Avalox
2014-11-09, 17:44:11
Ich kann unter Windows installieren was mir gefällt. Ich muss nicht tricksen, um volle Administrationsrechte zu erlangen. Ich habe volle Kontrolle über alles, was ich will. Alle Sicherheitsmaßnahmen (SecureBoot etc.) kann ich nutzen, wenn ich will, muss es aber nicht.
Was für eine Illusion.
Du kannst unter Windows natürlich nicht das installieren, was dir gefällt. Volle Adminstrationsrecht hast du unter Windows nicht und erst Recht hast du keine Ahnung was das System da macht und wirst auch nie die Chance haben das zu erfahren. Windows ist und bleibt ein geschlossenes System.
Android ist ein offenes System, welches diese Punkte alle besser machen kann.
Das was dir an Windows gefällt sind schlicht veraltete technische Limitierungen, die aus dem letzten Jahrtausend stammenden Konzepts von Windows stammen. Wenn MS modernere Ansätze umsetzt, zeigen sie dir doch deutlich wie sie es sich vorstellen.
Grestorn
2014-11-09, 17:48:23
Ja, genau. Ich bin raus hier. Dafür ist mir meine Zeit zu schade. *Kopfschüttel*
Terrarist
2014-11-09, 17:54:59
Ich habe volle Kontrolle über alles, was ich will.
Eben nicht, du hast die Kontrolle über die Dinge über die du als Anwender Kontrolle haben darfst.
Edit: Was dir scheinbar entgangen ist, ist dass Android nicht Google "gehört", AOSP, das eigentliche Android hatr mit Google so gut wie nichts zu tun. Google hat im Grunde nur eine sehr populäre Android Distro daraus gebastelt.
lumines
2014-11-09, 17:56:06
Ich kann unter Windows installieren was mir gefällt.
Warum sollte ich das unter Android nicht können?
Ich muss nicht tricksen, um volle Administrationsrechte zu erlangen.
Wozu will man auch Administratorrechte, wenn man alles als normaler User machen kann? Das Konzept von Android ist einfach nur konsequenter als das von Windows / Linux / BSD, wo man auch nicht per Default root-Rechte hat, sondern sie sich nur temporär besorgt.
Ich habe volle Kontrolle über alles, was ich will.
Andere scheinen das Gefühl nicht zu haben. Leonidas hatte hier vor kurzem einen Thread zu Personal Firewalls. Die meisten Windows-User benutzen sie, um Herr über ihre lokalen Anwendungen zu werden. Für mich sieht das nicht nach Kontrolle über das System aus.
Alle Sicherheitsmaßnahmen (SecureBoot etc.) kann ich nutzen, wenn ich will, muss es aber nicht.
Ziemlich romantisch verklärte Darstellung. SecureBoot ist nett, aber du kannst es definitiv nicht auf jeder Hardware deaktivieren. Viele Leute werden ein Lied davon singen können.
Google will sein online Betriebssysteme etablieren und alles in die Cloud und auf die eigenen Server ziehen. Nein Danke!
Also genau das, was Microsoft auch gerade macht.
Davon abgesehen vermischst du mit so einer Aussage Android mit den proprietären Google-Diensten. Bei Android kann ich das trennen. Bei Windows nicht.
Ja, genau. Ich bin raus hier. Dafür ist mir meine Zeit zu schade. *Kopfschüttel*
Er hat aber recht. Du kannst nicht beweisen, dass Windows so funktioniert, wie du es dir vorstellst. Du kannst dir nur die Reaktionen des Systems anschauen, hast aber keine Ahnung von den inneren Abläufen.
Unter Linux nennt man das dann "unter Root arbeiten", man muss dort also noch nicht mal "Ja" klicken sondern hat sogleich verloren.
Die meisten Distributionen verbieten die Anmeldung als root. Keine Ahnung, wie man unter normalen Umständen sich als root dort einloggen kann. Wenn man eine Meta-Distribution benutzt, kann das natürlich sehr einfach möglich sein, aber derjenige hat dann auch sein System selbst aufgezogen und dürfte sich über die verschiedenen User im Klaren sein.
Mal ganz davon abgesehen, dass sich sowieso die wenigsten grafischen Anwendungen unter Linux als normaler User im root-Kontext starten lassen. Die meisten Programme sind dafür gar nicht vorgesehen oder getestet worden, deshalb funktioniert das in der Regel gar nicht oder nur über Umwege (gksudo etc.).
Schnuller4u
2014-11-09, 18:05:53
Wozu will man auch Administratorrechte, wenn man alles als normaler User machen kann? Das Konzept von Android ist einfach nur konsequenter als das von Windows / Linux / BSD, wo man auch nicht per Default root-Rechte hat, sondern sie sich nur temporär besorgt.
Das Konzept von Android ist kaputt. Murks. Und eine Vegewaltigung des Rechtemanagements. Anstatt via MAC die Apps in eine Sandbox einzusperren, missbraucht man DAC. Und das offenbar noch nichtmal konsequent. Offenbar haben Apps erst Root und wechseln dann zur gewünschent UserID.
Um diesem SecurityNightmare in Griff zu bekommen, muss man jetzt wohl zu ganz schweren Waffen greifen und auf Selinux setzen?
lumines
2014-11-09, 18:12:04
Um diesem SecurityNightmare in Griff zu bekommen, muss man jetzt wohl zu ganz schweren Waffen greifen und auf Selinux setzen?
Was heißt hier schwere Waffen? AppArmor und SELinux sind eben die gängigen Lösungen unter Linux.
myMind
2014-11-09, 19:26:26
Das gleiche Problem hast du bei Windows auch. Versuch mal für etwas exotischere Hardware, die mit Windows 7 ausgeliefert wurde, auf Windows 8 zu updaten. Die Chancen stehen oft nicht schlecht, aber trotzdem ist auch mit Windows nicht so viel garantiert, wie man sich das gerne wünschen würde. Das ist bei Laptops leider oft der Fall. Die meisten Leute updaten ihr Windows daher darauf einfach nie.
Das hat wohl eher monetäre Gründe. Eine neue Windows-Lizenz kostet halt und zwar nicht wenig.
Ich kenne gerade bei aktueller Hardware ausgesprochen wenige Geräte, die beim Windows Upgrade Probleme machen. Beim Sprung WinXP auf Vista gab es mal größere Lücken, aber seitdem?
Das kann man so nicht stehen lassen. Ich habe viel WLAN-Hardware, die unter Linux bedeutend besser und mit mehr Features läuft als unter Windows. Auch HP liefert hervorragende Treiber für Linux und vor allem ohne die absolut grausige Bloatware aus der Windows-Version. Da gibt es noch einige andere Sachen, bei denen das der Fall ist. Z.B. freie Treiber für Grafikchips, für die der Hersteller unter Windows nur noch Legacy-Treiber anbietet (AMD z.B.).
Du pickst dir hier Beispiele heraus, die man in den letzten Jahren einigermaßen in den Griff bekommen hat. Dass die genannten Treiber unter Linux besser sein sollen, als ihr Windows Pendant, kann man wohl kaum belegen oder? In der Regel schielen die Hardwareproduzenten auf den lukrativen Windowsmarkt und entsprechend ist die Versorgung in der Breite als auch bei den Features dort besser.
HP hat die Windows-Kundschaft bezüglich der Bloadware erhört und bietet auch unter Windows unterschieldiche Paketierungen an. Es gibt sog. Basistreiber für Einzelgeräte und es gibt Unified-Treiber, die gleich mehrere Geräte unterstützen.
Das Thema Grafikhardware im Bezüg auf "Funktioniert unter Linux besser als unter Windows" überhaupt nur zu erwähnen, verursacht mir physische Schmerzen. Ob offen oder geschlossen ist ja hier nicht das Thema, sondern ob es frickeliger ist oder nicht. Nicht einmal in der VM haben die Linuxer es hier im Griff. Gerade versucht CentOS 7 unter ESX zu installieren. Auflösung zu hoch eingestellt, zack, nichts geht mehr. Kein Klicken, keine Tasten, kein Zurückfallen auf die alte Auflösung. Also von vorne mit Miniauflösung. Ergebnis: Position der Widgets teilweise völlig deplaziert in den Setupdialogen. Das hat wohl mit Deutsch keiner getestet. Neenee, der Frickelfaktor ist da einfach größer. Und jetzt darf ich mich mit systemd rumschlagen. Wieder alles neu lernen. Und der Großteil der Anleitungen die man findet passen nicht. :mad:
Auch hast du ja oft das Problem, dass bei Druckern irgendwann der Support unter Windows vom Hersteller ab bestimmten Versionen eingestellt wird. Ich kenne viele Leute, die deshalb alte Windows-Versionen benutzen.
Nenne mal ein Beispiel.
Auf die Kompatibilität muss man daher immer achten, vollkommen egal ob Linux oder Windows, wenn man sichergehen will.
Nur die Wahrscheinlichkeit, dass die Hardware funktioniert sind eben sehr unterschiedlich. Bei Windows ist sie hoch, bei Linux kommt es auf die Hardware an.
Ich würde mir auch wünschen, unter Linux mal eine andere Erfahrung zu machen, aber in der Regel bin ich unter Windows deutlich schneller am Ziel.
lumines
2014-11-09, 20:02:24
Ich kenne gerade bei aktueller Hardware ausgesprochen wenige Geräte, die beim Windows Upgrade Probleme machen. Beim Sprung WinXP auf Vista gab es mal größere Lücken, aber seitdem?
Bei Consumer-Notebooks ist das eher die Regel als die Ausnahme.
Das Thema Grafikhardware im Bezüg auf "Funktioniert unter Linux besser als unter Windows" überhaupt nur zu erwähnen, verursacht mir physische Schmerzen. Ob offen oder geschlossen ist ja hier nicht das Thema, sondern ob es frickeliger ist oder nicht.
Offene Treiber sind unter Linux immer weniger frickelig, weil sie von den Distributoren direkt integriert und auch getestet werden können. Das ist mit geschlossenen Treibern so gar nicht möglich. Daher doch, offene vs. geschlossene Treiber sind dabei ein großes Thema.
Nicht einmal in der VM haben die Linuxer es hier im Griff. Gerade versucht CentOS 7 unter ESX zu installieren.
Na ja, was heißt nicht einmal? Die virtualisierte Hardware und Treiber liefert VMware. Da kann man sich schlecht bei CentOS / Red Hat beschweren.
Nenne mal ein Beispiel.
Ich bin mir nicht mehr ganz sicher, aber es war entweder ein Epson oder einer von Canon.
Terrarist
2014-11-09, 20:34:49
Dass die genannten Treiber unter Linux besser sein sollen, als ihr Windows Pendant, kann man wohl kaum belegen oder? In der Regel schielen die Hardwareproduzenten auf den lukrativen Windowsmarkt und entsprechend ist die Versorgung in der Breite als auch bei den Features dort besser.
Jein, in Windows hast du oft die Situation dass es mehrere Ableger eines Geräts gibt und günstigere Versionen künstlich in ihren Features beschnitten werden. Da bieten dann oft sogar freie Treiber Features des Topmodells die dir so aus marktstrategischen Gründen in Windows nicht zur Verfügung stehen.
Desweiteren herrscht auch bei den Herstellern der Zeitdruck, da sind die Treiber oftmals nur so gut wie sie sein müssen damit ein gerät funktioniert, und oftmals wird die Unterstützung zugunsten eines Nachfolgers eingestellt, was dann dazu führen kann dass die Treiber nach einem Update mitunter nicht mehr so funktionieren wie sie sollen, und sich daran auch nichts ändert. Also quasi für die Tonne.
Unter Linux wird Hardware hingegen "ewig" supportet, die freien Treiber werden inkl. Kernel immer weiterentiwckelt oder zumindest für neure Kernelversionen konserviert. Klar ist das nicht im Sinne der auf geplante Obsoleszenz setzenden Hersteller, und leider nehmen es viele Kunden halt hin, upzugraden ist in der Windows Welt quasi wie ein Zwang ;)
Es gibt halt auch eine riesige Anti linux Lobby seitens der Hersteller die durch die Philosophie die in der Linux Welt vorherrscht ihr Geschäft in gefahr sehen. Der einfachste Weg für die Hersteller ist halt immer der die Kunden abzuzihenen solange sie mitmachen.
Ich würde mir auch wünschen, unter Linux mal eine andere Erfahrung zu machen, aber in der Regel bin ich unter Windows deutlich schneller am Ziel.
Windows und Mac ist halt eher was für Freelancer bzw. die "Mitte". Linux kann hingegen im absoluten lowend als auch im Highend Bereich punkten. Du hast halt mit 0 finanziellem Aufwand Zugang zu Software in jedem erdenklichen Bereich die feature mäßig für einen nicht spezialisierten Heimanwender keine Wünsche offen lässt. Und auf der anderen Seite haben Unternehmen durch linux Möglichkeiten Highend Software in einer nicht limitierten umgebung zu nutzen. Z.b. laufen fast sämtliche professionellen VFX Sachen auf Linux Workstations da keine Microsoft Partner Politik die Pipelines blockiert, und z.B. nicht für jeden zusätzlichen render Node wieder eine Lizenz fällig wird. Je größer das Firmeninterne Netz, desto attraktiver wird Linux.
Letztendlich hat dies auch bei Valve dazu geführt dass sie auf Linux setzen, eben wegen des Gatekeepings von M$. Deren netzwerk beinhaltet ja im grunde die 100m Kunden.
Als freelancender Heimanwender kann ich schon nachvollziehen weshalb eher nicht auf Linux gesetzt wird, man braucht halt das Wissen um die Plattform für sich optimal auszunutzen und sollte auch eher der Typ sein der sich nicht so sehr durch das Marketing und den vermeintlich einfacheren Weg blenden lässt. linux ist halt eher ein längerfristiges persönliches Investment.
Es dauert halt länger bis man die Plattform für sich selbst optimal ausnutzen kann, und viele wollen durch Tutorials halt schnell an Ziel anstatt erst mal die Grundlagen zu erlernen, und ohne Grundlagen stösst man in der Linux Welt halt schnell an Grenzen wenn es über die GUI Bedienung hinaus geht. Software Piraterie und der einfache Zugang zu spezieller Software ist wohl auch ein Grund der dazu führt dass freie Software nicht von der Masse in dem maße geschätzt wird.
myMind
2014-11-09, 21:16:20
Bei Consumer-Notebooks ist das eher die Regel als die Ausnahme.
Warum sollte es da Probleme geben? Wenn Dir tatsächlich ein Win8-Treiber fehlen sollte, was nach meinem Dafürhalten sehr selten passiert, kannst du praktisch immer den Win7-Treiber nehmen. Wenn das nicht geht, springen die Chip-Hersteller fast immer in die Bresche. Ich kann nicht nachvollziehen, wo ich hier irgendwie mit Linux besser herauskomme.
Offene Treiber sind unter Linux immer weniger frickelig, weil sie von den Distributoren direkt integriert und auch getestet werden können. Das ist mit geschlossenen Treibern so gar nicht möglich. Daher doch, offene vs. geschlossene Treiber sind dabei ein großes Thema.
Kann es sein, dass du meinst wie es sich innerhalb des Linux-Ökosystems verhält? OK. Das kann sein. Es geht aber doch um Linux vs. Windows und unter Windows habe ich den Zustand "Grafikkarte Läuft in 99,9% aller Fälle" bereits direkt nach der Installation und 100% nach Download und ein paar Klicks durch nVidia/AMD/Intel Setups. Das möchte ich mal unter Linux sehen.
Na ja, was heißt nicht einmal? Die virtualisierte Hardware und Treiber liefert VMware. Da kann man sich schlecht bei CentOS / Red Hat beschweren.
Erst einmal unterstützt es die Grundthese diese Threads. Ich muss hier mit Problemen leben, die ich von Windows gar nicht kenne und vergeude damit Zeit. Dass sich für das Problem niemand zuständig fühlt, macht es auch nicht besser. Ich möchte mich bei niemanden beschweren, ich möchte dass es funktioniert.
Das Red Hat nicht ausreichend auf der Plattform testet, auf der vermutlich die meisten ihrerer Unternehmensinstallationen laufen, finde ich peinlich.
Ich bin mir nicht mehr ganz sicher, aber es war entweder ein Epson oder einer von Canon.
Ich hatte mal den Epson Stylus 880 (http://esupport.epson-europe.com/ProductHome.aspx?lng=de-AT&data=0ccCGROWIYNU+ELGQX4+IQAP0Jm159NSq4b5uUZAhI0U003D&tc=6) und damit auch bei späteren Windows-Versionen keine Probleme. Es gab dann zwar keine Treiber mehr von der Hersteller-Downloadseite, aber sie waren im Windows-Setup bereits integriert.
Umgekehrt würde ich beispielsweise diesem Gerät (http://www.silhouetteamerica.com/shop/machines) am PC meiner Frau unter Linux nichts entlocken können.
Ganon
2014-11-09, 21:19:20
Das ist noch nicht mal das Standard-Verhalten. Im Standardverhalten wird vorgeschlagen, einen Account mit User-Rechten einzurichten.
Das wird überhaupt nicht vorgeschlagen. Windows fragt nach dem Nutzernamen und dieser Nutzer ist sofort in der Admin-Gruppe.
Nur Administrator Accounts verhalten sich so, wie von Dir beschrieben ("Klick auf 'Ja'").
Ja, also der Account mit dem Schätzungsweise 99% aller Heimanwender rumsurfen und auf Werbung rumklicken um ihren PC zu reparieren.
Hast du übrigens mal unter Windows mit einem Nicht-Admin Nutzer gearbeitet? Das ist nicht mehr feierlich. Steam kannst du knicken. Das fragt oft gar nicht nach dem Passwort und failt einfach, je nach Spiel. Uplay von Ubisoft stürzt einfach kommentarlos ab, wenn man kein Admin-Nutzer ist (man muss dann selbst an den Ordnerrechten frickeln). Bei Battle.Net das gleiche Spiel.
Diverse Programme meckern gleich "Kein Admin -> Tschüss", ohne Passwortabfrage.
Unter Linux nennt man das dann "unter Root arbeiten", man muss dort also noch nicht mal "Ja" klicken sondern hat sogleich verloren.
Die meisten Distributionen sperren Root sogar.
Ganon
2014-11-09, 21:24:38
Unter Linux wird Hardware hingegen "ewig" supportet, die freien Treiber werden inkl. Kernel immer weiterentiwckelt oder zumindest für neure Kernelversionen konserviert.
Das stimmt leider nur in der Theorie. Oft ist es auch so, dass alte Treiber zwar prinzipiell da sind, aber nicht mehr wirklich funktionieren, weil sich keiner darum kümmert.
So hat z.B. der Radon 9000 Treiber für auf meinem alten PowerMac auch ab irgendeiner Kernelversion aufgehört 3D zu liefern. Grund sind massive Umbauten in der Grafikarchitektur im Kernel, die für die alten Treiber einfach noch nicht gemacht wurden und wohl auch nie gemacht werden.
So "geht" der Treiber zwar noch für 2D, aber für alles andere ist er unbrauchbar geworden.
Also auch bei Linux gilt: Support nur solange wie jemand Lust hat daran zu arbeiten.
Warum sollte es da Probleme geben? Wenn Dir tatsächlich ein Win8-Treiber fehlen sollte, was nach meinem Dafürhalten sehr selten passiert, kannst du praktisch immer den Win7-Treiber nehmen. Wenn das nicht geht, springen die Chip-Hersteller fast immer in die Bresche. Ich kann nicht nachvollziehen, wo ich hier irgendwie mit Linux besser herauskomme.
Vielleicht nicht besser - aber eben auch nicht schlechter.
Ich habe mich bei der Recherche zum Notebookkauf oft gefragt, ob ich Win8 auch durch Win7 ersetzt bekomme. Treiber kriegt man vom Hersteller häufig nicht geliefert. Die dürfte ich mir dann selbst von Hand zusammenklauben, nachdem ich herausgefunden habe, welche Chips nun genau verbaut sind. Oder gleich von vorne herein kompatible Hardware kaufen...
Parallelen sind nicht zu verleugnen.
PatkIllA
2014-11-09, 21:37:31
Hast du übrigens mal unter Windows mit einem Nicht-Admin Nutzer gearbeitet? Das ist nicht mehr feierlich. Steam kannst du knicken. Das fragt oft gar nicht nach dem Passwort und failt einfach, je nach Spiel. Uplay von Ubisoft stürzt einfach kommentarlos ab, wenn man kein Admin-Nutzer ist (man muss dann selbst an den Ordnerrechten frickeln). Bei Battle.Net das gleiche Spiel.Ohne UAC-Abfrage das gleiche wie Nicht-Admin-Account. Ein Anwendungsprogramm, dass zum einfachen Laufen jedesmal Adminrechte benötigt ist mir seit Jahren nicht mehr untergekommen.
Ich habe mich bei der Recherche zum Notebookkauf oft gefragt, ob ich Win8 auch durch Win7 ersetzt bekomme. Treiber kriegt man vom Hersteller häufig nicht geliefert. Die dürfte ich mir dann selbst von Hand zusammenklauben, nachdem ich herausgefunden habe, welche Chips nun genau verbaut sind. Oder gleich von vorne herein kompatible Hardware kaufen...Bei Linux musst du bei neuer Hardware auch gleich mal deine Distribution erneuern, denn Treiber für neuste Geräte gibt es oft nur für den neusten Kernel. Bei Grafikkarten gibt es oft auch erstmal gar keine brauchbaren Treiber.
Ganon
2014-11-09, 21:45:53
Ohne UAC-Abfrage das gleiche wie Nicht-Admin-Account. Ein Anwendungsprogramm, dass zum einfachen Laufen jedesmal Adminrechte benötigt ist mir seit Jahren nicht mehr untergekommen.
Du kaufst sicherlich auch keine Software vom Grabbeltisch im Elektronikgeschäft, wie so macher 08/15 Nutzer, oder spezielle "Selfmade" Software, die manche Firmen verlangen zu nutzen. Oder Software, wo das nächste kostenpflichtige Upgrade sich damit rühmt, dass es jetzt auch Windows 8.1 unterstützt...
Du glaubst gar nicht was einem da alles für ein scheiß unterkommt.
PatkIllA
2014-11-09, 21:50:33
Du kaufst sicherlich auch keine Software vom Grabbeltisch im Elektronikgeschäft, wie so macher 08/15 Nutzer, oder spezielle "Selfmade" Software, die manche Firmen verlangen zu nutzen.
Du glaubst gar nicht was einem da alles für ein scheiß unterkommt.
Kann ich glauben, aber schon 10 Jahre vor Vista gab es diverse Entwicklungsrichtlinien von MS.
Gerade in Firmen ist es doch üblich gar keine Adminrechte zu haben. Also auch nicht per UAC.
Was ich noch ein paar mal gesehen habe ist, dass Anwendungsdaten im Programmordner gespeichert werden, da haben die Installer dann aber gleich die Dateisystemrechte gesetzt.
Ganon
2014-11-09, 22:00:20
Kann ich glauben, aber schon 10 Jahre vor Vista gab es diverse Entwicklungsrichtlinien von MS.
Ja, aber das interessiert halt keinen. Bei Google und Apple werden diese in den entsprechenden Stores geprüft, ansonsten fliegst du raus. Linux hat seit jeher die Trennung von Anwendung und Nutzerdaten. Da kam noch nie jemand auf die Idee Nutzerdaten in /usr zu speichern.
Bei Microsoft ist das ein totales durcheinander und der App-Store ist durch die Regeln von MS der reinste Witz.
Und darum das Problem bei Windows, dass jeder 08/15 Heimanwender auf seinem PC machen kann was er will oder auch nicht will. Das gilt dann auch für die Entwickler von so Schrottsoftware.
Da könnte MS einfach mal anfangen und keinen Admin-Nutzer als Standard anzulegen. Wenn eine Anwendung dann nicht mehr funktioniert, wird das den Entwickler schon aufwecken.
Exxtreme
2014-11-09, 22:02:48
Kann ich glauben, aber schon 10 Jahre vor Vista gab es diverse Entwicklungsrichtlinien von MS.
Gerade in Firmen ist es doch üblich gar keine Adminrechte zu haben. Also auch nicht per UAC.
Dummerweise hat sich selbst Micros~1 nicht an die eigenen Richtlinien gehalten. Alleine das Gefrickel mit Office 2000 SP1. Jedes Mal dem User auf dem PC einmalig Admin-Rechte geben damit es die Installation beim ersten Starten abschliessen kann.
PatkIllA
2014-11-09, 22:03:00
Da könnte MS einfach mal anfangen und keinen Admin-Nutzer als Standard anzulegen. Wenn eine Anwendung dann nicht mehr funktioniert, wird das den Entwickler schon aufwecken.Die Anwendung funktioniert doch auch nicht. Alternativ bekommt der Benutzer jedesmal einen UAC-Screen (das muss der Entwickler schon aktiv einbauen). Bei beiden Fällen düfte es recht schnell Beschwerden geben.
Ganon
2014-11-09, 22:09:22
Die Anwendung funktioniert doch auch nicht.
Wie gesagt, so genau kenne ich mich im Rechtewirrwarr von Windows auch nicht aus, aber ich hab Software gesehen, die mit dem Standard-der-nach-der-Install-Account laufen und sobald man den Account auf "Nicht-Admin" umstellt, verweigert die Anwendung seinen Dienst.
Sei es nun ein Crash wie bei UPlay (kann man fixen, wenn man die Rechte im Program Files Ordner ändert) oder eine Meldung "Du bist kein Admin -> Tschüss".
Aber das Anwendungen heutzutage immer noch Arbeitsdaten nach Program Files schreiben (Steam, UPlay, ...) ist doch schon ein richtig fettes No-Go.
Terrarist
2014-11-09, 22:23:22
Also auch bei Linux gilt: Support nur solange wie jemand Lust hat daran zu arbeiten.
Bei MS hast du jedoch Pech gehabt, viel Spass dabei den Hersteller zu überreden. Unter Linux kannst du zumindest selbst für eine Portierung sorgen, oder sie veranlassen, z.B. durch Crowdfunding wenn sich genug User in einer ähnlichen Situation befinden. Normalerweise werden jedoch keine Treiber die von mehrere genutzt werden links liegen gelassen, genau über sowas regt sich doch Linus selbst auf, never break the userspace!
Ganon
2014-11-09, 22:30:43
Normalerweise werden jedoch keine Treiber die von mehrere genutzt werden links liegen gelassen, genau über sowas regt sich doch Linus selbst auf, never break the userspace!
Mit "Never break the userspace" meint er aber garantiert nicht die Treiber oder die Nutzererfahrung ;) Das ist schlicht eine Anforderungen, dass sich die Userland Kernel ABI und auch das Verhalten nicht ändert.
Die Treiber-API im Linux-Kernel ändert sich alle Nase lang, da es keine feste API dafür gibt.
Wie gesagt, die Radeon 9000 ist kein seltener Chip, aber zumindest im PowerPC Zweig ist das Teil 3D-mäßig gerade tot, schon seit relativ langer Zeit. Und bevor ich da einen Aufriss mache und das fixen lasse (auch mit Geld), kaufe ich mir einfach neue Hardware und gut. ;) Auch waren lange Zeit die Rage128 Treiber kaputt. Irgendwann hat da mal einer was gemacht, aber naja.
Ich will ja nur sagen, auch bei Linux gilt: Nur solange jemand Lust hat. Sei es nun die Community oder der Hersteller. Ein Treiber im Linux Kernel macht ihn nicht automatisch "Support auf ewig".
myMind
2014-11-09, 22:45:37
Jein, in Windows hast du oft die Situation dass es mehrere Ableger eines Geräts gibt und günstigere Versionen künstlich in ihren Features beschnitten werden. Da bieten dann oft sogar freie Treiber Features des Topmodells die dir so aus marktstrategischen Gründen in Windows nicht zur Verfügung stehen.
Punkt für Linux.
Desweiteren herrscht auch bei den Herstellern der Zeitdruck, da sind die Treiber oftmals nur so gut wie sie sein müssen damit ein gerät funktioniert, und oftmals wird die Unterstützung zugunsten eines Nachfolgers eingestellt, was dann dazu führen kann dass die Treiber nach einem Update mitunter nicht mehr so funktionieren wie sie sollen, und sich daran auch nichts ändert. Also quasi für die Tonne.
Beispiel?
Unter Linux wird Hardware hingegen "ewig" supportet, die freien Treiber werden inkl. Kernel immer weiterentiwckelt oder zumindest für neure Kernelversionen konserviert. Klar ist das nicht im Sinne der auf geplante Obsoleszenz setzenden Hersteller, und leider nehmen es viele Kunden halt hin, upzugraden ist in der Windows Welt quasi wie ein Zwang ;)
Theoretisch richtig und grundsätzlich einer der Vorzüge offener Software. Nur, wenn ich mich hier so umschaue - und hier steht einiges an Hardware rum - dann findet ich kein einziges Stück Hardware wo mir das jetzt einen Vorteil bringt. Aber das ist ja hier auch nicht das Thema.
Es gibt halt auch eine riesige Anti linux Lobby seitens der Hersteller die durch die Philosophie die in der Linux Welt vorherrscht ihr Geschäft in gefahr sehen. Der einfachste Weg für die Hersteller ist halt immer der die Kunden abzuzihenen solange sie mitmachen.
Würde ich anders formulieren, in der Sache richtig, Firmen müssen Geld verdienen, aber anderes Thema.
Windows und Mac ist halt eher was für Freelancer bzw. die "Mitte". Linux kann hingegen im absoluten lowend als auch im Highend Bereich punkten. Du hast halt mit 0 finanziellem Aufwand Zugang zu Software in jedem erdenklichen Bereich die feature mäßig für einen nicht spezialisierten Heimanwender keine Wünsche offen lässt.
Und auf der anderen Seite haben Unternehmen durch linux Möglichkeiten Highend Software in einer nicht limitierten umgebung zu nutzen. Z.b. laufen fast sämtliche professionellen VFX Sachen auf Linux Workstations da keine Microsoft Partner Politik die Pipelines blockiert, und z.B. nicht für jeden zusätzlichen render Node wieder eine Lizenz fällig wird. Je größer das Firmeninterne Netz, desto attraktiver wird Linux.
Letztendlich hat dies auch bei Valve dazu geführt dass sie auf Linux setzen, eben wegen des Gatekeepings von M$. Deren netzwerk beinhaltet ja im grunde die 100m Kunden.
Ja, das sind genau die Fälle bei denen sich Linux rechnet. Dort wo man teure Serverlizenzen in der Masse sparen kann, ist genug Geld und damit Zeit übrig, um aus dem Open-Source-Stack stabile Lösungen zu bauen. In meinem Arbeitsumfeld haben wir fast ausschließlich Linux- und AIX-Server. Aber niemand käme im entferntesten auf die Idee, die Entwickler-Desktops auf Linux umstellen zu wollen.
Linux funktioniert dort gut, wo einige wenige Leute es für eine größere Masse von Leuten aufbereiten. Sei es Steam-OS, RasberryPi, Android, VMWare oder klassische Server-Dienste.
Umgekehrt ist es meiner Meinung nach auf dem klassischen PC-Desktop ein Zeitfresser mit vielen Limitationen gegenüber Windows.
Als freelancender Heimanwender kann ich schon nachvollziehen weshalb eher nicht auf Linux gesetzt wird, man braucht halt das Wissen um die Plattform für sich optimal auszunutzen und sollte auch eher der Typ sein der sich nicht so sehr durch das Marketing und den vermeintlich einfacheren Weg blenden lässt. linux ist halt eher ein längerfristiges persönliches Investment.
Es dauert halt länger bis man die Plattform für sich selbst optimal ausnutzen kann, und viele wollen durch Tutorials halt schnell an Ziel anstatt erst mal die Grundlagen zu erlernen, und ohne Grundlagen stösst man in der Linux Welt halt schnell an Grenzen wenn es über die GUI Bedienung hinaus geht.
Das trifft den Kern. Ich würde es anders formulieren: Bei Linux muss ich Fahrtzeugtechnik studiert haben, um Auto fahren zu können (das gilt heute für viele Bereiche zwar definitiv nicht mehr in der Härte, aber teilweise - zum Beispiel bei Serverinstallationen - ist es immer noch so). Unter Windows bekomme ich so etwas auch mit Automechaniker-Kenntnissen hin. Entsprechend verhält es sich mit dem Aufwand und den Kosten, wenn ich ein Problem lösen möchte. Und hier sind wir wieder bei der Eingangsthese des Threads.
Software Piraterie und der einfache Zugang zu spezieller Software ist wohl auch ein Grund der dazu führt dass freie Software nicht von der Masse in dem maße geschätzt wird.
Ich denke nicht, dass es darum geht. Wer schätzt denn nicht freie offene Software?
Demirug
2014-11-09, 22:56:41
Ja, aber das interessiert halt keinen. Bei Google und Apple werden diese in den entsprechenden Stores geprüft, ansonsten fliegst du raus.
Da wird gar nichts geprüft. Beide verlassen sich da voll auf die Sandbox. Microsoft btw auch. Was Apple prüft ist der Inhalt. Dabei ist dann auch enorm viel Willkür im Spiel.
Die meisten Distributionen sperren Root sogar.
Korrekt. Das ist so was von bescheuert, wenn man damit arbeiten möchte. Deshalb installiere ich heute kaum noch Ubuntu, weil es genau das macht.
Ich muß mich aktuell für aktuelle Projekte permanent mit diversen neuen Distributionen rumärgern. Fakt ist, ich habe damit viel mehr Aufwand, muß viel mehr machen und mich einlesen, in der Zeit habe ich zigmal nen Windows 2012 Server installiert. So gerne wie ich Unix mag, umso mehr fange ich an, Linux zu hassen. Es macht einfach viel mehr Arbeit. Daher kann ich dem Threadtitel nur zustimmen, wer viel Zeit hat, nimmt Linux, wer wenig Zeit hat, einen etablierten Unixanbieter, oder Windows.
Keine Frage, wenn Linux erst mal stabil läuft, dann läuft es. Aber wehe, ein Kernel-Update kommt, oder man aktualisiert unachtsam irgend eine Lib, schon ist das System kaputt, und man fängt wieder von vorne an.
lumines
2014-11-09, 23:41:57
Es geht aber doch um Linux vs. Windows und unter Windows habe ich den Zustand "Grafikkarte Läuft in 99,9% aller Fälle" bereits direkt nach der Installation und 100% nach Download und ein paar Klicks durch nVidia/AMD/Intel Setups. Das möchte ich mal unter Linux sehen.
Vielleicht ist nicht ganz klar geworden, was es bedeutet, dass freie Treiber verfügbar sind. Du musst dann kein Setup durchlaufen oder irgendetwas einstellen. Du startest die Distribution, sie erkennt deinen Grafikchip, lädt automatisch den integrierten Treiber und fertig. Der Nutzer muss nichts machen, um den Treiber zu nutzen.
Wenn du das unter Linux sehen willst, dann nimm einfach einen Intel- oder AMD-Grafikchip und starte eine aktuelle Distribution.
Deshalb finde ich es ja auch seltsam, dass Leute mit Komfort unter Windows argumentieren, der offenbar nicht vorhanden ist. Im besten Fall muss man sich dort „nur“ durch zehntausend Setups klicken.
Unter Linux? Funktioniert out of the box.
Wenn man etwas auf die Hardware und Kompatibilität achtet, kann Linux sehr viel angenehmer sein als Windows.
Das Red Hat nicht ausreichend auf der Plattform testet, auf der vermutlich die meisten ihrerer Unternehmensinstallationen laufen, finde ich peinlich.
Red Hat kann da gar nichts testen. VMware stellt die virtualisierte Hardware und deren Treiber.
Korrekt. Das ist so was von bescheuert, wenn man damit arbeiten möchte. Deshalb installiere ich heute kaum noch Ubuntu, weil es genau das macht.
Das ist nicht bescheuert, sondern absolut sinnvoll. Nur weil viele Leute durch ein kaputtes Rechtemanagement von Windows jahrelang darauf konditioniert wurden, dauerhaft als root eingeloggt zu sein, macht es das nicht besser.
Davon abgesehen: Dauert ein sudo su zu lange, um sich dauerhaft root-Rechte zu verschaffen? Mir fällt spontan kein Grund für eine Anmeldung als root ein. Welchen Vorteil verspricht man sich davon? Komfort kann es nicht sein, sudo su ist quasi äquivalent zu einem root-Login.
Keine Frage, wenn Linux erst mal stabil läuft, dann läuft es. Aber wehe, ein Kernel-Update kommt, oder man aktualisiert unachtsam irgend eine Lib, schon ist das System kaputt, und man fängt wieder von vorne an.
Du benutzt seltsame Distributionen. Selbst in den instabilen Branches der großen Distributionen hatte ich solche Probleme noch nie.
Terrarist
2014-11-10, 00:14:40
Beispiel?
Diverse (semi) professionelle Audio interfaces. Avid mbox der ersten Generation z.B.
Würde ich anders formulieren, in der Sache richtig, Firmen müssen Geld verdienen, aber anderes Thema.
Firmen sollten für dieses Vorgehen jedoch nicht belohnt werden. Ich meide Firmen die so handeln. Dass es sich imagetechnisch kaum zu lohnen s cheint liegt einfach an der Ignoranz vieler Kunden und der Konditionierung dass dieses Verhalten eben marktwirtschaftlich sinnvoll ist. Es ist halt eine durch das Marketing selbst erzeugte Dynamik auf die die Nutzer konditioniert werden.
Aber niemand käme im entferntesten auf die Idee, die Entwickler-Desktops auf Linux umstellen zu wollen.
Klar warum nicht, kommt halt drauf an welche Software benutzt wird. In Hollywood z.B. arbeiten auch genug CG Artists aktuell nur auf RH 6.5. Desktops. Überall wo Programme untereinander gescripted werden und dies den Workflow entscheident verbessert macht dies Sinn ;)
Linux funktioniert dort gut, wo einige wenige Leute es für eine größere Masse von Leuten aufbereiten. Sei es Steam-OS, RasberryPi, Android, VMWare oder klassische Server-Dienste.
Deshalb gibts ja so viele Distros, die eigentlich immer ein leicht unterschiedliches Zielpublikum ansprechen. Du installierst ja nicht Linux from Scratch, sondern es wurde schon für die Allgemeinheit aufbereitet. Nur dass es auch im linux Bereich da unterschiedliche Ansprüche gibt. Installierst du Ubuntu Desktop musst du nicht viel tun, das meiste wurde schon für dich von Canonical geregelt.
Umgekehrt ist es meiner Meinung nach auf dem klassischen PC-Desktop ein Zeitfresser mit vielen Limitationen gegenüber Windows.
Das liegt jedoch an deiner Vorkenntnis. Lässt man 2 menschen die sich nie mit Computern beschäftigt haben von vorne starten, dann kann das ganz anders aussehen ;)
Für meine Eltern und deren Anforderungen an einen Computer ist es z.B. viel einfacher mit Linux..
Das trifft den Kern. Ich würde es anders formulieren: Bei Linux muss ich Fahrtzeugtechnik studiert haben, um Auto fahren zu können (das gilt heute für viele Bereiche zwar definitiv nicht mehr in der Härte, aber teilweise - zum Beispiel bei Serverinstallationen - ist es immer noch so). Unter Windows bekomme ich so etwas auch mit Automechaniker-Kenntnissen hin. Entsprechend verhält es sich mit dem Aufwand und den Kosten, wenn ich ein Problem lösen möchte. Und hier sind wir wieder bei der Eingangsthese des Threads.
Linux ist ein Rennwagen, und um den am Limit zu beherrschen reicht keine herkömmliche Fahrschule aus. Mit der herkömmlichen Fahrschule kommst du jedoch problemlos um die Strecke wenn du nicht gerade die schwierigste Kiste auswählst ;)
Ich denke nicht, dass es darum geht. Wer schätzt denn nicht freie offene Software?
Vielen ist es egal, da taugt nur das etwas was einen (möglichst hohen) Preis hat. Preispsychologie eben. Computer werden auch immernoch hauptsächlich eher als Werkzeug anstatt als virtuelle Erweiterung des eigenen Wohnraums empfunden, eben als günstiger Ersatz für XY oder nur fürs Entertainment. Auch das Smartphone ist eher noch das günstige Telefon oder Whatsapp SMS Maschine und Fotokamera. Die meisten Leute sind halt noch in den 90ern hängen geblieben. Da tut sich momentan eine riesige Kluft auf, auf der einen Seite die, die die Möglichkeiten die sich durch das Netz bieten voll ausschöpfen können, und halt die klassischen Konsumenten die immernoch viel TV gucken und sich von den traditionellen Medien beeinflussen lassen und sich einfach nicht weiterentwickeln.
Durch Linux und nen einfachen Appstore voll mit kostenlosen Programmen aus sämtlichen Bereichen, hat im grunde jeder die Möglichkeit etwas neues zu entdecken und in Bereiche hineinzuschnuppern, eben Dinge die man sich nicht im Netz zusammensucht da man nichts von deren Existenz weiss, und demnach auch nicht danach sucht. Auch ein Preis und eine dadurch verbundene Zahlungsabwicklung kann menschen daran hindern etwas auszuprobieren, auch wenn sie es sichlocker leisten könnten. Es ist halt eine zusätzliche Schikane.
Ich denke auch dass open source das Endgame eines Enthusiasten ist da man sich halt irgendwann so weit an den kern vorgearbeitet hat dass man eine plötzliche Nichtzugänglichkeit dann nicht mehr akzeptiert. Und solche Leute findet man halt auch en Masse im FOSS Bereich.
myMind
2014-11-10, 02:16:17
Vielleicht ist nicht ganz klar geworden, was es bedeutet, dass freie Treiber verfügbar sind. Du musst dann kein Setup durchlaufen oder irgendetwas einstellen. Du startest die Distribution, sie erkennt deinen Grafikchip, lädt automatisch den integrierten Treiber und fertig. Der Nutzer muss nichts machen, um den Treiber zu nutzen.
Wenn du das unter Linux sehen willst, dann nimm einfach einen Intel- oder AMD-Grafikchip und starte eine aktuelle Distribution.
Ich bin ja schon ein Stück älter und meine ersten Linux-Video-Erfahrungen hängen noch Eng mit dem Editieren von modelines zusammen. Ich habe im Laufe der Jahre schon sehr oft gelesen, das im Grunde jetzt alles automatisch funktionieren soll und wenn ich es dann ausprobiert habe hat sich das nie wirklich bewahrheitet. Irgendwas war immer. Allerdings probiere ich das jetzt auch nicht gerade täglich aus. Wenn das bei den aktuellen Distributionen nun funktioniert, dann meinen Glückwunsch an diejenigen die das Möglich gemacht haben.
Wenn ich mal wieder echte Hardware dafür übrig hab', probiere ich das mal aus.
Deshalb finde ich es ja auch seltsam, dass Leute mit Komfort unter Windows argumentieren, der offenbar nicht vorhanden ist. Im besten Fall muss man sich dort „nur“ durch zehntausend Setups klicken.
Unter Linux? Funktioniert out of the box.
Das ist unter Windows ja nicht anders.
Red Hat kann da gar nichts testen. VMware stellt die virtualisierte Hardware und deren Treiber.
Das ist dann vielleicht der Qualitätsunterschied. Microsoft stellt durch Zertifizierungstest sicher, dass die Treiber bestimmte Mindeststandards einhalten. Keine Qualität, kein Zertifikat.
Ehrlich gesagt würde es mich wirklich wundern, wenn Red Hat nicht mit VMware kooperiert. Das ist ja jetzt nicht nur ein irgendein Treiber sondern ein wohl bekannter seit Jahren stabiler Treiber. Wo kriegt man eine standardisiertere Hardware inkl. Treiber her, wenn nicht unter ESX?
Es ist ja auch nicht so, dass ich Linux als Ganzes keine Chance gebe oder es grundsätzlich nicht mag. Aber wenn grundlegende simple Dinge nicht richtig funktionieren, dann erschüttert das schon massiv das Vertrauen und meine Lust weiter zu machen tendiert gegen Null.
Meine lezten privaten Linux-Ausflüge waren jetzt Mint 17 und CentOS 7. Bei ersterem hat mich die Installation von No Machine schlicht in den Wahnsinn getrieben. Wenn ich dann dagegenhalte wie Problemlos ein RemoteDesktop unter Windows funktioniert...
Beim CentOS war, wie gesagt, das Setup erschütternd fragil. Die Installation von OwnCloud ging dann so. Die Installations-Beschreibung auf der Projektseite war wegen der vielen verschiedenen Distributionen unübersichtlich und für CentOS kaum zu gebrauchen (Manual Installation (http://doc.owncloud.org/server/7.0/admin_manual/installation/installation_source.html)). Mit dem passenden Blog dazu ging es dann, hinterlies aber viele offene Fragen. Die Umstellung auf systemd nervt. Ich verstehe auch nicht, warum Red Hat/CentOS hier gar nicht in Erscheinung treten. Aber das ist eben auch einer der Gründe, warum man unter Linux häufig mehr Zeit für die gleiche Arbeit benötigt. Man muss einfach mehr Softwarearchologie betreiben.
Eidolon
2014-11-10, 07:57:04
Bei Linux musst du bei neuer Hardware auch gleich mal deine Distribution erneuern, denn Treiber für neuste Geräte gibt es oft nur für den neusten Kernel. Bei Grafikkarten gibt es oft auch erstmal gar keine brauchbaren Treiber.
Also Nvidia hatte den Treiber für die 970/980 schon vorm Release der Karten oder mindestens zeitgleich draußen unter Linux.
Und Kernel wechseln ist, jedenfalls unter Manjaro, eine Sache von ein paar Mausklicks oder ein paar kurzen Befehlen in der Konsole, je nach Vorliebe.
Ganon
2014-11-10, 08:11:16
Da wird gar nichts geprüft. Beide verlassen sich da voll auf die Sandbox. Microsoft btw auch. Was Apple prüft ist der Inhalt. Dabei ist dann auch enorm viel Willkür im Spiel.
Also zumindest Apple prüft halt auch, ob man inoffizielle APIs benutzt und Co. Das verhindert halt so ein Theater, wie unter Windows, wo eine Anwendung unter Windows 8.0 läuft, aber unter Windows 8.1 nicht mehr, etc. pp.
Es findet halt eine Gewisse Prüfung statt, statt dem 08/15 Nutzer die willkürliche Installation zu erlauben
lumines
2014-11-10, 09:58:36
Wenn das bei den aktuellen Distributionen nun funktioniert, dann meinen Glückwunsch an diejenigen die das Möglich gemacht haben.
Das ist seit etwa sechs Jahren oder sogar noch länger schon so. Vielleicht hast du einfach zu viel editiert, denn eigentlich wird auch davon abgeraten, eine xorg.conf überhaupt zu erstellen, weil schon lange alles automatisch eingerichtet wird.
Das ist unter Windows ja nicht anders.
Dein Windows liefert die Treiber für deinen Grafikchip direkt mit aus? Habe ich noch nie gesehen.
Das ist dann vielleicht der Qualitätsunterschied. Microsoft stellt durch Zertifizierungstest sicher, dass die Treiber bestimmte Mindeststandards einhalten. Keine Qualität, kein Zertifikat.
Und niemand lässt sich für jeden Treiber zertifizieren.
Ehrlich gesagt würde es mich wirklich wundern, wenn Red Hat nicht mit VMware kooperiert. Das ist ja jetzt nicht nur ein irgendein Treiber sondern ein wohl bekannter seit Jahren stabiler Treiber. Wo kriegt man eine standardisiertere Hardware inkl. Treiber her, wenn nicht unter ESX?
Wenn VMware ihren Treiber nicht an ein aktuelles RHEL anpasst, wo ist das dann Red Hats Problem?
Beim CentOS war, wie gesagt, das Setup erschütternd fragil. Die Installation von OwnCloud ging dann so. Die Installations-Beschreibung auf der Projektseite war wegen der vielen verschiedenen Distributionen unübersichtlich und für CentOS kaum zu gebrauchen (Manual Installation (http://doc.owncloud.org/server/7.0/admin_manual/installation/installation_source.html)). Mit dem passenden Blog dazu ging es dann, hinterlies aber viele offene Fragen. Die Umstellung auf systemd nervt. Ich verstehe auch nicht, warum Red Hat/CentOS hier gar nicht in Erscheinung treten. Aber das ist eben auch einer der Gründe, warum man unter Linux häufig mehr Zeit für die gleiche Arbeit benötigt. Man muss einfach mehr Softwarearchologie betreiben.
Keine Ahnung, ich benutze lieber die Versionen aus den Paketquellen meiner Distribution. Frickeln habe ich schon etwas länger aufgegeben. Ich benutze ja eine Distribution, damit die mir die Arbeit für so etwas abnimmt.
Klar, mit manuellen Installationen macht man sich natürlich viel Arbeit, aber das ist ja nicht die Regel.
N0Thing
2014-11-10, 10:30:57
Dein Windows liefert die Treiber für deinen Grafikchip direkt mit aus? Habe ich noch nie gesehen.
Jep, einen Standardtreiber, sonst würde man ja nicht mal eine graphische Oberfläche zu Gesicht bekommen. ;)
Über Windows Update bekommt man die aktuelle WHQL-Version von Nvidia/AMD, wenn man denn will. Das funktioniert mindestens mit Windows 7 und späteren Versionen.
Ganon
2014-11-10, 10:38:36
Über Windows Update bekommt man die aktuelle WHQL-Version von Nvidia/AMD, wenn man denn will. Das funktioniert mindestens mit Windows 7 und späteren Versionen.
Aber ohne OpenGL-Support.
lumines
2014-11-10, 10:42:18
Jep, einen Standardtreiber, sonst würde man ja nicht mal eine graphische Oberfläche zu Gesicht bekommen. ;)
Na ja, die Betonung liegt auf für den Grafikchip. Der generische Treiber von Windows unterstützt quasi keine Features der Grafikchips. Unter Linux ist das anders.
Über Windows Update bekommt man die aktuelle WHQL-Version von Nvidia/AMD, wenn man denn will. Das funktioniert mindestens mit Windows 7 und späteren Versionen.
Das funktioniert seit Vista. Trotzdem werden die Treiber nicht mit Windows ausgeliefert. Die proprietären Treiber der Hersteller lassen sich oft auch in den Repos der Distributionen finden.
Das gilt aber eben auch letztendlich nur für Grafikchips. Windows liefert ansonsten bis auf einige generische Treiber nix mit und über das Windows Update auch eben nur sehr wenig.
Aber ohne OpenGL-Support.
wat
Ganon
2014-11-10, 10:46:57
wat
AMD-Treiber per Windows Update installiert. OpenGL Anwendung gestartet:
"Error OpenGL 1.2 not available, please update your driver"
AMD-Treiber von der AMD-Homepage installiert -> Geht.
Das ist nicht bescheuert, sondern absolut sinnvoll. Nur weil viele Leute durch ein kaputtes Rechtemanagement von Windows jahrelang darauf konditioniert wurden, dauerhaft als root eingeloggt zu sein, macht es das nicht besser.
Davon abgesehen: Dauert ein sudo su zu lange, um sich dauerhaft root-Rechte zu verschaffen? Mir fällt spontan kein Grund für eine Anmeldung als root ein. Welchen Vorteil verspricht man sich davon? Komfort kann es nicht sein, sudo su ist quasi äquivalent zu einem root-Login.
Arbeite mal praktisch mit Programmen, die permanent sudo haben wollen, weil sie bei Installationen permanent irgendwo hinschreiben wollen oder irgend welche Kerneleinstellungen benötigen. Es gibt nicht viele Programme wie z.B. Oracle DBs, die sich vernünftig installieren lassen, wo das Programm zweimal nach root fragt.
Weiteres Beispiel: Such mal was in einem System, wo Du kein root hast: find . name xxx
Viel Spaß mit dem Suchen. :freak:
Und als Admin braucht man root, arbeiten mit sudo ist einfach nur murks. Wer sich das nicht zutraut, sollte lieber gleich den Beruf wechseln.
Exxtreme
2014-11-10, 11:43:57
Arbeite mal praktisch mit Programmen, die permanent sudo haben wollen, weil sie bei Installationen permanent irgendwo hinschreiben wollen oder irgend welche Kerneleinstellungen benötigen. Es gibt nicht viele Programme wie z.B. Oracle DBs, die sich vernünftig installieren lassen, wo das Programm zweimal nach root fragt.
Also ich sehe das Problem nicht, dass man sudo bei der Installation haben will. Wenn z.B. nach /etc reingeschrieben werden muss dann ist es halt so und das geht bei der Installation mit sudo. Ist bei anderen Betriebssystemen auch nicht anders, dass man bestimmte Berechtigungen für bestimmte Operationen braucht.
Arcanoxer
2014-11-10, 12:01:53
AMD-Treiber per Windows Update installiert. OpenGL Anwendung gestartet:
"Error OpenGL 1.2 not available, please update your driver"
AMD-Treiber von der AMD-Homepage installiert -> Geht.
Ist das überhaupt rechtens wenn Microsoft an den Proprietären Treibern rumfingert?
Für mich schwer vorstellbar, aber bei den kannst nie wissen... ;)
fezie
2014-11-10, 12:21:42
Weiteres Beispiel: Such mal was in einem System, wo Du kein root hast: find . name xxx
Viel Spaß mit dem Suchen. :freak:
Sollte kein Problem sein da bis auf das Home Verzeichnis von root der Rest vom System für alle Benutzer lesbar ist.
Zumindest bei Debian.
N0Thing
2014-11-10, 12:22:28
Das funktioniert seit Vista. Trotzdem werden die Treiber nicht mit Windows ausgeliefert. Die proprietären Treiber der Hersteller lassen sich oft auch in den Repos der Distributionen finden.
Das gilt aber eben auch letztendlich nur für Grafikchips. Windows liefert ansonsten bis auf einige generische Treiber nix mit und über das Windows Update auch eben nur sehr wenig.
Oft hilft im Einzelfall auch nicht weiter, wenn die gewünschte Distribution mal keinen proprietären Treiber mitliefert.
Und Windows liefert durchaus viele Treiber mit. Nicht für jedes Gerät, aber das bietet auch Linux nicht. Aber immerhin so viele Treiber, daß ich bei den letzten Installationen nur den aktuellen Beta-Grafiktreiber extra installieren mußte. Drucker, Sound, Kartenleser haben ohne weitere Arbeit funktioniert.
Ich würde mich deshalb mit pauschalen Urteilen zurück halten. Bei beiden Systemen bekommt man viel mitgeliefert, aber nicht alles.
AMD-Treiber per Windows Update installiert. OpenGL Anwendung gestartet:
"Error OpenGL 1.2 not available, please update your driver"
AMD-Treiber von der AMD-Homepage installiert -> Geht.
Mehrmals Nvidia-Treiber über Windows Update installiert. OpenGl Anwendung gestartet --> geht.
Scheint also kein generelles Problem mit OpenGL zu geben. Vielleicht hat AMD in dem einen Fall einfach ein fehlerhaftes Paket an MS geschickt.
lumines
2014-11-10, 12:42:52
Arbeite mal praktisch mit Programmen, die permanent sudo haben wollen, weil sie bei Installationen permanent irgendwo hinschreiben wollen oder irgend welche Kerneleinstellungen benötigen.
Wenn das nur für die Installation gilt: Wo ist das Problem?
Wenn diese Programme das zur Laufzeit als normaler User machen, sollte man sie besser entsorgen, weil sie sowieso Müll sind. Ganz ehrlich. Anwendersoftware / Datenbanken / was-auch-immer nur als root laufen zu lassen geht einfach gar nicht.
Es gibt nicht viele Programme wie z.B. Oracle DBs, die sich vernünftig installieren lassen, wo das Programm zweimal nach root fragt.
Schon bei mehr als einer Abfrage würde ich misstrauisch werden.
Und als Admin braucht man root, arbeiten mit sudo ist einfach nur murks. Wer sich das nicht zutraut, sollte lieber gleich den Beruf wechseln.
Jemand sollte den Beruf wechseln, der Rechtemanagement nicht verstanden hat. Das ist doch nichts Linux-spezifisches sondern Allgemeinwissen über moderne Betriebssysteme. Wir leben nicht mehr in den 80ern.
Eidolon
2014-11-10, 13:14:40
Jemand sollte den Beruf wechseln, der Rechtemanagement nicht verstanden hat. Das ist doch nichts Linux-spezifisches sondern Allgemeinwissen über moderne Betriebssysteme. Wir leben nicht mehr in den 80ern.
So ist es, auch in Windowsumgebungen macht man als System Admin die Standardaufgaben nicht mit dem Adminkonto.
PatkIllA
2014-11-10, 14:57:35
Aber ohne OpenGL-Support.
Das Controlpanel fehlt AFAIK auch.
Wenn das nur für die Installation gilt: Wo ist das Problem?
Wenn diese Programme das zur Laufzeit als normaler User machen, sollte man sie besser entsorgen, weil sie sowieso Müll sind. Ganz ehrlich. Anwendersoftware / Datenbanken / was-auch-immer nur als root laufen zu lassen geht einfach gar nicht.
Schon bei mehr als einer Abfrage würde ich misstrauisch werden.
Jemand sollte den Beruf wechseln, der Rechtemanagement nicht verstanden hat. Das ist doch nichts Linux-spezifisches sondern Allgemeinwissen über moderne Betriebssysteme. Wir leben nicht mehr in den 80ern.
Ach Leute, ich hüpf seit Jahren auf allen Unix-Deviraten rum, und weiß sehr wohl, was ich da tue. Fakt ist, wer ohne root unterwegs ist, brauch für viele Sachen uneffizient sehr viel länger. Mag ja sein, daß wir nicht mehr in den 80ern sind, viel Software (auch aktuelle) arbeitet so. Dafür kann ich nichts. Beispielsweise kann Talend ohne root weder init.d-Prozesse installieren noch libs binden. Von einer IBM-Websphere-Installation, oder Clustermanagement unter Solaris, Linux und Co. fange ich erst gar nicht an zu reden... Probiert mal BigData, Cloudera, hadoop, mapr und Co. ohne root, viel Spaß. Ich bilde mir das wohl ein, wenn die Kollegen permanent bei mir antanzen, weil sie root-Rechte brauchen.☺️
Ach Leute, ich hüpf seit Jahren auf allen Unix-Deviraten rum, und weiß sehr wohl, was ich da tue.
Warum taugen denn sudo -i bzw. sudo -s nicht, so dass man ganz auf eine Distribution verzichten muss?
Wenn man das permanent angeben muß, um etwas zu tun, finde ich es extrem lästig, besonders wenn man einige Systemdateien anfassen muß. Da brauche ich mit sudo einfach länger. Mit root ist das einfach schneller erledigt.
PatkIllA
2014-11-11, 09:34:47
Wenn man das permanent angeben muß, um etwas zu tun, finde ich es extrem lästig, besonders wenn man einige Systemdateien anfassen muß. Da brauche ich mit sudo einfach länger. Mit root ist das einfach schneller erledigt.
Wie oft musst du das den angeben? Ich logge mich auf dem Server auch mit root ein, aber da mache ich auch fast nur admin Dinge und die Dienste laufen trotzdem mit eigenen Accounts.
lumines
2014-11-11, 09:45:07
Da brauche ich mit sudo einfach länger.
Dann hast du sudo nicht verstanden. Du kannst dir damit dauerhafte root-Rechte verschaffen, was hier jetzt auch einfach schon mindestens zweimal gepostet wurde.
Es gibt absolut gar keinen Grund, sich als root einzuloggen. „Dauert sonst länger“ ist keiner, weil das einfach nicht der Fall ist.
Ich bilde mir das wohl ein, wenn die Kollegen permanent bei mir antanzen, weil sie root-Rechte brauchen.☺️
Ja, und genau für solche Fälle wäre sudo genau das Tool der Wahl.
Wie oft musst du das den angeben? Ich logge mich auf dem Server auch mit root ein, aber da mache ich auch fast nur admin Dinge und die Dienste laufen trotzdem mit eigenen Accounts.
Für Wartungungszwecke sicher nicht so wie bei bei Installationen von diverser Software. Natürlich und selbstverständlich laufen dann die installierten Programme in einem eingeschränkten Account.
Dann hast du sudo nicht verstanden. Du kannst dir damit dauerhafte root-Rechte verschaffen, was hier jetzt auch einfach schon mindestens zweimal gepostet wurde.
Wenn Du das so weißt und meinst. :rolleyes: Nur was hat man dann an "Sicherheit" gewonnen, wenn man sich per sudo dann permanent als root unterwegs ist? Nix, da kann ich mich dann gleich als root einloggen.
Es gibt absolut gar keinen Grund, sich als root einzuloggen. „Dauert sonst länger“ ist keiner, weil das einfach nicht der Fall ist.
Doch, wenn man vorher noch extra sudo angeben muß.
lumines
2014-11-11, 11:01:52
Wenn Du das so weißt und meinst. :rolleyes: Nur was hat man dann an "Sicherheit" gewonnen, wenn man sich per sudo dann permanent als root unterwegs ist? Nix, da kann ich mich dann gleich als root einloggen.
Es hat den Vorteil, dass du das nur in Ausnahmefällen benutzen musst und ansonsten auf das temporäre sudo zurückgreifen kannst.
Mit einem reinen root-Login hättest du nur eine binäre Wahl.
Mal ganz davon abgesehen, dass du so nur einen einzigen User hast, der root-Rechte besitzt. Wie man sich den Stress antun kann, ist mir echt schleierhaft. Offenbar scheint das bei euch ja ein echter Produktivitätshemmer zu sein, wenn da andauernd nach root-Rechten gefragt wird. Mit sudo wäre das kein Problem.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.