PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?


Seiten : 1 2 3 4 5 [6] 7 8 9 10

Eidolon
2016-04-07, 09:11:45
Was in dieser Diskussion vergessen wird: Die Betonung liegt auf Consumer!

Consumer sind 0815 Trottel und ganz sicher nicht im 3DC, P3Dnow, CB oder anderen TECH-Foren unterwegs...

Also gibt es nur Trottel und Nerds? Das ist aber eine etwas schwarz - weiß lastige Sicht der dinge.

Lurtz
2016-04-07, 10:07:39
Also gibt es nur Trottel und Nerds? Das ist aber eine etwas schwarz - weiß lastige Sicht der dinge.
Und eine Seit der mobilen Revolution sicher nicht mehr zutreffende.

Gast
2016-04-09, 00:58:11
Es ist ja so, dass Linux inkl. seiner Derivate auf dem Desktop jetzt nicht sonderlich erfolgreich ist, daher frage ich mich und Euch, was getan werden müsste, damit Linux auf dem Desktop bei den 0815-Consumern beliebter wird!?

Also, was muss getan werden (Community-Politik, Software-Gestaltung, Vermarkung usw.) damit Linux aus seinem 0,5% Marktanteil ausbricht und vielleicht 15% Marktanteil auf Consumer-Desktops erlangt?

Keine Ahnung, aber die Frage höre ich schon seit 1999...

lumines
2016-04-09, 01:18:03
Das GNU-Betriebssystem hat es ja jetzt auf Windows 10 geschafft. Wenn man also den Marktanteil von GNU/kWindows und GNU/Linux kombiniert, kommt man immerhin auf knapp 11% Marktanteil. So viel fehlt also nicht mehr zu den 15%.

Gast
2016-04-13, 13:45:55
Vulkan auf Ubuntu 16.04 ownt Windows, hart!

Some Early Windows 10 vs. Ubuntu Linux Vulkan Tests With NVIDIA Graphics
https://phoronix.com/scan.php?page=news_item&px=Win10-Linux-Vulkan-Early

Gast
2016-04-13, 13:48:59
Vulkan auf Ubuntu 16.04 ownt Windows, hart!

Some Early Windows 10 vs. Ubuntu Linux Vulkan Tests With NVIDIA Graphics
https://phoronix.com/scan.php?page=news_item&px=Win10-Linux-Vulkan-Early
Gilt leider nur für nVidia, AMD hat mal wieder das nachsehen.
Ein "Mantle vorteil" scheint es nicht zu geben, im gegenteil.

https://phoronix.com/scan.php?page=news_item&px=Radeon-VLK-Windows-Linux

Lurtz
2016-04-13, 14:06:04
Vulkan auf Ubuntu 16.04 ownt Windows, hart!

Some Early Windows 10 vs. Ubuntu Linux Vulkan Tests With NVIDIA Graphics
https://phoronix.com/scan.php?page=news_item&px=Win10-Linux-Vulkan-Early
In 0,01% der Spiele. Ja, harte Ownage ;D

Gast
2016-04-13, 14:10:16
In 0,01% der Spiele. Ja, harte Ownage ;D
Ich sage nur Proof of Singularity Early Access Benchmarks...
Aber das war natürlich was ganz anderes, richtig?

Ganon
2016-04-13, 14:30:12
Immerhin haben die Teams rund um Mesa es gestern geschafft OpenGL 4.3 zu errechen und sind damit 2 Versionen weiter als OS X. Und das auch noch OpenSource. Fehlt nicht mehr viel zur vollständigen OpenSource-Implementierung von OpenGL. Vulkan ist ja zum Glück bereits seit Day1 OpenSource... zumindest bei Intel. AMD folgt später und NVidia ist sowieso ein Arschloch.

Lurtz
2016-04-13, 14:31:44
Ich sage nur Proof of Singularity Early Access Benchmarks...
Aber das war natürlich was ganz anderes, richtig?
AotS interessiert auch keinen. Also nein, es ist nichts anderes.

iuno
2016-04-13, 14:49:42
0,001%? Noch lange nicht
Was hat AotS damit zu tun? Das Spiel laeuft weder auf Linux noch mit Vulkan und hat auch sonst nichts mit dem Thema zu tun.
Nett zu sehen, dass AMD und Nvidia deutlich durch Vulkan gewinnen. TTP@Vulkan ist trotzdem mehr oder weniger nur proof of concept. Der Phoronix "Test" ist natuerlich dahingehend kein bisschen repraesentativ und laesst keine weiteren Rueckschluesse zu.
Ich freue mich schon auf richtige Tests, vor allem aber auf "richtige" Implementierungen.

Valve scheint leider mit ihrem VR Kram und Geldverdienen zu beschaeftigt, also wird es halt noch etwas dauern ;)

d2kx
2016-04-13, 22:23:07
Um auf das eigentliche Thema zurückzukommen:

Snap! Ubuntu 16.04 Just Made Installing New Apps MUCH Easier (http://www.omgubuntu.co.uk/2016/04/ubuntu-16-04-lts-snap-packages)
OMG! Ubuntu!

Achill
2016-04-13, 22:59:41
Hier mal noch eine nette Live-CD für AMD-User: http://www.gearsongallium.com/

Scheint ein kleines feines 1-Mann Projekt zu sein. Gegen einen aktuellen OpenSUSE wird der/das neueste Kernel, Mesa, wine (+nine), amdgpu, radeonsi, LLVM, ... gebaut / genutzt.

Mit der aktuellen Version geht jetzt Alien:Isolation mit den freien Treibern (es wird gallium-nine verwendet und bzgl. den FPS, es ist eine 7790).

ZoAxC2tnocA

---
Edit: Das kann man als Ausblick sehen, wo wir mit At-The-Edge Distris evtl. in ein paar Monaten sind. Mein Debian-Stable braucht da warscheinlich noch mindestens ein Jahr (muss zugeben ich weiß nicht mal welcher Kernel für die nächste Debain-Version anvisiert ist) ... ;)

iuno
2016-04-13, 23:18:34
gallium nine? Laeuft das Spiel intern mit einer art Wrapper aehnlich wie Wine oder was?
Ein normales OpenGL, Linux natives Spiel braucht doch keinen d3d9 state tracker. Das laeuft wohl eher, weil radeonsi jetzt auf 4.2/4.3 Niveau ist

Achill
2016-04-13, 23:26:18
gallium nine? Laeuft das Spiel intern mit einer art Wrapper aehnlich wie Wine oder was?
Ein normales OpenGL, Linux natives Spiel braucht doch keinen d3d9 state tracker. Das laeuft wohl eher, weil radeonsi jetzt auf 4.2/4.3 Niveau ist

Du hast völlig recht, man sollte keine Texte reduzieren - hatte erst noch ein anderes Video mit verlinken wollen wo gal-nine verwendet wurde.

Boris
2016-04-14, 10:02:34
Um auf das eigentliche Thema zurückzukommen:

Snap! Ubuntu 16.04 Just Made Installing New Apps MUCH Easier (http://www.omgubuntu.co.uk/2016/04/ubuntu-16-04-lts-snap-packages)
OMG! Ubuntu!
Den Artikel habe ich gestern auch gelesen, halte ich für sehr sinnvoll. Ist auch einer der größeren Kritikpunkte die ich an Linux habe. Wenn man die aktuellsten Pakete haben will, kommt man meißtens nicht um irgendwelche Rolling Release Distributionen herum.

lumines
2016-04-14, 14:16:19
Ist immer die Frage, wie man das balanciert. Die Entwickler müssen dann eben alle innerhalb des Containers statisch gelinkten Libraries selbst pflegen. Mal eben systemweit OpenSSL mit einem Klick updaten ist dann nicht mehr, das muss dann jeder für seinen Container einzeln machen.

Aber grundsätzlich ist das natürlich ziemlich gut und für viele Anwendungen will man das auch. Gibt genug Projekte, die noch ziemlich jung sind und oft auf sehr neue Features setzen, die in manchen alten Distributionen nicht verfügbar sind. Trotzdem wird das interessant, wie die Distributionen damit umgehen. Damit machen sie sich ja ein Stück weit selbst obsolet.

lumines
2016-04-16, 16:42:47
GNU/kWindows ist zwar noch nicht so ausgereift, aber erste Versuche auch grafische Anwendungen laufenzulassen, sehen schon einmal ziemlich vielversprechend aus: http://www.computerbase.de/2016-04/windows-subsystem-for-linux-linux-desktop-apps-unter-windows-10-starten/

Wer hätte gedacht, dass Windows selbst den Marktanteil des GNU-Systems schlagartig in die Höhe treibt?

Boris
2016-04-16, 16:49:24
GNU/kWindows ist zwar noch nicht so ausgereift, aber erste Versuche auch grafische Anwendungen laufenzulassen, sehen schon einmal ziemlich vielversprechend aus: http://www.computerbase.de/2016-04/windows-subsystem-for-linux-linux-desktop-apps-unter-windows-10-starten/

Wer hätte gedacht, dass Windows selbst den Marktanteil des GNU-Systems schlagartig in die Höhe treibt?
ist das jetzt gut oder schlecht? Für Windows sicherlich gut, aber für GNU/Linux...

Gast
2016-04-16, 18:06:55
Wie schaut es denn eigentlich bezüglich Dateisysteme aus. Wenn Ubuntu in Win10 integriert wird sollte man ja sogar mit ZFS klarkommen oder?

lumines
2016-04-16, 18:29:06
Wie schaut es denn eigentlich bezüglich Dateisysteme aus. Wenn Ubuntu in Win10 integriert wird sollte man ja sogar mit ZFS klarkommen oder?

Nur das Userland ist in Windows 10 integriert. Der Kernel ist noch immer NT. So direkt ändert sich für kernelnahe Sachen eigentlich nichts.

iuno
2016-04-18, 13:43:30
TR (2013) release fuer Linux steht wohl unmittelbar bevor, Systemvoraussetzungen sind raus:
http://www.feralinteractive.com/en/news/611/

For AMD cards, we also recommend using the MESA 11.2 driver
:love2:

Ich bin mal gespannt, wie der Titel dann laeuft.

Ganon
2016-04-18, 13:54:08
Ich vermute das wird man jetzt öfter sehen, sofern nicht Vulkan benutzt wird. Immerhin wird Mesa ja nun demnächst AMDs offizielle Consumer OpenGL Implementierung. D.h. sofern sie nicht "NVidia Only" sagen, kommen sie um Mesa nicht drum rum.

iuno
2016-04-18, 13:56:37
Naja, nicht ganz. Der pro-Stack richtet sich auch an Gamer.
Es ist aber natuerlich begruessenswert, wenn Entwickler auf die freien abzielen. Wenn es unproblematischer ist und (bald) Feature-Paritaet herrscht macht das ja auch Sinn.
Wobei es natuerlich dennoch Performanceeinbussen gibt. Das kann dann letztendlich nur noch Vulkan richten.
Ich hoffe nur, dass nicht deswegen die Performance bei dem Spiel total im Eimer ist, sondern will mal ein Paradebeispiel fuer eine Linux-Portierung sehen. Hatten ja theoretisch auch lange genug Zeit, im Gegensatz zu XCOM

Kartenlehrling
2016-04-22, 19:55:24
TR (2013) release fuer Linux steht wohl unmittelbar bevor, Systemvoraussetzungen sind raus:
http://www.feralinteractive.com/en/news/611/


:love2:

Ich bin mal gespannt, wie der Titel dann laeuft.



......... ohne TressFX oder PureHair ??? :tongue:
Nach 3 Jahren so eine miese Portierung, wieso haben sie kein Vulkan genommen?



https://www.youtube.com/watch?v=pU-t_MetDLw
Feral plays Tomb Raider and survives, just... (Linux)

Gast
2016-04-22, 20:13:36
TR (2013) release fuer Linux steht wohl unmittelbar bevor, Systemvoraussetzungen sind raus:
http://www.feralinteractive.com/en/news/611/

For AMD cards, we also recommend using the MESA 11.2 driver

:love2:
Oh Nein, AMD support.

Seit den "Gaming Evolved" port von CivBE bin ich geheilt.
Da wird der Rotstift angesetzt um auf den kleinsten gemeinsamen Nenner zu kommen.

Würde zumindest den späten release und Verschiebung erklären.

Gast
2016-04-23, 16:31:08
Den Artikel habe ich gestern auch gelesen, halte ich für sehr sinnvoll. Ist auch einer der größeren Kritikpunkte die ich an Linux habe. Wenn man die aktuellsten Pakete haben will, kommt man meißtens nicht um irgendwelche Rolling Release Distributionen herum.

Das ist ein zweischneidiges Schwert. Denn den Vorteil (der aber eben auch ein Nachteil sein kann), dass eine Lib nur einmal im System hängt (= 1 Update + weniger Speicherplatz, etc.) macht Snap zu nichte. Die Verantwortung für die Updates der Libs liegt dann wieder bei dem jeweiligen Entwickler der Anwendung, die Snap nutzt.

Snap läuft auch auf OSX, habe ich gesehen.
AFAIK nutzt der Mac ja seit OSX ein ähnliches System für die meisten Programme?!

iuno
2016-04-23, 16:39:51
......... ohne TressFX oder PureHair ??? :tongue:
Nach 3 Jahren so eine miese Portierung, wieso haben sie kein Vulkan genommen?
Das war absehbar, der Mac Port hatte auch kein TressFX
Die Frage ist nicht ernst gemeint, hoffe ich? Ist dir klar, wer Feral ist? Und ob es wirklich so eine "miese Portierung" ist (durchaus moeglich), muss man erstmal abwarten.

Gast
2016-04-24, 06:14:47
Das war absehbar, der Mac Port hatte auch kein TressFX.Was nun wirklich kein Verlust darstellt, das TressFX in Tomb Raider war/ist grausam.

Gast
2016-05-05, 23:26:22
Was getan werden müsste?
Die Nerds hinter Linux müssten sich mal ein paar Manager ranschaffen die die Entwicklung lenken...

lumines
2016-05-06, 01:08:12
Die Nerds hinter Linux müssten sich mal ein paar Manager ranschaffen die die Entwicklung lenken...

Wer sind denn die Nerds? Extrem viele Entwickler in wichtigen Projekten sind sowieso bei Unternehmen wie Red Hat, Canonical, Google, Intel etc. angestellt. CUPS wird sogar von Apple gepflegt.

Diese Vorstellung, dass da irgendwo Nerds in Kellern sitzen und irgendetwas zusammenhacken stimmt ja auch nur zum Teil. Gibt es auch, aber so richtig bildet das die Realität nicht ab.

Rooter
2016-05-06, 02:06:46
Was getan werden müsste?
Die Nerds hinter Linux müssten sich mal ein paar Manager ranschaffen die die Entwicklung lenken...Die ganze Community wird sich nicht lenken lassen aber so einen "Manager" gibt es doch schon, er heißt Mark Shuttleworth. Hat mit seinem Ubuntu zwar viel zur Lösung des Problems beigetragen, aber auch keine Endlösung liefern können. (Imo vor allem wegen des Schritts zum seltsamen Unity Desktop! Wäre er Gnome oder KDE treu geblieben oder hätte selbst ein Cinnanom geforkt... ;))
Ansonsten ist die Diversität halt Fluch und Segen, leider zurzeit mehr Fluch als Segen. Zu viele Köche...

MfG
Rooter

lumines
2016-05-06, 02:31:35
Ansonsten ist die Diversität halt Fluch und Segen, leider zurzeit mehr Fluch als Segen. Zu viele Köche...

Kann man so schlecht sagen. Hätten wir von allem nur eine wahre Lösung™, würde GNU/Linux vermutlich nur auf der Stelle treten. Wahrscheinlich würden wir noch immer wie in der Steinzeit mit SysVinit Prozesse managen und mit XFree86 Pixel zeichnen. Wie die Tiere eben.

Ehrlich gesagt bin ich auch ganz froh, dass manche Distributionen nicht alles bedienen wollen. Ansonsten würde es nicht solche Distributionen wie OpenWRT oder Fedora geben. Auch Chrome OS wäre ohne Gentoo vermutlich nicht so einfach möglich gewesen. Muss man auch einmal so sehen.

Rooter
2016-05-06, 02:41:34
Okay, dann eben genau so viel Fluch wie Segen. ;)

MfG
Rooter

Ganon
2016-05-06, 10:04:00
Die ganze Community wird sich nicht lenken lassen aber so einen "Manager" gibt es doch schon, er heißt Mark Shuttleworth.

Der "Standard" Linux Desktop wird aber eher bei RedHat entwickelt (pulseaudio, systemd, NetworkManager, GTK, GNOME) und dort wird eher der Ton angegeben. Ubuntu hat dort nicht viel zu sagen und deren Zeug wird auch kaum irgendwo anders benutzt als bei ihnen selbst. "Die Community" hört schon lange nicht mehr auf Ubuntu. Ubuntu steuert hier auch nicht allzu viel bei. Während Ubuntu noch an Mir bastelt, können GNOME-Nutzer schon auf Wayland fahren.

Avalox
2016-05-06, 11:15:46
(Imo vor allem wegen des Schritts zum seltsamen Unity Desktop! Wäre er Gnome oder KDE treu geblieben oder hätte selbst ein Cinnanom geforkt... ;))


KDE hat ausser im Entwicklungsland Deutschland eben keine echte Bedeutung.
Unity wurde letztendlich entwickelt, gerade weil das GNOME Projekt sich nicht steuern ließ.

Die Linux Entwicklung ist sehr stringent und kommerziell. Es ist immer wieder im Umfeld der GNU Entwicklung, die sich in Aspekten selbst blockiert.

Die Sache ist eigentlich sehr einfach zu simplifizieren. Linux wird überall dort ein Toperfolg, wo der Benutzer mit dem GNU Teil nicht direkt in Berührung kommt.

Gast
2016-05-06, 13:27:38
Imo vor allem wegen des Schritts zum seltsamen Unity Desktop!
Seltsam.

Ich habe zugegeben Unity mal nur ganz kurz gesehen und genutzt und es kam mir überhaupt nicht seltsam vor. Schien dem Mac recht ähnlich zu sein.
Werde es mir aber bei Gelegenheit mal genauer anschauen.

Ganon
2016-05-06, 13:35:21
Desktops ins Linux sind ja eh Geschmackssache. Die sind aber für Anwendungssoftware total irrelevant. Die nutzen im Endeffekt Qt oder GTK und das war's. Das hat mit dem Märchen der Unterschiede unter den Linux-Distributionen nicht viel zu tun.

Matrix316
2016-05-06, 13:41:56
Für den normalen "Consumer" sind die Desktops aber alles, denn den interessiert nicht ob Qt oder GTK oder was auch immer im Hintergrund agiert. Der will ein Betriebsystem was gut aussieht und funktional ist und nicht aussieht wie aus 1000 Flickschustereien zusammengewürfelt behaupte ich mal.

Und Unity ist IMO - so kontrovers es ist und gerade auch weil es nicht so flexibel anpassbar wie andere Oberflächen ist - eine der konsistentesten Linux GUIs überhaupt. Die einzige andere Linux Oberfläche die noch konsistenter ist, sind die Android GUIs auf den Smartphones. Da kann man sich nicht leisten dass Schriften scheiße aussehen oder dass Icons nicht richtig mit der Grafik zusammen harmonieren oder sowas.

Ganon
2016-05-06, 13:48:05
Für den normalen "Consumer" sind die Desktops aber alles, denn den interessiert nicht ob Qt oder GTK oder was auch immer im Hintergrund agiert. Der will ein Betriebsystem was gut aussieht und funktional ist und nicht aussieht wie aus 1000 Flickschustereien zusammengewürfelt behaupte ich mal.

Naja, da legst du die Anforderungen aber ungerechtfertigt etwas hoch. Typische Windows Software sieht auch nicht aus "wie aus einem Guss"... Die einen nutzen Ribbon, die andere nutzen alte Symbolleisten, andere nutzen Menüs, andere sind total bunt... Da ist ein Standard KDE oder GNOME Desktop noch deutlich konsistenter als das was der typische Windows-Nutzer so installiert hat.

Und für Entwickler von Anwendungen kann das alles überhaupt egal sein. Das Problem ist eher, dass sie überhaupt erst mal von der WinAPI weg kommen.

Gast
2016-05-06, 14:45:58
Desktops ins Linux sind ja eh Geschmackssache. Die sind aber für Anwendungssoftware total irrelevant. Die nutzen im Endeffekt Qt oder GTK und das war's. Das hat mit dem Märchen der Unterschiede unter den Linux-Distributionen nicht viel zu tun.

Ähm, da gibt es z.B. noch die Unterscheidung:
Reine Qt Anwendung. Oder KDE Anwendung: Also Qt Anwendung mit Qt Abhängigkeiten (und i.d.R. KDE Feeling).
Das macht schon ein Unterschied, ob dann ein halbes KDE mitinstalliert wird oder nicht.

Und so Dinge, dass "Abbrechen" in einer "Gnome-Anwendung" im Dialogfeld genau auf der anderen Seite wie in einer "KDE-Anwendung" liegen, sind wahrscheinlich immer noch aktuell oder nicht? Vor 10 Jahren hat mich so etwas regelrecht angesprungen und mir die Lust an Linux versaut, da ich eben mischen musste. Um Mischen kommt man fast nicht herum, wenn man nicht auf die besten Anwendungen verzichten möchte (ja nach Anwendungsfeld natürlich).

Ganon
2016-05-06, 15:15:30
Es besteht heute kaum noch Grund dazu Anwendungen zu mischen. Entweder man mag die KDE-Anwendungen oder man mag die GNOME-Anwendungen. Typische Qt oder GTK Anwendungen sollten sich dem entsprechenden Desktop anpassen und gut ist. Das sind alles nur vorgeschobenes "ich pick mir jede schimmlige Rosine raus und erhebe das zum totalen Blocker"... als wenn Windows und OS X in der Hinsicht auch nur einen deut besser sind.

Und es kann einem als Anwendungsentwickler doch egal sein wie viele Abhängigkeiten der Nutzer installieren muss. Das wird einfach getan und gut ist. Das ist unter Windows doch nicht anders, nur dass hier die Bibliotheken zig mal in zig Versionen auf dem PC liegen.

Mann muss es nicht immer ins Extreme ziehen und sich genau den Fall raussuchen der irgendwo ins ungünstige läuft.

lumines
2016-05-06, 15:22:09
Und es kann einem als Anwendungsentwickler doch egal sein wie viele Abhängigkeiten der Nutzer installieren muss. Das wird einfach getan und gut ist. Das ist unter Windows doch nicht anders, nur dass hier die Bibliotheken zig mal in zig Versionen auf dem PC liegen.

Das ignorieren die meisten Leute eh gekonnt. Unter Windows habe ich immer unzählige Anwendungen, die mit zig Toolkits gebastelt sind. Mehr Kraut und Rüben geht schon fast gar nicht.

Dann benutzen sie einmal GNOME, installieren eine KDE-Anwendung und dann ist es auf einmal ein Problem.

Ironischerweise beobachte ich das bei mir allerdings auch oft selbst. Unter GNU/Linux versuche ich mich immer auf ein Toolkit zu beschränken, unter Windows und OS X interessiert mich das nicht die Bohne. Ok, unter OS X habe ich natürlich auch lieber native Anwendungen, aber irgendwie habe ich mich selbst dort damit abgefunden, dass ich manche Anwendungen benutze, die so gar nicht der HIG folgen.

Ganon
2016-05-06, 15:29:51
Das ignorieren die meisten Leute eh gekonnt.

Und gerade Windows 10 mit seinen 2 komplett unterschiedlichen Systemsteuerungen und 2-3 verschiedene GUI-Designs (Flat, Ribbon, Alt) gemixt mit der Metro-GUI....

Da will mir jetzt einer erzählen, dass KDE und GNOME Anwendungen ein Problem sind.

Abnaxos
2016-05-06, 15:35:10
Ein grosser Faktor hier dürfte auch sein: Bei Windows / OS X kommt so ein hübsches Paket in einer einzigen Datei, das klickt man an und installiert es. Zu keinem Zeitpunkt wird einem sichtbar gemacht, was da alles auf die Platte geknallt wird (ausser, wenn gewisse «Unterinstaller» kommen). U.U. hat man dann 5x ein Framework wie GNOME installiert, weil das eben in jedem Installer einfach mit drin war.

In so einem Fall klickt man bei Linux im Package-Manager eine Applikation an und sieht sofort: Oh, mann, das Ding installiert mir ja 100 Abhängigkeiten! → Man überlegt es sich zwei Mal. An dieser Stelle könnte die Transparenz eben durchaus ein Problem sein …

Gast
2016-05-06, 15:38:03
Unter OSX habe ich bis auf evtl. ein oder zwei Fälle nur Cocoa-Anwendungen und die bedienen sich alle ziemlich ähnlich. MS Office 2016 ist leicht anders aber auch Cocoa.
Mag sein, dass es nicht mehr so extrem einheitlich ist wie in Zeiten vor OS X. Aber allgemein passt es doch sehr gut.

Unter Windows stört mich das Durcheinander - wenn auch nicht so schlimm, da historisch "gewöhnt".

Unter Linux hingegen wollte ich es immer besser haben und möglichst einheitlich.

Beispiel für Mischen:
Für z.B. https://kdenlive.org gibt es AFAIK z.B. nichts gleichwertiges "natives" für Gnome. Allerdings scheint sich https://kdenlive.org recht gut unter Gnome einzufinden.

Ganon
2016-05-06, 15:39:09
In so einem Fall klickt man bei Linux im Package-Manager eine Applikation an und sieht sofort: Oh, mann, das Ding installiert mir ja 100 Abhängigkeiten! → Man überlegt es sich zwei Mal. An dieser Stelle könnte die Transparenz eben durchaus ein Problem sein …

Hö? Das zeigen die grafischen Paketmanager doch schon eine Weile nicht mehr an, sofern man nicht unten auf "Details" klickt. So ein Windows-Installer zeigt dir da doch auch an, wo er jetzt die ganzen Dateien hinschreibt.

Ich glaube dem 08/15 Nutzer ist es doch vollkommen egal, was der Installer da installiert.

Ganon
2016-05-06, 15:49:09
Beispiel für Mischen:
Für z.B. https://kdenlive.org gibt es AFAIK z.B. nichts gleichwertiges "natives" für Gnome. Allerdings scheint sich https://kdenlive.org recht gut unter Gnome einzufinden.

Und du würdest jetzt ja auch nicht auf die Idee kommen kdenlive unter OS X zu nutzen, oder? ;)

Wie gesagt, für mich sind diese Argumente echt vorgeschobene Ausreden, um sich das auch nur irgendwie zu erklären. Warum auch immer. Oft will man ja nur seinen Kauf rechtfertigen...

Gast
2016-05-06, 16:24:18
Und du würdest jetzt ja auch nicht auf die Idee kommen kdenlive unter OS X zu nutzen, oder? ;)
Nein. Weil ich da gut mit Software bedient bin, die nebenbei nativ läuft (ich nutze iMovie und Final Cut Pro X in dem Fall).

Unter Linux hingegen scheint KDENLIVE das einzige zu sein, das wirklich gut ist (unter Vorbehalt). Unter Gnome gibt es noch einen iMovie Clone, der aber von den Feature nicht mehr (oder kaum) mehr als das "Original" hergibt und noch recht neu ist.


Wie gesagt, für mich sind diese Argumente echt vorgeschobene Ausreden, um sich das auch nur irgendwie zu erklären. Warum auch immer. Oft will man ja nur seinen Kauf rechtfertigen...
Was ist daran vorgeschoben?
Ich brauche mir auch keinen Kauf zu rechtfertigen. Hätte kein Problem damit zu Linux zu wechseln, wenn ich da auf dem Desktop gleich gut oder gar besser bedient werde. Nur in der Vergangenheit war ich das definitiv nicht.
Aktuell weiß ich es nicht wirklich, glaube es aber eher nicht (das auszuprobieren scheitert wahrscheinlich schlicht an der verfügbaren Zeit - sonst würde ich es machen).

Abnaxos
2016-05-06, 16:37:12
Hö? Das zeigen die grafischen Paketmanager doch schon eine Weile nicht mehr an, sofern man nicht unten auf "Details" klickt.
Ist das so? YaST listet zum Glück noch immer fein säuberlich auf, was es alles zu tun gedenkt und fragt nach, ob das OK ist. Aber vielleicht ist SuSE da inzwischen alleine.

Ganon
2016-05-06, 16:58:31
Ist das so? YaST listet zum Glück noch immer fein säuberlich auf, was es alles zu tun gedenkt und fragt nach, ob das OK ist. Aber vielleicht ist SuSE da inzwischen alleine.

Ja, guck dir einfach mal "GNOME Software" an.

Lokadamus
2016-05-06, 17:34:41
Hö? Das zeigen die grafischen Paketmanager doch schon eine Weile nicht mehr an, sofern man nicht unten auf "Details" klickt. So ein Windows-Installer zeigt dir da doch auch an, wo er jetzt die ganzen Dateien hinschreibt.

Ich glaube dem 08/15 Nutzer ist es doch vollkommen egal, was der Installer da installiert.Das ist der Hauptgrund, warum sich unter Windows Adware wieder verbreitet hat. Da bekommt man irgendwo die Möglichkeit eine Haken zu entfernen und wer es nicht macht, ist damit einverstanden, dass Werbesoftware installiert wird.

Bei den ganzen Abhängigkeiten weiß man nachher eh nicht mehr, was man wirklich braucht. Wüsste jemand, was mit x265 gemeint ist? Mittlerweile dürtfe jeder wissen, dass sich dahinter ein Codec zur Wiedergabe versteckt.

Ganon
2016-05-06, 18:16:33
Das ist der Hauptgrund, warum sich unter Windows Adware wieder verbreitet hat. Da bekommt man irgendwo die Möglichkeit eine Haken zu entfernen und wer es nicht macht, ist damit einverstanden, dass Werbesoftware installiert wird.

Es ist halt nur schwer in signierte Repositories und Pakete Ad/Malware rein zu bekommen. Und Abhängigkeiten deinstallieren sich ja wieder, wenn man die Anwendung deinstalliert...

Lokadamus
2016-05-06, 18:58:05
Es ist halt nur schwer in signierte Repositories und Pakete Ad/Malware rein zu bekommen. Und Abhängigkeiten deinstallieren sich ja wieder, wenn man die Anwendung deinstalliert...Ich verweise einfach mal auf den klaren Debian Kernel. Da gibt es 3 für x86, wobei jeder klar definiert ist. Bei FreeBSD gibt es nur 2 und wer PAE haben will, darf selber einen Kernel kompilieren. Es gab auch schon Zeiten, wo Debian mehrere Kernel im Angebot hatte, um Sachen wie IPSec vom Kernel heraus zu unterstützen. Wenn man nicht weiß, was man machen will, haut man sich alles möglich rein bis es funktioniert.
https://packages.debian.org/search?suite=stretch&arch=any&searchon=names&keywords=kernel-image

Wenn mehrere Anwendungen die Abhängigkeiten hat, wird sie irgendwann nicht mehr entfernt. So kommt es, dass man irgendwann das System besser neu installiert.

lumines
2016-05-06, 19:01:06
Wenn mehrere Anwendungen die Abhängigkeiten hat, wird sie irgendwann nicht mehr entfernt. So kommt es, dass man irgendwann das System besser neu installiert.

Wer macht denn sowas? Ich upgrade einfach immer und hatte damit nie Probleme. Gerade Debian stable sorgt ja dafür, dass das System immer in einem konsistenten Zustand bleibt.

Lokadamus
2016-05-06, 19:14:00
Wer macht denn sowas? Ich upgrade einfach immer und hatte damit nie Probleme. Gerade Debian stable sorgt ja dafür, dass das System immer in einem konsistenten Zustand bleibt.Dann kennst du auch den Grund, warum vor einigen Jahren der Debian Release mehrfach verschoben wurde? Das Prob waren Abhängigkeiten und die Person, die dauernd am Fehler melden war, hatte ich durch Zufall im Internet kennengelernt.

Das Prob ist halt, dass die Software immer komplexer wird und man gleichzeitig nach dem KISS Prinzip arbeitet. Wenn alles ordentlich gemacht wird, gibt es keine Probleme, aber Debian hatte meiner Erfahrung nach gerne die Prinzipien über Bord geworfen, wenn es Zeit zum Release wurde. Die Sachen waren im Relesae alle gefixt, aber wenn man gerade einen Server aufsetzt, wobei alles getestet wird und nicht fehlerfrei geht, nervt es.

Ganon
2016-05-06, 19:40:11
Wenn mehrere Anwendungen die Abhängigkeiten hat, wird sie irgendwann nicht mehr entfernt. So kommt es, dass man irgendwann das System besser neu installiert.

Ja, wenn eine weitere Anwendung die Abhängigkeit hat, dann ist doch klar, dass die da bleibt. Aber wenn keine Anwendung mehr eine Abhängigkeit dazu hat, dann wird das auch entfernt. Es sei denn, du hast alles per Hand installiert. Und selbst wenn aptitute das nicht automatisch macht, dann kriegst du das auch manuell hin, wie auch immer die Aktion dazu heißt.

Eine Neuinstallation ist quatsch. Durch die Paketverwaltung hat man immer einen Überblick über alle Pakete.


Wenn man nicht weiß, was man machen will, haut man sich alles möglich rein bis es funktioniert.


Du musst nirgendwo den Kernel auswählen:
https://www.youtube.com/watch?v=GBULhyh48cg

Man kann es, muss es aber nun wirklich nicht. "Selbst ein Huhn kann Debian installieren, wenn man genug Körner auf die Tastatur legt"

Lokadamus
2016-05-06, 19:59:17
Du musst nirgendwo den Kernel auswählen:
https://www.youtube.com/watch?v=GBULhyh48cgKFreeBSD? IPSec? ... Gone (things change sometimes). Thx for nothing.

Matrix316
2016-05-07, 13:42:48
... man müsste mal dafür sorgen, dass die Menüs halbwegs anständig aussehen.

Zum Beispiel sowas aus Ubuntu Mate 16.04 geht eigentlich garnet. Viel zu wenig Platz um den Text, alles gequetscht, die Schrift eigentlich zu groß... bei Apple oder Microsoft würde das nicht durchgehen. ;)

http://abload.de/img/987654nannt8pdan.jpg (http://abload.de/image.php?img=987654nannt8pdan.jpg)

BBig
2016-05-07, 14:15:37
... man müsste mal dafür sorgen, dass die Menüs halbwegs anständig aussehen.

Zum Beispiel sowas aus Ubuntu Mate 16.04 geht eigentlich garnet. Viel zu wenig Platz um den Text, alles gequetscht, die Schrift eigentlich zu groß... bei Apple oder Microsoft würde das nicht durchgehen. ;)

http://abload.de/img/987654nannt8pdan.jpg (http://abload.de/image.php?img=987654nannt8pdan.jpg)

Das liegt an der unsagbaren voreingestellen Ubuntu Font.
Und ja, da gebe ich dir recht, die ist furchtbar.
- Die Font an sich ist schon ok, aber doch nicht als Systemfont. -

Such mal in deiner Repo - keine Ahnung, ob es bei Ubuntu gepackt ist - nach "sans source pro" von Adobe oder "Fira Sans" und installiere diese. ("cantarell" ist auch oke imo.)
( Wenn nicht in der Repo, fonts installieren ist nicht schwer: https://wiki.archlinux.org/index.php/Fonts#Manual_installation - die Fonts gibt es hier: https://github.com/adobe-fonts )

Unter Preferences -> Appearance -> Font Rendering:
- deine neue installierte Font auswählen
- Hinting "off / none" oder auf "slight". (Was dir persönlich besser gefällt.)
- Subpixel Order ist normalerweise RGB - kannst du aber hier nachschauen: http://www.lagom.nl/lcd-test/subpixel.php )
- That's it. :)

lumines
2016-05-07, 15:11:54
Viel zu wenig Platz um den Text, alles gequetscht, die Schrift eigentlich zu groß... bei Apple oder Microsoft würde das nicht durchgehen. ;)

Frisch aus OS X (10.10):

http://abload.de/img/bildschirmfoto2016-05o9sj3.png

Gast
2016-05-07, 15:19:20
Frisch aus OS X (10.10):
Wieso kein 10.11 und ein veraltetes 10.10.
Bei 10.11 gibt es auch eine neue Systemfont (San Francisco), die den Helvetica-Fehler beseitigt.


http://abload.de/img/bildschirmfoto2016-05o9sj3.png
Sieht doch gut aus. Safari wäre ein besseres Beispiel.
Wobei Chrome so eine Sache ist. Dass man Tabs in Chrome auf der falschen Seite z.B. schließt fällt auf und ist nicht so schön.

Matrix316
2016-05-07, 16:15:32
Frisch aus OS X (10.10):

http://abload.de/img/bildschirmfoto2016-05o9sj3.png
Zumindest sind links keine Icons hingequetscht.

In Windows macht man das ein wenig besser:

http://abload.de/img/win10nnthvuq4.jpg (http://abload.de/image.php?img=win10nnthvuq4.jpg)

lumines
2016-05-07, 16:26:36
Zumindest sind links keine Icons hingequetscht.

In GNOME 2.28 oder 2.30 hat man eh alle Icons aus den Kontextmenüs verbannt. Scheinbar meinen die Leute bei Mate aber, dass es eine gute Idee sei die zurückzuholen. Ist eben auch ein alter Fork von GNOME, nicht das Hauptprojekt. Einer der Gründe, warum ich nicht glaube, dass Mate einen modernen GNU/Linux-Desktop gut repräsentiert. Viele Designentscheidungen vom ursprünglichen GNOME-2-Team haben sie ein wenig falsch verstanden.

Avalox
2016-05-07, 17:38:30
Zumindest sind links keine Icons hingequetscht.

In Windows macht man das ein wenig besser:

http://abload.de/img/win10nnthvuq4.jpg (http://abload.de/image.php?img=win10nnthvuq4.jpg)


Bei Ubuntu kann man Symbole in Menüs und auf Knöpfen global an und ausschalten.

Das ist nicht nur flexibel, es sieht auch deutlich ansprechender als in Windows aus.

http://abload.de/img/arbeitsflche1_023psao6.png

Ganon
2016-05-07, 17:52:13
Bin ja mal gespannt wann hier Fluxbox ausgebuddelt wird, als Argument :ugly:

BBig
2016-05-07, 17:58:43
Zumindest sind links keine Icons hingequetscht.

In Windows macht man das ein wenig besser:

http://abload.de/img/win10nnthvuq4.jpg (http://abload.de/image.php?img=win10nnthvuq4.jpg)


Da mag ich aber das KDE Plasma eher, :tongue:

https://i.imgur.com/mvU5Nsz.png
(Bild ist KaOS)

So sieht es bei mir aus:

https://i.imgur.com/Jt7QE95.png

Gast
2016-05-07, 18:31:17
D

So sieht es bei mir aus:

https://i.imgur.com/Jt7QE95.png

Sieht durch den harten Kontrast, Schärfe und Dicke der Schrift minderwertig im Vergleich zu anderen OS und Ubuntu aus. Der Ubuntu System Font von Dalton Maag ist richtig gut, schon komisch wie man den haten kann..

BBig
2016-05-07, 18:36:51
Sieht durch den harten Kontrast, Schärfe und Dicke der Schrift minderwertig im Vergleich zu anderen OS und Ubuntu aus. Der Ubuntu System Font von Dalton Maag ist richtig gut, schon komisch wie man den haten kann..

Tja, so ist halt jeder anders,
was du da siehst ist Cantarell - die mag ich, aber auf meiner Wockstation habe ich Source Sans Pro von Adobe, das ist die Font meiner Wahl.

Die Ubuntu-Font ist trotzdem hässlich, :tongue:

Gast
2016-05-07, 22:00:08
Bei Ubuntu kann man Symbole in Menüs und auf Knöpfen global an und ausschalten.

Das ist nicht nur flexibel, es sieht auch deutlich ansprechender als in Windows aus.

http://abload.de/img/arbeitsflche1_023psao6.png

Avalox, was für einen Desktop nutzt du persönlich?
Unity? Also Ubuntu?

Avalox
2016-05-07, 22:10:14
Ja, Unity.

Boris
2016-05-07, 22:57:58
Ja, Unity.
Das Context-Menü aus deinem Screenshot ist aber nicht vom "normalen" Unity, oder?

Unity finde ich persönlich sehr inkonsistent, gerade seit 16.04...

Avalox
2016-05-07, 23:06:41
Das Context-Menü aus deinem Screenshot ist aber nicht vom "normalen" Unity, oder?


Doch ist das normale Unity, mit Vertex Thema.

Gast
2016-05-10, 09:30:14
Das vor wenigen Tagen erschienene Ubuntu 16.04 ist wieder eine Version mit Long Term Support (LTS). Für solche verspricht Canonical fünf Jahre Pflege. Die Ubuntu-Macher sichern diese aber nur für einen Teil des Software-Angebots zu. Wenn man sich die beiden vorangegangenen LTS-Releases heute näher ansieht, stößt man daher schnell auf Software mit seit langem bekannten Sicherheitslücken.
http://www.heise.de/open/meldung/Ubuntu-LTS-Lauter-Sicherheitsluecken-trotz-Langzeitpflege-3181830.html

Langzeitpflege nur beim Haupt-Repository

Der Grund: Fünf Jahre Pflege garantiert Ubuntu-Sponsor Canonical nur für Software aus dem Ubuntu-Repository "main". Bei 16.04 liegen dort knapp 2500 Anwendungen, Bibliotheken und andere Software, aus denen rund 7300 Binärpakete entstehen.
http://www.heise.de/ct/artikel/Ubuntu-LTS-Langzeitpflege-gibt-es-nur-fuer-das-Wichtigste-3179960.html


Das ist schlecht, denn viele Nutzer dürften auch weitere Repository freischalten.
Zudem gibt es ja die PPA. Gut gemeint aber dann muss man das im Blick behalten oder demjenigen, der sein PPA pflegt vertrauern.
Gerade die PPAs scheine gerne genutzt zu werden, wenn man aktuellere Software nutzen möchte, als im Standard-Repository drin.

Selbst für Themes werden PPAs angeboten, wie ich bei meinem Ubuntu-Kurztest festgestellt habe.

Eidolon
2016-05-10, 09:32:41
Wieso schlecht, völlig normal würde ich meinen. Natürlich kann Canonical nur für ihre Software 5 Jahre anbieten, sie pflegen ja nicht auch noch jede andere Software,

lumines
2016-05-10, 09:41:06
Das ist schlecht, denn viele Nutzer dürften auch weitere Repository freischalten.
Zudem gibt es ja die PPA.

Universe ist sogar standardmäßig aktiv.

Ich mein, die Erkenntnis von Heise ist jetzt nicht neu. Das hat Ubuntu schon immer so gemacht. Ich finde das nicht einmal schlimm, weil sie eben einen klaren Fokus auf den Desktop und einige Server-Anwendungen haben, aber sie sollten vielleicht besser darauf hinweisen. In Zukunft werden sich solche Repos sowieso wandeln und die Lücke, die Universe momentan schließt, wird wahrscheinlich von xdg-app übernommen. Das Konzept einer Paketverwaltung macht eben auch nur Sinn, wenn die Leute die Pakete pflegen. Wenn sie das nicht machen, kann man sich die Anwendungen vielleicht besser direkt vom Entwickler in Form von einer xdg-app besorgen. Da braucht man seine Distribution als Vermittler dann auch einfach nicht.

Das Problem mit Universe ist auch einer der Gründe, warum ich eigentlich Debian bevorzuge. Da ist eben die ganze Distribution von der Community gepflegt, aber die Leute fühlen sich für ihre Pakete auch verantwortlich. Praktisch bekommt man für alle Pakete für die Lebensdauer eines Releases Support. Die wenigen Pakete, die nicht mehr mit Updates versorgt werden, weil z.B. Upstream den Support eingestellt hat oder nicht mehr existiert (kommt vor), kann man sich bei Debian auch anzeigen lassen.

Gast
2016-05-10, 10:07:46
Wieso schlecht, völlig normal würde ich meinen. Natürlich kann Canonical nur für ihre Software 5 Jahre anbieten, sie pflegen ja nicht auch noch jede andere Software,
Klar. Nur sollte da besser darauf hingewiesen werden (wie von Lumines erwähnt). Hier entsteht sonst schnell ein falscher Eindruck...

Ich hatte glaube ich schon mal in einem Thread gefragt:

Gibt es eine Distribution, die stabil ist und auch für jemanden brauchbar, der an Linux selber kein Interesse hat?
Ubuntu war ja eigentlich immer hier ganz vorne. Prinzipiell ist es ja so immer noch. Nur ist diese Paketgeschichte vielleicht wo anders besser. Zudem finde ich manche Alleingänge von den Ubuntu-Leuten zweifelhaft, wie z.B. Mir. Ich stecke nicht in der Materie nur kommt es mir so vor, als wenn das vergeudete Energie ist, die besser an anderen Stellen aufgehoben wäre, um Linux nach vorne zu bringen. Unity hingegen finde ich hat seine Berechtigung, auch wenn es außerhalb von Ubuntu wohl keine große Rolle spielt (gibt es AFAIK dennoch für andere Distributionen).
Fedora wäre vielleicht etwas, gerade wenn man ein aktuelles Gnome 3.x haben möchte? Aber RPM fand ich früher nicht so prickelnd...

Ich frage hier weniger für mich sondern für Leuten, die Linux nicht abgeneigt sind aber wenig an Linux selber Interesse haben.

Dino-Fossil
2016-05-10, 10:18:28
Puh, es gibt durchaus Distros, die Wert auf einfache Bedienbarkeit bei guter Funktionalität legen.
Aber ein Minimum an Bereitschaft, sich damit auseinanderzusetzen sollte man schon mitbringen, falls mal etwas nicht läuft.

Linux Mint wird oft genannt, basiert aber auch auf Ubuntu und dein Problem mit den Paketquellen besteht da vermutlich genauso (wenn nicht noch stärker, da sie selbst Anpassungen vornehmen. Es wird ihnen jedenfalls immer mal vorgeworfen, das sie teilweise Sicherheit zugunsten von Stabilität opfern).

Ganon
2016-05-10, 10:23:30
Fedora ist halt einfach der "Standard Linux Desktop". Xorg/Wayland, NetworkManager, systemd, Pulseaudio, GTK/GNOME, dbus... alles zum Teil oder vollständig RedHat und damit Fedora ... über die Qualität lässt sich streiten, aber immer mehr funktioniert normal nicht ohne diese Komponenten.

Ubuntu wird über kurz oder lang seine Alleingänge einstellen (haben sie ja schon oft genug getan) oder bedeutungslos werden. Selbst die Gründe für die Erschaffung von Mir sind mittlerweile nur noch eine Lachnummer, da die entsprechende Punkte von Wayland übernommen wurden (libinput z.B.) oder bereits in Wayland möglich (Nutzung von Android-Treibern z.B.) :ugly:

BBig
2016-05-10, 19:18:12
Fedora ist halt einfach der "Standard Linux Desktop". Xorg/Wayland, NetworkManager, systemd, Pulseaudio, GTK/GNOME, dbus... alles zum Teil oder vollständig RedHat und damit Fedora ... über die Qualität lässt sich streiten, aber immer mehr funktioniert normal nicht ohne diese Komponenten.

Ubuntu wird über kurz oder lang seine Alleingänge einstellen (haben sie ja schon oft genug getan) oder bedeutungslos werden. Selbst die Gründe für die Erschaffung von Mir sind mittlerweile nur noch eine Lachnummer, da die entsprechende Punkte von Wayland übernommen wurden (libinput z.B.) oder bereits in Wayland möglich (Nutzung von Android-Treibern z.B.) :ugly:

Fedora als "Standard Linux Desktop"; ich weiß ja nicht.

Nach der Standard-Install kann das Teil gar nichts, was ein Consumer will.
Kein mp3, keine video-codecs ... installiert, ohne "Third party repositories" läuft da nichts.
Und gerade beim letzten Release, oder war es 22 - hat http://rpmfusion.org/ 1 Monat gebraucht, bis es kompatibel war.

Ich habe nichts gegen Fedora, ein guter Gnome Desktop, aber man sollte wissen, was man sich antut.
Gerade wenn ich mir dagegen ubuntu-mate anschaue. Die software boutique vom welcome paket ist super.

lumines
2016-05-10, 19:29:59
Kein mp3, keine video-codecs ... installiert, ohne "Third party repositories" läuft da nichts..

Na ja, MP3 und viele Video-Codecs sind eben patentbehaftet. Würden sie das direkt ausliefern, dann würden sie sich wahrscheinlich rechtlich angreifbar machen. Andere wie Mint nehmen das Risiko eben in Kauf. Debian lagert so etwas in contrib und non-free aus, aber die Pakete sind nur einen Klick entfernt.

Wäre aber tatsächlich angenehmer, wenn Fedora so etwas besser handhaben würde.

iuno
2016-05-11, 01:26:19
Zaehlen Tablets auch als "Consumer-PCs"? Imho schon, gerade mit GNU/Linux und der Moeglichkeit, auch Desktop-Apps laufen zu lassen
Habe das hier im Thread noch nicht gesehen/nicht in Erinnerung.

Ubuntu Touch/Phone habe ich schon lange am Rande mitverfolgt, leider scheint Canonical immer noch auf fuer Consumer untauglichem Stand rumzueiern: http://www.golem.de/news/aquaris-m10-ubuntu-edition-im-test-ubuntu-versaut-noch-jedes-tablet-1605-120781.html
Ich bin kein grosser Ubuntu Fan, aber die UI finde ich schon interessant. Vermutlich weil ich systemweite Wischgesten total toll finde, so war ich auch ein riesen Fan von der UI des Nokia N9 (mit Tweaks) damals.

Ich denke, gerade Canonical hat da eine grosse Chance verpasst. Wenn sie Convergence direkt hinbekommen haetten (besser als MS mit W8), haette das bestimmt einen Effekt gehabt. Damals haette man dann vielleicht auch groessere Hersteller ins Boot bekommen, die sogar x86 Tablets mit Ubuntu ausliefern koennten.
Das crowdfunding Phone von Canonical hat ja damals auch ordentliche Aufmerksamkeit bekommen, wobei das Ziel halt astronomisch hoch gesteckt war.

Ich bin auch der Meinung, dass etwa Samsung in der Richtung ruhig haette was machen koennen. Die halbherzige Tizen Bestrebungen sind nur laecherlich. Waere so eine Firma bei Jolla eingestiegen (oder haette zumindest kooperiert), haette etwas grossartiges dabei rauskommen koennen.

Und bzgl. Jolla: Finde ich natuerlich super, dass die Leute, die frueher u.a. am N9 beteiligt waren, versucht haben, den Weg weiterzugehen. Leider wirkt die Firma intransparent und war seit Beginn von Problemen geplagt. Es ist auch schade, dass Silicia nicht freigegeben wurde, obwohl es anfangs zugesagt war. Das Tablet wollte ich mir bestellen, aber nicht crowdfunden, ist ja leider nichts geworden.
Jetzt sieht es danach aus, dass Google irgendwann ChromeOS und Android zusammenfuehrt bzw. COS wegschmeisst. Chromebooks sollen ja in den USA schon relativ beliebt sein. Vielleicht kommt aus der Richtung etwas Bewegung. Ist dann aber natuerlich kein GNU/Linux...

Benutzt(e) hier eigentlich irgendwer ein GNU/Linux Tablet?

Ganon
2016-05-11, 08:03:38
Ubuntu hat es sich halt mit einem Großteil der GNU/Linux Entwickler-Community verscherzt. eigene Projektverwaltung, eigene Versionsverwaltung, eigenes Init-System, eigener Display-Server... und dann hat man einen Großteil davon wieder eingestellt oder entwickelt es nicht weiter. So kriegt man keine freiwilligen Entwickler ran. Niemand mag für potentiell toten Kram programmieren. Sogar mit Intel hat man es sich verscherzt: https://cgit.freedesktop.org/xorg/driver/xf86-video-intel/commit/?id=58a7611

Ich glaube Shuttleworth glaubt er sei Google oder Microsoft mit genügend Man-Power... die hat er aber nicht und da wundert es mich nicht, dass sie mit Mir und allem anderen auf der Stelle treten. Sie kriegen ja nicht mal die Ubuntu-Pakete sauber mit Sicherheitsupdates versorgt.

Gast
2016-05-11, 08:23:28
Ich finde es seltsam, dass für Home keine extra Partition (Ubuntu) angelegt wird. Ist das normal? Ich meine, das war früher mal anders. Oder ist das nur so bei Ubuntu.

Klar, ist man vom Speicherplatz her bei einer extra Partition unflexibler. Aber man ist eben deutlich flexibler wenn man neu installiert oder eine andere Distribution aufspielen möchte.

Matrix316
2016-05-11, 09:24:02
Ich finde es seltsam, dass für Home keine extra Partition (Ubuntu) angelegt wird. Ist das normal? Ich meine, das war früher mal anders. Oder ist das nur so bei Ubuntu.

Klar, ist man vom Speicherplatz her bei einer extra Partition unflexibler. Aber man ist eben deutlich flexibler wenn man neu installiert oder eine andere Distribution aufspielen möchte.
Naja, die Frage ist: Wie groß soll die sein?

Ich würde aber eh immer manuell partitionieren. Gerade weil man nicht weiß was die Distris da vorsichhinfrickeln.

Ist es nicht lustig, dass einerseits man sagt: Die Vielfalt am Linux Desktop ist gut und andererseits beschwert man sich wenn unterschiedliche Distros unterschiedliche Wege gehen.

Gast
2016-05-11, 09:41:58
Krasse Worte die Golem da anschlägt, wohl aber zurecht da Ubuntu auf Mobilgeräten offenbar großer Murks ist.

http://www.golem.de/news/aquaris-m10-ubuntu-edition-im-test-ubuntu-versaut-noch-jedes-tablet-1605-120781.html

Was meint ihr, wann motten die das OS ein?

Ganon
2016-05-11, 09:43:07
Naja, wie man partitioniert ist halt eher Glaubenssache. Da kann man im Endeffekt nur falsch liegen. Meine Meinung ist: Gar keine extra Partitionen für irgendwas unter /. Über /boot lässt sich streiten, und oder ob das nun die EFI-Partition ist oder nicht.

Diese ganzen Partitionsgeschichten kommen noch aus Zeiten wo man das brauchte, weil man nicht genügend Platz auf einem Datenträger hatte.

Eidolon
2016-05-11, 09:53:59
Krasse Worte die Golem da anschlägt, wohl aber zurecht da Ubuntu auf Mobilgeräten offenbar großer Murks ist.

http://www.golem.de/news/aquaris-m10-ubuntu-edition-im-test-ubuntu-versaut-noch-jedes-tablet-1605-120781.html

Was meint ihr, wann motten die das OS ein?

Weil Golem das sagt oder ein Gast in irgendeinem Forum? Ähm ja ..

Abnaxos
2016-05-11, 10:03:19
/home auf einer eigenen Partition halte ich für sehr wichtig. So kann man sein System bedenkenlos jederzeit platt machen.

/boot auf einer eigenen Partition ist ein Muss, da auch Verschlüsselung ein Muss ist – ist das geht heute immer noch am besten mit LVM/dm-crypt.

Ich mache jeweils auch noch eine eigene Swap-Partition, aber das ist heute wohl tatsächlich nicht mehr nötig. Mit 16G RAM muss man schon sehr wild tun, damit der Swap überhaupt noch verwendet wird, dann kann man das auch mit einer Datei machen.

iuno
2016-05-11, 10:22:29
Naja Partitionierung ist doch Geschmackssache. Mancher synct sein home vom/aufs NAS oder sonstwohin, mancher hat eine SSD und eine HDD, wo die Aufteilung super passt, die HDD einfach in /home zu mounten. Ein anderer installiert gerne mal neu und hat /home als Partition. Jedem das seine ;)

lumines
2016-05-11, 10:29:16
Ist es nicht lustig, dass einerseits man sagt: Die Vielfalt am Linux Desktop ist gut und andererseits beschwert man sich wenn unterschiedliche Distros unterschiedliche Wege gehen.

Das Problem bei Canonical ist auch eher, dass sie darauf hoffen, dass alle ihren Weg gehen. Alleine können sie ihre eigenen Entwicklungen zu großen Teilen nämlich nicht stemmen. Viele Sachen von ihnen waren deshalb rückblickend nicht besonders sinnvoll, weil klar war, dass sie damit alleine dastehen würden und sie (und ihre Unterstützer) das nur Zeit und Geld kostet.

Schlecht finde ich ihre Entwicklungen auch nicht. Kann nicht schaden, wenn man verschiedene Lösungen für gewisse Probleme hat. Andererseits haben sie so direkt damit aber auch nichts erreicht. Letztendlich haben sie einen Großteil ihrer Projekte wieder aufgegeben. Von einem eigenen Weg kann da also keine Rede sein.

Stört mich aber auch nicht so sehr. Ubuntu ist mittlerweile relativ erwachsen geworden und kleinere Entwicklungsschritte schaden da IMHO nicht mehr so sehr. Die großen Baustellen für Linux am Desktop sind nicht mehr so extrem technischer Natur wie noch vor ein paar Jahren.

Matrix316
2016-05-11, 10:42:04
Ich mach immer nur / und noch eine Swap Datei. Home brauch ich im Prinzip garnicht wirklich großartig da Musik und Bilder und alles an Daten eh auf einer ganz anderen Fesplatte liegen, da wenn ich eh ein Dual Boot mit Windows habe und von beiden auf die gleichen Daten zugreifen will.

iuno
2016-05-11, 10:47:22
Das Problem bei Canonical ist auch eher, dass sie darauf hoffen, dass alle ihren Weg gehen.
Das macht halt keiner, wenn die Ansaetze/Loesungen nicht besser sind, als die Alternativen, auf die die restliche Welt setzt. Insofern ist die Strategie voellig unverstaendlich und geht mMn. eher richtung nih-Syndrom, auch wenn das in dieser Umgebung absolut keinen Sinn macht.
Schlecht finde ich ihre Entwicklungen auch nicht. Kann nicht schaden, wenn man verschiedene Lösungen für gewisse Probleme hat.
Ja, wenn alles schon vorhanden ist. Es macht halt wenig Sinn, Ressourcen aufzuteilen anstatt gemeinsam Loesungen zu entwickeln, die allen helfen. Und wie du sagst hilft es ja nicht mal Canonical selbst. Upstart und Bazaar sind Geschichte, Mir kommt nicht in die Gaenge, obwohl Canonical da alles in der Hand hat. Demgegenueber steht etwa ein Unternehmen wie Jolla, das seit 2,5 Jahren Consumer Produkte mit Wayland verkauft. OK, die Hardware ist offiziell auf 2 Geraete beschraenkt aber hey, was ist Canonical, 10x so gross?

Gast
2016-05-11, 12:21:50
Weil Golem das sagt oder ein Gast in irgendeinem Forum? Ähm ja ..

Ruckelnde Touch UIs gehen nicht mehr klar heutzutage, da kann der Rest noch so gut und durchdacht sein wenn es an den Basics mangelt. Zumal es für wenig Geld bereits Android Geräte gibt die diese Probleme nicht haben. Sowas tut sich doch keiner an der schon mal ein rund laufendes Tablet benutzt hat.

Avalox
2016-05-11, 12:25:44
Canonical bezahlt u.a. auch feste Mitarbeiter im Debian Projekt. Dort werden Richtungen eingeschlagen, die würde hier in der Diskussion gar einem Canonical gar nicht vermutet werden.

Canonical geht eigene Wege, wenn Sie ihre eigene Überzeugung und Strategie nicht mit den vorhanden Plänen der übrigen Community in Übereinstimmung sehen.

Das ist auch letztendlich der richtige Weg, denn was wäre die Alternative? Das Handtuch werfen, schmollend in der Ecke sitzen, oder Dinge tun die man gar nicht will?

Die Canonical Projekte sind Canonicals Weg zu steuern, weil dieser Weg Tatsachen schafft.

Natürlich jammert die Community, weil sie sich dadurch unter Druck gesetzt fühlt und gerne die finanziellen Mittel selbst hätte, um die Sachen zu machen die ihnen Spass machen.

Wie wäre heute ein Wayland, wenn es kein MIR gäbe?
Wie wäre heute ein Gnome, wenn es kein Unity geben würde?
Wie würde heute ein Linux Start aussehen, wenn es kein Upstart gegeben hätte.

Wie würden Linux Applikationen in 10 Jahren bereit gestellt, wenn nicht Canonical heute gerade die Richtung vorschreiben täte.

Wenn Canonical die Entwickler der Community nicht überzeugen kann, dann macht es Canonical halt so lange selbst, bis diese Community irgendwann von selbst auf die Idee kommen (oder Canonical der Alleingang zu teuer wird).

Ganon
2016-05-11, 12:55:48
Aber so schnell Canonical die eigenen Überzeugungen umsetzt, so schnell begraben sie sie auch wieder. Die Gründe für Mir waren zu Beginn schon dünn und wurden mit der Zeit nicht besser. Das trifft auch viele andere Projekte.

Jetzt hier Ubuntu als Vorreiter von allem hinzustellen ist schon irgendwie mutig. Wayland gab es lange vor Mir. Der Fahrplan von Wayland bestand lange vor Mir. Canonical hat der Fahrplan von Wayland nicht gefallen (erst Zusage, dann Absage). Am Ende war Canonical mit Mir überfordert und hat zuvor kritisierten sogar Kram aus Wayland importiert, obwohl er so umgesetzt wurde wie geplant.

GNOME und systemd haben auch mit den Dingen die Canonical gemacht hat nichts zu tun. Sie haben an GNOME 2 mitgewerkelt ja, aber GNOME3 entstand vollkommen unabhängig. Ebenso gab es Vorreiter wie launchd und smf weit vor upstart... an denen hat sich systemd orientiert.

Shuttleworth ist schlicht und ergreifend größenwahnsinnig geworden. Das sieht man auch daran, dass sie hier mit Telefonen und Tablets um sich werfen die hinten und vorne nicht ausgereift sind und die vielen toten Projekte. Vermutlich hat der Mann die nächsten Jahre auch die Nase voll von Ubuntu und stellt es komplett ein.

Avalox
2016-05-11, 13:26:10
GNOME und systemd haben auch mit den Dingen die Canonical gemacht hat nichts zu tun. Sie haben an GNOME 2 mitgewerkelt ja, aber GNOME3 entstand vollkommen unabhängig. Ebenso gab es Vorreiter wie launchd und smf weit vor upstart... an denen hat sich systemd orientiert.

Shuttleworth ist schlicht und ergreifend größenwahnsinnig geworden. Das sieht man auch daran, dass sie hier mit Telefonen und Tablets um sich werfen die hinten und vorne nicht ausgereift sind und die vielen toten Projekte. Vermutlich hat der Mann die nächsten Jahre auch die Nase voll von Ubuntu und stellt es komplett ein.


Shutteleworth ist nicht der Leiter von Canonical.

Der Grund von MIR war die Ausweitung in den Mobilbereich. Zum einen hat sich Wayland inzwischen auch neu gefunden (haben die Idee dann selbst gehabt), zum anderen sind die mobilen Plattformen ja ungeheuer schnell leistungsfähiger geworden.

Das GNOME Projekt hat seine Nutzer (also die Distributionen) schlicht erpresst und ihn wurde gezeigt, wie unwichtig sie eigentlich sind. Genau unter diesem Eindruck hat sich erst Gnome wieder zu dem entwickelt, was es heute ist.

Von Hero auf Zero in nur einer einzigen Entscheidung. Schlicht weil Gnome nicht den Kundenzugang hat, den hat Canonical.

Canonical schafft Tatsachen. Anders hat z.B. Miguel de Icaza reagiert und eben geschmollt. Wer hat in der Sache " Desktop-Umgebung" nun mehr erreicht?

iuno
2016-05-11, 13:39:17
Der Grund von MIR war die Ausweitung in den Mobilbereich.
Jaja... es gibt und gab nie wirklich nachvollziehbare Gruende fuer MIR*. Wann wurde ueberhaupt damit begonnen? Bekannt geworden ist es Anfang 2013? Umsetzen wollten sie es zumindest von dort aus binnen 12 Monaten ;D
Wie schon gesagt. Zu dem Zeitpunkt hat Jolla (!) bereits ein Consumer-taugliches Smartphone mit Wayland verkauft.

*Ganon geht darauf ein. Canonical setzt inzwischen auf libinput. Android-Treiber? Bin nicht mehr so ind er Thematik drin, aber Sailfish verwendet auch seit Anfang an Android-Treiber via libhybris, nicht etwa Freedreno. Hat nicht Ubuntu fuer die Mobilgeraete auch libhybris adaptiert?

Ganon
2016-05-11, 13:39:49
Hinter GNOME und Wayland steht RedHat... die sind mit knapp 8000 Mitarbeitern mehr und Umsätzen im Milliardenbereich mehr als nur ein bisschen größer...

Die zwei großen Gründe von Mir waren: 1. Andere Input-Verwaltung, 2. Android-Treibersupport

zu 1. Mir hat das Inputsystem von Wayland übernommen
zu 2. Wayland kann auch Android-Treiber mitbenutzen

Wenn wer was im Linux-Ökosystem bewegt dann ist das eher RedHat. Die arbeiten nun quasi überall mit, vom Kernel über Treiber bis hin zum Desktop. Gerade im Linux Grafikbereich, der großen Schwachstelle von Linux, arbeitet RedHat kräftig mit, um das Problem zu lösen. Canonical schafft tote, teils closed-source Projekte, keine Tatsachen.

Ganon
2016-05-11, 13:53:43
Hat nicht Ubuntu fuer die Mobilgeraete auch libhybris adaptiert?

Ja ;D


Mir relies on the libhybris library

Gast
2016-05-11, 13:55:11
Was getan werden muss

1º Man ahmt Gobolinux nach (http://www.gobolinux.org/)
GoboLinux is an alternative Linux distribution which redefines the entire filesystem hierarchy.
In GoboLinux you don't need a package database because the filesystem is the database: each program resides in its own directory, such as /Programs/Xorg-Lib/7.4 and /Programs/KDE-Libs/4.2.0. Like it?

2º Sexy Boot Up Screen ohne Text .. what gives?
3º 100% Steam Support (SteamOS ist der Anfang)
4º Simplicity, easy to use (macOS) keine config edits, kein Sudo or Su weil
5º wie Fedora eingebautes Virtualisierung Software (Boxes) alles in einer VM läuft
6º vernünftiges Desktop System, xcfe default. Gnome 1 bzw 2.0 Look&Feel
7º 1 click Update System + Software Store (keine Auflistung der ganzen Packets)
8º 100% Hardware Support + UEFI + Built in System Backup (macrium reflect for linux z.b)
9º Wenig bis kein Nutzen des Terminals, so wenig wie möglich
10º Alles was mehr als 2 Klicks braucht, passt irgendwie nicht zu der Philosophie (Easy/Simple to use)

Ganon
2016-05-11, 14:16:31
Wo genau ist der Vorteil, wenn man jedes Paket in seinen eigenen Ordner packt? Ob meine Paketdatenbank nun ein paar KB groß ist, oder mein LD_LIBRARY_PATH ein paar KB hat... ich seh da keine Vorteile von. Und wo liegt der Vorteil für den Endanwender?

Grundkurs
2016-05-12, 08:10:25
Vermutlich hat der Mann die nächsten Jahre auch die Nase voll von Ubuntu und stellt es komplett ein.
Das würde mich auch nicht wundern, zumal Canonical seit Jahren nur Verluste einfährt.

iuno
2016-05-12, 10:04:05
Gerade im Linux Grafikbereich, der großen Schwachstelle von Linux, arbeitet RedHat kräftig mit, um das Problem zu lösen
Diesbezueglich gibt es (bald mehr) Neuigkeiten von Intel: https://www.phoronix.com/scan.php?page=article&item=intel-driver-change
Sie scheinen teilweise AMDs Strategie zu adaptieren. Userspace Treiber sollen gemeinsam fuer Windows und Linux entwickelt werden, der DRM Treiber bleibt erstmal.
Bedenkt man, dass Intel 12k Leute rausschmeisst, ist das fuer mich aber nicht die beste Neuigkeit des Tages ;(
Und nachdem sie schon laenger mit ihren offenen Treibern einen eigenen Weg gehen (ohne Gallium) hoffe ich, dass es wenigstens bei offenen Treibern bleibt und nicht zukuenftig nur noch userspace blobs kommen.

Ganon
2016-05-12, 10:21:06
Naja, OpenGL ist ja nun in Mesa schon quasi fertig. Es sind nur noch eine handvoll fehlende Extensions. Und da sich bei OpenGL eh nicht mehr allzu viel tun wird, gibt's da auch nicht mehr viel zu schließen. Geschlossene Firmware-Blobs gibt's ja nun überall. Intel, AMD und NVidia. Die nehmen sich da alle nichts.

Und naja, Gallium ist auch nur ein HighLevel Treiber Framework und z.B. für Vulkan unbrauchbar.

iuno
2016-05-12, 10:40:27
Ist klar, trotzdem ist der Windows Treiber von Intel aktuell noch deutlich weiter, was die Extensions betrifft.
Wenn sie im Zuge der "Umstrukturierung" einfach die Mesa Bestrebungen einstellen, die entsprechenden Leute entlassen und nur noch den Windows Userspace auf Linux bringen (je nachdem wie portabel das designt ist), waere das ziemlich dumm, aber durchaus im Bereich des Vorstellbaren, wenn neue Manager meinen, sie muessten im Zuge einer Restrukturierung "Ineffizienzen" beseitigen.

Klar, Gallium hat aber vor allem geholfen, redundante Arbeit einzusparen. Es waere schon schoener gewesen, Intel haette da mitgewirkt.
Auf Vulkan hat das natuerlich keinen Einfluss, weil es einfach schon hoeher/abstrahierter ist.

mir ist gerade eingefallen, dass im Kernel gar keine Komponenten erlaubt sind, die nur von blobs verwendet werden koennen. Das waere anfangs kein Problem, weil man ja die DRM Komponente mit Bezug auf die aktuellen Mesa Treiber laufen lassen koennte. Wenn aber fuer neue Hardware groessere Anpassungen noetig werden, wuerde das wohl kritisch. Die Dystopie ist also wohl doch eher unrealistisch ;)

Ganon
2016-05-12, 11:27:47
Naja, soooo deutlich weiter ist der nicht. Klar berichtet der Mesa Treiber nur OpenGL 3.3, aber die Extensions sind bis hoch zu 4.2 fertig, bis auf die 64bit Datentyp Sachen, die kaum ein Spiel braucht. Ansonsten fehlen 2 Extensions (eine für 4.3 und die andere für 4.4) um auf Höhe des Windows-Treibers zu sein.

iuno
2016-05-12, 14:28:57
Ja, natuerlich ist das "Jammern" auf hohem Niveau. Wie ein Manager das sieht kann ich aber nicht beurteilen ;)

Gast
2016-05-14, 09:48:21
Ich habe Fedora 24 Beta auf meinem Laptop gestern Nacht aufgespielt und sogar Wayland genutzt. Kurzeindruck: Ziemlich gut.

GUI (hier Gnome 3.20) und Handling etc. scheint nach Kurzeindruck zu passen (lässt sich auch noch konfigurieren). Dennoch glaube ich nicht, dass ein Linux schafft meinen Mac zeitnah abzulösen. Wenn es unbedingt sein müsste, würde es wohl gehen. Aber ich glaube (unter Vorbehalt) das wäre gerade auf der Anwendungsseite (Programme) wie ein Abstieg aus der Championsleague in die 1. Bundesliga bis Kreisliga (je nach Anwendungsgebiet natürlich). Hier und da lauern möglicherweise auch Überraschungen im positiven Sinne, wo es vielleicht sogar ein Aufstieg wäre.

Gast
2016-05-14, 15:27:00
KaOS, a lean KDE Distribution
https://kaosx.us/


KaOS is very KDE/Qt focused with shipping Qupzilla as its default web browser and shipping many extra KDE packages like the Krita drawing program by default.

kruemelmonster
2016-05-14, 20:57:45
@topic:

Da fehlen so viele grundlegende Sachen. Hatte bis vor kurzem noch Mint genutzt, nach den Sicherheits- und Paketproblemen bin ich erstmal auf Fedora gewechselt, wo ich es aber nicht hinbekommen hab den NV Treiber zu installieren, trotz extra Repo und zig Anleitungen. Hab dann siduction mit Cinnamon Desktop für mich entdeckt, diese Distro bekommt es sogar hin den Nouveau Treiber von alleine zu blacklisten und den NV Treiber einzubinden.
So lief bis gestern noch alles zufriedenstellend, bis zu dem Zeitpunkt als das Upgrade auf Cinnamon v3 anstand: nach dem Neustart sind nur noch die Desktopsymbole da, die Taskleiste fehlt komplett.

Jetzt darf ich wieder über die Konsole ran nur weil die Desktop Linuxe entweder unfähig sind Dritttreiber einzubinden, oder ihre eigenen Updates nicht überleben.

MMn fehlen gewisse Standards an die sich jeder hält, dieser ideologische Wildwuchs bringt in der Praxis für ein Gaming Desktop Linux nur Nachteile.

Avalox
2016-05-14, 21:32:58
Um am Desktop etwas anderes als Ubuntu zu benutzen braucht schon gute Gründe.

Entgegen einem Mint muss man halt noch ein paar AddOns dazu installieren, die ein größeres Ubuntu natürlich nicht mitliefern darf, wie das kleine eher Hobby mässige Mint. Cinnamon liegt jedenfalls in den offiziellen Quellen.

Gast
2016-05-14, 23:11:01
Cinnamon liegt jedenfalls in den offiziellen Quellen.

Allerdings nicht die 3.0, sondern die (AFAIK) letzte Version mit einer 2 in der Versionsnummer. OK, wahrscheinlich nichts tragisches.

Für ein 3er Cinnamon braucht es dann eine PPA und da muss man dem, der die PPA baut wieder vertrauen (oder selber alles bauen).

lumines
2016-05-14, 23:40:10
Hab dann siduction mit Cinnamon Desktop für mich entdeckt, diese Distro bekommt es sogar hin den Nouveau Treiber von alleine zu blacklisten und den NV Treiber einzubinden.
So lief bis gestern noch alles zufriedenstellend, bis zu dem Zeitpunkt als das Upgrade auf Cinnamon v3 anstand: nach dem Neustart sind nur noch die Desktopsymbole da, die Taskleiste fehlt komplett.

Vielleicht haben die Leute hinter siduction da nicht so drauf hingewiesen, aber siduction basiert auf Debian unstable. Das ist quasi der unfertigste Testzweig von Debian und Updates können (müssen natürlich nicht unbedingt) mit hoher Wahrscheinlichkeit das System zerlegen. Debian unstable ist auch bewusst keine eigene Distribution, sondern einfach nur eine der Vorstufen, aus denen später ein Debian Release geformt wird.

Kann man natürlich benutzen, aber für schwache Nerven ist das nix. Das Debian-Projekt empfiehlt für normale Nutzer die stabilen Releases: https://wiki.debian.org/DebianStable

Grundkurs
2016-05-17, 09:16:29
KaOS, a lean KDE Distribution
https://kaosx.us/


KaOS is very KDE/Qt focused with shipping Qupzilla as its default web browser and shipping many extra KDE packages like the Krita drawing program by default.

Um am Desktop etwas anderes als Ubuntu zu benutzen braucht schon gute Gründe.

Hab Kaos vor ein paar Tagen auf einem älteren Gerät installiert. Wenn ich Firefox auf Vollbild gestellt hab, ist das Gerät reproduzierbar abgestürzt. No-Go. Hab es dann mit Slacko-Puppy-Linux probiert, da es besonders resourcenfreundlich sein soll. War vom Ding her ansprechend. Leider hatte es keine GCC-Compiler an Bord. Habe daher das aktuellste Developer-Paket runtergeladen. Dies enthielt jedoch nur einen GCC-Compiler in Version 4.8.2 von 2013, aktuelle Version ist GCC 6.1. Wie man die ganz aktuelle Version aufs Gerät kriegt, war nicht zu erschließen. Also wieder zurück auf Lubuntu. Resourcensparsam, GCC 6.1 lässt sich ohne Gewürge installieren, alle Apps laufen im Vollbild etc.
Mein Eindruck ist, dass sobald man Ubuntu/Debian Fahrtwasser verlässt, es sehr schnell ruppig wird.

Boris
2016-05-17, 09:27:27
Mein Eindruck ist, dass sobald man Ubuntu/Debian Fahrtwasser verlässt, es sehr schnell ruppig wird.
Kann ich nicht bestätigen, kommt allerdings immer auf die Distribution an die man mit Ubuntu vergleicht.

kruemelmonster
2016-05-17, 17:40:36
Vielleicht haben die Leute hinter siduction da nicht so drauf hingewiesen, aber siduction basiert auf Debian unstable. Das ist quasi der unfertigste Testzweig von Debian und Updates können (müssen natürlich nicht unbedingt) mit hoher Wahrscheinlichkeit das System zerlegen. Debian unstable ist auch bewusst keine eigene Distribution, sondern einfach nur eine der Vorstufen, aus denen später ein Debian Release geformt wird.

Kann man natürlich benutzen, aber für schwache Nerven ist das nix. Das Debian-Projekt empfiehlt für normale Nutzer die stabilen Releases: https://wiki.debian.org/DebianStable

Siduction auszuprobieren war schon eine bewußte Entscheidung da es prinzipiell meine Kriterien erfüllt: aktuelle Pakete & Kernel, die Möglichkeit NV-Treiber ohne 1000 Verrenkungen zu installieren, und ein offizielles Cinnamon Release.

Besonders an Punkt 2 scheitern meiner Erfahrung nach viele Distros, und falls es mal läuft wie bei Mint kommt Punkt 1 hinzu, oder das System zerlegt sich wie Sid andersweitig.

In Sachen Treiberinstallation und OS Selbstschutz erinnern mich aktuelle Linuxe weiterhin an die dunklen Zeiten von Windows 95/98; daran müsste sich etwas ändern damit Linux mehr Marktanteile erlangt. Wenn ich über Monate und Jahre hinweg immer mit den gleichen Problemen zu kämpfen habe bleibt ein Linux bestenfalls etwas das man aus Spieltrieb auf einer zweiten Platten betreibt, und froh ist nach dem Experimentieren wieder zu Windows zurückgehen zu können (das zumindest in der Lage ist IMMER mit einen Standard VGA Treiber hochzufahren).

Eidolon
2016-05-18, 09:22:46
Ist Linux auch, nur musst du verstehen das bei Linux die Shell Standard ist und eben nicht der Desktop.

iuno
2016-05-18, 09:49:26
Test des Tuxedo Infinitybook bei Linux User/auf Golem: http://www.golem.de/news/tuxedo-infinitybook-angesehen-unendlich-linux-1605-120905.html

nettes kleines Ultrabook mit Skylake-U, M.2 SSD und vorinstalliertem elementaryOS

lumines
2016-05-18, 10:37:30
In Sachen Treiberinstallation und OS Selbstschutz erinnern mich aktuelle Linuxe weiterhin an die dunklen Zeiten von Windows 95/98; daran müsste sich etwas ändern damit Linux mehr Marktanteile erlangt. Wenn ich über Monate und Jahre hinweg immer mit den gleichen Problemen zu kämpfen habe bleibt ein Linux bestenfalls etwas das man aus Spieltrieb auf einer zweiten Platten betreibt, und froh ist nach dem Experimentieren wieder zu Windows zurückgehen zu können (das zumindest in der Lage ist IMMER mit einen Standard VGA Treiber hochzufahren).

Daran wird sich mit dem Nvidia-Treiber auch nichts ändern. Einer der Gründe, warum ich auch seit Jahren nichts mehr von Nvidia kaufe.

Grundsätzlich gibt es mit nouveau ja einen Fallback für Nvidia-Karten, aber der Nvidia-Treiber fummelt, jedenfalls soweit ich weiß, im System rum und deaktiviert den. Das ist auch einer der Gründe, warum die meisten Distributionen aufwendige Skripte haben, damit bei einer Deinstallation der Nvidia-Treiber der alte Zustand wiederhergestellt wird. Wenn der Nvidia-Treiber aber nach der Installation irgendwie versagt, dann sitzt man natürlich im Regen.

Ist Linux auch, nur musst du verstehen das bei Linux die Shell Standard ist und eben nicht der Desktop.

Das stimmt doch gar nicht. Standard ist das, in das die Distribution standardmäßig bootet und benutzbar ist. Die Shell ist auch nur ein Interface, aber nicht das Einzige.

iuno
2016-05-18, 10:43:00
Es ging wohl darum, was passiert wenn standard vesa Treiber benutzt werden muessen. In ein Terminal im Text-Modus kommt man damit auf jeden Fall. Dass man nicht in jedem Fall eine moderne DE mit X gestartet bekommt, koennte ich aber auch nachvollziehen.

Matrix316
2016-05-18, 11:23:26
Ich denke mal Treiber ist wohl das größte Problem bei Linux. Es bringt nix, wenn man sagt: Ubuntu stört mich das, bei Mint das, nimmt doch Fedora oder Manjaro und dann funktioniert die Grafikkarte dort nicht richtig oder die Soundkarte oder sowas.

So viele Fehler Windows hat, aber es gibt eigentlich für fast alles (aktuelle an Hardware) Treiber und die laufen in der Regel auch.

lumines
2016-05-18, 11:34:16
… bis man auf die nächste Windows-Version updatet und doch irgendein Treiber nicht kompatibel ist. Kann man nicht oft genug sagen, dass man unabhängig vom OS penibel auf eine lange Unterstützung der Hardware achten sollte. Eingestellte Treiber sind für die meiste Hardware heute die wahre geplante Obsoleszenz.

Ganon
2016-05-18, 12:25:02
Mal abgesehen davon, wenn NVidia das System zerferkelt... normalerweise müsste bei einem fehlenden Treiber oder VESA sofort LLVMpipe anspringen und dann sollte jeder Desktop laufen. Ist immerhin ein OpenGL 3.2 Treiber. Dass man auf der Konsole landet sollte, außer man erstellt selbst eine kaputte Xorg.conf, nie passieren.

lumines
2016-05-18, 12:37:47
Haben die proprietären Treiber (auch bei AMD) nicht immer einige Systemdateien ersetzt? Meine ich jedenfalls. Da waren auch Libraries dabei, ohne die OpenGL einfach überhaupt nicht mehr ging (auch nicht mit LLVMpipe). Das ist jedenfalls ein zu 100% hausgemachtes Problem bei solchen Treibern.

Gast
2016-05-18, 16:20:25
Test des Tuxedo Infinitybook bei Linux User/auf Golem: http://www.golem.de/news/tuxedo-infinitybook-angesehen-unendlich-linux-1605-120905.html

nettes kleines Ultrabook mit Skylake-U, M.2 SSD und vorinstalliertem elementaryOS

Ein Mac für Arme kann es aber auch nicht sein. Genau das denkt jedoch der gewöhnliche Kunde bei dem Teil. So bekommt man das Image im vergleich zu OS X oder Windows minderwertig zu sein nicht weg wenn man versucht sich auf Teufel komm raus dementsprechend zu positionieren..

iuno
2016-05-18, 17:26:55
Sehe ich nicht so. Ein Linux Notebook kauft man eher bewusst, auch wenn es den meisten egal sein duerfte. Viele kaufen dafuer halt ein "Windows-Notebook".
Hier hat man aber voll kompatible Hardware, wer auf das Mac Design steht und ein solches Geraet haben will, fuer den ist das doch ok. Zumal das Geraet nun auch verglichen mit Windows Ultrabooks preislich durchaus konkurrenzfaehig ist.

Matrix316
2016-05-18, 17:53:51
… bis man auf die nächste Windows-Version updatet und doch irgendein Treiber nicht kompatibel ist. Kann man nicht oft genug sagen, dass man unabhängig vom OS penibel auf eine lange Unterstützung der Hardware achten sollte. Eingestellte Treiber sind für die meiste Hardware heute die wahre geplante Obsoleszenz.
Aber bei Windows kann ich mir zu 99% sicher sein, dass neue Hardware mit neuem Windows laufen. Bei Linux kann man zu 99% sicher sein, dass neue Hardware mit neuem Linux Probleme machen. :freak:

Stanger
2016-05-18, 18:57:17
dass neue Hardware mit neuem Windows laufen. Bei Linux kann man zu 99% sicher sein, dass neue Hardware mit neuem Linux Probleme machen.

Dafür wird man bei Linux nicht genötigt neue Hardware zu kaufen weil man schlichtweg einfach keine Treiber für "alte" Hardware unter W10 bereitstellt.
Bei neuer Hardware unter Linux hat man wenigstens die Chance das ein Geek einen Treiber dafür bastelt/modifiziert.

Stanger

Dr.Dudendrucker
2016-05-18, 21:05:35
Dafür wird man bei Linux nicht genötigt neue Hardware zu kaufen weil man schlichtweg einfach keine Treiber für "alte" Hardware unter W10 bereitstellt.
Und welche soll das sein?

lumines
2016-05-18, 21:06:59
Und welche soll das sein?

Alte Scanner / Drucker, teilweise WLAN-Karten. Gibt hier doch genug Threads dazu.

Dr.Dudendrucker
2016-05-18, 21:13:19
Hallo, sicherlich wird es auch HW geben, die man nicht eingerichtet bekommt. Oft funktionieren aber auch W7/W8 Treiber. Hatte das neulich auch - mit einem Canon-Scanner. Scheinbar nicht installierbar unter W10, nun läuft er (inklusive SW). Und auch unter Linux gibt es HW, die schwer bis gar nicht "installierbar" ist. MfG

lumines
2016-05-18, 21:35:58
Und auch unter Linux gibt es HW, die schwer bis gar nicht "installierbar" ist. MfG

Natürlich, deshalb achtet man auch vorher genau darauf. Ich benutze jetzt GNU/Linux seit etwas über zehn Jahren am Desktop und meine gesamte Hardware wird noch immer vollständig unterstützt. Gerade meine uralten WLAN-Karten haben sogar noch in letzter Zeit Features dazubekommen, während hier Leute nach Treibern für die gleiche oder sogar neuere Hardware unter Windows 10 suchen und nichts finden.

Ich will damit nicht sagen, dass GNU/Linux heute Windows komplett ersetzen kann. In einigen Bereichen ist es aber so viel angenehmer, dass ich manchmal nicht einmal mehr Windows auch nur in Betracht ziehe.


ath5k mit neuer Ambient Noise Immunity. Hat mal eben meinen Durchsatz bei schlechter Verbindung um 1/3 erhöht und die Latenz ist auch niedriger geworden (Bufferbloat-Projekt). Das ist steinalte 802.11g-Hardware. Fand ich ziemlich beeindruckend. Wäre sicher auch mit proprietären Treibern gegangen, aber welcher Hersteller integriert nach zehn Jahren noch neue Features? Oder gar auch nur Bugfixes? Das kann man sich nicht für Geld kaufen, nicht einmal mit Supportverträgen für zehntausende Euro bei Herstellern wie Cisco.

Das stimmt so natürlich nicht stellvertretend für jede Hardware, sondern ist nur eine Anekdote. Das ist aber ein kleiner Vorgeschmack, was freie Systeme liefern könnten, wenn mehr Leute freie Treiber und Software fordern würden.

Dr.Dudendrucker
2016-05-18, 22:22:36
Ja. Ich meinte nur - nutze selbst auch ein Linux (Ubuntu), seit vielen Jahren. Muss ja nicht immer so sein, nur manchmal gibt der eine oder andere Windows-Nutzer eben gleich auf, wenn der Hersteller oder MS keinen dedizierten Windows 10 Treiber bereitstellt. Darf man glaube so einfach mal festhalten. Für mein Notebook, da gibt es "offiziell" noch Vista Treiber (32-bit). Jenes hat W7 (64-bit) überstanden und läuft nun hervorragend mit W10 (64-bit), alle HW-Komponenten sind/wurden installiert. Und Microsoft ist da weniger in der Pflicht (ist so), Treiber bereitzustellen... wenn dann doch der Hersteller der Hardware, so sehe ich das.

Matrix316
2016-05-18, 22:26:00
Gerade in der aktuellen c't ist ein Bericht drüber, dass die neueste Skylake Grafik in Notebooks nicht mit Ubuntu bzw. Linux kompatibel sind, weil Intel vergessen hat irgendwo was reinzuschreiben. Ist ja nicht die Schuld von Linux, aber das interessiert den normalen 0815 User ja nicht. Wenn irgendwelche Uralt Drucker oder so unter einem neuen Windows nicht mehr laufen ist das IMO auch weniger schlimm als wenn die neueste HW nicht supportet wird.

Dr.Dudendrucker
2016-05-18, 22:40:01
Richtig. Und wenn (mal andersherum) ich lese: "Für die xxx der xxx Serie und der xxx Serie sind verschiedene Treiber für Linux und verwandte Betriebssysteme erhältlich. Bitte beachten Sie dass xxx keinen Support, weder telefonisch noch schriftlich, für Linux Treiber bieten kann, da diese Treiber nicht von xxx erstellt wurden." - Dafür kann jetzt Linux aber auch Microsoft... nichts.

Ein guter, funktionierender Treiber-Support - ist manchmal ganz wichtig. Bei einer 600€-Soundkarte vielleicht... ;)

Sicherlich bei Ubuntu hat sich über die Jahre so einiges getan/verbessert. Aber ich weiß es nicht, Linux einem Neuling an die Hand zu geben - fällt mir nach wie vor schwer. Auch im Consumer-Segment braucht es die Hersteller/Anbieter, die Treiber und Software (allgemein) bereitstellen und das breitbandig mit Support.

Ergo - Das Linux "nur" auf den Endgerät installiert ist, reicht meiner Meinung nach nicht aus.

Der klassische User, der möchte schnell und unkomplizierte Hilfe, den neuen Treiber fix installieren, updaten und dann wieder arbeiten. Bitte ohne Console and Guide. (Das macht Arbeit, kostet Zeit und es funktioniert vielleicht gar nicht - beim ersten Versuch... da hat "keiner" Bock drauf.)

Wenn die Hardwaredetails bekannt sind, befindet sich der Linux-Anwender theoretisch auf der Gewinnerseite. Denn anders als bei Windows oder Mac OS kann er in die Quellen schauen, sie ändern, Backports und Patches einspielen und neu kompilieren. Das Problem ist eher, die eigentliche Ursache des Fehlers ausfindig zu machen. Und da kommen dann auch noch die Distributoren in die Quere. http://www.linux-magazin.de/Ausgaben/2011/09/Linux-Desktop

Gast
2016-05-18, 22:52:01
Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?


Sofern man nicht linuxunfreundliche Hardware besitzt, dann geht die Einrichtung von einem System mit einer Distribution wie Ubuntu oder Fedorda doch gut von der Hand. Eigentlich ist das dann sogar einfacher, als die Installation von Windows, da (fast) alles OOTB läuft, ohne manuelle Treibeinstallation.

Die Oberflächen finde ich auch recht gut, auch wenn ich mir die nur flüchtlg angesehen habe (meine intensivere Linux-Zeit liegt ca. 10 Jahre zurück => damals fand ich die Oberflächen u.a. gerade ein Gnome 2 aber auch mehr als OK). Das ist dann teilweise auch eine Geschmackssache.

Letztendlich hängt es dann IMHO zum Großteil nur davon ab, ob es die benötigte Software in der verlangten Qualität für Linux gibt. DENN: Das OS bzw. der Rechner ist (eigentlich) kein Selbstzweck, sondern dient der Erfüllung von div. Aufgaben, für die es Anwendungen braucht.

Und ob es hier passt oder nicht, hängt stark vom Einsatzbereich ab (und ggf. ob man unter OS X oder Windows bereit ist Geld für Software in die Hand zu nehmen).
Hier spielt dann neben der verfügbaren Software für Linux an sich natürlich auch rein, wie gut das Repository der jeweiligen Distribution ausgestattet ist und gepflegt wird.

Gast
2016-05-19, 17:15:23
Sehe ich nicht so. Ein Linux Notebook kauft man eher bewusst, auch wenn es den meisten egal sein duerfte. Viele kaufen dafuer halt ein "Windows-Notebook".
Hier hat man aber voll kompatible Hardware, wer auf das Mac Design steht und ein solches Geraet haben will, fuer den ist das doch ok. Zumal das Geraet nun auch verglichen mit Windows Ultrabooks preislich durchaus konkurrenzfaehig ist.

Linux Notebooks die optisch an die älteren IBM Thinkpads angelehnt sind und wo dann eine Distri mit minimalistischem Tiling WM vorinstalliert ist würde da besser passen. Warum nicht die Nerds direkt ansprechen anstatt irgen einen pseudo Consumer der so eh nicht existiert? Linux sollte Linux sein, nicht irgenin Mac oder Windows Abklatsch. Wer Mac will und das Design mag, der kaumt eher direkt einen Mac. gebraucht gibts für den Preis des Tuxedo books ja auch schon gute Geräte..

iuno
2016-05-20, 12:52:52
Google bringt waehrenddessen "Linux" weiter unter die Massen: http://www.heise.de/newsticker/meldung/Marktforscher-Chromebooks-erstmals-vor-Macs-in-den-USA-3211870.html

Avalox
2016-05-20, 22:30:31
Ja. Mit Kommentar von Linus


https://plus.google.com/+LinusTorvalds/posts/GPbJZX8fmtL

Gast
2016-08-01, 01:21:45
Ja. Mit Kommentar von Linus

https://plus.google.com/+LinusTorvalds/posts/GPbJZX8fmtL

Das Chrome BS ist doch aber stark abgespeckt oder kommt es an die Funktionalität eines Linux' MINT bzw. Windows 10 ran!?

Außerdem macht Chrome von Google wenig Sinn, wenn es einem auf den Datenschutz ankommt, oder?

Lurtz
2016-08-03, 21:52:43
Weil das proprietäre Google-Zeug ja so viel mit Linux zu tun hat.

lumines
2016-08-04, 00:21:43
Das Chrome BS ist doch aber stark abgespeckt oder kommt es an die Funktionalität eines Linux' MINT bzw. Windows 10 ran!?

Es ist ein normales GNU/Linux. Ansonsten könnte man nicht per chroot beliebige andere Distributionen benutzen.

Außerdem macht Chrome von Google wenig Sinn, wenn es einem auf den Datenschutz ankommt, oder?

Hinter dem Kernel steht keine besondere Ideologie, von der Lizenz des Quellcodes einmal abgesehen.

Weil das proprietäre Google-Zeug ja so viel mit Linux zu tun hat.

Es hat so viel mit Linux zu tun, dass es tatsächlich Linux als Kernel benutzt. Also einiges. Das Zeug von Google hat auch noch nie Linux als Kernel ersetzt.

Ganon
2016-08-04, 07:57:25
Linus ist ist eigentlich egal wer oder wie man den Kernel benutzt, solange man das was man selbst erweitert bzw. dranpappt wieder zurückgibt an die Kernel-Entwicklung.

Alles was über dem Kernel ist, ist ihm eigentlich ziemlich egal, außer es pfuscht selbst im Kernel rum.

Gast
2016-08-04, 11:29:41
Das Chrome BS ist doch aber stark abgespeckt oder kommt es an die Funktionalität eines Linux' MINT bzw. Windows 10 ran!?

Afaik ist ChromeOS ein stark modifiziertes Gentoo Linux. Ob es an die Funktionalität von Windows 10 ran kommt hängt eben davon ab was du mit dem Ding machst. Vieles geht heutzutage im Browser.


Außerdem macht Chrome von Google wenig Sinn, wenn es einem auf den Datenschutz ankommt, oder?

Kommt drauf an vor wem Du deine Daten schützen willst. Für Hacker ist es wahrscheinlich leichter auf deinen Windows PC zuzugreifen als auf die Daten in der Cloud. Ist doch logisch, die Clouds sind einfach viel besser gegen sowas gesichert als ein Heim-Netzwerk mit 0815 Router und Firewall. Zumal andere Geräte in deinem Netzwerk wie SmartTVs, veraltete Android Tablets etc. auch immer Angriffsvektoren darstellen von wo aus Hacker ein Netzwerk übernehmen können. Also für den Normalo ist da ChromeOS um einiges sicherer.

Matrix316
2016-08-04, 16:12:06
Chrome OS oder auch macOS (oder auch Android) zeigen doch, worauf es ankommt, wenn man ein "Unix" ähnliches Basis System der breiten Masse zur Verfügung stellen will:

-Es muss gut aussehen
-Es muss einfach zu bedienen sein
-Es muss ausreichend Software (auch kommerzielle) vorhanden sein

Was alle Linux Distries gemeinsam haben:

-Es sieht im Detail meistens nicht gut aus (Ausnahmen wie Ubuntu Unity bestätigen die Regel ;))
-Es lässt sich im Detail meistens nicht wirklich einfach bedienen (Ausnahmen wie Ubuntu Unity bestätigen die Regel ;)) und man braucht irgendwann 99% die Konsole die man selbst auf dem Mac zu 99% umgehen kann, obwohl man dort eine ähnliche Basis hat.
-Die Softwareauswahl ist zwar reichlich aber in der Regel auf OpenSource beschränkt (Ausnahmen wie ca. 2-3 AAA Titel auf Steam bestätigen die Regel - kein MS Office, keine Adobe Suit z.B. um die größten mal zu nennen)

lumines
2016-08-04, 16:23:50
Chrome OS oder auch macOS (oder auch Android) zeigen doch, worauf es ankommt, wenn man ein "Unix" ähnliches Basis System der breiten Masse zur Verfügung stellen will:

Chrome OS, macOS und Android haben aber vor allem gemein, dass sie auf der Hardware vorinstalliert sind.

Ganon
2016-08-04, 16:23:56
- die Daten im System gehören mir
- es gibt keine "geheimen" Hintergrundprozesse die Daten fleißig mit dem Hersteller austauschen
- mir wird keine herstellerbasierte Cloud oder Hersteller-Account mehr oder weniger aufgezwungen
- die Software die ich über den Paketmanager installiere wird per Checksumme (+Signatur) auf Korrektheit geprüft
- wenn mir was im System nicht gefällt, dann ändere ich das einfach

Ganz im Gegensatz zu "Cortana ist immer an" (W10)... "Wenn du was installieren willst, dann mach erst mal einen Account" (Android), "Nö, Updates kriegst DU nicht mehr" (Android, macOS)...

arne
2016-08-04, 18:39:42
Ich glaube nicht mehr, dass irgendwas an Linux, oder den Desktopumgebungen den Markterfolg von Linux beeinträchtigt.

Was mir viel wahrscheinlicher erscheint ist, dass die meisten Windows-User für sich keinen Nutzen sehen, der den Aufwand, sich mit einem anderen System zu beschäftigen, aufwiegt.

Ob sie damit objektiv recht haben, ist ein anderes Thema. Aber ich könnte meinen Bekannten, die ihren PC für Browser & Textverarbeitung nutzen auch nicht überzeugend erklären, warum es sich für sie persönlich lohnt Linux einzusetzen.

Die Personen, denen Dinge wie Sicherheit, Datenschutz, Open Source, etc. wichtig sind, muss ich nicht mehr überzeugen, und die anderen kann ich damit nicht überzeugen.

Für den 0815-User sind sowohl Linux, Windows wie auch MacOS gut genug. Seit Jahren.
Also benutzen sie das was sie kennen, also das was auf ihrem PC vorinstalliert war.
Und wenn sie einen neuen kaufen, werden sie wieder das gewohnte haben wollen.

Ich sehe keinen Grund warum sich das jemals ändern sollte.

Avalox
2016-08-04, 23:20:23
Es wird sich genau durch zwei Dinge ändern.

Dem Bedeutungsverlust von Windows für das MS Geschäftsmodell
Dem Bedeutungsverlust der Intel Monokultur für den IT Markt.

Das interessante daran ist, dass diese beiden Effekte selbstverstärkent sind.


Das bedeutet natürlich nicht, dass ein Gnome oder KDE noch irgend eine wesentliche Rolle einnehmen wird, aber Linux wird auch in der letzten Bastion immer wichtiger werden. Microsoft loves linux. Anders geht es auch nicht. Es ist schon längst entschieden.

arne
2016-08-05, 01:21:16
Avalox, Ich wäre hoch erfreut solltest du Recht behalten, aber deine Argumentation überzeugt mich nicht.

Ja, die Bedeutung von Windows für die Umsätze von Microsoft nimmt ab. Aber das bedeutet nicht, dass deswegen die Nutzer auf ihrem PC von Windows zu Linux wechseln. Warum sollten sie?

Ja, Intels Bedeutung für den IT-Markt im allgemeinen nimmt ab. Aber Intels Bedeutung für den PC-Markt sehe ich nicht abnehmen. Außerdem habe ich Intel nie als Bremsklotz für die Verbreitung von Linux gesehen.
Mit Ausnahme der gruseligen Grafikchips mit lizensierter PowerVR-Technik in einigen Atoms, habe ich nie von Problemen gehört, Intel-Hardware mit Linux zu betreiben. Im Gegenteil: Egal ob Grafik-, DVB-T, oder WIFI-Chip, Intel-Hardware hatte unter Linux idR die besseren Treiber als die Konkurrenz. Zudem nicht nur besser, sondern auch OpenSource lizensiert und im Kernel eingepflegt.
Übrigens im Gegensatz zu vielen ARM-Frickeleien, wo Treiberunterstützung bedeutet, dass der Hersteller irgendwann mal einen Patch erstellt hat, der nur mit einer Kernelversion von vor 2 Jahren funktioniert, nie in den Kernel eingepflegt wurde und deshalb nicht mehr mit aktuellen Systemen funktioniert.

Lurtz
2016-08-05, 07:52:16
Edit.

Korfox
2016-08-05, 08:21:41
Ich denke, wenn Microsoft so weitermacht, wird sich das wohl von selbst erledigen.
Wenn ich alle 6-12 Monate durch ein erzwungenes Feature-Upgrade einen ähnlichen Aufwand habe, wie bei einer Neuinstallation (eigentlich sogar noch mehr, weil ich erst suchen muss, was verbogen ist)... klingt ein Debian oder Ubuntu mit 5-7 Jahren Support doch sehr verführerisch.
Und das wird Unternehmen im reduzierten Umfang nicht anders gehen, wenn 8.1 erstmal aus dem Support raus ist.

Avalox
2016-08-05, 09:19:44
Avalox, Ich wäre hoch erfreut solltest du Recht behalten, aber deine Argumentation überzeugt mich nicht.

Ja, die Bedeutung von Windows für die Umsätze von Microsoft nimmt ab. Aber das bedeutet nicht, dass deswegen die Nutzer auf ihrem PC von Windows zu Linux wechseln. Warum sollten sie?



Der PC, alle Intel basierenden Geräte, sind eine Monokultur die mit dem IBM PC ihren Anfang hatte.

Diese identische Plattform ist für Microsoft die Bedingung mit überschaubaren finanziellen Aufwand die Entwicklung eines Betriebssystems zu leisten.

Es ist auch die selbe Plattform die dazu führte, dass sich ein Linux mit ganz wenig finanziellen und personellen Aufwand entwickeln konnte.

Doch Linux kann vom Entwickler einer nicht standardisierten Plattform selbstständig angepasst werden, Windows kann das nicht.

Das ist genau der Grund, weshalb eine Bestrebung wie Windows Phone niemals hat funktionieren können.

MS musste zwangsläufig ihre Entwicklung auf Zielplattformen einschränken und sie wählten drei SoC PLattformen, von denen sie dachten gut zu liegen. Allerdings verschwand eine Plattform davon sofort vom Markt, eine andere Plattform klammerte etwas später Smartphones aus und die dritte Plafform lief anfänglich zeigte, dann aber immer stärker Nachteile. MS lag also völlig falsch und sie mussten damit auch zwangsläufig falsch liegen, weil die Spieler heute, damals noch gar nicht eine Bedeutung hatten.

Genau das selbe passiert aber nicht nur bei Smartphones, es passiert bei allen möglichen Geräten, welche sukzessiv dem PC die Anwendungsfelder substituieren.

Und am Kernmarkt des PC wird früher oder später eine Unternehmung Erfolg haben eine Alternative zu platzieren. Eine Alternative, die weil sie nicht auf eine Plattform fixiert ist, ihren wirtschaftlichen Vorteil voll ausschöpfen wird.

Der enorme Vorteil von Linux ist es, dass der Hersteller das System anpassen kann, es wird eine Produktivierungsstufe eingespart. Das macht den Hersteller viel flexibler, den Time to Market Zeitraum viel kürzer und das Produkt günstiger.

Weshalb ist Andorid, ein Linux, so dermaßen erfolgreich, das erfolgreichste Enduser Betriebssystem aller Zeiten? Weil der Entwickler erkannt hat, dass der Vorteil von Linux nur mit einem Abstraktionsmodell für kommerzielle ClosedSource kombiniert werden muss, um es zu komplettieren.

Solange Linux darauf basierte, dass die Anwendungen ebenfalls OpenSource sind und von jedem übersetzt werden können müssen, ist die Plattform für Entwicklern die sich über Software produktivieren uninteressant, weil sie egal was sich machen nur einen kleinen Teil erreichen können.

Chrome OS ist das erste Desktop Linux, welches ein durchgängig abstrahiertes Anwendungsmodell einbringt, dass wird über kurz oder lang Erfolg haben.
Hat es ja heute schon, es ist das erste Linux mit einem nativen Photoshop, mit einem nativen MS Office.

MS hat die Entwicklung längst erkannt und plant mittelfristig die Windows Entwicklung weiter zu verschlanken und das Geld abzuziehen. Statt dessen setzt man auf Standard Technologien und wird Dienstanbieter. Was auch gut ist. Denn jede Software ist im Grunde ein Dienst und niemals statisch. Dieser Trend egalisiert den Client immer weiter.

arne
2016-08-05, 15:21:38
Der PC, alle Intel basierenden Geräte, sind eine Monokultur die mit dem IBM PC ihren Anfang hatte.

Diese identische Plattform ist für Microsoft die Bedingung mit überschaubaren finanziellen Aufwand die Entwicklung eines Betriebssystems zu leisten.

Ich glaube nicht, dass der finanzielle Aufwand irgendein Problem für Microsoft ist. Früher unterstützte der NT-Kernel auch MIPS und PowerPC. Selbst das ewig klamme Sun hat ihr Solaris für mehrere Plattformen anbieten können.


Doch Linux kann vom Entwickler einer nicht standardisierten Plattform selbstständig angepasst werden, Windows kann das nicht.

Was hilft das dem Erfolg von Linux auf dem PC-Desktop? Oder erwartest du eine Architektur, die in den nächsten Jahren dem PC auf dem Desktop Konkurrenz macht?


Das ist genau der Grund, weshalb eine Bestrebung wie Windows Phone niemals hat funktionieren können.

Ich würde sagen, der Grund warum Windows Phone nicht funktioniert hat, war vielmehr, dass man dem durchschnittlichen User nicht leicht erklären kann, warum er von Android zu Windows Phone wechseln soll. Also das gleiche Problem was Linux auf dem Desktop mit Windows hat.


[...] Und am Kernmarkt des PC wird früher oder später eine Unternehmung Erfolg haben eine Alternative zu platzieren. Eine Alternative, die weil sie nicht auf eine Plattform fixiert ist, ihren wirtschaftlichen Vorteil voll ausschöpfen wird.

Die dann kein PC mehr ist? Und welche Relevanz haben geringere Kosten, wenn, zumindest anfangs, die Erlöse ebenso deutlich geringer sind?


Der enorme Vorteil von Linux ist es, dass der Hersteller das System anpassen kann, es wird eine Produktivierungsstufe eingespart. Das macht den Hersteller viel flexibler, den Time to Market Zeitraum viel kürzer und das Produkt günstiger.

Was meinst du mit Produktivierungsstufe? Wenn ich das Wort google, finde ich zwei Treffer: Beide im 3D-Center-Forum, beide von dir.


Weshalb ist Andorid, ein Linux, so dermaßen erfolgreich, das erfolgreichste Enduser Betriebssystem aller Zeiten? Weil der Entwickler erkannt hat, dass der Vorteil von Linux nur mit einem Abstraktionsmodell für kommerzielle ClosedSource kombiniert werden muss, um es zu komplettieren.

Solange Linux darauf basierte, dass die Anwendungen ebenfalls OpenSource sind und von jedem übersetzt werden können müssen, ist die Plattform für Entwicklern die sich über Software produktivieren uninteressant, weil sie egal was sich machen nur einen kleinen Teil erreichen können.

Als ob man unter einem normalen Desktop-Linux keine kommerzielle Software einsetzen könnte. Gab es schon früh. Ich erinnere z.B. an Loki Games. Die sind platt gegangen weil der Markt fehlte, nicht das Abstraktionsmodell.


Chrome OS ist das erste Desktop Linux, welches ein durchgängig abstrahiertes Anwendungsmodell einbringt, dass wird über kurz oder lang Erfolg haben.
Hat es ja heute schon, es ist das erste Linux mit einem nativen Photoshop, mit einem nativen MS Office.

Entweder haben wir unterschiedliche Definitionen von "nativ", oder du weißt etwas was ich nicht weiß. Meines Wissens laufen beide Produkte eben nicht nativ.


MS hat die Entwicklung längst erkannt und plant mittelfristig die Windows Entwicklung weiter zu verschlanken und das Geld abzuziehen. Statt dessen setzt man auf Standard Technologien und wird Dienstanbieter. Was auch gut ist. Denn jede Software ist im Grunde ein Dienst und niemals statisch. Dieser Trend egalisiert den Client immer weiter.

Der Gegensatz Dienst<->statisch erschließt sich mir nicht.
Zumindest im Unternehmensumfeld wird Microsoft enormes Interesse haben Windows, zu erhalten. Wenn der Kunde kein Windows einsetzt, will er dann den IIS, den Exchange-Server, oder MS-SQL einsetzen?

Avalox
2016-08-06, 08:11:03
Ich glaube nicht, dass der finanzielle Aufwand irgendein Problem für Microsoft ist. Früher unterstützte der NT-Kernel auch MIPS und PowerPC. Selbst das ewig klamme Sun hat ihr Solaris für mehrere Plattformen anbieten können.


Doch das schaft selbst Microsoft nicht. Was sind schon läppische drei Plattformen gegenüber eine unübersehbare Anzahl von Systemen, wie es momentan der Fall ist.


Was hilft das dem Erfolg von Linux auf dem PC-Desktop? Oder erwartest du eine Architektur, die in den nächsten Jahren dem PC auf dem Desktop Konkurrenz macht?


Der Desktop PC kann dadurch endlich seine Intel PC Fesseln abstoßen. Die Leute können sich Zuhause Geräte hinstellen, auf denen ein Windows schon rein technisch niemals laufen würde.



Ich würde sagen, der Grund warum Windows Phone nicht funktioniert hat, war vielmehr, dass man dem durchschnittlichen User nicht leicht erklären kann, warum er von Android zu Windows Phone wechseln soll.


Windows Phone war schon immer technologisch und entwicklungstechnisch weit hinter dem Markt zurück und musste es auch immer sein. Das macht solche Bestrebungen natürlich äußerst unattraktiv für Kunden.

Auf dem Markt der Desktop PCs existieren heute faktisch nur aus der IBM PC Historie entstammende Geräte. Eine Monokultur. Eine Plattform auf welcher Linux seine Vorteile kaum platzieren und sich abheben kann (konnte).
Sehe dir Chrome OS Geräte an. Ein Vielzahl von Geräten und Plattformen auf denen kein Windows laufen kann und diese entgegen der Marktentwicklung die schnellst wachsende PC Sparte stellt.



Die dann kein PC mehr ist? Und welche Relevanz haben geringere Kosten, wenn, zumindest anfangs, die Erlöse ebenso deutlich geringer sind?

Der Kunde profitiert von niedrigen Erlösen.


Was meinst du mit Produktivierungsstufe? Wenn ich das Wort google, finde ich zwei Treffer: Beide im 3D-Center-Forum, beide von dir.



Wertschöpfungsstufe. Nur weigere ich mich in Verbindung mit Windows von "Wert" zu sprechen.


Als ob man unter einem normalen Desktop-Linux keine kommerzielle Software einsetzen könnte. Gab es schon früh. Ich erinnere z.B. an Loki Games. Die sind platt gegangen weil der Markt fehlte, nicht das Abstraktionsmodell.


Loki hat nur Spiele entwickelt für die Monokultur Hardware PC. Eine Plattform welche selbst durch die Linux Distributionen schrecklicher Weise auf der Anwendungsebene gespalten wurden.

Das konnte niemals was werden. Heute ist Linux in Android das erfolgreichste Enduser Betriebssystem aller Zeiten und Softwarefirmen wie Loki sind der neue Benchmark am Markt. So schnell ändern sich die Zeiten.


Entweder haben wir unterschiedliche Definitionen von "nativ", oder du weißt etwas was ich nicht weiß. Meines Wissens laufen beide Produkte eben nicht nativ.


Nebenher, dass es den Photoshop als native StreamingApp für ChromeOS von Adobe angeboten wird, so laufen nun WebApps und Android Apps auf Chrome OS, dabei ist das Android App Modell voll integriert. Vollkommen nativ.


Zumindest im Unternehmensumfeld wird Microsoft enormes Interesse haben Windows, zu erhalten. Wenn der Kunde kein Windows einsetzt, will er dann den IIS, den Exchange-Server, oder MS-SQL einsetzen?

IIS, Exchange und MS-SQL bedingen keinen Windows Client. Sie laufen auch prima mit nicht Windows Geräten zusammen.

Bzw. gerade ISS und Exchange sind in den letzten Versionen so umgebaut worden, um auf dem Client gerade keine proprietären MS Technologien vorauszusetzen.

Das neue Geschäftsmodell von MS ist Cloud, also Outsourcing. Auch mit ISS, Exchange und MS-SQL braucht sich kein MS Kunde mehr selbst antun. Wenn er denn möchte, oder wirtschaftlich "überzeugt" wird. Das ist das neue Microsoft.

d2kx
2016-08-07, 03:53:56
Ich denke, wenn Microsoft so weitermacht, wird sich das wohl von selbst erledigen.
Wenn ich alle 6-12 Monate durch ein erzwungenes Feature-Upgrade einen ähnlichen Aufwand habe, wie bei einer Neuinstallation (eigentlich sogar noch mehr, weil ich erst suchen muss, was verbogen ist)... klingt ein Debian oder Ubuntu mit 5-7 Jahren Support doch sehr verführerisch.
Und das wird Unternehmen im reduzierten Umfang nicht anders gehen, wenn 8.1 erstmal aus dem Support raus ist.

Für Unternehmen gibt es ähnlich wie unter Linux von Canonical und RedHat eine LTS-Version von Windows 10, die viele Jahre unterstützt wird.

Korfox
2016-08-07, 11:43:02
Ah, ok. Das wusste ich nicht. Ich dachte, auch Unternehmen müssen die Updates (und damit auch Upgrades) nach spätestens 6 Monaten nachziehen.

Rooter
2016-08-07, 17:20:15
Ah, ok. Das wusste ich nicht. Ich dachte, auch Unternehmen müssen die Updates (und damit auch Upgrades) nach spätestens 6 Monaten nachziehen.
Müssen sie ja auch. Außer die Großunternehmen, die sich die erwähnte LTS-Version von W10 leisten können.

MfG
Rooter

Gast
2016-08-08, 21:16:04
Mein Feedback zu dem Thema:
Hatte als langjähriger Win7 Nutzer (Win8 und Win10 habe ich Stand heute noch nie ausprobiert) vor kurzem mit Ubuntu 16.04.1 LTS meinen ersten Kontakt mit Linux und mich nach zwei Tagen ziemlich entnervt von dieser Distribution wieder verabschiedet. Mit dem zweiten Versuch Cinnamon Sarah komme ich eigentlich ganz gut zurecht. Ich kann bis heute keinen einzigen Terminalbefehl aus dem Gedächtnis heraus korrekt eingeben, was auch neben der zugänglichen Desktopoberfläche und der übersichtlichen "Anwendungsverwaltung"/"Systemeinstellungen"/Dateinen etc der Hauptgrund ist, warum Cinnamon noch im Einsatz ist. MSfonts und zig andere Ergänzungen gibt es in der Anwendungsverwaltung. Wenn das mal nicht funktionert: Nach Bugs im aktuellen Firefox heute erst den Opera von der Homepage geladen, über dep-Datei die Installation gestartet und die Sache war erledigt. Mehr Marktanteile auf Consumer-PCs werden nur über eine sehr zugängliche Bedienung erreicht.

arne
2016-08-09, 04:12:13
Doch das schaft selbst Microsoft nicht. Was sind schon läppische drei Plattformen gegenüber eine unübersehbare Anzahl von Systemen, wie es momentan der Fall ist.

Welche unübersehbare Anzahl von Systemen siehst du denn? Ich sehe von Relevanz für Endkunden nur noch x86 und ARM. Alles andere ist doch mittlerweile tot. Oder gibst du z.B. MIPS, SPARC oder PowerPC noch eine große Zukunft?
ARM dagegen ist in der Entwicklung von CPUs die man in einem Desktop-System haben möchte noch weit zurück. ARM64 ist gerade dabei sich zu verbreiten. Etwas ein Jahrzehnt nachdem AMD64 entwickelt wurde.

Oder glaubst du an etwas ganz neues, was Jahrzehnte in CPU-Entwicklung und Compilerbau in wenigen Jahren aufholt?


Der Desktop PC kann dadurch endlich seine Intel PC Fesseln abstoßen. Die Leute können sich Zuhause Geräte hinstellen, auf denen ein Windows schon rein technisch niemals laufen würde.

Mir ist kein technischer Grund bekannt, warum Windows nicht auf anderen Architekturen laufen sollte, wenn Microsoft es für sinnvoll hält ihr Windows dorthin zu portieren.


Windows Phone war schon immer technologisch und entwicklungstechnisch weit hinter dem Markt zurück und musste es auch immer sein. Das macht solche Bestrebungen natürlich äußerst unattraktiv für Kunden.

Ich behaupte trotzdem, dass es für den 0815-User völlig ausreichend war/ist. Ist ja nicht so, dass Apps unter Android grundsätzlich spürbar performanter laufen würden oder ähnliches.


Auf dem Markt der Desktop PCs existieren heute faktisch nur aus der IBM PC Historie entstammende Geräte. Eine Monokultur. Eine Plattform auf welcher Linux seine Vorteile kaum platzieren und sich abheben kann (konnte).
Sehe dir Chrome OS Geräte an. Ein Vielzahl von Geräten und Plattformen auf denen kein Windows laufen kann und diese entgegen der Marktentwicklung die schnellst wachsende PC Sparte stellt.

Auf den Chromebooks mit Intel-Prozessoren kann man Windows installieren. Die mit ARM taugen kaum als Desktop-Ersatz, weil zu langsam. Die Chromebooks sind meines Wissens nur in genau einem Marksegment erfolgreich: Dem Bildungssektor in den USA. Also gerade ein Markt wo der User sich nicht aktiv für irgendwas entscheidet.

Erinnert mich übrigens etwas an die Netbooks. Die waren auch eine gewisse Zeit voll im Kommen und mit Linux. Dann hat Microsoft die Lizenkosten für Windows XP gesenkt und alles ist geplatzt wie eine Seifenblase.
Schade eigentlich.


Der Kunde profitiert von niedrigen Erlösen.

Nein, nicht wenn der Umsatz zu niedrig ist, um weitere Entwicklung durch Forschung zu finanzieren. Siehe AMD.



Wertschöpfungsstufe. Nur weigere ich mich in Verbindung mit Windows von "Wert" zu sprechen.

Ich verstehe nicht ganz: Was spart es einen Computer-Hersteller an Wertschöpfungsstufen ein, wenn er Linux statt Windows verwendet? Oder sprechen wir davon, was theoretisch möglich wäre, wenn es eine theoretische CPU-Architektur gäbe die mit x86/amd64 konkurrieren könnte?


Loki hat nur Spiele entwickelt für die Monokultur Hardware PC. Eine Plattform welche selbst durch die Linux Distributionen schrecklicher Weise auf der Anwendungsebene gespalten wurden.

Die Spaltung von Linux als Plattform durch unterschiedliche Distributionen halte ich für einen modernen Mythos. Ich habe ein Loki-Spiel, dass noch heute auf einer Gentoo-Installation problemlos läuft. Sogar besser als die Windows-Version von damals auf heutigen Windows-Systemen.
Die Unterschiede zwischen Linux-Distributionen lassen sich in drei Wegen umgehen:
1. Ich kompiliere statisch.
2. Ich kompiliere dynamisch und liefere benötigte Bibliotheken selbst mit. Macht z.B. Steam unter Linux. Wobei das eigentlich die Vorteile dynamischer Kompilierung vernichtet.
3. Ich kompiliere dynamisch für alle Zielplattformen. Kann man machen, sogar automatisiert, siehe https://en.wikipedia.org/wiki/Open_Build_Service

Das war imho immer eine Ausrede sich nicht mit Linux beschäftigen zu wollen.


Das konnte niemals was werden. Heute ist Linux in Android das erfolgreichste Enduser Betriebssystem aller Zeiten und Softwarefirmen wie Loki sind der neue Benchmark am Markt. So schnell ändern sich die Zeiten.

Da stimme ich sogar zu. Das konnte nichts werden. Aber es lag imho nicht an technischen Gründen, sondern allein daran, dass der Markt viel, viel zu klein für Loki war.


Nebenher, dass es den Photoshop als native StreamingApp für ChromeOS von Adobe angeboten wird, so laufen nun WebApps und Android Apps auf Chrome OS, dabei ist das Android App Modell voll integriert. Vollkommen nativ.

Wenn da etwas gestreamt werden muss, heißt das für mich, dass da immer noch ein Teil ist, der ein Nicht-ChromeOS-System benötigt. Das ist doch nicht nativ. Wenn ich mit meinem Linux-Client über rdesktop auf einen Windows-Server zugreife und dort Photoshop starte ist das doch auch nicht nativ. Der Umstand, dass rdesktop nativ ist hilft da nicht weiter.

Die Android-Applikationen auf ChromeOS sind da eine ganz andere Größenordnung in der Bedeutung. Allerdings nicht sonderlich revolutionär. Java bietet das von dir gepriesene einheitliche Abstraktionsmodell schon seit sehr langer Zeit auf dem Desktop.
Hat das Linux auf dem Desktop genutzt? Bestimmt. Hat es Linux zum Durchbruch auf dem Desktop verholfen? Nein. Warum sollte es also mit Dalvik anders sein?


IIS, Exchange und MS-SQL bedingen keinen Windows Client. Sie laufen auch prima mit nicht Windows Geräten zusammen.

Bzw. gerade ISS und Exchange sind in den letzten Versionen so umgebaut worden, um auf dem Client gerade keine proprietären MS Technologien vorauszusetzen.

Das neue Geschäftsmodell von MS ist Cloud, also Outsourcing. Auch mit ISS, Exchange und MS-SQL braucht sich kein MS Kunde mehr selbst antun. Wenn er denn möchte, oder wirtschaftlich "überzeugt" wird. Das ist das neue Microsoft.

Gerade im Unternehmensumfeld wird gerne alles aus einer Hand gekauft.
Auch wird ein Unternehmen lieber 4 Windows-Admins haben, die sich um alle Server und Clients kümmern, als 3 Linux-Admins für Clients und 1 Windows-Admin für den Windows-Server. Oder umgekehrt. Mir würde es ja sehr gefallen wenn du Recht hättest, aber ich glaube nicht dran.

Gast
2016-08-09, 05:55:15
Erinnert mich übrigens etwas an die Netbooks. Die waren auch eine gewisse Zeit voll im Kommen und mit Linux. Dann hat Microsoft die Lizenkosten für Windows XP gesenkt und alles ist geplatzt wie eine Seifenblase.
Die Netbooks waren imho noch nie 'voll im Kommen'. Es gab und gibt (wie bei jedem Trend) eine überschaubare Personengruppe, die bereit dazu war für solche Geräte seinerzeit Geld auszugeben. Diese Personengruppe wurde mittlerweile durch das Überangebot von Mobile-Computing-Lösungen so stark auseinanderdividiert, daß man mit den Netbooks nur noch eine kleine Käufergruppe anspricht. Mit Lizenzkosten für XP hat das mal rein gar nichts zu tun.

BTT:
Je populärer Linux als Plattform gemacht wird, umso stärker bekommt es genau die Probleme, die die Kunden heute schon mit Windows haben: Es werden immer mehr Kompromisse notwendig. Außerdem mischen sich immer mehr Leute (die auch alle gerne ans Geld oder die persönlichen Daten der User wollen) in die Entwicklung ein.

Avalox
2016-08-09, 07:58:00
Welche unübersehbare Anzahl von Systemen siehst du denn? Ich sehe von Relevanz für Endkunden nur noch x86 und ARM.


Es gibt nicht den "ARM".

ARM wird in tausenden unterschiedlichen(!) Systemen (SoCs) verwendet, die untereinander nicht kompatibel sind.

Auf jeder SoC Familie muss das OS neu angepasst werden.


Microsoft hatte sich für Windows Phone für jeweils eine(!) SoC Familie von Texas Instruments, nVidia und Qualcomm entschieden. Auf anderen ARM SoC Familien würde es nicht mal starten können.

Mit sehr viel Aufwand portiert dann Microsoft jedes mal bei einer Unterstützung einer neuen SoC Familie und muss diese dann parallel pflegen. Da kommt auch ein Microsoft schnell ans Ende.


Selbst Intel hat in der Hochphase x86 SoCs angekündigt, die nicht mehr kompatibel mit x86 Windows waren und auch Windows nicht so ohne weiteres hätte angepasst werden können.


Oder glaubst du an etwas ganz neues, was Jahrzehnte in CPU-Entwicklung und Compilerbau in wenigen Jahren aufholt?


Intel wird es auch in Jahren nicht schaffen den Vorsprung von ARM in niedrigenergiebereich und im kostengünstigen Design aufzuholen, denn Intel hat gerade aufgegeben.

Rechenleistung interessiert den Kunden dagegen schon lange nicht mehr. ARM CPUs haben auch schon längst die für Kunden interessante Desktop Perfomance erreicht.


Mir ist kein technischer Grund bekannt, warum Windows nicht auf anderen Architekturen laufen sollte, wenn Microsoft es für sinnvoll hält ihr Windows dorthin zu portieren.


Genau oberster Punkt für unfreie Software. Unfreie Software ist nicht portierbar, ausser durch den Hersteller selbst.

Nun müsste Microsoft ihr OS auf tausende Systeme portieren und parallel pflegen. Dass schafft Microsoft wirtschaftlich nicht und genau dieses hat Microsoft das Genick am mobilen OS gebrochen.

Der Kern von Microsoft ist es einmal zu entwickeln und vielfach zu verkaufen. Ein Plattform - IBM kompatibler PC.



Ich behaupte trotzdem, dass es für den 0815-User völlig ausreichend war/ist. Ist ja nicht so, dass Apps unter Android grundsätzlich spürbar performanter laufen würden oder ähnliches.



Windows Phone war nie ausreichend. Es war immer schlechtleistend, angebotseinschränkend und begrenzter als der Wettbewerb. Schlicht einfach nur langsamer in der Entwicklung, als der Rest am Markt. Der Schnelle frisst den Langsamen, nicht der Große den Kleinen.



Auf den Chromebooks mit Intel-Prozessoren kann man Windows installieren. Die mit ARM taugen kaum als Desktop-Ersatz, weil zu langsam.


Nein, das kann man eigentlich nicht. Chromebooks nutzen in der Regel Coreboot, anstatt eines BIOS oder UEFI. Windows ist nicht Coreboot tauglich. Windows erwartet nicht nur eine definierte Hardware (IBM PC), sondern auch eine definierte Softwareplattform (eben ein PC BIOS oder UEFI). Mit Coreboot kann Windows nicht starten.

Es gibt nun Fummelköpfe die Bios Funktionen mit einem Coreboot-Starter vor den Windows Start setzen, dann lässt sich Windows auch auf einen Chromebook starten. Das ist aber kein supporteter Zustand.



Nein, nicht wenn der Umsatz zu niedrig ist, um weitere Entwicklung durch Forschung zu finanzieren. Siehe AMD.



Der Vergleich trifft nicht, denn AMD ist Lizenznehmer und gleichzeitig Wettbewerber.
Ein ganz besondere Situation.
Faktisch ist AMDs Daseinsberechtigung nur die, die Marktzerschlagung von Intel zu verhindern.

Bei ARM wird die Entwicklung von jedem einzelnen Hersteller mit eingebracht.
Wohl der Grund genau, weshalb die Entwicklung bei ARM deutlich schneller läuft, als bei Intel.


Ich verstehe nicht ganz: Was spart es einen Computer-Hersteller an Wertschöpfungsstufen ein, wenn er Linux statt Windows verwendet?


Der Computer Hersteller spart sich die Wertschöpfungsstufe Microsoft. Er spart sich den Gewinn, den Microsoft am Ende des Jahres ausweißt.


Die Spaltung von Linux als Plattform durch unterschiedliche Distributionen halte ich für einen modernen Mythos. Ich habe ein Loki-Spiel, dass noch heute auf einer Gentoo-Installation problemlos läuft. Sogar besser als die Windows-Version von damals auf heutigen Windows-Systemen.


Linux ist ein System welches auf unterschiedlichen Plattformen betrieben wird. Linux kennt von Hause aus kein Paketformat, welche unterschiedliche Plattformen Plattformen bedienen kann.

Sobald proprietäre Treiber auf Linux benötigt werden ist es dem Entwickler nicht möglich, eine Anwendung pauschal auszurollen.

Dein angsprochenes Steam macht deshalb auch erstmal eines, nämlich als Managementanwendung erstmal für eine einheitliche Umgebung zu sorgen.



Wenn da etwas gestreamt werden muss, heißt das für mich, dass da immer noch ein Teil ist, der ein Nicht-ChromeOS-System benötigt. Das ist doch nicht nativ. Wenn ich mit meinem Linux-Client über rdesktop auf einen Windows-Server zugreife und dort Photoshop starte ist das doch auch nicht nativ. Der Umstand, dass rdesktop nativ ist hilft da nicht weiter.


Streaming kann auch nativ sein. Applikationsstreaming ist nativ.
Streaming bedeutet nicht zwangsläufig, dass ein Bild über das Netz gestreamt wird. Es ist natürlich auch möglich auch Applikationen mit lokaler Logik zu streamen.
Die hält sich im Beispiel Photoshop zwar nicht so, aber einen lokalen Client benötigt Photoshop natürlich trotzdem.

Chrome liefert auf jedem Gerät, auf dem es installiert ist Abstraktionbibliotheken mit, die zwischen dem lokalen System und der nativen App vermitteln. Auch Web Apps können native lokale Applikationen sein.




Die Android-Applikationen auf ChromeOS sind da eine ganz andere Größenordnung in der Bedeutung. Allerdings nicht sonderlich revolutionär. Java bietet das von dir gepriesene einheitliche Abstraktionsmodell schon seit sehr langer Zeit auf dem Desktop.
Hat das Linux auf dem Desktop genutzt? Bestimmt. Hat es Linux zum Durchbruch auf dem Desktop verholfen? Nein. Warum sollte es also mit Dalvik anders sein?



Erstmal ist Java sicherlich heute die bedeutendste Anwendungsumgebung der Welt. Das stimmt. Aber es ist nicht die Java VM. Denn diese ist immer nur ein Anhängsel gewesen.
Dalvik ist allerdings schon lange Geschichte.

Android ist da ein ganz anderes Kaliber als Java. Denn Android ist als Betriebssystem auf das Abstraktionsmodell ausgerichtet. Um jede Funktionen des Systems zu nutzen, sind keine Drittanbieter Klassen nötig. Das Androidformat erlaubt ferner optimierten, nativen Code und überschreitet damit grundlegend die Beschränkungen die eine Java Plattform immer haben musste.


Gerade im Unternehmensumfeld wird gerne alles aus einer Hand gekauft.
Auch wird ein Unternehmen lieber 4 Windows-Admins haben, die sich um alle Server und Clients kümmern, als 3 Linux-Admins für Clients und 1 Windows-Admin für den Windows-Server. Oder umgekehrt. Mir würde es ja sehr gefallen wenn du Recht hättest, aber ich glaube nicht dran.


Ein Unternehmen möchte gar keine Admins haben und erst Recht keine spezialisierten auf Windows, oder auf Linux. Ein Unternehmen will gar nichts anderes haben als den Kernprozess.
Sie wollen nur ihren Geschäftsprozess abbilden. Das geht heute nur noch nicht ohne den Admin. Das wird morgen aber schon ganz anders sein.

Das ist genau das, was Microsoft erkannt hat. Noch kann man von Microsoft etwas zum selber frickeln kaufen, aber man kann es auch richtig gemacht als Service kaufen und es ist weit günstiger.
Das ist der OTon von Microsoft, "sie können es gut gemacht haben, oder sie können selber basteln". Cloud First.

Gerade erst hat Microsoft eine Firma gekauft, die ein System entwickelt hat, welches Unternehmen (Microsoft Kunden) dabei unterstützt ihre Windows Admins auf Rechtemanagern umzuschulen, anstatt sie zu feuern.

Aus Windows Admins werden Rechtemanager, oder sie können gehen. Das ist nämlich die Zukunft.

Ectoplasma
2016-08-09, 10:48:51
ARM wird in tausenden unterschiedlichen(!) Systemen (SoCs) verwendet, die untereinander nicht kompatibel sind.

Auf jeder SoC Familie muss das OS neu angepasst werden.

Microsoft hatte sich für Windows Phone für jeweils eine(!) SoC Familie von Texas Instruments, nVidia und Qualcomm entschieden. Auf anderen ARM SoC Familien würde es nicht mal starten können.

Markttechnisch interessiert sich keine Sau für tausende von unterschiedlichen ARM Systemen. Der Thread handelt immer noch von Consumer PCs (siehe Thread-Titel). Das Hauptgechäft sind immer noch PCs mit Intel CPUs in Millionen von Firmen. Linux und Windows agieren einfach in unterschiedlichen Welten.

medi
2016-08-09, 11:29:16
Hatte mir vor kurzem ein gebrauchtes Thinkpad T230 besorgt und dort Linux Mint "Rosa" Cinnamon testhalber drauf installiert. Hat problemlos geklappt.
Damit mache ich jetzt meinen Officekram + Couchsurfing. Meine letzten Desktop Erfahrungen mit Linux waren mit Ubuntu vor 5 oder 6 Jahren. Es hat sich seit dem scheinbar einiges getan. Ich muss sagen ich finde dieses Linux Version sehr ansprechend und auch meine Freundin kommt gut damit klar.
Damit steht für mich fest, dass alle künftigen PCs bis auf den Spielerechner mit Linux bestückt werden und auch Bekannten, die ihren Rechner nur zum Surfen und für Office nutzen werde ich Linux Mint ans Herz legen. Cortana kann mich mal :ufinger:

Avalox
2016-08-09, 15:36:16
Markttechnisch interessiert sich keine Sau für tausende von unterschiedlichen ARM Systemen. Der Thread handelt immer noch von Consumer PCs (siehe Thread-Titel). Das Hauptgechäft sind immer noch PCs mit Intel CPUs in Millionen von Firmen. Linux und Windows agieren einfach in unterschiedlichen Welten.

Sehe ich nicht so.
ChromeOS, also Geräte die durchaus mit ARM CPUs betrieben werden, haben im im letzten Quartal in den USA den Verkauf von Apple PCs übertroffen. Dabei ist die USA der wichtigsten Apple Markt.
Es fängt also an.
Damit sind ChromeOS Geräte die einzigen die ein Wachstum auszeichen können, während der Rest schrumpft.

Gast
2016-08-09, 16:02:11
Sehe ich nicht so.
ChromeOS, also Geräte die durchaus mit ARM CPUs betrieben werden, haben im im letzten Quartal in den USA den Verkauf von Apple PCs übertroffen.

Liegt jedoch hauptsächlich am Bedarf im Edu Bereich, also Schulen und so.

Ansonsten ist Amiland noch fest in Apple Hand. Ob DJs, Musikproduzenten, Designer, Künstler, Apple ist da schon lange Standard und kaum wegzudenken. Normalos die nicht irgendwie kreativ tätig sind, sind eh meist schon aufs iPad abgewandert oder machen alles mit dem Phone.

Rooter
2016-08-10, 19:36:44
Es gibt nicht den "ARM".

ARM wird in tausenden unterschiedlichen(!) Systemen (SoCs) verwendet, die untereinander nicht kompatibel sind.

Auf jeder SoC Familie muss das OS neu angepasst werden.Inwiefern muss "das OS" angepasst werden? Einen Kernel mit den nötigen Treibern zu kompilieren genügt doch wohl, oder etwa nicht!?

auch meine Freundin kommt gut damit klar.
Damit steht für mich fest, dass alle künftigen PCs bis auf den Spielerechner mit Linux bestückt werdenBis deine Freundin z.B. unbedingt iTunes haben will... :tongue:

MfG
Rooter

lumines
2016-08-10, 19:41:02
Inwiefern muss "das OS" angepasst werden? Einen Kernel mit den nötigen Treibern zu kompilieren genügt doch wohl, oder etwa nicht!?

Wenn du das so siehst, dann ja. Ist nur eben nicht so einfach wie bei relativ ähnlichen x86-Systemen. Bei den ganzen ARM-SoCs muss man immer eigene Device-Trees pflegen. Die haben ja auch kein BIOS oder UEFI. Ich meine aber, dass neuere Kernel-Versionen in der Hinsicht das irgendwie vereinfachen sollen.

Ist aber wahrscheinlich auch mit ein Grund, warum Chromium OS auf Gentoo basiert. Das ist ja im Grunde eine Meta-Distribution und gerade darauf optimiert, dass man es mit eigenen Werkzeugen auf verschiedene Systeme anpassen kann. Wäre ansonsten wahrscheinlich mehr Aufwand für Google gewesen.

Bis deine Freundin z.B. unbedingt iTunes haben will... :tongue:

MfG
Rooter

Wahrscheinlich wird sie eher nach Spotify fragen.

exzentrik
2016-08-10, 20:01:29
Via WINE scheint es im Übrigen kein Ding der Unmöglichkeit zu sein, iTunes unter Linux zu nutzen. Allenfalls könnte man nicht immer direkt die neueste Version verwenden.

Lord Wotan
2016-08-10, 21:20:18
https://www.computerbase.de/forum/showthread.php?t=1607830

Linux ist ein Virus;D

arne
2016-08-11, 19:56:40
Sorry Avalox, mit deiner Antwortgeschwindigkeit komme ich nicht ganz mit...


Es gibt nicht den "ARM".

ARM wird in tausenden unterschiedlichen(!) Systemen (SoCs) verwendet, die untereinander nicht kompatibel sind.

Auf jeder SoC Familie muss das OS neu angepasst werden.


Jein. Es gibt die ARM-CPU-Architektur, die von den diversen Herstellern von SoCs von ARM Limited lizensiert wird.
D.h. der Befehlssatz ist der selbe.
Was die einzelnen Hersteller dann zusätzlich, z.B. an I/O-Kram auf den SoC draufflanschen ist deren Sache.
Natürlich brauch es für den zusätzlichen Kram Treiber und Anpassungen. Aber das gilt für Linux, wie für Windows.


Mit sehr viel Aufwand portiert dann Microsoft jedes mal bei einer Unterstützung einer neuen SoC Familie und muss diese dann parallel pflegen. Da kommt auch ein Microsoft schnell ans Ende.


Microsoft wird Anpassungen vornehmen müssen. Wenn es überhaupt Microsoft ist, die diese Anpassungen vornehmen und nicht die Hersteller der Subkomponenten. Dies eine Portierung zu nennen halte ich für irreführend.
Ich sehe keinen Grund warum diese Anpassungen auch nur vergleichbar aufwändig wie die grundsätzliche Portierung zwischen zwei Befehlssätzen seien sollte.


Intel wird es auch in Jahren nicht schaffen den Vorsprung von ARM in niedrigenergiebereich und im kostengünstigen Design aufzuholen, denn Intel hat gerade aufgegeben.

Rechenleistung interessiert den Kunden dagegen schon lange nicht mehr. ARM CPUs haben auch schon längst die für Kunden interessante Desktop Perfomance erreicht.

x86 war auch nie für den Niedrigenergiebereich gedacht. Alle halbwegs aktuellen ARM-Designs wiederum waren nicht für den Desktop-Bereich gedacht.
ARM CPUs sind von der Leistungsfähigkeit etwa auf dem Niveau der Desktop-Chips von vor 10 Jahren. Wenn überhaupt. Wenn das für die Kunden ausreicht, besteht ja kein Grund für die Kunden ihren PC durch ein ARM basiertes Gerät zu ersetzen.
Bis die mögliche Stromersparnis einen Austausch wirtschaftlich sinnvoll macht, müssten Jahre vergehen.


Nun müsste Microsoft ihr OS auf tausende Systeme portieren und parallel pflegen. Dass schafft Microsoft wirtschaftlich nicht und genau dieses hat Microsoft das Genick am mobilen OS gebrochen.

Wie gesagt, der Befehlssatz ist bei ARM gleich. Das muss einmal portiert werden. Das Problem sind eher Treiber.



Der Kern von Microsoft ist es einmal zu entwickeln und vielfach zu verkaufen. Ein Plattform - IBM kompatibler PC.

Ich würde es anders formulieren: Microsoft profitiert auf dem Desktop-PC-Markt davon, dass kaum ein Hersteller so wahnsinnig wäre, PC-Hardware herzustellen, für die sie nicht auch einen Windows-Treiber entwickeln. Umgekehr gilt das gleiche für SoCs & Android-Treiber.
Leider helfen diese Android-Treiber nicht unbedingt dem Linux-Kernel an sich, da häufig proprietär, oder ein nur für eine einzige Kernelversion passender Patch, der es nie in den tatsächlichen Linux-Kernel schafft.


Windows Phone war nie ausreichend. Es war immer schlechtleistend, angebotseinschränkend und begrenzter als der Wettbewerb. Schlicht einfach nur langsamer in der Entwicklung, als der Rest am Markt. Der Schnelle frisst den Langsamen, nicht der Große den Kleinen.

Also der Nutzer für den deiner Meinung nach ARM für Desktop-Systeme ausreicht, für den müsste auch Windows Phone auf dem Smartphone locker ausreichen. ;)


Nein, das kann man eigentlich nicht. Chromebooks nutzen in der Regel Coreboot, anstatt eines BIOS oder UEFI. Windows ist nicht Coreboot tauglich. Windows erwartet nicht nur eine definierte Hardware (IBM PC), sondern auch eine definierte Softwareplattform (eben ein PC BIOS oder UEFI). Mit Coreboot kann Windows nicht starten.

Es gibt nun Fummelköpfe die Bios Funktionen mit einem Coreboot-Starter vor den Windows Start setzen, dann lässt sich Windows auch auf einen Chromebook starten. Das ist aber kein supporteter Zustand.

Genauso wenig supported, wie jede Linux-Installation die ich jemals gemacht habe. Worum es mir ging: Es ist kein technisches Problem und keine Erfolgsstory für ARM.


Der Vergleich trifft nicht, denn AMD ist Lizenznehmer und gleichzeitig Wettbewerber.
Ein ganz besondere Situation.
Faktisch ist AMDs Daseinsberechtigung nur die, die Marktzerschlagung von Intel zu verhindern.


Mir geht es nicht um den Vergleich. Ich führe es mal weiter aus:
Intel gibt mehr für Forschung aus, als AMD an Umsatz macht. Das AMD in der Spitze in den letzten 10 Jahren keine wirklich konkurrenzfähigen CPU-Chip produziert hat, ist doch kein Zufall. Aber ein Unternehmen was Intel Konkurrenz machen will, bräuchte ein mit Intel vergleichbares Budget.
Für das vergleichbare Budget braucht es einen vergleichbaren Umsatz. Für den vergleichbaren Umsatz braucht es vergleichbare Verkäufe und Gewinnspannen. Und einiges an Initialinvestition. Weil Intel fängt im Gegensatz zu einem Neuling ja nicht von 0 an.
Das sind enorme Hürden für einen Neueinsteiger in diesen Markt. Konkret: Wer soll das leisten? Samsung? TI? Apple würde ich es vom Finanziellen sogar zutrauen, aber Apple und Linux/Android?



Bei ARM wird die Entwicklung von jedem einzelnen Hersteller mit eingebracht.
Wohl der Grund genau, weshalb die Entwicklung bei ARM deutlich schneller läuft, als bei Intel.

Eine Kooperation kann ich bei den Herstellern auf ARM nicht erkennen. Ist irgendwas von Exynos, Snapdragon & Co wieder in das ARM-Design zurückgeflossen? Meines Wissens nicht. Habe ich was verpasst?
Bei der Entwicklungsgeschwindigkeit vergleichst du jetzt die Entwicklung auf Intel Atom mit ARM, nicht mit Intel im Allgemeinen, oder?



Der Computer Hersteller spart sich die Wertschöpfungsstufe Microsoft. Er spart sich den Gewinn, den Microsoft am Ende des Jahres ausweißt.

Dann darf er aber kein Android verwenden. Siehe: http://www.heise.de/ix/meldung/Analyst-Microsoft-verdient-2-Milliarden-US-Dollar-an-Android-2041485.html .
Und siehe Netbooks, Microsoft hat in der Vergangenheit seine Lizenzkosten deutlich heruntergefahren, wennn das nötig war um Konkurrenz loszuwerden.


Linux ist ein System welches auf unterschiedlichen Plattformen betrieben wird. Linux kennt von Hause aus kein Paketformat, welche unterschiedliche Plattformen Plattformen bedienen kann.

Sobald proprietäre Treiber auf Linux benötigt werden ist es dem Entwickler nicht möglich, eine Anwendung pauschal auszurollen.

Dein angsprochenes Steam macht deshalb auch erstmal eines, nämlich als Managementanwendung erstmal für eine einheitliche Umgebung zu sorgen.

Also ich habe noch jede als .tar.gz gepackte Applikation zum Laufen gebracht.
Überhaupt: Wozu brauch ich ein einheitliches Paketformat, wenn ich alle
gängigen Paktformate automatisiert erzeugen kann?
Und welche Anwendung braucht proprietäre Treiber, die es mitliefern muss?


Streaming kann auch nativ sein. Applikationsstreaming ist nativ.
Streaming bedeutet nicht zwangsläufig, dass ein Bild über das Netz gestreamt wird. Es ist natürlich auch möglich auch Applikationen mit lokaler Logik zu streamen.
Die hält sich im Beispiel Photoshop zwar nicht so, aber einen lokalen Client benötigt Photoshop natürlich trotzdem.

Chrome liefert auf jedem Gerät, auf dem es installiert ist Abstraktionbibliotheken mit, die zwischen dem lokalen System und der nativen App vermitteln. Auch Web Apps können native lokale Applikationen sein.

Wir scheinen tatsächlich unterschiedliche Definition von nativ zu haben.
Ich würde eine Applikation, die, sobald ein Dritter sein System ausschaltet, bei mir nicht mehr funktioniert, nie als nativ auf meinem System laufend bezeichnen.


Erstmal ist Java sicherlich heute die bedeutendste Anwendungsumgebung der Welt. Das stimmt. Aber es ist nicht die Java VM. Denn diese ist immer nur ein Anhängsel gewesen.

Bitte was? Ohne JavaVM kein Java. Eher ist Java ein Anhängsel an die JavaVM, als umgekehrt.


Dalvik ist allerdings schon lange Geschichte.

Auch ART ist eine Java-Laufzeitumgebung.


Android ist da ein ganz anderes Kaliber als Java. Denn Android ist als Betriebssystem auf das Abstraktionsmodell ausgerichtet. Um jede Funktionen des Systems zu nutzen, sind keine Drittanbieter Klassen nötig. Das Androidformat erlaubt ferner optimierten, nativen Code und überschreitet damit grundlegend die Beschränkungen die eine Java Plattform immer haben musste.

Für nativen Code in der JavaVM, siehe Java Native Interface. Optimierter nativer Code ist natürlich auch nicht mehr plattformunabhängig. Welche Funktion eines Desktop-Betriebssystems fehlt dir denn unter Java?


Ein Unternehmen möchte gar keine Admins haben und erst Recht keine spezialisierten auf Windows, oder auf Linux. Ein Unternehmen will gar nichts anderes haben als den Kernprozess.
Sie wollen nur ihren Geschäftsprozess abbilden. Das geht heute nur noch nicht ohne den Admin. Das wird morgen aber schon ganz anders sein.

Ich wette dagegen.

Mir ist gerade nicht ganz klar wofür du argumentierst. Glaubst du der PC-Desktop wird verschwinden (deine Zukunftsprognose mit Outsourcing & Cloud), oder dass ARM mit Android/ChromeOS den PC-Markt ersetzt?
Oder eine Kombination aus beidem?

lumines
2016-08-11, 20:25:36
Leider helfen diese Android-Treiber nicht unbedingt dem Linux-Kernel an sich, da häufig proprietär, oder ein nur für eine einzige Kernelversion passender Patch, der es nie in den tatsächlichen Linux-Kernel schafft.


libhybris macht aber genau das möglich.

Avalox
2016-08-11, 22:55:41
Jein. Es gibt die ARM-CPU-Architektur, die von den diversen Herstellern von SoCs von ARM Limited lizensiert wird.
D.h. der Befehlssatz ist der selbe.


ARM lizenziert in verschiedenen Modellen.

A) Als Architekturlizenz ohne, dass der Kunde die Freigabe hat etwas am Layout etwas zu ändern. Der Kunde darf die lizenzierte Komponente in eigenen Schaltungen verwenden.

B) Als Musterlizenz, in der der Kunde alle Freiheiten hat, das Design seinen Bedürfnissen anzupassen.

C) Als Befehlssatz Lizenz, der Kunde darf eigene ARM Befehlssatz kompatible CPUs entwickeln.

Alles was B und C ist vollkommen ARM Befehlssatz kompatibel, aber nicht damit zwangsläufig ein geeingnetes System für das OS.

Es geht dabei überhaupt nicht um vom Hersteller dran geflanschte extra Komponenten.
Auf solchen Systemen ist das OS nicht einmal in der Lage überhaupt zu starten.

Der Hersteller muss zwangsläufig eine Bootloader erstellen (ein Mini Android System) welcher genau an das sein System angepasst ist und das eigentliche Android startet. Er muss das eigentliche Android an seine Architektur anpassen und pflegen.

Das selbe gilt auch für x86 CPUs. Trotz x86 Befehlssatz ist dieser natürlich kein Garant, dass Windows auf jeder x86 CPU kompatibel ist.

Allein der Umstand, dass Intel seine x86 CPUs Windows kompatibel designt ist der Grund, dass Windows auf allen x86 CPUs überhaupt läuft. Dieser Umstand wird gemeinhin als Wintel bezeichnet.

In der Hochphase, als Intel noch versuchte im Niedrigenergie-CPU Bereich zu konkurieren, waren tatsächlich schon Intel CPUs mit vollwertigen x86 Befehlsatz angekündigt, die nicht x86 Windows kompatibel waren. Diese sollten dann mit Android laufen.

x86 Windows setzt eine ganz definierte Systemumgebung voraus. Ohne PCI Bus Controller, kann z.B. ein x86 Windows gar nicht ausgeführt werden. Ein x86 SoC für x86 Windows muss z.B. zwangsläufig einen internen PCI Bus Controller mitliefern, auch wenn der SoC gar keinen PCI Bus unterstützt.

PCs sind eine absolute Monokultur, alles nur Varianten des gleichen Systems.


Portierung ist für Android damit sehr wohl der richtige Begriff.


Und auch MS sieht das nicht anders, weil sie haben Windows ARM nur für sehr wenige SoC Familien überhaupt portiert. Mehr ist Microsoft gar nicht in der Lage zu wirtschaftlich zu leisten.



Eine Kooperation kann ich bei den Herstellern auf ARM nicht erkennen. Ist irgendwas von Exynos, Snapdragon & Co wieder in das ARM-Design zurückgeflossen? Meines Wissens nicht. Habe ich was verpasst?


Doch technologisch findet ein Rückfluss statt und ARM designt auf Anforderung von Kunden Funktionalitäten, die dann in das allgemeine Design fließen.

Ich meinte allerdings damit mehr, dass ARM natürlich für jeden verkaufen ARM Komponente ein Geld vom Hersteller bekommt, völlig egal ob der Hersteller damit Gewinn erwirtschaftet, oder die Komponente verschenkt.



Bitte was? Ohne JavaVM kein Java. Eher ist Java ein Anhängsel an die JavaVM, als umgekehrt.


Doch. Java als Entwicklungsumgebung.

Die meisten kommerziellen Java entwickelten x86 Windows Anwendungen werden AOT kompiliert, sprich liegen im nativen x86 Code dann vor. Das vereinfacht die Verteilung und Anwendung, sowie schützt es den Programm Code weit besser.
Natürlich gibt es auch alle Zwischenlösungen, das einbinden einer Anwendungsspezifischen Java VM in einer nativen Anwendung.

usw. usw.

Ich würde mal behaupten, dass der allerkleinste (vermutlich nicht mal im einstelligen Prozentbereich) Teil an in Java entwickelten Anwendungen überhaupt als JAR für eine systemweite JavaVM veröffentlicht wird.



Auch ART ist eine Java-Laufzeitumgebung.


Ja, unnötiger Weise dazu. Allerdings biete das Android Anwedungsmodell natürlich auch nativen Code für Multiplattformen.


Mir ist gerade nicht ganz klar wofür du argumentierst. Glaubst du der PC-Desktop wird verschwinden (deine Zukunftsprognose mit Outsourcing & Cloud), oder dass ARM mit Android/ChromeOS den PC-Markt ersetzt?
Oder eine Kombination aus beidem?


Das was am Windows PC getan wird, wird immer mehr durch nicht Windows PC substituiert werden.

Der PC wird nicht ersetzt, das für was der PC genutzt wurde, wird auf anderen Geräteklassen abgebildet werden, schlicht weil diese flexibler, moderner, preisgünstiger sind.

Es ist das Schicksal eines jeden Anbieters mit dem Marktanteils von Microsoft, dass er am Ende nur verlieren kann, denn es ist die einzige Möglichkeit. Früher oder später, wird jemand oder einige eine Kniff finden.

Die große Schwachstelle von Windows ist das konzeptionelle Alter, welches in Tribut an die Kompatibilität ist. Damit fängt der Kunde automatisch die Schwachstellen mit ein, obwohl dieser entsprechende Funktionalitäten vielleicht gar nicht nutzen möchte.

Microsoft hat die Zeichen der Zeit schon längst erkannt. Windows als Produkt wird für MS über kurz oder lang uninteressant werden, weil es zum Geld verdienen nicht mehr taugt.

Narolf
2016-08-12, 09:53:46
Die meisten kommerziellen Java entwickelten x86 Windows Anwendungen werden AOT kompiliert, sprich liegen im nativen x86 Code dann vor. Das vereinfacht die Verteilung und Anwendung, sowie schützt es den Programm Code weit besser.
Natürlich gibt es auch alle Zwischenlösungen, das einbinden einer Anwendungsspezifischen Java VM in einer nativen Anwendung.
Sorry für OT, aber jetzt bin ich doch neugierig. Kannst du 3-4 Beispiele für Java-Anwendungen nennen, die in nativem x86-Code kompiliert ausgeliefert werden? Weil, mir fällt da auf die schnelle nichts ein, dass kann aber an meinem eigenen Unwissen liegen.

Avalox
2016-08-12, 11:02:56
hier nur eine Lösung und seine Anwender

http://www.excelsior-usa.com/jetquotes.html

Botcruscher
2016-08-14, 12:18:31
https://www.computerbase.de/forum/showthread.php?t=1607830

Linux ist ein Virus;D

Die Ignoranz und Dummheit die sich hier zum Teil durch die IT-Presse zieht ist schon erschreckend. Bei Golem steht dann direkt Linux Kernel.:upicard:

Den Code den MS da selber in ihr Botnetz eingebaut haben hat nichts mit Linux zu tun.

lumines
2016-08-14, 12:32:09
https://www.computerbase.de/forum/showthread.php?t=1607830

Linux ist ein Virus;D

Du meinst übrigens GNU. Windows hat mit Linux nichts am Hut.

Ectoplasma
2016-08-15, 14:44:00
Worüber regt ihr euch eigentlich auf? Dass in dem Artikel steht: "Er sieht die Gefahr, dass Windows-Malware über Linux statt das Windows - Subsystem for Linux in Windows 10 eingeschleust wird."? So ist nämlich die offizielle Bezeichnung von MS. Dass man das verkürzt hinschreibt, ist nicht so verwunderlich.

Cyphermaster
2016-08-19, 10:25:40
https://www.computerbase.de/forum/showthread.php?t=1607830

Linux ist ein Virus;DEin Virus verbreitet sich unerwünscht weiter und nutzt den Wirt für seine Zwecke, entweder unbemerkt von diesem oder notfalls gegen seinen Willen. Wenn man einem OS diese Eigenschaften zuschreiben kann, kommt wohl W10 da noch am Ehesten dran mit der "Werbung" über angebliche sicherheitsrelevante Updates nahe an der absichtlichen Irreführung, der nachgeschobenen unmöglichen Schutzmöglichkeit der Privatsphäre (Nicht-Abschaltungsmöglichkeit von Cortanas Webfunktionen und Deaktivierung von Sicherheitsupdates bei zu hohen Privacy-Settings).

Ich denke, das ist eine der besten (unabsichtlichen) Werbeaktionen für Linux im Privatbereich - zumindest bei selbst mitdenkenden Usern. Die wissen dann auch, daß die ursprüngliche Aussage wohl weniger mit Linux zu tun hat.

Ectoplasma
2016-08-20, 11:57:09
Ich denke, das ist eine der besten (unabsichtlichen) Werbeaktionen für Linux im Privatbereich - zumindest bei selbst mitdenkenden Usern. Die wissen dann auch, daß die ursprüngliche Aussage wohl weniger mit Linux zu tun hat.

Wenn die Wörter Windows, Linux und Virus in einem bestimmten Kontext fallen, dann ist das natürlich der Trigger für einen bei vielen offensichtlich vorhandenen Verfolgunswahn. Der Linux Mob tobt und will gar nicht verstehen, worum es eigentlich geht.

Botcruscher
2016-08-20, 16:31:02
Wenn da stehen würde: MS ist zu blöde eine Zwischenschicht reinzufrickeln ohne sich dabei das Sicherheitskonzept zu zerballern wäre das eben zu ehrlich und würde kaum Klicks bringen.

Gefährdet ist hier maximal Linux durch dann kompatible Windows Virenschleudern. Wobei da die Umstände schon sehr passend sein müssen.

nn23
2016-08-21, 02:08:22
Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?
Viel!

Auch wenn ich dafür blöde Kommentare bekomme, aber es funktioniert einfach nichts.

Arbeite seit ~16 Jahren in der IT, administriere ne IT Umgebung von ~100 Servern und 4000 Clients (AD, Softwareverteilung, WSUS, ohne Ende Client Server Verfahren) und schaffe es nicht, unter Mint xfce auf meine 2. Festplatte zuzugreifen. Im Dateiexplorer wird sie angezeigt, verschwindet aber einfach so ohne Meldung, sobald ich darauf klicke. Einfach weg. Und das ist nur die Spitze des "Eisbergs". Multi Monitor Setup? Bastel da seit Stunden rum und es will einfach nicht klappen. 2 Monitore + TV. Einstellungen werden nicht gespeichert, Anwendungen öffnen sich konstant auf dem "falschen" Monitor, der TV wird bei jedem Neustart wieder aktiviert, sodass ich die gesamte Konfiguration erneut durchführen muss... Grausam!

Wo ich gerade dabei bin, habe Tearing ohne Ende! Youtube Videos schauen? Unmöglich. Noch nicht einmal scrollen im Browser geht ohne Augenschmerzen!

Ich will ja zu Linux, ich finde es prinzipiell auch super (habe vor Jahren Serverseitig viel damit gemacht), aber so? Geht mal gar nicht! Ich bin nicht blöd und kann mir meine Scheiss zusammen googlen, aber wenn selbst ich es nicht schaffe innerhalb von 6 Stunden einen 2. Monitor zu konfigurieren, wie soll das Otto-Normal-blöd schaffen, der keine Lust hat sich stundenlang mit einem winzigen Problem auseinander zu setzen, nur um danach für das nächste einfach Problem Stunden zu brauchen?

Sorry, ich mecker hier, klar, aber unter Windows sind es 3 einfache Klicks die ich meiner Tante am Telefon erklären kann... Kann doch echt nicht sein...

Vielleicht habe ich ne falsche Distro erwischt (Mint xfce), probiere mal nen blankes Ubuntu die Tage, lt. diversen Kommentaren im Netz ist es woanders aber auch nicht besser (In einer VM konnte ich unter Ubuntu nicht einmal das Chrome Paket installieren, da die Installation immer abgebrochen ist. Auch Steam wollte nicht...).

Frust!

lumines
2016-08-21, 02:37:06
Chrome? Deine Distribution bringt Chromium schon mit. Steam braucht Beschleunigung durch eine GPU, das wird in einer VM schlecht gehen.

Wahrscheinlich benutzt du als Dateisystem auf der Festplatte NTFS? Und als Grafikkarte eine Nvidia?

Viele Probleme unter GNU/Linux sind meistens hausgemacht.

Gast
2016-08-21, 09:26:39
Vielleicht habe ich ne falsche Distro erwischt (Mint xfce), probiere mal nen blankes Ubuntu die Tage, lt. diversen Kommentaren im Netz ist es woanders aber auch nicht besser (In einer VM konnte ich unter Ubuntu nicht einmal das Chrome Paket installieren, da die Installation immer abgebrochen ist. Auch Steam wollte nicht...).

Frust!

Jupp. Würde an deiner Stelle mal ne Distro mit aktuellem Gnome oder KDE ausprobieren. XFCE ist halt schon wirklich alt. Zudem ist es bei Mint auch eher 2. Wahl, da Cinnamon dort die "Haus-Desktopumgebung" ist, somit bekommt es vermutlich nicht die gleiche Aufmerksamkeit.

nn23
2016-08-21, 10:14:28
Momentan bin ich bei MINT, da ist Firefox mit bei. Hier konnte ich den Chrome aber installieren.

ja, ich habe eine GTX980, i7-4790k, 2xSSD+1HDD, ASRock H87Pro4, Xonar DG Audio
Die HDD ist als NTFS formatiert, ja.

Was meinst du mit hausgemacht?

Danke+Gruß
Alex

lumines
2016-08-21, 11:01:08
NTFS ist eben proprietär. Es gibt nur das reverse-engineerte NTFS-3G, aber da darf man keinen reibungslosen Betrieb erwarten. Das meinte ich auch unter anderem mit hausgemacht. Man sollte NTFS abseits von Windows einfach nicht benutzen, dann hat man auch keine Probleme.

Chrome ist übrigens nicht Teil der Distribution und wenn Google ihre Pakete nicht richtig schnürt, dann macht das eben Probleme. Chromium ist aber freie Software und auch in den allermeisten Distributionen enthalten.

Die Nvidia-Treiber sind auch proprietär und können von niemand anderem als Nvidia selbst gefixt werden. Die Probleme mit Vsync hatte ich schon 2008. Mit anderen GPUs hatte ich mit Multimontor-Setups und Vsync nie Probleme.

nn23
2016-08-21, 12:33:06
NTFS proprietär? Jo, ich weiß. Aber jedes billige Autoradio, Fernseher, USB Radio, quasi alles, kann mittlerweile mit NTFS umgehen. Da sollte das bei Linux (in meinen Augen) ebenfalls selbstverständlich sein. Schreiben auf das NTFS Volumen scheint aber auch problemlos zu klappen!

Bin gerade bei Steam:

Ich setze unter Steam/Librabry Settings den Download Ordner für Steam nach "/media/nn23/D/Steam Linux" (mein Datengrab). Irgendwas dahin installiert (DST), alles gut. mach ich einen Neustart=> Dateipfad bei Steam nicht mehr hinterlegt, alle Spiele "weg". Die HDD wird anscheinend erst nach /media/ gemountet, wenn ich einmal im Dateiexplorer oben links auf die D Platte klicke (vorher ist das Symbol grau, nach dem Klick wird es hell). Ist die Platte nicht gemounted wird sie von Steam nicht erkannt. Ich brauchte gerade mehrere Neustarts, mit Wechsel/Kontrolle zu Windows um das Muster dahinter zu erkennen.


Wenigstens verschwinden die Platten nicht mehr einfach so, ich hatte die ".C" benannt, die dürfen ja nicht mit "." beginnen, sonst werden sie nicht angezeigt.


Bzgl. Nvidia, bedeutet das, dass Linux von ~70% der Leute nicht genutzt werden kann (Marktanteil NVidia)?
Multimedia/Gaming ist nunmal 90% von dem, was ein Großteil der Menschen mit dem Rechner machen.

Meine Xonar DG Audio wird leider nicht unterstützt, die kann ich schonmal vergessen.

Bin ich der einzige mit solchen Problemen? Ich zweifel gerade echt an mir...

Lurtz
2016-08-21, 12:56:27
Bzgl. Nvidia, bedeutet das, dass Linux von ~70% der Leute nicht genutzt werden kann (Marktanteil NVidia)?
Multimedia/Gaming ist nunmal 90% von dem, was ein Großteil der Menschen mit dem Rechner machen.
Und bei AMD auch nur die Karten, die vom OpenSource-Treiber unterstützt werden. Das ist halt Linux, es läuft viel besser als Windows, du musst dich nur an dessen Regeln halten :ugly:

raumfahrer
2016-08-21, 13:28:17
NTFS proprietär? Jo, ich weiß. Aber jedes billige Autoradio, Fernseher, USB Radio, quasi alles, kann mittlerweile mit NTFS umgehen. Da sollte das bei Linux (in meinen Augen) ebenfalls selbstverständlich sein. Schreiben auf das NTFS Volumen scheint aber auch problemlos zu klappen!

Bin gerade bei Steam:

Ich setze unter Steam/Librabry Settings den Download Ordner für Steam nach "/media/nn23/D/Steam Linux" (mein Datengrab). Irgendwas dahin installiert (DST), alles gut. mach ich einen Neustart=> Dateipfad bei Steam nicht mehr hinterlegt, alle Spiele "weg". Die HDD wird anscheinend erst nach /media/ gemountet, wenn ich einmal im Dateiexplorer oben links auf die D Platte klicke (vorher ist das Symbol grau, nach dem Klick wird es hell). Ist die Platte nicht gemounted wird sie von Steam nicht erkannt. Ich brauchte gerade mehrere Neustarts, mit Wechsel/Kontrolle zu Windows um das Muster dahinter zu erkennen.


Wenigstens verschwinden die Platten nicht mehr einfach so, ich hatte die ".C" benannt, die dürfen ja nicht mit "." beginnen, sonst werden sie nicht angezeigt.


Wie sieht denn der Eintrag deiner NTFS-Platte in /etc/fstab aus?


Bzgl. Nvidia, bedeutet das, dass Linux von ~70% der Leute nicht genutzt werden kann (Marktanteil NVidia)?
Multimedia/Gaming ist nunmal 90% von dem, was ein Großteil der Menschen mit dem Rechner machen.

Meine Xonar DG Audio wird leider nicht unterstützt, die kann ich schonmal vergessen.

Bin ich der einzige mit solchen Problemen? Ich zweifel gerade echt an mir...

Großes Problem mit Linux (und co.) Treibern sind die häufig nicht vorhandenen Anstrengungen seitens der Hersteller. Wenn sich dann niemand Freiwilliges findet, der an den Open Source Treibern arbeitet, sieht es schlecht aus. Häufig werden dann auch noch Steine in den Weg gelegt, die alles noch schwieriger machen (für die Open Source Entwicklung).

Zur Xonar: http://www.linux-hardware-guide.com/2012-11-24-asus-xonar-dg-pci

lumines
2016-08-21, 13:29:33
NTFS proprietär? Jo, ich weiß. Aber jedes billige Autoradio, Fernseher, USB Radio, quasi alles, kann mittlerweile mit NTFS umgehen. Da sollte das bei Linux (in meinen Augen) ebenfalls selbstverständlich sein.

Die meisten Geräte können nur zuverlässig NTFS lesen, aber nicht schreiben.

Schreiben auf das NTFS Volumen scheint aber auch problemlos zu klappen!

Ja, noch. Ich kann dir nur sehr empfehlen die Daten auf der Festplatte gut auf anderen Medien zu sichern.

Bin gerade bei Steam:

Ich setze unter Steam/Librabry Settings den Download Ordner für Steam nach "/media/nn23/D/Steam Linux" (mein Datengrab). Irgendwas dahin installiert (DST), alles gut. mach ich einen Neustart=> Dateipfad bei Steam nicht mehr hinterlegt, alle Spiele "weg". Die HDD wird anscheinend erst nach /media/ gemountet, wenn ich einmal im Dateiexplorer oben links auf die D Platte klicke (vorher ist das Symbol grau, nach dem Klick wird es hell). Ist die Platte nicht gemounted wird sie von Steam nicht erkannt. Ich brauchte gerade mehrere Neustarts, mit Wechsel/Kontrolle zu Windows um das Muster dahinter zu erkennen.

Das versuchst du alles auf NTFS? Wird nicht zuverlässig funktionieren. Ich mein, probier es aus, aber das ist verschwendete Zeit.

Bzgl. Nvidia, bedeutet das, dass Linux von ~70% der Leute nicht genutzt werden kann (Marktanteil NVidia)?

Doch, klar. Die Treiber sind nur an einigen Stellen ziemlich hart verbuggt. Manche Leute kommen damit aber klar. Mir persönlich ist das nur zu stressig und nervig.

Und bei AMD auch nur die Karten, die vom OpenSource-Treiber unterstützt werden. Das ist halt Linux, es läuft viel besser als Windows, du musst dich nur an dessen Regeln halten :ugly:

Man muss nur unterstützte Hardware kaufen. Also genau wie bei jedem anderen Betriebssystem auch, wenn man nicht gerade bewusst Spaß am Frickeln hat.

Abnaxos
2016-08-21, 14:45:17
NTFS proprietär? Jo, ich weiß. Aber jedes billige Autoradio, Fernseher, USB Radio, quasi alles, kann mittlerweile mit NTFS umgehen. Da sollte das bei Linux (in meinen Augen) ebenfalls selbstverständlich sein. Schreiben auf das NTFS Volumen scheint aber auch problemlos zu klappen!
https://en.opensuse.org/Restricted_formats#NTFS

Es ist nicht ohne weiteres möglich, eine OpenSource-Implementation von NTFS zu bauen. Autoradio, Fernseher, USB Radio und all diese Geräte haben dieses Problem nicht: Sie zahlen einfach einen Batzen an Microsoft und gut ist.

Ja, NTFS ist proprietär.

Bzgl. Nvidia, bedeutet das, dass Linux von ~70% der Leute nicht genutzt werden kann (Marktanteil NVidia)?
Multimedia/Gaming ist nunmal 90% von dem, was ein Großteil der Menschen mit dem Rechner machen.
Mit Gaming ist man unter Linux falsch. Es geht auch, vor allem, seit Steam da Gas gibt, aber es wirkt immer noch eher wie eine Krücke. Was die Grafikkarten-Features angeht, die man für die tägliche Arbeit so braucht: Da ist man mit Intel klar am besten bedient, mit den Intel-Treibern funktioniert das alles gut (die sind ja auch OpenSource und Intel steckt selber auch Ressourcen in die Entwicklung). Bei NVidia halten sich Bug-Fixes und neue Bugs bei jedem Treiber-Release ungefähr die Waage, NVidia kriegt es einfach nicht gebacken. Zusätzlich birgt jeder Kernel-Release die Gefahr, neue Bugs im NVidia-Treiber zu verursachen.

Bei Linux ist es wichtig, dass die Treiber OpenSource sind. Wenn in den Tiefen des Kernels etwas so angepasst werden muss, dass man sämtliche Treiber mit anpassen muss, wird das ziemlich gnadenlos gemacht. Wer seine Treiber der Linux-Community übergeben hat, muss sich nicht weiter darum kümmern: Die Community macht, was nötig ist. Wer, wie NVidia, darauf besteht, seinen Treiber geschlossen zu halten, hat dann halt ein Problem.

kruemelmonster
2016-08-21, 15:05:54
Bin ich der einzige mit solchen Problemen? Ich zweifel gerade echt an mir...

Bei weitem nicht. Ich würde zwar nie auf die Idee kommen NTFS unter Linux zu nutzen, aber gerade die Probleme mit Multimonitoring und Graka Treibern allgemein kann ich gut nachvollziehen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11032253#post11032253).

Anderes Beispiel: wollte neulich LACP unter Ubuntu 16 einrichten um mit nem alten Cisco Switch bisschen herumzuspielen. Alles was ich in der GUI des Netzwerkmanagers einrichte hat keine Auswirkung auf /etc/network/interfaces, und alles was ich in /etc/network/interfaces eingetragen hab blieb komplett ohne Auswirkungen in der GUI. Wie zum Geier kann sowas sein?

Arbeiten die Distro Maintainer tatsächlich an ihren "Produkten" und entwickeln sie weiter, oder kippen die nur alle paar Monate alle aktuellen Sourcecodes zusammen und schauen dass das halbwegs fehlerfrei hochfährt?
Imo kann sich die Community nicht immer auf die Hinterbeine stellen und mir sagen "du benutzt Linux falsch (bzw mit falscher HW)", sondern sollte auch mal akzeptieren dass die Erwartungshaltung für Steam den IHV Graka Treiber installieren und dann auf dem Zweitmonitor Youtube gucken nicht unrealistisch oder unverschämt ist.

Linux ist nicht Windows, und das ist auch gut so, aber kann man nicht trotzdem den Spagat schaffen zwischen Oma Erna, der für ihre Kochrezepte auch Ubuntu reicht, und dem Crack welcher sich alle Pakete selbst kompiliert?
Welche Distro überlebt den Wechsel von bspw AMD -> NV (mit proprietären Treibern, ist ja wg Steam ansonsten witzlos) -> AMD ohne die Konsole bemühen zu müssen?

Gast
2016-08-21, 15:11:12
Was meinst du mit hausgemacht?


Cinnamon wird primär von den Mint Leuten entwickelt, XFCE nicht. Meiner Meinung nach macht das bei manchen Distros oft den Unterschied zwischen funktioniert wie erwartet, oder hakt an manchen Stellen.

Ubuntu hat Unity, Mint hat Cinnamon, OpenSuse bevorzugt KDE, Fedora Gnome usw.

Die unterscheiden sich halt nicht nur im Aussehen oder Mac oder Windowsähnlichkeit, sondern erheblich was die Qualität der Programme betrifft die dabei sind. XFCE ist eigentlich eher ein Desktop für fortgeschrittene Linux User die vieles in der CLI machen, eher klassisch Unix.

Was NTFS betrifft hat man da auch auf nem Mac noch mehr Probleme. Liegt also nicht wirklich an Linux.

Lurtz
2016-08-21, 15:15:16
Man muss nur unterstützte Hardware kaufen. Also genau wie bei jedem anderen Betriebssystem auch, wenn man nicht gerade bewusst Spaß am Frickeln hat.
Ändert ja nichts am Grundproblem, dass Linux am Desktop wesentlich weniger Hardware unterstützt, als Windows. Gerade wenn man aus der Multimedia/Spielerecke kommt. Das schränkt den möglichen Einsatzbereich dann schon ein.

aufkrawall
2016-08-21, 15:20:37
Wie zum Geier kann sowas sein?

Bei Linux ist der einzige wirklich getestete Code halt im Kernel zu finden, UIs scheinen für die Code beisteuernden Menschen nur lästiges Beiwerk zu sein.

lumines
2016-08-21, 15:25:05
Anderes Beispiel: wollte neulich LACP unter Ubuntu 16 einrichten um mit nem alten Cisco Switch bisschen herumzuspielen. Alles was ich in der GUI des Netzwerkmanagers einrichte hat keine Auswirkung auf /etc/network/interfaces, und alles was ich in /etc/network/interfaces eingetragen hab blieb komplett ohne Auswirkungen in der GUI. Wie zum Geier kann sowas sein?

Weil du wahrscheinlich Doku von vor 10 Jahren herangezogen hast. Die allermeisten Distributionen benutzen schon seit Ewigkeiten den NetworkManager (https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Deployment_Guide/ch-NetworkManager.html) um den Netzwerkkram zu managen. Über /etc/network/interfaces wird da schon lange nichts mehr gesteuert.

Arbeiten die Distro Maintainer tatsächlich an ihren "Produkten" und entwickeln sie weiter, oder kippen die nur alle paar Monate alle aktuellen Sourcecodes zusammen und schauen dass das halbwegs fehlerfrei hochfährt?
Imo kann sich die Community nicht immer auf die Hinterbeine stellen und mir sagen "du benutzt Linux falsch (bzw mit falscher HW)", sondern sollte auch mal akzeptieren dass die Erwartungshaltung für Steam den IHV Graka Treiber installieren und dann auf dem Zweitmonitor Youtube gucken nicht unrealistisch oder unverschämt ist.

Da sind die Distributionen nur eben die falsche Anlaufstelle. Die Treiber kommen von Nvidia und niemand außer Nvidia kann die Treiber verändern.

Ich mein, es ist ja nichts Falsches daran zu erwarten, dass alles einwandfrei funktioniert. Das sollte man Nvidia nur auch einmal wissen lassen.

Welche Distro überlebt den Wechsel von bspw AMD -> NV (mit proprietären Treibern, ist ja wg Steam ansonsten witzlos) -> AMD ohne die Konsole bemühen zu müssen?

Keine, weil die proprietären Treiber von AMD und Nvidia massive Eingriffe im System vornehmen. Da werden ganze Libraries einfach mal pauschal gelöscht und ersetzt. Anders als über die Konsole kann man das nicht fixen.

Gast
2016-08-21, 15:27:48
Ändert ja nichts am Grundproblem, dass Linux am Desktop wesentlich weniger Hardware unterstützt, als Windows. Gerade wenn man aus der Multimedia/Spielerecke kommt. Das schränkt den möglichen Einsatzbereich dann schon ein.

Dafür wird das was unterstützt wird eben auch sehr lange unterstützt, ohne dass man irgendwelche Treiber benötigt, eben direkt durch den Kernel.

Da kenn ich aber Geschichten von Mac und Windows Nutzern aus dem Audiobereich wo mehrere Hundert Euro teure Interfaces supportmäßig von heute auf Morgen gedroppt werden, nur weil der Hersteller an einen anderen Mutterkonzern ausverkauft und auch das alte Software Team eingestampft wird. Dann kann man halt nicht mehr updaten. Oder aber Hersteller lassen sich mit software Updates extrem viel Zeit, so dass man dadurch eben auch selbst auf ner älteren Version festhängt.

Mit Linux und dem Kernelsupport kann das Problem gar nicht erst entstehen.

Rooter
2016-08-21, 15:44:27
mach ich einen Neustart=> Dateipfad bei Steam nicht mehr hinterlegt, alle Spiele "weg". Die HDD wird anscheinend erst nach /media/ gemountet, wenn ich einmal im Dateiexplorer oben links auf die D Platte klicke (vorher ist das Symbol grau, nach dem Klick wird es hell). Ist die Platte nicht gemounted wird sie von Steam nicht erkannt.Pfade beim booten mounten kann man mit der Anwendung "Disks" (iirc :redface:).

Ja, noch. Ich kann dir nur sehr empfehlen die Daten auf der Festplatte gut auf anderen Medien zu sichern.

Das versuchst du alles auf NTFS? Wird nicht zuverlässig funktionieren. Ich mein, probier es aus, aber das ist verschwendete Zeit.Und wie soll ich dann meine Datengrab-HDD formatieren wenn ich sie von Linux UND Windows zuverlässig lesen und schreiben will?

MfG
Rooter

lumines
2016-08-21, 15:52:07
Und wie soll ich dann meine Datengrab-HDD formatieren wenn ich sie von Linux UND Windows zuverlässig lesen und schreiben will?

Es gibt kein geeignetes Dateisystem dafür. Ist traurig, aber das ist eben die Realität. Ich kenne jedenfalls keins.

Ich mache das mittlerweile einfach über Netzlaufwerke mit Samba oder ähnlichen Protokollen. Bei meinen eigenen Rechnern schiebe ich auch manchmal einfach per SSH / SFTP Dateien hin und her. Geht am einfachsten, ist am sichersten und läuft auch überall. Windows bringt OpenSSH bald auch selbst mit.

Ganon
2016-08-21, 16:43:43
Naja, ntfs-3g funktioniert schon sehr gut auf sehr vielen OS. exFAT geht auch ganz gut.

kruemelmonster
2016-08-21, 17:31:43
Bei Linux ist der einzige wirklich getestete Code halt im Kernel zu finden, UIs scheinen für die Code beisteuernden Menschen nur lästiges Beiwerk zu sein.

So true. Und solange das so bleibt wird es auch keinen brauchbaren Linux Desktop geben.

Weil du wahrscheinlich Doku von vor 10 Jahren herangezogen hast.

Da ist sie wieder, die gefühlt omnipräsente Herabwürdung von Windows Nutzern durch Linuxer.

https://help.ubuntu.com/community/UbuntuBonding
UbuntuBonding (zuletzt geändert am 2015-09-15 15:21:15 durch bryanquigley)

Als ob man blöd wär nur weil Windows mehr GUI als CLI ist...

Keine, weil die proprietären Treiber von AMD und Nvidia massive Eingriffe im System vornehmen. Da werden ganze Libraries einfach mal pauschal gelöscht und ersetzt. Anders als über die Konsole kann man das nicht fixen.

Vllt haben die Distros bisher auch einfach nur eine falsche bzw schlechte Art mit 3rd-Party Treibern umzugehen, und sollten künftig evtl die Treiber sandboxen oder was-auch-immer? Mag aber gut sein dass einem diese Sichtweise fremd ist wenn man nur aus dem ideologischen Elfenbeinturm der offenen Quelltexte auf das Geschehen blickt, und einen praktische Probleme und ihre Lösungen nicht interessieren.

lumines
2016-08-21, 17:55:09
Da ist sie wieder, die gefühlt omnipräsente Herabwürdung von Windows Nutzern durch Linuxer.

https://help.ubuntu.com/community/UbuntuBonding

Als ob man blöd wär nur weil Windows mehr GUI als CLI ist...

Ich habe hier niemanden herabgewürdigt. Ich meinte das schon so, dass die meisten Linux-Distributionen seit vielen Jahren vorwiegend über den NetworkManager konfiguriert werden. Kann man natürlich auch auf dem alten Weg machen, aber mischen funktioniert eben nicht. Das sollte da eigentlich auch stehen.

Vllt haben die Distros auch einfach nur eine falsche bzw schlechte Art mit 3rd-Party Treibern umzugehen

Weil das Problem unbedingt bei der Distribution liegen muss?

und sollten evtl die Treiber sandboxen oder was-auch-immer?

Code im Kernel sandboxen?

Mag aber gut sein dass einem diese Sichtweise fremd ist wenn man nur aus dem ideologischen Elfenbeinturm der offenen Quelltexte auf das Geschehen blickt, und einen praktische Probleme und ihre Lösungen nicht interessieren.

Was meinst du damit jetzt? Ich habe so per se nichts gegen proprietäre Treiber, wenn sie denn gut funktionieren, aber dir muss schon klar sein, von wem du die Treiber beziehst. Du würdest sicher auch keinen Treiber-Support von MS für deine Nvidia-Karte verlangen. Warum aber unter GNU/Linux?

Ich habe die praktischste Lösung übrigens geliefert: Beschwer dich bei Nvidia. Muss mir auch erst einmal jemand erklären, was daran ideologisch verblendet sein soll, wenn ich auf den Hersteller verweise.

Ectoplasma
2016-08-21, 19:06:49
Man muss nur unterstützte Hardware kaufen. Also genau wie bei jedem anderen Betriebssystem auch, wenn man nicht gerade bewusst Spaß am Frickeln hat.

Das geht echt schon ein wenig in Richtung Rumgetrolle.

aufkrawall
2016-08-21, 19:12:13
Ich habe die praktischste Lösung übrigens geliefert: Beschwer dich bei Nvidia. Muss mir auch erst einmal jemand erklären, was daran ideologisch verblendet sein soll, wenn ich auf den Hersteller verweise.
Baut Nvidia denn ständig den Treiber großartig um? Wenn nicht, warum schafft man es dann nicht, auf diesen proprietären Stand aufzubauen?
Ist immerhin der einzig sinnvoll nutzbare Stand für den normalen Anwender, und das ist bei AMD ja derzeit noch nicht nennenswert anders.
Letztlich ist ein grafikbeschleunigter Fenstermanager auch nur ein 3D-Programm wie jedes andere und Microsoft ist da schon seit zehn Jahren auf einem guten Stand.

Selbstverständliches geht mal wieder nicht.

lumines
2016-08-21, 19:29:26
Baut Nvidia denn ständig den Treiber großartig um? Wenn nicht, warum schafft man es dann nicht, auf diesen proprietären Stand aufzubauen?

Was meinst du damit genau? Wie und worauf soll man aufbauen?

Microsoft ist da schon seit zehn Jahren auf einem guten Stand.

Microsoft entwickelt keine Grafikkartentreiber. Das machen unter Windows auch AMD und Nvidia selbst.

aufkrawall
2016-08-21, 19:35:29
Was meinst du damit genau? Worauf soll man aufbauen?

Was ist so schwer daran, den Compositor wie eine ganz normale OpenGL 3D-Anwendung laufen zu lassen, die eben Vsync anfordert oder es sein lässt?
Warum geht das nicht, wenn ein proprietärer Treiber aktiv ist?


Microsoft entwickelt keine Grafikkartentreiber. Das machen unter Windows auch AMD und Nvidia selbst.
Unter Windows können die Treiber prinzipbedingt nicht irgendwelche Systemmodule überschreiben und die Treiber richten sich nach den Anforderungen Microsofts.
Eben genau so eine Organisation fehlt in der Linux-Welt. Warum wursteln die proprietären Treiber so im System rum und warum gibt es keine "Linux Foundation", die Nvidia & AMD für so was auf die Finger klopfen würde?

kruemelmonster
2016-08-21, 19:39:20
Ich habe hier niemanden herabgewürdigt.

Ich will dir da auch keine Absicht unterstellen, das macht es aber auch nicht besser wenn es schon unbewusst passiert. ;)
Wenn ich ein Problem hab und deine erste Reaktion ist wahrscheinlich hast du dir nur alte Dokus rausgesucht, dann spricht das schon Bände.

Ich meinte das schon so, dass die meisten Linux-Distributionen seit vielen Jahren vorwiegend über den NetworkManager konfiguriert werden. Kann man natürlich auch auf dem alten Weg machen, aber mischen funktioniert eben nicht. Das sollte da eigentlich auch stehen.

Ich wollte auch nicht A per CLI und B per GUI einstellen, ich möchte nur A in der GUI sehen wenn ich A per CLI einstelle.

Weil das Problem unbedingt bei der Distribution liegen muss?

Nicht unbedingt, aber was hätte es gebracht wenn ich direkt "Linux" geschrieben hätte. Torvald kümmert sich nur um den Kernel, wenn von ihm nichts diesbzgl kommt müssen mMn die Distros ran.

Code im Kernel sandboxen?

Oder halt mit Hardlinks/Junctions arbeiten. Warum lässt das System es zu dass "ganze Libraries einfach mal pauschal gelöscht und ersetzt" werden ohne Sicherheitsvorkehrungen?

Was meinst du damit jetzt?

Ich hab (nicht nur, aber auch) bei dir den Eindruck das GNU/Linux die heilige Kuh ist und sich jeder dem anpassen muß. Mir fehlt die Einsicht dass sich auch die Kuh mal bewegen und was verändern sollte.

Ich habe so per se nichts gegen proprietäre Treiber, wenn sie denn gut funktionieren, aber dir muss schon klar sein, von wem du die Treiber beziehst. Du würdest sicher auch keinen Treiber-Support von MS für deine Nvidia-Karte verlangen. Warum aber unter GNU/Linux?

MS hat die WDDM Spezifikation, und die IHV halten sich daran. Unter Linux würde ich ebenfalls ein entsprechendes Regelbuch/Framework erwarten um 3rd-Party Kram einzubinden ohne Systemdateien zu verletzen. Windows hat DLL Selbstschutz seit Windows 2000, und kann seit Vista Schreibzugriffe auf Systemordner in den VirtualStore umleiten.

/edit:

@aufkrawall: :up: ...und schön dass du wieder da bist.

raumfahrer
2016-08-21, 19:55:08
(...) warum gibt es keine "Linux Foundation", die Nvidia & AMD für so was auf die Finger klopfen würde?

Ich erinnere mich an "F*ck you nvidia!" ;D

(...) MS hat die WDDM Spezifikation, und die IHV halten sich daran. Unter Linux würde ich ebenfalls ein entsprechendes Regelbuch/Framework erwarten (...)

Linux hat schon einen definierten Graphics Stack, siehe z.B. hier [1]. Probleme damit sind auch durchaus bekannt, deswegen soll X11 auch irgendwann mal durch Wayland ersetzt werden (was aber auch wieder so seine Probleme hat). Für proprietäre Treiber sieht es einfach so aus, dass Blobs im Kernel Space schon aus lizenzrechtlichen Gründen nicht gehen. AMD verfolgt seit einiger Zeit daher auch amdgpu, mit OS Kernel Teil und amdgpu-pro als Blob im User Space.

[1] https://en.wikipedia.org/wiki/Free_and_open-source_graphics_device_driver

lumines
2016-08-21, 19:55:51
Was ist so schwer daran, den Compositor wie eine ganz normale OpenGL 3D-Anwendung laufen zu lassen, die eben Vsync anfordert oder es sein lässt?
Warum geht das nicht, wenn ein proprietärer Treiber aktiv ist?

Man kann ja Vsync anfordern. Interessiert den Nvidia-Treiber nur nicht. Ich habe es nie ans Laufen bekommen. Mit anderen GPUs war das nie ein Problem. Es ist eben ein uralter Bug, keine Verschwörung gegen proprietäre Treiber.

Andere Treiber gibt es für GNU/Linux im Quellcode. Da können Leute reinschauen, es selbst fixen und das dann an Mesa oder die Distributionen weiterreichen. Bei Nvidias Treiber kann das nur Nvidia selbst machen. Und bei denen scheinen einige Bugs eben keine besonders hohe Priorität zu haben. So einfach ist das.

Unter Windows können die Treiber prinzipbedingt nicht irgendwelche Systemmodule überschreiben und die Treiber richten sich nach den Anforderungen Microsofts.
Eben genau so eine Organisation fehlt in der Linux-Welt. Warum wursteln die proprietären Treiber so im System rum und warum gibt es keine "Linux Foundation", die Nvidia & AMD für so was auf die Finger klopfen würde?

Man soll also eine Organisation gründen, weil man sich Hardware gekauft hat, die vom Hersteller nicht richtig supportet wird, um ihm dann „auf die Finger zu klopfen“? Ja, das wird es ihnen zeigen, nachdem man die Hardware schon gekauft hat.

Ich mein, keine Ahnung. Mir scheint das also so vollkommen paradox. Ich meide einfach solche Hardware. Ende.

Abnaxos
2016-08-21, 19:57:38
Eben genau so eine Organisation fehlt in der Linux-Welt. Warum wursteln die proprietären Treiber so im System rum und warum gibt es keine "Linux Foundation", die Nvidia & AMD für so was auf die Finger klopfen würde?
Sie fehlt nicht. Es ist ein bewusster Verzicht darauf. Weil es pflegeleichter ist, den Kernel als Ganzes zu pflegen, gerade weil Linux ein monolithischer Kernel ist (trotz nachladbarer Module). Es ist auch effizienter. Es wurden sogar Features entfernt, die es mal extra für proprietäre Treiber gab.

Es ist die bewusste Entscheidung, dass sich der Linux-Kernel am besten pflegen lässt, wenn alle Sourcen verfügbar sind. Daraus ergibt sich ein flexibles Entwicklungsmodell mit klaren Verhältnissen: Wer eine inkompatible Änderung einpflegen will, ist dafür verantwortlich, dass nachher wieder alles läuft. Ansonsten wird die Änderung nicht akzeptiert. Damit ist auch die Flexibilität, Altlasten über Bord zu werfen und einzelne Dinge grundlegend zu modernisieren gegeben. Auch der Support wird vereinfacht, indem sicher gestellt ist, dass kein Code im Kernel läuft, von dem man nicht weiss, was er tut. Die Bedingung, dass das funktioniert, ist einfach: Her mit den Sourcen.

Die Diskussion über eine stabile binäre Schnittstelle für proprietäre Treiber wurde geführt. Man hat entschieden, keine einzuführen und im Gegenteil bereits vorhandene Ansätze zu so einer Schnittstelle wieder zu entfernen. Bewusst und wohlüberlegt.

Darüber, dass NVidia der Meinung ist, ihren Treiber weiterhin closed-source zu halten, musst Du dich bei NVidia beschweren. Solche Treiber sind in Linux nicht (mehr) vorgesehen.

lumines
2016-08-21, 20:11:54
Ich wollte auch nicht A per CLI und B per GUI einstellen, ich möchte nur A in der GUI sehen wenn ich A per CLI einstelle.

Es gibt auch CLI-Tools für den NetworkManager: https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/Networking_Guide/sec-Using_the_NetworkManager_Command_Line_Tool_nmcli.html

Oder halt mit Hardlinks/Junctions arbeiten. Warum lässt das System es zu dass "ganze Libraries einfach mal pauschal gelöscht und ersetzt" werden ohne Sicherheitsvorkehrungen?

Die Deinstallationsroutinen der Distributionen beachten so etwas normalerweise sehr penibel, dass genau das nicht passiert. Wenn man die Treiber aber abseits der Paketverwaltung installiert, dann kann man dagegen nicht viel machen, wenn Nvidia nicht selbst darauf achtet.

Ich hab (nicht nur, aber auch) bei dir den Eindruck das GNU/Linux die heilige Kuh ist und sich jeder dem anpassen muß. Mir fehlt die Einsicht dass sich auch die Kuh mal bewegen und was verändern sollte.

Ich glaube eher, dass hier einige Leute gerne die Distributionen aus irgendwelchen Gründen als ultimative Problemlöser für alles sehen wollen. Warum auch immer.

Nvidia stellt sich generell gegen das Modell von GNU/Linux, nicht speziell gegen einige Distributionen. Da kann man schlecht eine Lösung über die Distributionen finden. Nvidias Treibermodell harmoniert damit einfach grundsätzlich nicht. Soll man jetzt ein OS um einen einzigen Treiber herum bauen? Wer soll das machen, wer soll das bezahlen und wer hat überhaupt Lust darauf?

Aber hey, Freiwillige vor, wenn ihr da Interesse dran habt.

MS hat die WDDM Spezifikation, und die IHV halten sich daran. Unter Linux würde ich ebenfalls ein entsprechendes Regelbuch/Framework erwarten um 3rd-Party Kram einzubinden ohne Systemdateien zu verletzen. Windows hat DLL Selbstschutz seit Windows 2000, und kann seit Vista Schreibzugriffe auf Systemordner in den VirtualStore umleiten.

Weil Microsoft einen riesigen Marktanteil hat und Nvidia und AMD es sich gar nicht leisten können MS zu widersprechen. Welche Konsequenzen sollten denn deiner Meinung nach Debian oder Ubuntu ziehen, wenn z.B. Nvidia sich querstellt? Die Nvidia-Treiber aus den Repos nehmen? Und dann? Abwarten? In der Zeit verweist Nvidia einfach auf ihren Standalone-Installer auf ihrer Webseite und alles läuft wie bisher weiter.

Einfach nicht kaufen und mit der Geldbörse wählen. Es könnte so einfach sein.

Rooter
2016-08-21, 20:19:48
Darüber, dass NVidia der Meinung ist, ihren Treiber weiterhin closed-source zu halten, musst Du dich bei NVidia beschweren. Solche Treiber sind in Linux nicht (mehr) vorgesehen.
Die können den Treiber ja von mir aus closed-source halten, kann ich ja verstehen, steckt sicher viel Know-how und Firmengeheimnisse drin. Sie sollen dann aber auch gefälligst die Bugs fixen, wie die Sache mit dem Vsync.

MfG
Rooter

Boris
2016-08-21, 20:31:13
Einfach nicht kaufen und mit der Geldbörse wählen. Es könnte so einfach sein.
Selbst wenn, das merkt nVidia garnicht, dafür ist GNU/Linux (leider) zu unbedeutend.

Gast
2016-08-21, 20:43:55
Was spricht für Ubunty Unity? Was für Ubuntu Mate?

Habe ich mit Ubuntu Mate denselben umfangreichen und schnellen Sicherheits- und Software Support wie bei Ubuntu Unity?

Abnaxos
2016-08-21, 20:49:21
Die können den Treiber ja von mir aus closed-source halten, kann ich ja verstehen, steckt sicher viel Know-how und Firmengeheimnisse drin. Sie sollen dann aber auch gefälligst die Bugs fixen, wie die Sache mit dem Vsync.
Auch die Intel-Treiber laden das eine oder andere closed-source BLOB nach, das ganze DRM-Zeugs z.B. Wenn die Grundfunktionalität da ist gibt es immer noch Möglichkeiten, das wirklich wertvolle und geheime Know-How in eigene Module zu abstrahieren und versteckt zu halten. Dinge wie das Handling von mehreren Monitoren oder den Vsync könnten aber bedenkenlos der Community übergeben werden, die macht das schon.

aufkrawall
2016-08-21, 20:49:34
Die können den Treiber ja von mir aus closed-source halten, kann ich ja verstehen, steckt sicher viel Know-how und Firmengeheimnisse drin. Sie sollen dann aber auch gefälligst die Bugs fixen, wie die Sache mit dem Vsync.

Konnte leider nicht testen, ob das nicht auch mit Radeons auftritt, da mein Qnix ohne Scaler und die proprietären AMD Linux-Treiber ziemlich beste Feinde waren... :cool:
(unter Windows natürlich kein Problem, wär auch gar nicht dran zu denken)

Ganon
2016-08-21, 20:51:08
Dazu muss man einfach sagen, man hat hier und da mit den Closed-Source NVidia Treibern Probleme, weil einige Kernel-Entwickler wollen, dass man damit Probleme hat, bzw. wollen, dass NVidia damit Probleme hat.

Die Linux-Entwickler sind nicht das Bückstück für NVidia und deshalb fahren sie denen oft genug einfach so in den Karren. Ansonsten würde sich NVidia einfach allen Entwicklungen im Kernel bereichern und nichts zurückgeben. Darum ist NVidia auch fleißig damit beschäftigt Workarounds in Massen zu produzieren.

Und wenn es nach NVidia selbst geht, sollte sowieso jeder einen eigenen NVidia Codepfad haben mit NVidia-Extensions.

aufkrawall
2016-08-21, 20:53:07
Immerhin dürfte das mit Vulkan zumindest für Spiele ziemlich egal sein.

Foobar2001
2016-08-22, 06:19:16
An diesen Problemen aendert Vulkan exakt nichts.

Ganon
2016-08-22, 09:58:49
Die OpenGL Problematik könnte mit NVidias GLVND Bibliothek verbessert werden (Nvidia OpenGL überschreibt dann nicht mehr das Mesa OpenGL). Weiß nicht inwieweit dort Mesa bereits was getan hat oder nicht. Bei Vulkan ist es ja von Anfang an bereits so.

@Abnaxos

Wobei man sagen muss, dass Intel erst seit Skylake Blobs mit ihren Treibern ausliefert.

nn23
2016-08-23, 17:38:09
Also, um auch mal etwas positives bei zu tragen ;)

Habe Mint xfce jetzt gelöscht und Mint Cinnamon installiert.
Läuft alles gleich viel besser! Die Monitore werden (soweit ich bisher sehe) korrekt erkannt, Fenster gehen auf dem richtigen Bildschirm auf, Tearing ist BEDEUTEND besser (aber noch nicht 100% flüssig)! Platten gehen nicht mehr verloren (nachdem ich die nicht mehr ".D Daten" genannt habe).
Alternativen zu diversen Programmen muss ich noch suchen, aber bisher fühle ich mich direkt wohl!
Insgesamt ein doch sehr runder Eindruck!

BBig
2016-08-23, 21:58:01
...

Habe Mint xfce jetzt gelöscht und Mint Cinnamon installiert.
...


;D ;D *SCNR*

Aber freut uns, dass nun alles rund läuft.

nn23
2016-08-24, 19:24:28
Jaaa, ich weiß, Mint ist Mint und xfce/cinnamon/mate und co ist nur die Desktop Oberfläche ;)
Aber da es als eigenständige ISO verfügbar ist...

Matrix316
2016-08-25, 19:50:53
Gerade für den Desktop vs Grafikkarte vs Performance ist die Oberfläche immens wichtig. Mate oder XFCE ist z.B. AFAIK nicht grafikbeschleunigt, während Cinnamon und Unity das sind - wobei das andererseits auch wieder zu Problemen führen kann, wenn die Grafikkarte nicht richtig unterstützt wird.

Rabiata
2016-08-28, 18:40:38
Die Diskussion über eine stabile binäre Schnittstelle für proprietäre Treiber wurde geführt. Man hat entschieden, keine einzuführen und im Gegenteil bereits vorhandene Ansätze zu so einer Schnittstelle wieder zu entfernen. Bewusst und wohlüberlegt.

Darüber, dass NVidia der Meinung ist, ihren Treiber weiterhin closed-source zu halten, musst Du dich bei NVidia beschweren. Solche Treiber sind in Linux nicht (mehr) vorgesehen.
Gleichzeitig wird die open-source Treiberversorgung bei AMD immer besser, Michael Larabel von Phoronix.com hat die RX 480 am Launchtag getestet und konnte fast alle Tests unter dem open-source Treiber durchführen.

Für die meisten Linux-User kann man also zunehmend empfehlen, AMD oder Intel zu kaufen. NVidia kann dann entweder nachziehen oder auf die Linux-Kunden verzichten :tongue:.

Nagelbrett
2016-08-28, 19:29:46
Gleichzeitig wird die open-source Treiberversorgung bei AMD immer besser, Michael Larabel von Phoronix.com hat die RX 480 am Launchtag getestet und konnte fast alle Tests unter dem open-source Treiber durchführen.

Für die meisten Linux-User kann man also zunehmend empfehlen, AMD oder Intel zu kaufen. NVidia kann dann entweder nachziehen oder auf die Linux-Kunden verzichten :tongue:.
Ich finde das einen sehr irreführenden Ratschlag. Dass alle Tests liefen sagt ja noch nichts über die Qualität des Open Source Treibers aus. Mein letzer Stand ist eher, dass dieser in vielen Fällen immer noch weit hinter dem Catalyst herhinkt, und beide nicht mit der Performance des Windows-Treibers mithalten können, wohingegen bei NVidia der Unterschied zwischen Windows und Linux klein ist.
Falls sich das mittlerweile geändert haben sollte, wäre ich an einem Link zu Benchmark-Ergebnissen interessiert.

The_Invisible
2016-08-29, 09:29:42
Gleichzeitig wird die open-source Treiberversorgung bei AMD immer besser, Michael Larabel von Phoronix.com hat die RX 480 am Launchtag getestet und konnte fast alle Tests unter dem open-source Treiber durchführen.

Für die meisten Linux-User kann man also zunehmend empfehlen, AMD oder Intel zu kaufen. NVidia kann dann entweder nachziehen oder auf die Linux-Kunden verzichten :tongue:.

Genau, deswegen gibt es für manche Linux-Games gar keine AMD-Empfehlung, weil ja die Treiber so gut sind. Also manchmal sollte man die Scheuklappen schon ein wenig zur Seite bewegen.

Ganon
2016-08-29, 09:41:55
Gut, mal davon ab, dass "Zocken" und "Linux" sowieso bisher so eine Sache ist und man hier auf Vulkan-Titel warten muss, muss man halt abwägen. Will man einen weitestgehend problemfreien Allround Linux-Desktop -> AMD/Intel, will man hauptsächlich nur Zocken -> NVidia.

Auf dem PC meiner Freundin mit einer NVidia Karte hab ich mal getestet wie gut das so funktioniert. Also man hat mit den geschlossenen Treibern schon hier und da Probleme. Da klickt man ein Fenster an und will es verschieben, schon ist es ganz woanders. In mpv fingen mit VDPAU beschleunigte Videos irgendwann das ruckeln an, moderner Wayland-Kram geht nicht, Xorg ohne root-Rechte geht auch nicht, etc. pp.

Das passierte bei mir mit Intel oder AMD nicht.

Weiterhin muss man sagen, dass das mit "NVidia-Only" Titel in Linux sich auch nicht geändert hat. Ich hatte es irgendwo schon mal gesagt, aber oft ist es auch einfach so, dass die Spiele invalides OpenGL produzieren. Gerade "Nvidia Only" Titel werden sehr genau beleuchtet und entweder wird der Bug in Mesa gefixt oder es wird eben genau das rausgefunden: Invalides OpenGL. Sofern der Entwickler das dann fixt, läuft das Spiel dann meist nicht nur unter Mesa, sondern auch unter AMD Catalyst.

Will damit nicht sagen, dass die Closed-Source AMD Treiber hier irgendwo perfekt sind, aber gerade neu ist ja, dass man offiziell Mesa nutzen kann.

Rabiata
2016-08-29, 13:59:01
Ich finde das einen sehr irreführenden Ratschlag. Dass alle Tests liefen sagt ja noch nichts über die Qualität des Open Source Treibers aus. Mein letzer Stand ist eher, dass dieser in vielen Fällen immer noch weit hinter dem Catalyst herhinkt, und beide nicht mit der Performance des Windows-Treibers mithalten können, wohingegen bei NVidia der Unterschied zwischen Windows und Linux klein ist.
Falls sich das mittlerweile geändert haben sollte, wäre ich an einem Link zu Benchmark-Ergebnissen interessiert.
Letzter Test auf Phoronix (http://www.phoronix.com/scan.php?page=article&item=windows-linux-rx480&num=1) (ganz frisch und wie für diese Diskussion bestellt :biggrin:).
Kurzfassung:

Gleichstand zu Windows ist noch nicht erreicht, aber in den meisten Fällen hat eine RX 480 schon spielbare Frameraten. Auch für neuere Spiele wie Tomb Raider.
Der Open Source Treiber ist in OpenGL mittlerweile mit dem "Catalyst" (wurde vom AMDGPU-PRO Treiber abgelöst) insgesamt vergleichbar. Man beachte daß die Ergebnisse von Test zu Test stark schwanken. Manchmal ist AMDGPU-PRO schneller, manchmal der Open Source Treiber.
Vulkan-Unterstützung gibt es bisher nur im AMDGPU-PRO Treiber.

Dabei sollte man allerdings im Hinterkopf behalten, daß Michael Larabel mit den neuesten Treiber/Kernelversionen testet, die noch nicht unbedingt in den gängigen Distributionen angekommen sind. Wer sich nicht zutraut, sein Linux selbst zusammenzustellen, muß eventuell noch warten bis er die von Michael getestete Performance zuhause genießen kann.

Acid-Beatz
2016-08-30, 15:37:43
Gibt es eigentlich ein Linux, das man für Dell Latitude Laptops empfehlen kann - eines, bei dem hinterher mit möglichst wenig Konfiguration möglichst viel wieder geht :smile:
Speziell WLAN, Energiesparoptionen und der Betrieb von zwei externen Monitoren über die Dockingstation wären wichtig.

Ich weiß, dass Dell es selbst mit Ubuntu anbietet, allerdings bin ich gerade davon nicht so der Freund ... .

Loeschzwerg
2016-08-30, 16:27:50
Out-of-box würde ich klar Ubuntu (oder Kubuntu usw...) sagen. Ich habe in letzter Zeit drei unterschiedliche Notebooks mit Linux (SUSE, Fedora und eben Ubuntu; jeweils an allen drei) installiert und am unkompliziertesten lief immer Ubuntu. Zu Multimonitor- und Docking-Betrieb kann ich allerdings (noch) nichts sagen.

Bei OpenSUSE (Tumbleweed) musste ich bei zwei Notebooks den WLAN Treiber händisch nachziehen (teilweise echt umständlich). Bei Fedora (Rawhide) fehlten diese ebenfalls und es mussten immer die Media-Codecs nachgezogen werden.

Von Mint halte ich persönlich nichts.

lumines
2016-08-30, 16:56:30
Gibt es eigentlich ein Linux, das man für Dell Latitude Laptops empfehlen kann - eines, bei dem hinterher mit möglichst wenig Konfiguration möglichst viel wieder geht :smile:
Speziell WLAN, Energiesparoptionen und der Betrieb von zwei externen Monitoren über die Dockingstation wären wichtig.

Kommt nicht so sehr auf den Notebook-Hersteller an, sondern auf die verbaute Hardware. Solange man eine aktuelle Distribution benutzt, ist die Hardware-Unterstützung zwischen den Distributionen quasi identisch.

Einige proprietäre Treiber bringen manche Distributionen aber so direkt nicht mit. Da kann es dann Unterschiede geben, wie einfach man die beziehen kann. Ubuntu bindet die relativ unbürokratisch ein, bei Fedora ist das manchmal etwas schwieriger. Sind aber nirgendwo unüberwindliche Hürden.

BBig
2016-08-30, 16:57:39
Out-of-box würde ich klar Ubuntu (oder Kubuntu usw...) sagen. ...

Japp, wäre auch mein erster Gang.
==> https://wiki.ubuntu.com/UbuntuFlavors

Wobei ich als erstes Ubuntu-Mate probieren würde:
https://ubuntu-mate.org/

Mit Ubuntu MATE Welcome und Software Boutique wirklich eine tolle, einsteigerfreudliche Distro.

Acid-Beatz
2016-08-31, 15:19:33
Guten Tag zusammen,
so lange WLAN von Anfang an geht ist ja alles halb so wild, ich hasse es nur, wenn man dann stundenlang neben seinem Router sitzen darf, um sich per LAN das ganze Zeugs zusammen zu suchen oder noch besser, alles von einem anderen PC per USB-Stick nachschieben muss :freak:

Ich hab mir eben das Ubuntu-Mate mal in eine VM gepackt und muss sagen, es gefällt direkt - aufgeräumt, schnell und ohne viel Schnick-Schnack - vielleicht gehe ich dieses "Projekt" demnächst im Urlaub wirklich mal an!

lumines
2016-08-31, 15:38:31
Guten Tag zusammen,
so lange WLAN von Anfang an geht ist ja alles halb so wild

Ohne die Hardware zu kennen kann man so direkt nichts dazu sagen, ob etwas out-of-the-box unterstützt wird.

Acid-Beatz
2016-08-31, 20:01:29
Müsste ein Centrino Advanced N 6205 sein - aus dem Bauch raus würde ich auch sagen, dass es Out-of-the-box funktionieren muss aber das hab`ich schon manchmal gedacht :)

raumfahrer
2016-09-01, 00:12:45
Der ist seit 2010 im Kernel.

https://wireless.wiki.kernel.org/en/users/drivers/iwlwifi

Ganon
2016-09-01, 09:04:03
Ja Intel Chips machen in der Regel keine Probleme, solange sie nicht gerade brandaktuell sind. Brandaktuelle Hardware heißt brandaktueller Kernel und da fallen viele Distributionen raus.

Rooter
2016-09-04, 14:07:59
Es gibt kein geeignetes Dateisystem dafür. Ist traurig, aber das ist eben die Realität. Ich kenne jedenfalls keins.

Ich mache das mittlerweile einfach über Netzlaufwerke mit Samba oder ähnlichen Protokollen. Bei meinen eigenen Rechnern schiebe ich auch manchmal einfach per SSH / SFTP Dateien hin und her. Geht am einfachsten, ist am sichersten und läuft auch überall. Windows bringt OpenSSH bald auch selbst mit.Die beste Lösung sieht dann also so aus, meine Dateien auf einen extra Fileserver zu packen und per Netzwerkfreigabe von meinem Windows/Linux-Desktop drauf zu zugreifen!? :ugly:

MfG
Rooter

lumines
2016-09-04, 14:16:17
Die beste Lösung sieht dann also so aus, meine Dateien auf einen extra Fileserver zu packen und per Netzwerkfreigabe von meinem Windows/Linux-Desktop drauf zu zugreifen!? :ugly:

Also sagen wir mal so, ich habe hier im Gegensatz zu anderen Leuten nicht das Problem, dass ich auf die gleichen internen Daten von zwei verschiedenen OSs aus zugreifen muss, weil ich kein Dual-Boot fahre. Aber grundsätzlich wäre das wahrscheinlich schon mit die kompatibelste Lösung. Am einfachsten ist es natürlich, wenn man nur ein OS und Dateisystem benutzt. :^)

Ist vielleicht nicht so klargeworden, aber zwischen zwei unterschiedlichen Rechnern greife ich einfach per SFTP (von SSH) zu. Das macht das Dateisystem des jeweiligen Users vollständig über das Netzwerk verfügbar, ohne dass man sich da über Kompatibilitätsprobleme Gedanken machen muss. Einen separaten Fileserver benutze ich da gar nicht. Mit einem Public-Key-Login ist das eigentlich auch ziemlich komfortabel, weil man nicht andauernd das Passwort eingeben muss. So tausche ich jedenfalls Daten zwischen GNU/Linux und macOS aus.

aufkrawall
2016-10-31, 15:53:13
Weiß jemand was man tun muss, um Steam auf OpenSuse mit dem proprietären Nvidia-Treiber zum laufen zu bekommen?
Verweigert leider den Start.

Btw: Ich musste Secure Boot deaktivieren, damit mit dem standardmäßigen Open Source-Treiber der Mauscursor richtig dargestellt wird. :freak:
Secure Boot mit selbst kompilierten Treibern kann man komplett knicken? Kann man die nicht selber signieren?

Rooter
2016-10-31, 16:07:09
Kann man die nicht selber signieren?Bin kein Experte in dem Bereich aber wenn man die selber signieren könnte, würde das doch den Sinn von Secure Boot ad absurdum führen, oder!?

MfG
Rooter

aufkrawall
2016-10-31, 16:10:12
Nicht völlig, denn der Bootloader muss ja weiterhin signiert sein, was echte Bootkits verhindert.
Edit: Natürlich vorausgesetzt, dass man den Bootloader nicht selber signieren kann.

iuno
2016-10-31, 18:56:17
Man kann schon selbst signieren, bekommt dann aber eine Warnung/Fehler bzw. muss das uefi mit dem Schluessel bekannt machen.
Bzgl. des urspr. Problems kann ich aber auch nicht helfen, kA was Nv und Valve da wieder gemacht haben :P
Du koenntest aber mal versuchen, Steam von der Konsole aus zu starten und zu schauen was es dort ausgibt.

aufkrawall
2016-11-01, 14:57:19
Du koenntest aber mal versuchen, Steam von der Konsole aus zu starten und zu schauen was es dort ausgibt.
Wollte ich gerade schauen. Dummerweise hab ich aber vorher in den Nvidia-Settings eine Option gesetzt, diverse X-Sachen zu überschreiben. Das hatte das Tearing auf dem Desktop behoben, aber nun startet es nach einem Neustart nicht mehr.
Hach, Linux-Stories.. :redface:

@Mirko
2016-11-01, 17:59:32
Nicht völlig, denn der Bootloader muss ja weiterhin signiert sein, was echte Bootkits verhindert.
Edit: Natürlich vorausgesetzt, dass man den Bootloader nicht selber signieren kann.
Viele Mainboardhersteller liefern für aktives Secure Boot nur Microsoft signierte Bootloader, und da könnte der Fehler liegen. Vielleicht mal ein Biosupdate durchführen, ansonsten durchtesten ob EFI/.../shimx64.efi aktivierbar/aktiv ist.

aufkrawall
2016-11-01, 19:08:51
Nachtrag: Hab nun statt TumbleWeed die letzte Leap-Final genommen (und Grub ohne SecureBoot).
Läuft. =)
Vulkan bringt auf der 1070 sowohl in Talos Principle als auch Dota 2 einen Performancegewinn gegenüber OGL. Talos scheint so wie unter Windows zu laufen, für Dota fehlt mir gerade der Vergleich mit Vulkan.
Beides läuft aber mit Abstand am saubersten unter Windows mit DX11.

Der Tipp hier ist übrigens Gold wert:
http://www.thelinuxrain.com/articles/got-tearing-with-proprietary-nvidia-try-this
Am besten nutzt man den KDE-Compositor überhaupt nicht.
Man muss aber leider vor Spielen dann Vsync wieder per Terminal abschalten. Auch wenn man mit Vsync spielen will, schaltet man es besser auf der Oberfläche ab und stattdessen im Spiel selbst ein.

Allgemein laufen KDE und Linux-Firefox leider entsetzlich langsam, träge und widerspenstig im Vergleich zu Windows.

lumines
2016-11-01, 19:25:02
Allgemein laufen KDE und Linux-Firefox leider entsetzlich langsam, träge und widerspenstig im Vergleich zu Windows.

Du meinst: Mit Nvidia-Hardware.

Grundsätzlich läuft das UI ohne Wayland / Weston nicht allerdings wirklich nicht besonders toll.

iuno
2016-11-01, 19:40:16
Danke fuer den Bericht mit den Spielen. Mich wuerde ja vor allem mal ein Spiel wie Doom@Vulkan@Linux interessieren... :usad:
Am besten nutzt man den KDE-Compositor überhaupt nicht.
Man muss aber leider vor Spielen dann Vsync wieder per Terminal abschalten. Auch wenn man mit Vsync spielen will, schaltet man es besser auf der Oberfläche ab und stattdessen im Spiel selbst ein.
kwin macht zumindest mit freien Treibern absolut keine Probleme, man hat kein Tearing und der Desktop ist auch kein bisschen traege, FF natuerlich genausowenig.
Ich persoenlich habe bei meinem KDE Desktop die Animationsgeschwindigkeit hoch gestellt, weil mir die grundsaetzlich zu lahm waren, ich denke aber nicht dass du das mit "traege" meinst?!

Was man beachten muss, wenn man KDE nutzt ist dass kwin nicht wie z.B. Mutter (Gnome) unredirection kennnt, d.h. dass einzelne Fenster nicht vom compositor angefasst werden, sondern der Inhalt nur "durchgereicht". Stattdessen gibt es eine Schnittstelle, das Compositing ganz auszusetzen, waehrend eine entsprechende Anwendung laeuft. Das ist eine bewusste Designentscheidung, die aber nicht jeder nachvollziehen kann.
Also: bei KDE vor einem Spiel compositing ganz aussetzen: alt+shift+f12.

@lumines: inwiefern? Ich nutze wieder KDE kurz nachdem Plasma 5 kam. Ja, anfangs hat es gehakt, inzwischen bin ich aber recht zufrieden. Ich muss aber auch zugeben, dass ich "ordentliche" Hardware (i7 iGPU und Hawaii) und aktuell auch kein Multi Monitor Setup habe.
Was ist denn mit Wayland deutlich besser? Und wieso sprichst du Weston an, afaik bedient sich kwin nicht daran?