Archiv verlassen und diese Seite im Standarddesign anzeigen : Allgemeiner Linux Frage-, Antwort- und Diskussionsthread
Seiten :
1
2
3
4
5
6
7
8
9
[
10]
11
12
13
14
15
16
17
18
19
Rampage 2
2019-03-17, 22:29:38
Dual-GPU-Setups speziell von Nvidia waren unter Linux übrigens schon immer problematisch. Ich habe keine Ahnung vom aktuellen Stand, aber vor ein paar Jahren war das keine Kombination, die man wirklich haben wollte.
Würde es in dem Fall denn nicht ausreichen, einfach die iGPU im BIOS zu deaktivieren?
Und welcher Linux-Treiber ist besser für Nvidia-GPUs, also nicht bzgl. Kompatibilität sondern Featureset bzw. Funktionalität? "Nouveau" oder "non-free" ? Letzteres ist wohl der Original-Nvidia Treiber...
Und warum muss man sich bei Linux überhaupt Sorgen um Treiber oder Kompatibilität bei der OS-Installation oder während des Bootvorgangs machen!? Genau für solche Szenarien gibt es doch generische Standardtreiber - Windows 7 hat OOTB z.B. "vga.sys" für die basale Darstellung des Installationsmenüs.
R2
Rooter
2019-03-17, 22:37:18
Würde es in dem Fall denn nicht ausreichen, einfach die iGPU im BIOS zu deaktivieren?Klar, dann ist es ja kein Dual-GPU-Setup mehr. :D
MfG
Rooter
lumines
2019-03-17, 22:41:01
Würde es in dem Fall denn nicht ausreichen, einfach die iGPU im BIOS zu deaktivieren?
Ich meine ja.
Und welcher Linux-Treiber ist besser für Nvidia-GPUs, also nicht bzgl. Kompatibilität sondern Featureset bzw. Funktionalität? "Nouveau" oder "non-free" ? Letzteres ist wohl der Original-Nvidia Treiber...
Definitiv non-free bei Nvidia.
Und warum muss man sich bei Linux überhaupt Sorgen um Treiber oder Kompatibilität bei der OS-Installation oder während des Bootvorgangs machen!? Genau für solche Szenarien gibt es doch generische Standardtreiber - Windows 7 hat OOTB z.B. "vga.sys" für die basale Darstellung des Installationsmenüs.
Muss man eigentlich nicht, wenn man die richtige Hardware kauft. AMD und Intel laufen einwandfrei. Man muss da nicht einmal Treiber nachinstallieren. Die freien, mitgelieferten Treiber haben da auch direkt das volle Featureset.
Nvidia als Dual-GPU-Setup ist leider mit Linux so ziemlich die denkbar schlechteste Kombination.
Und warum muss man sich bei Linux überhaupt Sorgen um Treiber oder Kompatibilität bei der OS-Installation oder während des Bootvorgangs machen!? Genau für solche Szenarien gibt es doch generische Standardtreiber - Windows 7 hat OOTB z.B. "vga.sys" für die basale Darstellung des
Es gibt auch generische VESA Treiber und Nouveau koennte man wenn man so will auch als "generischen Standardtreiber" bezeichnen. Bild bekommt man dann je nach Hardware auch ohne "gute" Treiber. Sorgen muss man sich nur machen, wenn man von Firmen kauft, die einen Scheiss drauf geben was der Rest der Welt macht oder haben will. Nvidia contributet weder entsprechend Sinnvolles zum Kernel, wenn es um GPUs geht, noch unterstuetzen sie die Community, die die Arbeit macht, noch benutzen sie die Schnittstellen, auf die sich alle anderen geeinigt haben. Und seit ein paar Generationen braucht es signierte Firmwares. Da kann "Linux" also nicht viel dafuer.
Ganon
2019-03-25, 11:51:27
Nach einem Jahr Flatpak-Benutzung mal ein kleiner Zwischenbericht:
Prinzipiell hat sich das ganze Projekt recht gut entwickelt. Es wurde sehr viel Automatisierung eingeführt (z.B. ABI-Break Prüfung, CVE Scanner, ...) die dem Runtime Team an sich helfen. Auch sind essentielle Pakete wie Mesa nicht mehr gnadenlos veraltet, sondern werden regelmäßig aktualisiert. Natürlich nur, sofern die Anwendung auf der aktuellen FDO 18.08/GNOME 3.30+/KDE 5.12 Runtime läuft. Praktisch wenn man LTS Distributionen mit altem Mesa benutzt, da man hierdurch ein modernes Mesa frei Haus bekommt ohne die eigene Distribution zu "patchen".
Der Teufel steckt aber noch im Detail:
Der Upstream Support ist noch eher mau. Die meisten Pakete auf flathub sind von Freiwilligen betreut (was jetzt nichts unübliches ist, wenn es um Pakete geht). Entweder hat das Upstream Projekt kein Interesse an sowas oder unterstützt nur snap oder AppImage. Flathub selbst hat daraufhin auch seine Aufnahmebedingungen für flathub hochgezogen indem Upstream zumindest über das Paket informiert werden muss und erst dann upstream-unabhängige, freiwillige Betreuung erlaubt, wenn Upstream sagt "Nö, kein Interesse".
Meine Befürchtung zu "Ich hab dann mal eben zig Runtimes in verschiedenen Versionen" auf der Platte bewahrheitet (https://github.com/flathub/flathub/issues/667) sich leider, je nachdem welche Anwendungen man so installiert hat. Man kann über github leicht mit den Paketbetreuern in Kontakt treten und per PR auch mithelfen, fragt sich nur wie hoch die Dunkelziffer bereits unbetreuter Pakete ist. Spätestens wenn die Anwendung upstream ein Update bekommt und die nicht bei Flathub landet, sollte man nachhaken. Manchmal ist das Upgrade von einer Pre-18.08 Runtime zu einer 18.08 Runtime auch mit ein paar Hürden versehen, besonders wenn man uralte Abhängigkeiten hat (https://github.com/flathub/org.gimp.GIMP/pull/37) die auf einem modernen Linux nicht mehr ordentlich kompilieren (hier ist jetzt das uralte webkitgtk1 das Problem für den Hilfe-Browser).
Die erhöhte Sicherheit durch eine Sandbox um die Anwendungen ist eher eine Frage der Anwendung. Bei Anwendungen die in sich geschlossen arbeiten (Chat Clients, Steam, Spiele allgemein, Streaming Sachen, ...) kann man die Sandbox in der Regel schön hochziehen und das klappt auch. Bei allem was wahlfrei auf Dokumente zugreifen muss (LibreOffice, GIMP, Emulatoren und Co.), wird in der Regel über kurz oder lang kompletter Host-Zugriff gewährt. Die wenigsten Anwendungen kommen 100%ig mit dem Weg über Portale (https://github.com/flatpak/xdg-desktop-portal/) klar und auch die Anwender kommen nicht damit klar, wenn ihre Daten an unüblichen Orten liegen. Und Umgewöhnen wird eher schwierig, gerade bei etwas weniger sandboxed Konkurrenz wie snap und AppImage. Man hat aber auch als Anwender die Möglichkeit die Sandbox-Regeln vom Paket zu überschreiben. Man muss also nicht damit leben, wenn man es sicherer haben will.
Insgesamt stehe ich dem Projekt positiver gegenüber als noch vor einem Jahr. Man arbeitet recht fleißig an der ganzen Sache. Kleinere und mittlere Problemstellen gibt's überall noch. Die Hoffnung ist, dass man mehr und mehr Projekte zur Unterstützung bewegen kann. Also weniger "hier sind offizielle Pakete für RHLE 6 und 7, Ubuntu 16 und 18 und Debian 9", sondern einfach: "Hier Flatpak und hier Snap".
aufkrawall
2019-03-25, 12:17:35
Ist halt bei Arch die Frage, wofür man es braucht, wenn es für fast alles ein PKGBUILD gibt. Klar, ist einsteigerfreundlicher und kann mal der Notnagel sein. Für die Entwickler von FOSS ist das aber offenbar nicht attraktiv genug gegenüber dem bisherigen Distributions-Modell.
Für proprietäre Programme ist es sicherlich hilfreicher, wenn die Entwickler es denn annehmen.
Ganon
2019-03-25, 12:52:31
Ist halt bei Arch die Frage, wofür man es braucht, wenn es für fast alles ein PKGBUILD gibt.
Sandboxing durch alle Ebenen hinweg, auch für Build-Skripte. Ein Steam was rm -rf / macht (was schon vorgekommen ist), oder ein kaputtes PKGBUILD kann dir halt das System zerlegen. Geht bei Flatpak nicht so einfach (mal vom eher ungewünschten Host-Zugriff abgesehen). Und AUR-Tools die vor sowas schützen kommen und gehen gefühlt auch halbjährlich.
flatpak-builder als Tool was dann die flatpaks erstellt läuft auch Sandboxed. Dort hat ein etwaiges Build-Skript im Standard nicht mal Internetzugriff. Auch praktisch wenn man sich mehr oder weniger ungeprüft (Build-)Skripte von irgendwelchen git Repos holt und ausführt.
Weiterhin muss man sich nicht unbedingt uralte Abhängigkeiten direkt ins System installieren, wenn man z.B. ältere Spiele spielen möchte.
Auch sind in der Regel sämtliche Nutzerdaten der Anwendung nicht irgendwo in .config, .cache, .local und Co. verstreut, sondern liegen allesamt in .var/app/<Anwendung>.
Für Benutzer von LTS Distributionen ist zusätzlich der Vorteil, dass sie auch so einfach an neue Versionen kommen. z.B. Gimp 2.10 auf Debian 9.
Ob das nun alles für einen Vorteile sind, hängt natürlich auch davon ab wie lang deine Chain-of-Trust so ist. Die Sicherheit von OpenSource Anwendungen wird aber in Regel eher überbewertet.
aufkrawall
2019-03-25, 13:09:18
Sandboxing durch alle Ebenen hinweg, auch für Build-Skripte. Ein Steam was rm -rf / macht (was schon vorgekommen ist), oder ein kaputtes PKGBUILD kann dir halt das System zerlegen.
Mir hat noch nie irgendein PKGBUILD irgendwas zerlegt, was nicht meine eigene Schuld gewesen wäre. Gibt auch viele Mythen im Internet, wo die Leute am Ende doch nur selbst Schuld waren.
Natürlich ist Sandboxing ein Vorteil, aber das ist wiederum auch kein Alleinstellungsmerkmal. Mit Flatpak geht es zugegebenermaßen wesentlich einfacher (bis es u.U. doch wieder nervt, wie du ja selbst geschildert hast).
Weiterhin muss man sich nicht unbedingt uralte Abhängigkeiten direkt ins System installieren, wenn man z.B. ältere Spiele spielen möchte.
Häufig tuts da aber auch LD_PRELOAD von wo auch immer oder gar das Kopieren einzelner Libs ins Spielverzeichnis, und sei es Mesa.
Ob das nun alles für einen Vorteile sind, hängt natürlich auch davon ab wie lang deine Chain-of-Trust so ist. Die Sicherheit von OpenSource Anwendungen wird aber in Regel eher überbewertet.
Wobei man dann auch wieder von irgendwelchen Zwischen-Maintainern abhängt und die Herkunft jeglicher Dateien auch nicht unbedingt einfacher zu überprüfen ist als via PKGBUILD.
Ganon
2019-03-25, 13:42:05
Mir hat noch nie irgendein PKGBUILD irgendwas zerlegt, was nicht meine eigene Schuld gewesen wäre. Gibt auch viele Mythen im Internet, wo die Leute am Ende doch nur selbst Schuld waren.
Deine persönlichen Erfahrungen ändern aber nichts daran, dass es bereits kompromittierte Pakete im AUR gab. Es ist relativ simpel ein PKGBUILD zu bauen, welches nebenbei noch einen Trojaner im System installiert, der auch nach der Deinstallation noch vorhanden ist. Dies ist bei Flatpak schwer bis unmöglich und auch warnt dich Flatpak zu jeder Zeit, wenn eine Anwendung bei einem Update mehr Rechte einfordert.
Dies geht bei PKGBUILDs allgemein nicht und du brauchst mir auch nicht erzählen, dass du bei jedem <aurhelper> -Syu einen audit sämtlicher PKGBUILDs machst.
Häufig tuts da aber auch LD_PRELOAD von wo auch immer oder gar das Kopieren einzelner Libs ins Spielverzeichnis, und sei es Mesa.
Ändert nichts daran, dass das Spiel dann mit teils veralteten Libraries ggf. ins Internet geht und das dann bei dir mit vollen Nutzerrechten läuft. steam-native-runtime liefert ja auch die ein oder andere uralt-lib mit, weil's halt muss.
Wobei man dann auch wieder von irgendwelchen Zwischen-Maintainern abhängt und die Herkunft jeglicher Dateien auch nicht unbedingt einfacher zu überprüfen ist als via PKGBUILD.
Darum der große Vorteil, wenn erst mal alles in einer dicken Sandbox läuft, die das Paket selbst erst mal nicht ohne weiteres überwinden kann. Zumindest nicht, ohne dass der Nutzer was davon mitbekommt.
Sicherlich auch nicht alles 100%ig niet- und nagelfest, aber schon mal ein gigantischer Schritt mehr als das Bisherige. Vor allem wenn es darum geht es wenig offensichtlich zu machen.
aufkrawall
2019-03-25, 14:16:40
Dies geht bei PKGBUILDs allgemein nicht und du brauchst mir auch nicht erzählen, dass du bei jedem <aurhelper> -Syu einen audit sämtlicher PKGBUILDs machst.
Der Begriff "Audit" ist in dem Zusammenhang ziemlich dick aufgetragen. Fast jedes PKGBUILD ist ziemlich übersichtlich gehalten und abseits von source= kann schwerlich einfach irgendwo irgendwelcher Code herkommen. Die meisten PKGBUILDs beziehen zudem den Source aus den offiziellen Github-Repos der Projekte.
Es ist nicht gerade wasserdicht für sämtliche Pakete, aber man muss auf der Restwahrscheinlichkeit auch nicht ständig rumreiten. Zumal es sich nicht an DAUs richtet...
Ändert nichts daran, dass das Spiel dann mit teils veralteten Libraries ggf. ins Internet geht und das dann bei dir mit vollen Nutzerrechten läuft. steam-native-runtime liefert ja auch die ein oder andere uralt-lib mit, weil's halt muss.
Ja, und jedes Programm unter Windows, das für Angriffe zigfach attraktiver ist, macht das auch.
Ganon
2019-03-25, 14:29:46
Der Begriff "Audit" ist in dem Zusammenhang ziemlich dick aufgetragen. Fast jedes PKGBUILD ist ziemlich übersichtlich gehalten und abseits von source= kann schwerlich einfach irgendwo irgendwelcher Code herkommen. Die meisten PKGBUILDs beziehen zudem den Source aus den offiziellen Github-Repos der Projekte.
Das ganze PKGBUILD ist im Grunde ein zerstückeltes Bash-Skript. Da kann überall und an jeder Stelle plötzlich Code entstehen oder nachgeladen werden. Wie gesagt, ist bereits passiert und kann jederzeit wieder passieren. Nebenbei gibt's auch noch ggf. die .install Datei.
Ist bei Flatpak hier übrigens auch anders. Das Manifest ist deklarativ ausgerichtet und Code (innerhalb der Sandbox) wird nur dort ausgeführt, wo es explizit als solches ausgewiesen ist. Ansonsten besteht es in der Regel nur aus Build-Typ (cmake, autotools, meson, ...), Build-Optionen (--enable-bla) und Quelle.
Ansonsten hast du nach Vorteilen gefragt. Ich sagte ja, dass es halt davon abhängt wie lang deine Chain-of-Trust so ist.
aufkrawall
2019-03-25, 14:44:16
Das ganze PKGBUILD ist im Grunde ein zerstückeltes Bash-Skript. Da kann überall und an jeder Stelle plötzlich Code entstehen oder nachgeladen werden.
Theoretisch. Praktisch sehen die Sections ziemlich gleich aus, wofür es auch Richtlinien gibt. Wenn es wie Kraut und Rüben aussieht, gibt es häufig einen Rüffel oder fliegt aus dem AUR. Dafür gibts keine Garantie, aber die Trusted Members gehen eher rigoros vor.
Ich bestreite gar nicht, dass Flatpak prinzipiell wesentlich sicherer ist, nur scheinst du mir das AUR etwas vorschnell in Verbindung mit Malware zu bringen.
Man muss einfach mal die Wahrscheinlichkeiten in Relation zur Realität sehen. Wenn man dann noch dilettantische Versuche, bei denen nichts weiter passiert ist, außen vor lässt...
Ganon
2019-03-25, 15:10:00
Dass es im AUR nur Malware gibt hab ich gar nicht behauptet. Es ist halt nur konzeptionell wesentlich einfacher dort welche unterzubringen und deine Hoffnung ist hier schlicht "das wird schon jemand mitbekommen". Darum sagte ich ja, es kommt auf deine Chain-of-Trust an. Das AUR selbst wird vom Arch Team überhaupt nicht geprüft. Das ist alles eine "von Fall zu Fall" Geschichte.
Und wenn du halt nach Vorteilen speziell bei Arch fragst, dann ist dies halt genau einer. Es gab sogar letztens eine Diskussion im aur-general, ob man nicht das AUR mittels Analyse-Tools wenigstens etwas sicherer bekommen kann.
Und das die Sicherheit vom Bauen selbst höher ist, ist ja nur eine Sache. Zur Laufzeit selbst kommt ja noch mehr Sicherheit hinzu, da eben nicht jede Wald und Wiesen Anwendung mit vollen Nutzerrechten läuft und man auch noch selbst Einfluss hat, was eine Anwendung darf oder nicht.
Es sei weiterhin dir überlassen was du mit deinem PC machst und wem du vertraust.
aufkrawall
2019-03-25, 15:12:04
Es sei weiterhin dir überlassen was du mit deinem PC machst und wem du vertraust.
Wie nett von dir, dass du mir das zubilligst. :comfort:
Fedora Silverblue setzt AFAIK vollständig auf Flatpaks.
"I'm doing Silverblue with Flatpaks these days. Honestly, it's better than RPM packages."
Kubernandino via https://twitter.com/reality_be_rent
:ugly:
just did a Silverblue 30 new install :)
https://babydora.me/blog/just-did-a-silverblue-30-install/
Auch sind in der Regel sämtliche Nutzerdaten der Anwendung nicht irgendwo in .config, .cache, .local und Co. verstreut, sondern liegen allesamt in .var/app/<Anwendung>.
Danke erstmal fuer die Infos. Ich habe mich noch ueberhaupt nicht mit Flatpak befasst.
Das Zitierte finde ich ehrlich gesagt eher einen Nachteil. Ist wohl Geschmackssache, aber mir persoenlich gefaellt es besser, wenn configs in .config, caches in .cache und Daten in .local sind, so wie man es vom rootfs halt auch kennt und eben nicht so wie u.a. bei Windows alles zusammen in ein Programmverzeichnis geschmissen wird. Da tut man sich auch leichter, configs zu uebertragen/sichern/Aenderung nachzuvollziehen usw. Bei .cache weiss ich, dass ich das nicht synchronisieren muss oder irgendwas. Bei Daten in .local idR. auch, kann man auch wegschmeissen wenn man ein Programm nicht mehr braucht. Configs behalte oder synchronisiere ich aber gerne und dann geht .config unter Versionskontrolle und gut ist. Das wird etwas komplizierter, wenn alles verteilt ist.
Natuerlich haelt sich aber auch nicht jedes Programm an die XDG Spezifikation, weshalb mein Vorgehen natuerlich auch nicht perfekt ist. Gaebe es aber theoretisch die moglichkeit zu sagen, dass configs halt trotzdem in .config/appname kommen anstatt in .var/appname/config?
Ganon
2019-03-26, 12:37:46
Da tut man sich auch leichter, configs zu uebertragen/sichern/Aenderung nachzuvollziehen usw. Bei .cache weiss ich, dass ich das nicht synchronisieren muss oder irgendwas. Bei Daten in .local idR. auch, kann man auch wegschmeissen wenn man ein Programm nicht mehr braucht. Configs behalte oder synchronisiere ich aber gerne und dann geht .config unter Versionskontrolle und gut ist. Das wird etwas komplizierter, wenn alles verteilt ist.
Also die Programme liegen woanders. Entweder in /var/lib/flatpak/app oder bei einer Nutzerinstallation in ~/.var/app/. Wenn du das jetzt sichern willst, ist das aber in der Regel auch nicht mehr als ein "exclude cache" oder eben nur config, je nach Geschmack.
Aber ja, ein bisschen komplizierter wird in dem Use Case schon.
Natuerlich haelt sich aber auch nicht jedes Programm an die XDG Spezifikation, weshalb mein Vorgehen natuerlich auch nicht perfekt ist.
Was auch mein Problem ist. Es ist keine Garantie, dass Dinge dort liegen. Ein Programm schreibt nach ~/.appname, eine andere nach ~/.local/share, einige schreiben sogar nach ~/Documents. Bei Spielen hat Unity 3D in einigen Versionen ~/.local/share und ~/.config vermischt/vertauscht/falsch behandelt. So weißt du in der Regel, wo erst mal _alles_ liegt.
Den Kram aus der Sandbox rauszuholen und trotzdem irgendwo nach Home zu schreiben geht sicherlich theoretisch ist aber kein Feature. Wie gesagt, normalerweise soll das Ganze erst mal sandboxed laufen.
aufkrawall
2019-03-26, 12:42:14
Brauchts eigentlich immer noch Frickeln, um das Theming der DE anzugleichen?
Lurtz
2019-03-26, 21:50:37
Wenn ich eine Swap-Partition hinter einer zu vergrößernden Root-Partition habe, kann ich einfach swapoff machen, Root über die bisherige Swap-Partition hinaus vergrößern und die neue Swap ans Ende packen?
aufkrawall
2019-03-26, 22:04:58
Gibt es denn einen Grund, warum du dafür eine gesonderte Partition benutzen willst? Es geht auch wie unter Windows als Datei auf anderweitig nutzbaren Partitionen:
https://wiki.archlinux.org/index.php/swap#Swap_file
Ich hab mit 16GB unter Linux übrigens noch nie eine Auslagerungsdatei für irgendwas gebraucht.
Wenn ich eine Swap-Partition hinter einer zu vergrößernden Root-Partition habe, kann ich einfach swapoff machen, Root über die bisherige Swap-Partition hinaus vergrößern und die neue Swap ans Ende packen?
IdR. ja, kommt aber auch aufs FS an, ob man es live vergroessern kann. Du musst aufpassen, dass die Partition bzgl. Sektorgroesse und offset gleich bleibt. Sonst wuerde ich einfach kurz von einem live Medium booten, dann die Operation machen und Neustarten, ist ja auch kein Aufwand.
Ich habe uebrigens aus dem Grund auch eine swap partition immer ganz am Ende des Laufwerks mit id 128 (ist nicht wichtig, aber dann stimmt die Reihenfolge der Darstellung immer), selbst wenn im Normalfall nur eine (weitere) Partition drauf ist.
Ich hab mit 16GB unter Linux übrigens noch nie eine Auslagerungsdatei für irgendwas gebraucht.
Ich schon ;p
Es werden sonst halt Prozesse einfach abgeschossen, offenbar auch aggressiver als unter Windows, was fuer Umsteiger oft verwirrend sein soll.
aufkrawall
2019-03-27, 00:07:28
Das kann ich persönlich nicht bestätigen. :)
Diese "Krüppel-Ddos-Exploits", die den Speicher durch zig Browser-Prozesse volllaufen lassen, haben hier erst bei knüppelvollem RAM Programme rausfliegen lassen, bis es irgendwann den schuldigen Browser-Prozess selbst erwischt hat (mit Semi-Freeze vorher, wovon es sich wieder erholte).
Ich schätze mal, llvm kompilieren ginge mit 16GB auf 16 Threads auch noch, und das ist ja schon echt ein harter Fall.
Ansonsten spinnen Linux & Programme, anders als Windows, halt bei genug RAM nicht irgendwie komisch rum, nur weil die Auslagerungsdatei fehlt, obwohl sie gar nicht benötigt wird. Afair wird da auch, anders als bei Windows, wirklich nur bei Memory Pressure reingeschrieben. Edit: Dinge wie Suspend to Disk natürlich ausgenommen.
Lurtz
2019-03-27, 09:15:01
Das ist eine Ubuntu-Server-Installation auf einem Xen-Server. Im Grunde muss der Swap nicht sein.
Ganon
2019-03-27, 09:46:38
Ich schon ;p
Hab ich hier auch regelmäßig auch mit 16GB RAM. Gerade wenn man viel größeres Zeug mit Optimierungen, LTO und Co. dazu noch mit mehreren Prozessen kompiliert, dann sind 16GB echt nichts :ugly:
Beim letzten Versuch so MAME zu kompilieren brauchte jeder GCC Prozess bis zu 2,5GB RAM, dazu ~40GB Festplattenspeicher und die LTO hat hat dem System dann den Rest gegeben. ;D
Blender ist auch so ein netter Kandidat. Wenn man in den Subdivisions oder Hair-Particles plötzlich Fehler in der Art "2000 statt 200 eingegeben" macht.
Afair wird da auch, anders als bei Windows, wirklich nur bei Memory Pressure reingeschrieben.
Hängt von der Swappiness Einstellung in /proc/sys/vm/swappiness ab. Das legt den Prozentsatz an freien RAM fest, ab wann länger nicht genutzte Daten aus dem RAM ausgelagert werden. Ich glaube Standard ist 60, d.h. wenn dein RAM zu 40% belegt ist, dann werden ältere Sachen bereits ausgelagert.
Ansonsten spinnen Linux & Programme, anders als Windows, halt bei genug RAM nicht irgendwie komisch rum, nur weil die Auslagerungsdatei fehlt, obwohl sie gar nicht benötigt wird. Afair wird da auch, anders als bei Windows, wirklich nur bei Memory Pressure reingeschrieben.
Das erste ist richtig. Letzteres ("swappiness") laesst sich wie schon gesagt einstellen.
Darauf wollte ich auch noch antworten:
Was auch mein Problem ist. Es ist keine Garantie, dass Dinge dort liegen. Ein Programm schreibt nach ~/.appname, eine andere nach ~/.local/share, einige schreiben sogar nach ~/Documents. Bei Spielen hat Unity 3D in einigen Versionen ~/.local/share und ~/.config vermischt/vertauscht/falsch behandelt. So weißt du in der Regel, wo erst mal _alles_ liegt.
Den Kram aus der Sandbox rauszuholen und trotzdem irgendwo nach Home zu schreiben geht sicherlich theoretisch ist aber kein Feature. Wie gesagt, normalerweise soll das Ganze erst mal sandboxed laufen.
Ja, das ist natuerlich richtig. Fuer mich waere es einfach auch je nach Anwendung unterschiedlich. Was in offiziellen Repos ist und sich eben an die Konvention haelt, werde ich sicherlich so lassen. Etwas wie Steam wuerde ich dagegen wohl auch gerne mit Flatpak benutzen, wobei das z.B. ja eh auch keine configs hat, die man unbedingt tracken muss.
Und ja, RAM wird benutzt. Ich "spiele" ansonsten auch sehr gerne mit dem tmpfs. Das naechste mal gibts >16 GiB
Lurtz
2019-03-27, 10:59:39
War kein Problem, ging ganz problemlos mit Swap-Partition nach hinten verschieben.
Rooter
2019-03-27, 12:49:34
War kein Problem, ging ganz problemlos mit Swap-Partition nach hinten verschieben.Man muss aber die Partition und das Dateisystem getrennt vergrößern, oder!?
MfG
Rooter
Lurtz
2019-03-27, 13:28:37
Genau, das Dateisystem habe ich dann mit resize2fs vergrößert.
aufkrawall
2019-03-28, 21:14:03
Heh, witzig: Ich hatte unter Windows erst gestern das Pagefile abgeschaltet, einfach nur um zu sehen, wie sich das Status quo auswirkt. Was passiert heute: Die neue Wolcen-Beta crasht direkt nach dem Laden und im Ereignislog steht etwas von zu wenig virtuellem Speicher. Es waren natürlich RAM sowie VRAM weit entfernt von üppiger Belegung, dieses Schrott-OS ist so lächerlich. :freak:
Edit: Und in Wine läuft es, Überraschung, ohne Pagefile.
aufkrawall
2019-03-29, 17:49:25
Übrigens:
yshui ist ordentlich Compton am umkrempeln und hat neue, noch experimentelle Backends eingebaut:
https://github.com/yshui/compton
Das neue XRender-Backend unterstützt Vsync und erzielt hier eine vergleichbare Frameausgabe-Verzögerung wie Windows DWM oder Gnome-Mutter.
Liefert hier absolut perfekte Desktop-Performance unter Xorg. :cool:
aufkrawall
2019-04-09, 10:39:12
VAAPI für Chromium im Arch-Repo hatte nicht lange gehalten:
https://www.reddit.com/r/archlinux/comments/bb0a2r/what_is_the_deal_with_chromiumvaapi/
Rampage 2
2019-04-11, 23:19:01
Gibt es eigentlich einen Weg, im Terminal den Pfad von .rpm-Paketen, die von Haus aus bereits in Fedora (29 Workstation, Stable, LiveUSB-Betrieb) enthalten aber standardmäßig noch nicht installiert sind, herauszufinden?
Manche Commands und Pfadangaben, die im Netz erwähnt wurden, scheinen nur für RPMs zu gelten, die manuell vom User nachträglich heruntergeladen und/oder installiert wurden; nicht für RPMs/Repositories, die bereits in der Distro enthalten, aber noch nicht installiert sind. Deren Pfade scheinen woanders zu sein...
Ich will weder HDD noch SSD beschreiben, bevor ich sie vollständig bereinigt habe - deswegen immer noch Live-Betrieb, abgestöpselt vom Internet. Um dnf install [Program/Repository-Name] offline erfolgreich ausführen zu können, muss der Pfad zur RPM-Datei angegeben werden - daher meine Frage an euch;)
PS: Dies ist der allerletzte Schritt, bevor ich ein OS endgültig fest auf die Platte installiere - Hilfe daher sehr wünschenswert:)
R2
aufkrawall
2019-04-11, 23:48:22
Empfiehlt dir hier irgendjemand Fedora als Einstiegs-Distribution?
Rooter
2019-04-12, 00:06:47
Ich will weder HDD noch SSD beschreiben, bevor ich sie vollständig bereinigt habe - deswegen immer noch Live-Betrieb, abgestöpselt vom Internet.
...
PS: Dies ist der allerletzte Schritt, bevor ich ein OS endgültig fest auf die Platte installiere - Hilfe daher sehr wünschenswert:)
R21. Wovor hast du denn Angst?
2. Wenn du dort irgendwelchen Kram löschst, wirst du dir voraussichtlich irgendwelche Probleme einhandeln.
MfG
Rooter
Ex3cut3r
2019-04-12, 01:00:02
1. Wovor hast du denn Angst?
Gute frage, KA was er treibt. Muss ja was schlimmes ein :freak:
Rooter
2019-04-17, 13:41:56
Habe unter Mint 19.1 ttf-mscorefonts-installer installiert, in Writer wird mir aber kein Arial angezeigt.
Habe auch schon sudo fc-cache -f ausgeführt, ändert aber nichts.
Was mache ich falsch? :confused:
MfG
Rooter
EL_Mariachi
2019-04-17, 19:37:13
mhmm...
hau das paket nochmal weg und installiere es neu ... oder mach nen --reinstall
.
Rooter
2019-04-17, 21:04:07
Deinstallieren und neu installieren über die Anwendungsverwaltung hilft auch nicht.
locate arial von / aus findet nichts. :confused:
Wo könnte ich das Log zur Installation einsehen?
Spielt es eine Rolle, dass dieses OS in VBox installiert ist, in eine VHD!?
MfG
Rooter
aufkrawall
2019-04-17, 21:14:09
VM ist egal. Zu Mint kann ich nichts sagen, allgemein braucht man Arial aber eigentlich nicht. Liberation Sans ist ein gängiger Ersatz und wird unter Windows-Systemen in Dokumenten als Arial dargestellt.
Lokadamus
2019-04-17, 21:22:56
Der Installationsvorgang geht auch ohne Fehler durch?
Wenn ich es richtig sehe, benutzt Linux Mint apt-get.
Wird das Paket bei dem Befehl "apt list --installed" mit aufgelistet?
Rooter
2019-04-17, 21:34:05
VM ist egal. Zu Mint kann ich nichts sagen, allgemein braucht man Arial aber eigentlich nicht. Liberation Sans ist ein gängiger Ersatz und wird unter Windows-Systemen in Dokumenten als Arial dargestellt.Die ist auch schick! Ich hätte aber auch gerne Times New Roman und Courier New und da schien mir dieses Paket eine einfache Lösung zu sein.
Der Installationsvorgang geht auch ohne Fehler durch?
Wenn ich es richtig sehe, benutzt Linux Mint apt-get.
Wird das Paket bei dem Befehl "apt list --installed" mit aufgelistet?Keine Fehler.
Bei apt list --installed | grep mscore kommt raus:
ttf-mscorefonts-installer/bionic,bionic,now 3.6ubuntu2 all [installiert]
EDIT: Und den Abhängigkeiten, die bei der ersten Installation verlangt wurden, habe ich natürlich zugestimmt.
MfG
Rooter
Lokadamus
2019-04-17, 21:53:46
Hast du den Truetype- Ordner?
/usr/share/fonts/truetype/
Ich guck mir gerade dazu diese Anleitung an.
https://community.linuxmint.com/tutorial/view/29
Rooter
2019-04-17, 22:09:08
Hast du den Truetype- Ordner?
/usr/share/fonts/truetype/Ja. Da ist aber auch keiner der Fonts drin.
MfG
Rooter
lumines
2019-04-17, 22:19:24
Gibt es eigentlich einen Weg, im Terminal den Pfad von .rpm-Paketen, die von Haus aus bereits in Fedora (29 Workstation, Stable, LiveUSB-Betrieb) enthalten aber standardmäßig noch nicht installiert sind, herauszufinden?
Manche Commands und Pfadangaben, die im Netz erwähnt wurden, scheinen nur für RPMs zu gelten, die manuell vom User nachträglich heruntergeladen und/oder installiert wurden; nicht für RPMs/Repositories, die bereits in der Distro enthalten, aber noch nicht installiert sind. Deren Pfade scheinen woanders zu sein...
Höre ich gerade zum ersten Mal, aber eventuell liegt das auch einfach am Live-Betrieb. Viel wird man da wahrscheinlich nicht machen können.
Empfiehlt dir hier irgendjemand Fedora als Einstiegs-Distribution?
Er benutzt ziemlich aktuelle Hardware, von daher ist Fedora nicht die schlechteste Idee.
Lokadamus
2019-04-17, 22:21:29
Ich hab mir gerade ein deb Pakete wegen den Schriftarten heruntergeladen und es mit 7zip unter Windows entpackt. Da fehlen irgendwie die Fonts drinne, was in einer Textdatei auch steht.
Edit: Die Font- Dateien kann man hier als exe herunterladen. Arial32.exe und Arialb32.exe dürften dich interessieren. Mit 7zip kannst sie entpacken. Vielleicht kannst die TTF- Dateien in den Truetype- Ordner verfrachten und den einen Befehl ausführen.
https://sourceforge.net/projects/corefonts/files/the%20fonts/final/
aufkrawall
2019-04-17, 22:22:30
Er benutzt ziemlich aktuelle Hardware, von daher ist Fedora nicht die schlechteste Idee.Etwas anderes als Debian/Ubuntu macht für Einsteiger, die ihr System selbst verwalten, mangels Dokumentation und Software-Angebot wenig Sinn.
Rooter
2019-04-17, 22:39:38
Ich hab mir gerade ein deb Pakete wegen den Schriftarten heruntergeladen und es mit 7zip unter Windows entpackt. Da fehlen irgendwie die Fonts drinne, was in einer Textdatei auch steht.Das ist afaik ja nur der Installer, der die Fonts von irgendwo X-D runterlädt.
Edit: Die Font- Dateien kann man hier als exe herunterladen. Arial32.exe und Arialb32.exe dürften dich interessieren. Mit 7zip kannst sie entpacken. Vielleicht kannst die TTF- Dateien in den Truetype- Ordner verfrachten und den einen Befehl ausführen.
https://sourceforge.net/projects/corefonts/files/the%20fonts/final/Werde ich probieren. Wenn es damit geht, langt mir das.
Trotzdem nicht schön, dass das Paket seinen Zweck nicht erfüllt... :confused:
MfG
Rooter
Bartfratze
2019-04-17, 23:47:20
Es wird doch nicht dieser Bug (https://bugs.launchpad.net/ubuntu/+source/msttcorefonts/+bug/1607535) sein?
Ganon
2019-04-18, 07:56:55
Falls du das Paket über die GUI installiert hast: scheinbar fragt das Paket auf der Kommandozeile nach der Lizenz-Zustimmung (?). Man sollte es wohl also über das Terminal installieren: https://forums.linuxmint.com/viewtopic.php?t=270572
sudo apt install --reinstall ttf-mscorefonts-installer
Rooter
2019-04-18, 10:29:10
Falls du das Paket über die GUI installiert hast: scheinbar fragt das Paket auf der Kommandozeile nach der Lizenz-Zustimmung (?). Man sollte es wohl also über das Terminal installieren: https://forums.linuxmint.com/viewtopic.php?t=270572
sudo apt install --reinstall ttf-mscorefonts-installerHat nicht nach einer Lizenz gefragt, war aber dennoch hilfreich das über die Shell zu machen:
ttf-mscorefonts-installer: downloading http://downloads.sourceforge.net/corefonts/andale32.exe
Holen:1 http://downloads.sourceforge.net/corefonts/andale32.exe [198 kB]
Es wurden 198 kB in 1 s geholt (168 kB/s).
ttf-mscorefonts-installer: downloading http://downloads.sourceforge.net/corefonts/arial32.exe
Fehl:1 http://downloads.sourceforge.net/corefonts/arial32.exe
Redirection from https to 'http://downloads.sourceforge.net/mirrorproblem?failedmirror=netcologne.dl.sourceforge.net' is forbidden [IP: 78.35.24.46 443]
E: Fehlschlag beim Holen von https://netcologne.dl.sourceforge.net/project/corefonts/the fonts/final/arial32.exe Redirection from https to 'http://downloads.sourceforge.net/mirrorproblem?failedmirror=netcologne.dl.sourceforge.net' is forbidden [IP: 78.35.24.46 443]
E: Herunterladen fehlgeschlagen
ttf-mscorefonts-installer (3.6ubuntu2) wird eingerichtet ...
Trigger für fontconfig (2.12.6-0ubuntu2) werden verarbeitet ...
Downloads sind wohl offline. :rolleyes:
MfG
Rooter
Ganon
2019-04-18, 11:09:56
Scheint wohl eher ein Problem mit den sourceforge mirrors zu sein. Hier ( https://sourceforge.net/projects/corefonts/files/the%20fonts/final/ ) sind sie noch alle gelistet.
Rooter
2019-04-19, 12:21:23
Es wird doch nicht dieser Bug (https://bugs.launchpad.net/ubuntu/+source/msttcorefonts/+bug/1607535) sein?Sorry, hatte deinen Link übersehen... :redface: Genau das ist der Grund und mit Methode1 habe ich die Fonts jetzt auch installiert. :)
Scheint wohl eher ein Problem mit den sourceforge mirrors zu sein. Hier ( https://sourceforge.net/projects/corefonts/files/the%20fonts/final/ ) sind sie noch alle gelistet.Nein, ist ein Bug in apt-helper, siehe Link.
MfG
Rooter
Charlie Chaplin
2019-04-22, 02:55:01
https://abload.de/img/111bwkq3.jpg
Das Bild zeigt Ubuntu Budgie.
Im Dock zur linken funktionieren alle Icons bis auf das von Blender. Wenn ich darauf klicke, wird das Icon zwar einem Klick entsprechend animiert, Blender startet aber nicht. Wenn ich Blender direkt aus seinem Ordner starte, funktioniert es einwandfrei.
Erstellt habe ich das Icon durch drag aus dem Blenderverzeichnis & drop ins Dock, was ja wohl eine Verknüpfung erwirkt haben sollte.
Kann mir jemand sagen, wie ich das Icon "repariert" kriege?
aufkrawall
2019-04-22, 10:44:19
Startest du direkt das Binary, also nicht die XDG-Verknüpfung? Letztere funktioniert bei mir gar nicht, bis ich "Exec" so ändere, dass der exakte Pfad zum Blender-Binary angegeben ist. Die funktionierende .desktop-Datei solltest du einfach wo auch immer als Starter verfügbar machen können. DEs gehen immer davon aus, dass Binaries über eine XDG-Verknüpfung gestartet werden und nicht direkt.
Charlie Chaplin
2019-04-24, 16:37:45
Danke für deine Antwort.
Ja, ich habe aus dem Ordner heraus direkt das Binary gestartet. Das ist im Fall von Blender laut readme auch so vorgesehen (man extrahiert ein Archiv; hat keine Installationsroutine).
Mit "XDG-Verknüpfung" ist die .desktop -Datei gemeint? Bei der erhalte ich - auch wenn ich den Exec-Pfad anpasse - die Meldung "Beim Starten der Anwendung ist ein Fehler aufgetreten."
Wenn ich auf dem Desktop eine Verknüpfung zum Binary erstelle (per drag&drop +Alt), funktioniert diese. Ziehe (kopiere) ich sie allerdings ins Dock, funktioniert sie nicht mehr.
Irgendwelche Ideen wie ich es doch schaffe Blender aus Dock oder Taskleiste heraus zu starten?
Ich kenne Budgie nicht, aber das Dock schaut aus wie Plank?
Versuch mal folgendes: Wirf das "Icon" mit rechts-klick->Menu wieder raus.
Dann starte Blender und das "Blender-Icon" sollte wieder im Dock auftauchen. Während Blender läuft, dann ein rechts-klick auf das Icon und im Untermenu wählen, dass du es behalten möchtest.
So war das mal, wenn ich mich recht entsinne, :rolleyes:
Google-devs arbeiten an Coreboot-Support fuer Ryzen (Picasso): https://review.coreboot.org/c/coreboot/+/32407
Fuer deren Chromebooks, selbstverstaendlich.
aufkrawall
2019-05-03, 20:15:48
Was benutzt ihr eigentlich für OCR? Unter Windows macht PDF-XChange Editor einen ziemlich guten Job. Das Programm läuft mit leichten Abstrichen auch sehr gut in Wine, aber nativ wär natürlich schöner.
Master PDF Editor ist ganz nett, das OCR ist aber nicht so gut. Ich wollt jetzt nicht alles, was es gibt, durchprobieren.
Ich brauche das im Alltag nicht, aber als ich mal irgendwas altes (mit Schreibmaschine getipptes) als digitalen Text wollte funktionierte tesseract gut.
Man bekommt dann halt wirklich nur den Text raus und kein Dokument, das so aussieht wie das Original. Es gibt aber ggf. Tools die das benutzen und weitere Funktionen haben. Ich schaue dann in so einem Fall gerne, welche Software z.B. von tesseract abhaengt, so findet man dann schnell ein paar Sachen zum ausprobieren, bei Arch waeren das die folgenden Pakete:
gimagereader-gtk
gimagereader-qt
vapoursynth
gscan2pdf
imagescan
ocrfeeder
python-pyocr
Bei tesseract gibts auch Sprachpakete, die man dann nicht vergessen sollte zu installieren.
aufkrawall
2019-05-04, 00:31:25
Ich brauche zwecks Markierbarkeit im Grunde nur die grobe Erkennung von Text, nicht die genaue Zuordnung einzelner Zeichen (dafür sind die Quellen eh zu schlecht). Dabei gibts aber auch schon Fallstricke wie verrutschte Zeilen etc.
gimagereader-qt hatte ich schon kurz am laufen, schien von der Intuitivität auf die Schnelle leider nicht sonderlich brauchbar zu sein im Vergleich zu PDF-Exch.
aufkrawall
2019-05-12, 22:33:03
Wenn man in Okular doppelt auf die Art der Anmerkung klickt, schaltet man sie in den Sticky-Modus. =)
aufkrawall
2019-05-16, 15:56:40
KIO soll endlich Fuse nutzen werden:
https://summerofcode.withgoogle.com/projects/#5417220300079104
Kann man nur beide Daumen drücken, damit wäre Plasma/KDE auf einen Schlag wesentlich empfehlenswerter.
Acid-Beatz
2019-05-24, 14:32:45
Guten Tag zusammen,
gibt es irgendeine PCI-E Wlan (5Ghz) Karte, die man aktuell empfehlen kann? Einziger Anspruch ist eine möglichst stabile Verbindung, kein Gefrickel und eine Übertragung mit circa 50 MBit. Wenn der Preis noch unter 30 Euro bleibt, bin ich ganz zufrieden :)
Vielen Dank & Grüße
Ich kann das Produkt empfehlen:
https://geizhals.de/gigabyte-gc-wb1733d-i-rev-1-0-a1853996.html
Es ist letztlich "nur" ein M.2-PCIe(+USB) Adapter. Das ist insofern praktisch, dass es die m.2 Module guenstig gibt und man es dann auch leicht tauschen kann. Das mitgelieferte Intel Modul ist aber auch sehr gut (bis auf den Umstand, dass es keine 5 GHz Access Point Funktionalitaet hat, aber das trifft wohl auf die wenigsten m.2 Module zu). Das USB Kabel musst du nur verbinden, wenn du auch Bluetooth brauchst.
Der Preis schwankt um 30€, die Intel kostet alleine gut 10€, sind also noch 20€ fuer PCIe Adapter+Antenne, was, finde ich, ok ist, relativ zu sonstigen Preisen.
Acid-Beatz
2019-05-26, 11:44:37
bis auf den Umstand, dass es keine 5 GHz Access Point Funktionalitaet hat
Ich steh gerade auf der Leitung, 5 GHz bietet sie laut Beschreibung doch (und das wär mir auch fast das einzig wichtige :)
Das betrifft den Betrieb als client, das geht natuerlich ohne Probleme. Du kannst mit dem Geraet aber keinen Access Point im 5 GHz-Band aufmachen.
Acid-Beatz
2019-05-26, 12:44:42
Das betrifft den Betrieb als client, das geht natuerlich ohne Probleme. Du kannst mit dem Geraet aber keinen Access Point im 5 GHz-Band aufmachen.
Ahhhhh, ich dachte mir schon sowas in die Richtung aber man weiß ja nie - passt, dann werde ich die demnächst mal ordern :)
aufkrawall
2019-05-26, 13:18:21
Versprich dir nicht zu viel davon, dass es via PCIe geht. WLAN bleibt immer störanfällig und auch billigste USB-Sticks aus China schaffen bei unproblematischem Empfang ebenfalls hohe Übertragungsraten.
Das hat auch weniger mit USB und PCI zu tun, sondern mehr mit Chipsatz, Treiber und Antennen.
Der PCIe-Adapter hat halt den Vorteil, dass man jedes beliebige m.2 Modul stecken kann. Die gibt's zuhauf, billig und mit vielen Erfahrungswerten, weil sie in zig Laptops stecken. Und wenn es dann doch mal noch 802.11ax sein soll, steckt man halt das Modul fuer einen 10er nach. Das wuerde ich den billigsten USB Sticks (die uebrigens auch nicht so viel billiger sind) mit unbekanntem Chipsatz und 1x1 schon vorziehen. Aber was da letztlich praktischer ist, muss jeder selbst wissen.
aufkrawall
2019-05-26, 13:52:46
Wie funktioniert das denn mit 5GHz im Notebook via NVMe bez. der Antenne?
Für USB-Sticks ohne 5GHz zahlst du bei ebay ~2€. Hab einen mit Ralink-Modem (Mainline-Integration), der bei optimalem Empfang ~100Mbit schafft.
Für 9€ hatte ich einen Realtek AC-Stick bekommen, der auch tatsächlich 300Mbit schafft. Leider Realtek-typisch ohne Mainline-Integration, aber immerhin gibts den Treiber im AUR als DKMS-Modul...
Auf dem m.2 Modul sind kleine Steckverbinder, an die die Antennenkabel dran kommen, hier z.B. oben rechts mit "1" und "2" beschriftet
https://gzhls.at/i/12/01/1851201-n0.jpg
OK, das ist dann aber halt auch ohne 5 GHz, und das war ja Vorgabe ;)
aufkrawall
2019-05-26, 14:22:55
Interessant. Ich hab mir Mikro-Wlansticks aus China bestellt, weil das im Notebook via USB verlötete Intel-Modul, wahrscheinlich durch einen Bios-Fehler, unter Linux komplett nicht erkannt wird. Wenn die in den nächsten Wochen nicht ankommen, überleg ich mir das mit NVMe. Edit: Wird nur als NVMe beworben, ist aber ein SATA-Anschluss...
Hoffentlich lässt sich mit Plasma 5.16 dann das Touchpad unter Xorg auch wirklich komplett konfigurieren, die Tap-Gestenerkennung war leider deutlich zu aggressiv.
Btw: Gnome bekommt gerade zig Performance-Verbesserungen von Canonicals van Vugt spendiert bzw. gemerged. Womöglich wird 3.34 dann endlich brauchbar als Wayland-Session performen.
Plasma Wayland performt schon längst richtig gut, hat aber leider noch andere Benutzbarkeits-Probleme.
Wie, dein Notebook hat einen freien m.2 Slot, aber der Hersteller hat ein WLAN Modul ueber USB verloetet?
Bin mir gerade nicht sicher, ob du es weisst, weil du von NVMe schreibst: m.2 gibt's in unterschiedlichen Variationen. Z.B. den M-Key, der von SSDs genutzt wird und SATA und PCIe (nur das ist dann NVMe) bereitstellt. Der A/E-Key wird fuer solche Wlan Module genutzt und bietet u.a. PCIe und USB.
aufkrawall
2019-05-26, 16:53:24
Müsste mal aufschrauben und nachsehen (auf irgendwelche Angaben von Trekstor kann man einen Haufen geben). Das verbaute WLAN-Modul ist via USB angebunden und wohl verlötet, was offenbar alle/viele Geräte mit dem selben Problem der Nicht-Erkennung gemein haben. Gibts auch einen Bugreport zu, find ich aber gerade nicht. Ist jedenfalls ohne Bios-Update definitiv nichts zu machen.
Acid-Beatz
2019-05-28, 18:01:14
Ich kann das Produkt empfehlen:
https://geizhals.de/gigabyte-gc-wb1733d-i-rev-1-0-a1853996.html
Es ist letztlich "nur" ein M.2-PCIe(+USB) Adapter. Das ist insofern praktisch, dass es die m.2 Module guenstig gibt und man es dann auch leicht tauschen kann. Das mitgelieferte Intel Modul ist aber auch sehr gut (bis auf den Umstand, dass es keine 5 GHz Access Point Funktionalitaet hat, aber das trifft wohl auf die wenigsten m.2 Module zu). Das USB Kabel musst du nur verbinden, wenn du auch Bluetooth brauchst.
Der Preis schwankt um 30€, die Intel kostet alleine gut 10€, sind also noch 20€ fuer PCIe Adapter+Antenne, was, finde ich, ok ist, relativ zu sonstigen Preisen.
Danke noch mal für den Tipp, ich hab sie mir jetzt gekauft und warte noch auf die Lieferung, bin gespannt :up:
Versprich dir nicht zu viel davon, dass es via PCIe geht. WLAN bleibt immer störanfällig und auch billigste USB-Sticks aus China schaffen bei unproblematischem Empfang ebenfalls hohe Übertragungsraten.
PCIe hauptsächlich deswegen, weil ich das Ding IM PC haben will und ich weiß, dass es sich nach einem Umzug immer noch dort befindet, zumal die USB-Sticks - bei zugegeben ungeschickter Handhabung - auch schnell mal herausgerissen werden können :biggrin:
aufkrawall
2019-06-01, 11:22:34
Ralink RT5370 aus Fernost via ebay sind da und funktionieren unter Arch offenbar einwandfrei (auch ohne Firmware-Geraffel). =)
aufkrawall
2019-06-04, 21:10:38
So, Gemini Lake NB ist auf Manjaro umgestellt und die Chancen stehen gut, dass es so bleibt.
Gerät läuft insgesamt anständig, aber der Intel-Grafiktreiber hat schon recht eklige Macken/Einschränkungen vs. AMD.
Rooter
2019-06-09, 19:57:13
Was wäre denn das Linux-Equivalent zu IrfanView?
Ich braucht einen simplen Betrachter ohne Thumbnails, aber er sollte folgendes können:
- Speichern in anderen Formaten
- Freistellen
- Drehen / rotieren / spiegeln
- Resize
- Farbtiefe ändern
- Farben ändern (Helligkeit, Kontrast, Gamma)
- Farbpalette bearbeiten
MfG
Rooter
Bartfratze
2019-06-09, 20:06:17
xnviewmp (https://www.xnview.com/de/xnviewmp/)
Rooter
2019-06-10, 13:22:06
Sieht gut aus. Aber wenn ich das in der Anwendungsverwaltung von Linux Mint suche, will der fast 700MB installieren. :O Wie kommt das?
MfG
Rooter
aufkrawall
2019-06-10, 13:48:05
Thx für den Hinweis zu xnviewmp @Bartfratze. Echt ein würdiger IrfanView-Ersatz. Bietet auch alle Optionen fürs Konvertieren von PNG nach JPG, inkls. CSS-Einstellungen etc. (y)
Als möglichst schlanken, einfachen Viewer find ich LXImage unter Plasma klasse. Gwenview ist mir zu träge.
Btw.: Das Gemini Lake-NB läuft, bis auf die ertragbaren Einschränkungen bez. WLAN und Touchpad, hervorragend mit Linux. Akku-Laufzeit scheint mir nicht schlechter als unter Windows zu sein. Vielleicht sogar eher besser, weil CPU- und GPU-Last einfach durchgehend niedriger sind. Die schlechtere Touchpad-Funktionalität wird durch ein Tiling-Script für KWin arg gelindert.
Ganon
2019-06-10, 13:54:48
Sieht gut aus. Aber wenn ich das in der Anwendungsverwaltung von Linux Mint suche, will der fast 700MB installieren. :O Wie kommt das?
Da das Programm anscheinend nicht Open Source ist, kommt es in der Regel mit allem was es braucht und wird nicht pro Distribution entsprechend neu kompiliert und somit ins bestehende System eingebunden. Darum wird auch das Paket größer, wenn da Qt und Co. mit beiliegen.
Rooter
2019-06-10, 14:05:28
Habe jetzt die Version direkt von der HP installiert (43MB):
https://www.xnview.com/de/xnviewmp/#downloads
MfG
Rooter
aufkrawall
2019-06-10, 14:44:52
Da das Programm anscheinend nicht Open Source ist, kommt es in der Regel mit allem was es braucht und wird nicht pro Distribution entsprechend neu kompiliert und somit ins bestehende System eingebunden. Darum wird auch das Paket größer, wenn da Qt und Co. mit beiliegen.
Warum ist dann das Archiv fürs Binary nur 60MB groß?
http://download.xnview.com/XnViewMP-linux-x64.tgz
Ganon
2019-06-10, 15:00:47
Warum ist dann das Archiv fürs Binary nur 60MB groß?
http://download.xnview.com/XnViewMP-linux-x64.tgz
Entpackt sind es schonmal ~170MB und davon sind ~120MB der ganze Qt Kram. Ansonsten keine Ahnung was Mint bzw. das Paket da noch zusätzlich installieren will. Vielleicht noch ein paar Qt Styles, damit es nicht nur das Standard-Design hat und zieht deswegen noch mal ~120MB an "nativen" Qt libs + x MB Abhängigkeiten?
Lokadamus
2019-06-10, 15:40:06
Gibt es von Linux Mint auch eine Packetübersicht? Hier finde ich es nicht: http://packages.linuxmint.com/index.php
Bartfratze
2019-06-10, 15:54:53
Also in DEB-Datei (in control) ist keine Rede von Dependency (soweit ich mich erinnern kann, schreibt man da die Abhängigkeiten rein), von daher ist mir schleierhaft, wie diese "Anwendungsverwaltung" auf 700Mb kommt.
Rooter
2019-06-10, 18:04:27
Gibt es von Linux Mint auch eine Packetübersicht? Hier finde ich es nicht: http://packages.linuxmint.com/index.php
Kann dir aus der VM eine für 19.1 xfce erstellen, wenn du willst?
MfG
Rooter
aufkrawall
2019-06-15, 11:44:53
Wird mal wieder Zeit für ein Selbstgespräch, aber es darf natürlich jeder einsteigen. :cool:
Ansonsten spinnen Linux & Programme, anders als Windows, halt bei genug RAM nicht irgendwie komisch rum, nur weil die Auslagerungsdatei fehlt, obwohl sie gar nicht benötigt wird. Afair wird da auch, anders als bei Windows, wirklich nur bei Memory Pressure reingeschrieben. Edit: Dinge wie Suspend to Disk natürlich ausgenommen.
Entsprechend wird hier auf dem Gemini Lake Notebook mit der Standard-Swappiness von 60 und nur 4GB quasi gar nichts ins Pagefile geschrieben. Ich komme eigentlich auch kaum über 2GB RAM-Verbrauch, während Windows natürlich mit 3,5GB sich schon in die Auslagerungs-Hölle verabschiedete.
VAAPI für Chromium im Arch-Repo hatte nicht lange gehalten:
https://www.reddit.com/r/archlinux/comments/bb0a2r/what_is_the_deal_with_chromiumvaapi/
Ist auch immer noch kaputt, während in mpv VP9 problemlos auf Intel geht. VLC geht natürlich auch nicht: Auf AMD gar nicht und auf Intel bei VP9 nur mit Bildsalat. Was ein Elend. :freak:
Wie kann mpv seit Ewigkeiten problemlos funktionieren und alles andere einfach nur Vollschrott sein?
Übrigens:
yshui ist ordentlich Compton am umkrempeln und hat neue, noch experimentelle Backends eingebaut:
https://github.com/yshui/compton
Das neue XRender-Backend unterstützt Vsync und erzielt hier eine vergleichbare Frameausgabe-Verzögerung wie Windows DWM oder Gnome-Mutter.
Liefert hier absolut perfekte Desktop-Performance unter Xorg. :cool:
Läuft auch auf Gemini Lake perfekt, im Gegensatz zu KWin und Mutter.
Benutzername
2019-06-15, 20:13:39
Also htop zeigt mir an von generösen 32 GB /swap werden irgendwie drei MB benutzt oder auch mal gar nix, bei 16 GB RAM. ich daddel, surfe, bearbeite auch mal ein kleines Bild. Ich bin hart am überlegen einfach /swap zu entfernen. Andererseits ist es ein 4TB PLatte, also eigentlich auch nicht so wild ob die paar GB mehr oder weniger...
aufkrawall
2019-06-15, 23:30:40
Mit systemd-swap nimmt die Pagefile ja nur das als Platz ein, was tatsächlich ausgelagert wird (außer, man konfiguriert es abweichend). Scheint nur ziemlich friemelig zu sein, wenn man suspend to disk + encryption gleichzeitig nutzen will. Allerdings ist mein Gemini Lake-Abakus bei suspend to ram ziemlich sparsam, weshalb ich drauf verzichten kann.
Läuft auch auf Gemini Lake perfekt, im Gegensatz zu KWin und Mutter.
Ich habe es uebers WE nicht da und letzte Woche nur einen Tag lang benutzt, aber auf dem Intel-Laptop furchtbares tearing gehabt. Weder vsync mit glx noch mit dem xrender experimental backend hat funktioniert. Ich hatte dann aber nicht weiter nachgesehen. Weisst du, ob sich da irgendwas kaputtgegangen ist?
aufkrawall
2019-06-16, 13:34:42
Gibt eine Regression in xorg 1.20.5 und auch für xf86-video-amdgpu muss man git-master verwenden, weil vorher Pageflipping gar nicht funktionierte. :freak:
Diesen Commit sollte man reverten:
https://gitlab.freedesktop.org/xorg/xserver/commit/87491ced98705a14be2bb5a3ce7e41cb5ffc11d0
aufkrawall
2019-06-16, 13:42:20
Np. Noch vergessen: Für modesetting DDX braucht man auch xorg-master. Allerdings würd ich auch mit Intel den xf86 DDX verwenden, weil es sonst alle x Sekunden einen Ruckler in mpv mit --video-sync=display-resample gibt.
Abnaxos
2019-06-16, 16:54:39
Ich bin hart am überlegen einfach /swap zu entfernen. Andererseits ist es ein 4TB PLatte, also eigentlich auch nicht so wild ob die paar GB mehr oder weniger...
Davon würde ich abraten. Linux benutzt den Swap nicht nur, wenn es zu wenig RAM hat, sondern auch für mehr Performance. Manchmal ist es sinnvoll, etwas selten benutztes auszuswappen, um das RAM für Disk-Caches zu benutzen.
aufkrawall
2019-06-16, 17:05:01
Wenn man nicht wirklich in Memory Pressure kommt, glaub ich nicht, dass das wirklich messbar ist.
Tyrann
2019-06-16, 19:05:34
wie kann ich per bash einen String in die Zwischenablage kopieren?
in windows habe ich das mit echo abc123 |clip gemacht
xclip unter X, wl-clipboard unter wayland.
Mit -selection (primary|secondary|clipboard) kannst du noch auswaehlen, wohin. idR:
primary = mittleres Mausrad
clipboard = Ctrl+V
Das ist jetzt zwar nicht "per bash", sondern mit eigenen Tools in einer desktop session, aber ich vermute mal, dass du das meintest. Ansonsten kann man per bash, z.B. falls man in einer remote-session ist, auch ein bisschen copy/paste machen, z.B. wenn du mit ctrl+w ein Wort oder mit ctrl+u eine Zeile loeschst und mit ctrl+y wieder einfuegst. Mehr weiss ich da aber nicht auswendig, ich benutze wo es geht vi bindings.
Tyrann
2019-06-16, 20:15:36
danke dir, xclip habe ich nachinstalliert und musste nur ein x hinzufügen
echo abc123 |xclip
Ganon
2019-06-22, 20:55:29
Die News ist zwar schon 4 Tage alt, hab sie aber heute erst gelesen. Ubuntu wird mit 19.10 keine 32bit Bibliotheken mehr ausliefern. Gibt also kein i386 Repo mehr.
https://discourse.ubuntu.com/t/i386-architecture-will-be-dropped-starting-with-eoan-ubuntu-19-10/11263
tl;dr auf die Frage wie man dann 32bit Anwendungen benutzen soll: Einen Container mit einem älteren Ubuntu nehmen.
Valve hat daraufhin erklärt, dass sie Ubuntu 19.10 nicht mehr unterstützen werden und sich eine andere "First Class" Distribution raussuchen werden.
https://www.gamingonlinux.com/articles/valve-looking-to-drop-support-for-ubuntu-1910-and-up-due-to-canonicals-32bit-decision.14421
32bit Anwendungen in Wine gehen dann natürlich auch nicht mehr. Entsprechende Diskussion hier: https://www.winehq.org/pipermail/wine-devel/2019-June/147869.html
Rooter
2019-06-22, 21:35:54
Oh. :-/ Kay.
Da hängt ja Einiges dran.
MfG
Rooter
aufkrawall
2019-06-22, 22:25:42
Bei GoL war auch ein Kommentar, wohl von einem Valve-Mitarbeiter, verlinkt, dass sie auch unzufrieden mit Debians Build-Umgebung wären.
Ganon
2019-06-23, 09:36:27
Das Hauptproblem werden aber die Spiele sein. Nicht gerade wenig Spiele sind außerhalb der Steam-Runtime gegen spezifische Libs von Ubuntu gelinkt. Wenn Ubuntu Multiarch Support entfernt, dann wird das ggf. über ein einfaches PPA nicht getan sein. Aber das wird man sehen. Dass es wegen der "Fremd-Libs" krachen wird, das war ja nun schon seit Jahren abzusehen.
Damit tritt Canonical dem "Linux Desktop" mal wieder kräftig zwischen die Beine. Aber naja... ist ja nun nicht das erste Mal.
Es ist aber relevant, weil SteamOS auf Debian basiert hat. Ggf. geht Steam auch ganz weg von Debian. Ich kann mir jedenfalls vorstellen, dass sie neuere Kernel- und Mesa Versionen haben wollen. Es koennte noch interessant werden, mit was sie um die Ecke kommen.
Lokadamus
2019-06-23, 13:07:46
Lustig wirds, wenn sie neben Sony und Nintendo auch FreeBSD als Grundlage nehmen. Nintendo hat den Kernel bei der Switch genommen.
Mal ganz doof gefragt: Was oder welche anderen Anwendungen sind den davon betroffen, dass Ubuntu komplett auf 32Bit verzichtet?
aufkrawall
2019-06-23, 13:22:12
Lustig wirds, wenn sie neben Sony und Nintendo auch FreeBSD als Grundlage nehmen. Nintendo hat den Kernel bei der Switch genommen.
Es macht keinen Sinn, nicht zu Linux zu greifen, wenn einem die Lizenz nicht im Weg steht (was hier nicht der Fall ist).
Ganon
2019-06-23, 13:56:26
Lustig wirds, wenn sie neben Sony und Nintendo auch FreeBSD als Grundlage nehmen. Nintendo hat den Kernel bei der Switch genommen.
Nein, haben sie nicht. Die Switch verwendet einen Kernel von Nintendo.
Mal ganz doof gefragt: Was oder welche anderen Anwendungen sind den davon betroffen, dass Ubuntu komplett auf 32Bit verzichtet?
Hauptsächlich Steam und WINE (und andere 32bit Spielequellen wie GOG). Wobei Steam eigene 32bit Libs mitbringt, aber nicht alle (z.B. keine 32bit Treiberbibliotheken). Und WINE ist ohne 32bit relativ nutzlos. Da läuft nur modernere 64bit Windows-Software, die aber meistens mit WINE Probleme hat. Ansonsten empfiehlt selbst WINE keinen reinen 64bit Betrieb.
edit:
Also nicht, dass man den Kram nicht doch irgendwie zum Laufen kriegt (Container oder so), aber das ist halt weit entfernt von "It just works" und so.
fezie
2019-06-23, 14:04:30
Es ist aber relevant, weil SteamOS auf Debian basiert hat. Ggf. geht Steam auch ganz weg von Debian. Ich kann mir jedenfalls vorstellen, dass sie neuere Kernel- und Mesa Versionen haben wollen. Es koennte noch interessant werden, mit was sie um die Ecke kommen.
Wobei ich da nie verstanden hab wieso einerseits SteamOS direkt Debian ist.
Bei Steam aber heißt das lib Unterverzeichnis ja ubuntu12_32
Da hätten sie doch bei Steam auch direkt Debian verwenden können? Vorallem wieso immer noch ubuntu12?
Ganon
2019-06-23, 14:17:37
Vorallem wieso immer noch ubuntu12?
Ist wohl nur der Name des Ordners. Zumindest die libx264 ist aus Ubuntu 14.x... :D
Aber ja, die Steam Runtime ist relativ alt. Wobei einige libs wie SDL2 häufiger aktualisiert werden.
Lokadamus
2019-06-23, 14:22:48
Nein, haben sie nicht. Die Switch verwendet einen Kernel von Nintendo.:uconf2: https://twitter.com/marcan42/status/837481011508195329
https://www.golem.de/news/nintendo-switch-im-test-klack-und-los-egal-wie-und-wo-1703-126463-7.html
Das wohl interessanteste daran ist, dass das Betriebssystem der Switch nicht auf einem klassischen Linux oder Android basiert, sondern auf FreeBSD.
https://en.wikipedia.org/wiki/Nintendo_Switch_system_software
According to the Nintendo Switch system software's licensing information, code from FreeBSD kernel is utilized by Horizon.Hauptsächlich Steam und WINE (und andere 32bit Spielequellen wie GOG). Wobei Steam eigene 32bit Libs mitbringt, aber nicht alle (z.B. keine 32bit Treiberbibliotheken). Und WINE ist ohne 32bit relativ nutzlos. Da läuft nur modernere 64bit Windows-Software, die aber meistens mit WINE Probleme hat. Ansonsten empfiehlt selbst WINE keinen reinen 64bit Betrieb.
edit:
Also nicht, dass man den Kram nicht doch irgendwie zum Laufen kriegt (Container oder so), aber das ist halt weit entfernt von "It just works" und so.Steam und Wine, beides Sachen, die auf einem Server nichts zu suchen haben. Und auf einem Desktopsystem, wo nicht gespielt wird, auch nicht installiert wird.
So gesehen ist die Entscheidung von Beschreibung Canonical / Ubuntu nachvollziehbar.
aufkrawall
2019-06-23, 14:25:12
Seit wann ist Wine nur für Spiele da?
Ganon
2019-06-23, 14:25:53
https://twitter.com/marcan42/status/837481011508195329
Fast jedes Betriebssystem auf der Welt benutzt(e) Teile von FreeBSD. So auch hier, trotzdem:
https://media.ccc.de/v/34c3-8941-console_security_-_switch#t=700
Lokadamus
2019-06-23, 15:13:17
Seit wann ist Wine nur für Spiele da?
Kannst auch gerne MS Office darauf verwenden, würde ich aber nicht machen.
https://appdb.winehq.org/objectManager.php?sClass=application&iId=11
https://appdb.winehq.org/objectManager.php?sClass=application&iId=10
Welche anderen, großen Anwendungen laufen den darauf, dass es produktiv eingesetzt wird?Fast jedes Betriebssystem auf der Welt benutzt(e) Teile von FreeBSD. So auch hier, trotzdem:
https://media.ccc.de/v/34c3-8941-console_security_-_switch#t=700Interessant. Wird nur an der einen Stelle auf FreeBSD eingegangen oder gibt es nach der 17. Minute noch irgendwas?
Frage wäre, warum die Lizenz mit Copyright 1996 den überhaupt noch drinne ist?
aufkrawall
2019-06-23, 15:18:38
Welche anderen, großen Anwendungen laufen den darauf, dass es produktiv eingesetzt wird?
Wieso soll "groß" das Kriterium sein? Es gibt zig Spezial-Software, die es nicht für Linux gibt und problemlos in Wine läuft. Es macht einfach keinen Sinn, das ohne Not kaputt zu machen.
Ganon
2019-06-23, 15:34:19
Frage wäre, warum die Lizenz mit Copyright 1996 den überhaupt noch drinne ist?
Weil Teile davon im eigenen Kernel enthalten sein können. Irgendwelche Treiber, ARM Bootcode, TCP/IP Stack... gibt viele Stellen.
Lokadamus
2019-06-23, 15:39:26
Wieso soll "groß" das Kriterium sein? Es gibt zig Spezial-Software, die es nicht für Linux gibt und problemlos in Wine läuft. Es macht einfach keinen Sinn, das ohne Not kaputt zu machen.Spezial Software kostet meistens Geld und da ist die Windows Lizenz das kleinere Problem.
Hinzu kommt, dass Canonical in groß denkt. Linux ist nicht dafür gedacht eine Windows Software laufen zu lassen. Das größte Problem: Wie viele installieren Ubuntu und darin Wine?
Mal schauen, ob Ubuntu in der nächsten Zeit zurückschwenkt.Weil Teile davon im eigenen Kernel enthalten sein können. Irgendwelche Treiber, ARM Bootcode, TCP/IP Stack... gibt viele Stellen.Wenn ich den Kommentar richtig verstanden habe, haben sie ein 8 oder 9 Jahre altes OS genommen, was sowieso bei Nintendo verwendet wurde.
fezie
2019-06-23, 16:51:22
Codeweavers hat in ihrem Blog geschrieben, dass Spiele der Schlüssel für jedes erfolgreiche Betriebssystem wären:
https://www.codeweavers.com/about/blogs/jwhite/2018/8/22/wine-and-steam-a-major-milestone
Ich weiß nicht in wie fern sich Linux auf normalen privaten PCs durchsetzen wird durch Canonicals Entscheidung
Aber ich persönlich hab Windows in der Tat nur noch für die Spiele installiert
aufkrawall
2019-06-23, 17:14:59
Ich hoffe, dass vkd3d endlich mal breit nutzbar in die Pötte kommt, sodass man noch weniger Grund hat, Windows zu booten.
Ganon
2019-06-23, 23:09:30
Wenn ich den Kommentar richtig verstanden habe, haben sie ein 8 oder 9 Jahre altes OS genommen, was sowieso bei Nintendo verwendet wurde.
Es ist eine erweiterte Fassung des 3DS OS.
Codeweavers hat in ihrem Blog geschrieben, dass Spiele der Schlüssel für jedes erfolgreiche Betriebssystem wären:
Zumindest der Autor des Artikels sieht das so. CodeWeavers selbst interessiert sich eher beiläufig für Spiele, da die zahlende Kundschaft eher produktive Software am Laufen haben will. Aktuell arbeiten sie auch an einem 32bit Emulator für die Mac Version von WINE, weil Apple ja auch den Kernel Support für 32 Bit Software entfernt. Wird aber vermutlich macOS spezifisch sein.
Ein Ubuntu Mitarbeiter sagt übrigens, das es 32 Bit Support gibt. Aber nur aus dem 18.04LTS Repo und es gibt dann auch keine Updates mehr dafür :ugly:
https://www.phoronix.com/scan.php?page=news_item&px=Ubuntu-Steve-32-Bit-Comments
Lokadamus
2019-06-24, 05:26:42
Zumindest der Autor des Artikels sieht das so. CodeWeavers selbst interessiert sich eher beiläufig für Spiele, da die zahlende Kundschaft eher produktive Software am Laufen haben will.Spiele sind auf jeden Fall entscheidend. Sei es damals mit C64, Amiga, Atari oder heute mit PC versus Konsolen versus Smartphones.
Jugendliche, Kinder wollen schließlich kein Smartphone um darauf MS Office zu installieren.
Interessant ist die Liste, wobei ich mich nach Sinn und Verstand frage. Wobei die Anzahl der Downloads auch eher in den Bereich bescheidend fällt.
https://www.codeweavers.com/compatibility/toplists/c4p
aufkrawall
2019-06-24, 13:31:07
Na super, nun ist mit Chromium-VAAPI sogar H.264 auf Intel kaputt. Beachtliche Fehlleistung, von wem auch immer...
Ganon
2019-06-24, 16:30:41
Wie ist eigentlich der Entwicklungsstand bei Mozilla und FireFox mit VAAPI? Ich hatte mal irgendwo gelesen, dass daran gearbeitet wird und wohl schon irgendwo Testcode rumfliegt?
Ebenfalls hatte ich gelesen, dass Epiphany VAAPI durch gstreamer-vaapi unterstützt, aber das scheint bei mir auch nicht zu funktionieren!?!
aufkrawall
2019-06-24, 17:18:12
Hängt bei FF afair an EGL, das wiederum an WebRender hängt. Mozilla braucht halt mit allem ewig, ist ja nichts Neues.
VAAPI-EGL scheint sämtliche Projekte vor Hürden zu stellen, die nicht vorausschauend auf genug Abstraktion gesetzt haben, oder der Code sonst wie Verkrustungen angesetzt hat.
Bez. Epiphany: Öffne mal vsynctester.com. ;) Ich hatte ja schon mal argumentiert, dass diese Nischen-Browser redundanter Schrott sind.
Bez. Epiphany: Öffne mal vsynctester.com. ;) Ich hatte ja schon mal argumentiert, dass diese Nischen-Browser redundanter Schrott sind.
Das ist ja auch nur ein webkit Browser, insofern ist das auch kein Nischen-Code. Es gibt halt momentan leider keine Browser Engine, die derlei Anforderungen erfuellt. Und schon gar keine, die gut zu handhaben und einzubetten ist.
Wie ist eigentlich der Entwicklungsstand bei Mozilla und FireFox mit VAAPI? Ich hatte mal irgendwo gelesen, dass daran gearbeitet wird und wohl schon irgendwo Testcode rumfliegt?
FF hatte das auf feature-parity mit Chrome getaggt. Es hat wohl momentan schlicht keine Prio und solange das mit Chromium auch nichts ist, wird das wohl so bleiben.
aufkrawall
2019-06-24, 18:54:03
Das ist ja auch nur ein webkit Browser, insofern ist das auch kein Nischen-Code.
Webkit natürlich nicht. Aber warum bastelt man darauf einen Browser, der nicht mal echtes Vsync kann? Ist doch lächerlich.
Ganon
2019-06-24, 22:16:22
Mir ging's jetzt auch weniger darum, ob der Browser jetzt sonderlich toll ist, sondern ob er wirklich VAAPI nutzen kann. Sehe ich halt gerade bei mir nicht.
FF hatte das auf feature-parity mit Chrome getaggt. Es hat wohl momentan schlicht keine Prio und solange das mit Chromium auch nichts ist, wird das wohl so bleiben.
Meh.... also irgendwann in 20 Jahren....
aufkrawall
2019-06-24, 22:22:34
Mir ging's jetzt auch weniger darum, ob der Browser jetzt sonderlich toll ist, sondern ob er wirklich VAAPI nutzen kann. Sehe ich halt gerade bei mir nicht.
Ging hier mit AMD vorhin theoretisch, es wurde das H.264-Video abgespielt und der AMD-Treiber meldete UVD-Load. Lief aber nur mit geschätzt ~5fps und beim zweiten Start crashte der Tab immer. :freak:
In mpv kann ich mittels VAAPI halt problemlos HEVC 10 Bit HDR-Videos mit hoher Bitrate abspielen, 100% ruckelfrei bei ~1% CPU-Last...
Webkit natürlich nicht. Aber warum bastelt man darauf einen Browser, der nicht mal echtes Vsync kann? Ist doch lächerlich.
Die Seite funktioniert bei mir in FF auch ueberhaupt nicht. Mache ich was falsch?
Meh.... also irgendwann in 20 Jahren....
:usad:
Man koennte auch mal darueber nachdenken, ob mit der API was nicht passt, wenn es offenbar irgendwie keiner auf die Reihe bekommt, sie brauchbar zu implementieren, ausser mpv.
Ging hier mit AMD vorhin theoretisch, es wurde das H.264-Video abgespielt und der AMD-Treiber meldete UVD-Load. Lief aber nur mit geschätzt ~5fps und beim zweiten Start crashte der Tab immer. :freak:
Laeuft bei mir, aber die Quali ist absolut bescheiden. Mit VP9 ist es offenbar nicht aktiv.
Bei mir zeigt der Browser auch ueberhaupt keine Controls an? Und das rendering ist kaputt, z.B. beim Mute-Button auf YouTube...
In mpv kann ich mittels VAAPI halt problemlos HEVC 10 Bit HDR-Videos mit hoher Bitrate abspielen, 100% ruckelfrei bei ~1% CPU-Last...
Die mpv devs haben ja extra mal eine noch schmalere Lib gebaut (placebo statt libmpv). Hat aber soweit ich das sehe auch noch nirgends Anklang gefunden, leider.
Ganon
2019-06-25, 10:01:05
Man koennte auch mal darueber nachdenken, ob mit der API was nicht passt, wenn es offenbar irgendwie keiner auf die Reihe bekommt, sie brauchbar zu implementieren, ausser mpv.
Das Problem ist wohl weniger VAAPI an sich. VAAPI ist vielleicht ein bisschen zu LowLevel für die Leute? Ansonsten gibt's ja genug Frameworks, die das alles bereits abstrahieren (ffmpeg, gstreamer, libmpv, ...). Aber die Browser bauen ja lieber alles alleine noch mal. Das Hauptproblem ist aber wohl, dass eben kaum jemand daran arbeitet.
Ich denke mal wenn du die Entwickler von ffmpeg und mpv zusammen nimmst, hast du schon das meiste KnowHow aus dem kompletten Linux-Gebiet zusammen.
Ansonsten ist mpv (bzw. libmpv) ja noch nicht allzu lange LGPL. Vielleicht ändert sich das mit der Zeit noch in Sachen Nutzung.
Das Problem ist wohl weniger VAAPI an sich. VAAPI ist vielleicht ein bisschen zu LowLevel für die Leute?
Ansonsten gibt's ja genug Frameworks, die das alles bereits abstrahieren (ffmpeg, gstreamer, libmpv, ...). Aber die Browser bauen ja lieber alles alleine noch mal. Das Hauptproblem ist aber wohl, dass eben kaum jemand daran arbeitet.
Zu low level fuer die Leute, die webkit und gecko/servo/... bauen? Kann ich mir kaum vorstellen. Es ist wohl eher das letztere.
Naja, was heisst bauen alles nochmal? Kein Browser hat eine eigene Hardwarebeschleunigung fuer Video eingebaut. Und ffmpeg z.B. wird ja eh schon benutzt. Nur halt nicht im Zusammenhang mit VAAPI. Ist aber auch nicht trivial, wenn man was mit ffmpeg+vaapi machen will, geht das nicht mit einem simplen enable flag, sondern muss schon erstmal ein bisschen was lesen und austesten. Soll keine Entschuldigung sein und ein Hindernis ist das erst recht nicht. Aber ein simples "enable-vaapi" waere halt schon netter.
Ansonsten ist mpv (bzw. libmpv) ja noch nicht allzu lange LGPL. Vielleicht ändert sich das mit der Zeit noch in Sachen Nutzung.
OK, das wusste ich gar nicht.
aufkrawall
2019-06-25, 11:31:21
Die Seite funktioniert bei mir in FF auch ueberhaupt nicht. Mache ich was falsch?
Nein, die Seite spinnt nur insbesondere im Linux-FF etwas, was das Laden angeht. Nach mehrmaligem F5-Drücken geht es, falls nicht beim ersten Mal.
Tatsache. Auch wenn der Graph nicht so glatt ist wie bei Chromium.
Ganon
2019-06-25, 11:45:43
Zu low level fuer die Leute, die webkit und gecko/servo/... bauen? Kann ich mir kaum vorstellen. Es ist wohl eher das letztere.
Naja, HTML rendern und Videos dekodieren sind ja nun zwei verschiedene Gebiete.
Naja, was heisst bauen alles nochmal? Kein Browser hat eine eigene Hardwarebeschleunigung fuer Video eingebaut.
Chrome hat afaik einen Wrapper um den ganzen Video-Dekodierungskram (VDA !?). D.h. du musst halt VAAPI in deren Kram irgendwie rein bekommen und wenn irgend ein ChromeOS Hardware Zeug dafür der "Standard" ist (dort gibt's ja Hardware Video Dekodierung), dann kann ich mir schon vorstellen, dass das ziemlich eklig wird. Du bist dann irgendwo 2-3 Layer "unter" dem fertigen Bild. Gerade bei Chrome ist es ja nicht so, dass es nicht implementiert ist. Es arbeitet nur keiner vom Chrome Team wirklich dran und somit macht ggf. jeder Commit daran alles wieder kaputt.
FireFox hat ja auch den Videodecoder von Cisco oder so? In Teilen nutzen sie auch ffmpeg, aber wohl auch nicht für alles. Aber angeblich soll was mit WebRender kommen?!
Naja, meine Hoffnungen liegen noch darin, dass FireFox mal mit etwas funktionierendem um die Ecke kommt.
aufkrawall
2019-06-25, 11:54:25
Tatsache. Auch wenn der Graph nicht so glatt ist wie bei Chromium.
Ich hab den Verdacht, dass Chromium da irgendwie trickst. Auf meinem Gemini Lake-NB ist die Seite im Vollbild ohne Compositor übelst am tearen, obwohl die 60fps konstant erreicht werden, und im Vollbild ja automatisch Pageflipping genutzt werden sollte. Mit TearFree oder Compositor ist es dann komplett tearing- und immer noch ruckelfrei.
Fun Fact: In Firefox hab ich auf der Seite selbst unter Windows mit ausbalanciert-Energieprofil sporadisch Mini-Ruckler drin. Und WebRender ist für CPU-Takt-Governor dann die Hölle schlechthin. :freak:
Naja, HTML rendern und Videos dekodieren sind ja nun zwei verschiedene Gebiete.
Es geht ja eben nicht ums dekodieren. Das macht ja der VAAPI Treiber. Es geht darum, das dekodierte Material zu bekommen und dann damit was anfangen zu koennen.
Klar ist es was anderes, aber die Browser haben einen Haufen Grafikzeug mit drin. Von windowing systems ueber GLES, WebGL bis WebGPU, das sie jetzt haben wollen. Das gerenderte WebGL Material muss man schliesslich auch irgendwie ins Layout bekommen, und das funktioniert. Wenn auch es unter Linux mit Firefox sau langsam ist (https://bugzilla.mozilla.org/show_bug.cgi?id=1010527). Und ich denke, genau das ist das Problem.
Chrome hat afaik einen Wrapper um den ganzen Video-Dekodierungskram (VDA !?). D.h. du musst halt VAAPI in deren Kram irgendwie rein bekommen und wenn irgend ein ChromeOS Hardware Zeug dafür der "Standard" ist (dort gibt's ja Hardware Video Dekodierung), dann kann ich mir schon vorstellen, dass das ziemlich eklig wird. Du bist dann irgendwo 2-3 Layer "unter" dem fertigen Bild. Gerade bei Chrome ist es ja nicht so, dass es nicht implementiert ist. Es arbeitet nur keiner vom Chrome Team wirklich dran und somit macht ggf. jeder Commit daran alles wieder kaputt.
Dass man da nochmal abstrahiert, macht ja Sinn. Windows hat kein VAAPI, MacOS auch nicht, Android auch nicht (auch wenn es theoretisch natuerlich ginge) und ChromeOS offenbar(?) auch nicht. Aber auf den ganzen Plattformen geht es offenbar, nur unter Linux halt nicht. Deshalb habe ich, ohne es mir naeher anzuschauen, einfach mal die Frage in den Raum geworfen, ob nicht die API aus der Reihe faellt.
FireFox hat ja auch den Videodecoder von Cisco oder so? In Teilen nutzen sie auch ffmpeg, aber wohl auch nicht für alles. Aber angeblich soll was mit WebRender kommen?!
Die haben den h264 codec von Cisco eingebaut, weil die dafuer bei der MPEG Gruppe eine Nutzungslizenz erworben haben. "ffmpeg", oder welche Organisation auch immer man dafuer belangen koennen soll, hat so eine Lizenz halt nicht. Allerdings ist das immer noch als Plugin installiert, das sich einfach deaktivieren laesst. h.264 Videos kann man danach natuerlich trotzdem noch gucken, wo dann wohl ffmpeg oder was auch immer genutzt wird.
Ganon
2019-06-25, 13:11:50
Deshalb habe ich, ohne es mir naeher anzuschauen, einfach mal die Frage in den Raum geworfen, ob nicht die API aus der Reihe faellt.
Jo, ist ja auch berechtigt. Aber man darf auch nicht vergessen, dass FireFox z.B. unter Windows direkt Windows APIs benutzt, Direct2D und Co. und hier nicht irgendwelche "Umwege" gehen muss. Ich denke mal, dass es daraufhin auch wesentlich einfacher an sich geht.
Bei Linux/OpenGL allgemein funktioniert ja (wie du ja schon verlinkt hast) schon grundlegend vieles nicht richtig. Und sie haben natürlich auch den Hauptfokus auf Windows Entwicklung, wie auch Google. Auch auch beim aktuellen gstreamer Bug ist OpenGL das Problem: https://gitlab.freedesktop.org/gstreamer/gstreamer-vaapi/commit/838045b9e2d3b14e4dc95270ba8e86025f5cf3f9
Unter Android kommt ja afaik Khronos OpenMAX zum Einsatz. Ich glaube AMD unterstützt das in ihrem OpenSource Treiber auch. Wäre also auch eine Option.
Vielleicht bricht es sich auch einfach auf fehlerhafte Nutzung von OpenGL runter, die ja hauptsächlich unter Linux zum Einsatz kommt. Ob nun bei Anwendung <-> OpenGL und/oder OpenGL <-> VAAPI.
aufkrawall
2019-06-25, 13:23:09
Hat Chromium denn irgendwelche Performance-Nachteile unter Linux, abseits des fehlenden HW-Decodings?
GPU-Rasterization ist standardmäßig aus, kann man aber einschalten und ich hab auch noch keine Probleme damit festgestellt. Vor allen Dingen ist das Scrolling flüssiger als unter Windows und die WebGL-Performance scheint auch unproblematisch zu sein.
Übrigens funktioniert Chromium-VAAPI weiterhin mit AMD. Intel setzt ja auf einen eigenen VAAPI-Treiber außerhalb Mesas, was sicherlich nicht förderlich ist. Hoffentlich ändert sich das mit ihrem Gallium-Treiber demnächst.
Google hatte ja auch gesagt, dass sie VAAPI nicht mergen, weil die Treiber zu viel Ärger machten. Würde mich nicht wundern, wenn man bei dieser Aussage nur an Intel gedacht hätte...
Unter Android kommt ja afaik Khronos OpenMAX zum Einsatz. Ich glaube AMD unterstützt das in ihrem OpenSource Treiber auch. Wäre also auch eine Option.
Beides afaik richtig, allerdings sieht man da das naechste Problem: OpenMAX waere dann AMD-exklusiv und damit uninteressant. Also noch uninteressanter als Linux ohnehin schon ist. Beim Ausrollen von WebRender sieht man die Prioritaeten ja ganz deutlich: Windows 10+Nvidia, alles andere weit danach.
Übrigens funktioniert Chromium-VAAPI weiterhin mit AMD. Intel setzt ja auf einen eigenen VAAPI-Treiber außerhalb Mesas, was sicherlich nicht förderlich ist. Hoffentlich ändert sich das mit ihrem Gallium-Treiber demnächst.
Da wuerde ich mir mal keine Hoffnung machen, der ist ja erst ganz neu (in Arch intel-media-driver (https://www.archlinux.org/packages/community/x86_64/intel-media-driver/) statt libva-intel-driver (https://www.archlinux.org/packages/extra/x86_64/libva-intel-driver/))
aufkrawall
2019-06-25, 14:04:51
Da wuerde ich mir mal keine Hoffnung machen, der ist ja erst ganz neu (in Arch intel-media-driver (https://www.archlinux.org/packages/community/x86_64/intel-media-driver/) statt libva-intel-driver (https://www.archlinux.org/packages/extra/x86_64/libva-intel-driver/))
Dann müssten sie aber einen komischen Wrapper für VAAPI einbauen, denn es funktioniert mit Iris derzeit schlicht gar nicht und sie wollen es mit Mesa 19.3 zum Standard machen.
Du meinst iHD (va) funktioniert mit i965 (GL), aber iHD (va) nicht mit iris (GL)?
Und i965 (va) funktioniert sowohl mit iris als auch mit i965?
Das kann schon sein, ich habe mit Iris noch nichts gemacht. Aber schwer vorstellen kann ich es mir gerade.
aufkrawall
2019-06-25, 14:36:33
Wenn du mpv VAAPI mit Iris startest, bleibt das Bild einfach grün.
Ah ok. Na dann werden wir schon sehen ;)
Jedenfalls haben sie den neuen media driver eben erst zusammen mit dem neuen OpenCL-Treiber (neo) um gmmlib herum aufgebaut. Wuerde fuer mich keinen Sinn machen, das direkt wieder wegzuschmeissen bevor es richtig ausgerollt ist. Ausser sie haben genau waehrenddessen festgestellt, dass es eben keinen Sinn macht und sie alles ueber gallium haben wollen. Davon hat man aber nichts mitbekommen.
Auf der anderen Seite hiess der radeonsi vaapi Treiber iirc ja vor einiger Zeit auch noch gallium. Ich weiss nicht wie viel radeon-spezifischer Code da mittlerweile drin ist.
aufkrawall
2019-06-25, 15:13:53
Jedenfalls funktioniert Nouveau-VAAPI mit dem gleichen Paket wie RadeonSI-. :)
Hm, das mit dem komplett neuen Intel VAAPI-Treiber ist schon wenig hoffnungsvoll.
Die Firma nervt mich mit ihrer Inkompetenz allgemein. Ich kann auf dem Notebook nicht mal die Refreshrate auf 48Hz stellen, obwohl die in der offiziellen Edid mit enthalten ist. Edid/Modeline Override geht auch gar nicht, er ignoriert es dann einfach und weicht offenbar auf eine aus der Luft gegriffene 1080p 60Hz TV-Range Auflösung aus.
AMD hat zwar auch Macken, aber Intel ist echt noch ne andere Größenordnung. Ich hatte auch schon bunte Vierecke im ganzen FF-UI, und die Framebuffer Compression ist mit Gemini Lake allgemein kaputt und macht Grafikfehler. vkquake geht mit Gemini Lake unter Linux auch quasi gar nicht, macht grünes Flackern und hat extrem miese Performance.
Intel kann einfach keine Treiber, ich mach mir für die dGPUs auch keine Hoffnungen mehr.
Bunt flackernde Kaestchen habe ich im Notebook auch gelegentlich. Habe aber noch nicht untersucht, ob es an compression, sonstigen Energiesparfunktionen oder woran auch immer liegt.
Was mir zu vorigem Thema noch eingefallen ist: ggf. ist libmpv auch deshalb uninteressant, weil man im modernen Browser auch encoden koennen muss (WebRTC).
Lokadamus
2019-06-26, 05:20:17
Ein Ubuntu Mitarbeiter sagt übrigens, das es 32 Bit Support gibt. Aber nur aus dem 18.04LTS Repo und es gibt dann auch keine Updates mehr dafür :ugly:
https://www.phoronix.com/scan.php?page=news_item&px=Ubuntu-Steve-32-Bit-CommentsCanonical/ Ubuntu hat ihre Meinung geändert und 32Bit wird weiterhin angeboten.
https://www.heise.de/newsticker/meldung/Kehrtwende-Ubuntu-behaelt-32-Bit-x86-Unterstuetzung-vorerst-bei-4454815.html
https://www.golem.de/news/build-architektur-ubuntu-will-vorerst-weiter-32-bit-x86-pakete-bauen-1906-142120.html
... die i386-Architektur auch in dem kommenden Ubuntu 20.04 LTS zu unterstützen, hat das Team nun mindestens ein Jahr Zeit, ...
Ganon
2019-06-26, 09:50:16
Na alleine die Idee den 32bit Support einzustellen ist doch schon behämmert, egal wann es nun passiert. Wenn es für die so ein Aufwand ist 32bit Pakete zu erzeugen, dann sollen sie ihre Toolchain überarbeiten und es nicht einfach entfernen :ugly: Es gibt doch keinen technischen Grund, warum man die Kompatibilität einfach so einschränken sollte. Ansonsten sollen sie einen vernünftigen Emulator dafür programmieren.
Benutzername
2019-06-26, 17:02:07
Na alleine die Idee den 32bit Support einzustellen ist doch schon behämmert, egal wann es nun passiert. Wenn es für die so ein Aufwand ist 32bit Pakete zu erzeugen, dann sollen sie ihre Toolchain überarbeiten und es nicht einfach entfernen :ugly: Es gibt doch keinen technischen Grund, warum man die Kompatibilität einfach so einschränken sollte. Ansonsten sollen sie einen vernünftigen Emulator dafür programmieren.
Zumal das Debian nie 32-bit entfernen wollte, also keine Ahnung was das Problem für Ubuntu ist? Ich kann verstehen, daß sie sich arbeit sparen wollen, aber warum dann nciht weinfach den Kram von Debian direkt mit reinnehmen? Oder haben die ihre Variante so sehr verändert, daß das mehrarbeit bedeutet?
hier unter Linux mint laufen ältere 32-bit spiele anstandslos. Ich weiss nur gerade nicht ob Ich das debian oder das Ubuntu mint benutze. :D
lumines
2019-06-26, 17:15:04
Zumal das Debian nie 32-bit entfernen wollte, also keine Ahnung was das Problem für Ubuntu ist? Ich kann verstehen, daß sie sich arbeit sparen wollen, aber warum dann nciht weinfach den Kram von Debian direkt mit reinnehmen? Oder haben die ihre Variante so sehr verändert, daß das mehrarbeit bedeutet?
Ubuntu hat längeren Support als Debian. Ab einem bestimmten Punkt muss also doch Canonical übernehmen.
Debian hat keine gewinnorientierten Absichten, daher findet man dort haufenweise Architekturen, die andere Betriebssysteme nicht einmal im Traum unterstützen würden. Andererseits sind die Release-Zyklen bei Debian aber auch kürzer und der LTS-Support gilt nur für eine relativ kleine Anzahl Pakete, wenn ich das richtig verstehe.
Ich würde das normale Debian Mint übrigens immer vorziehen.
Ganon
2019-06-26, 17:15:39
Ubuntu hat eigene Repositories. Sie sind zwar weiterhin ein Debian-Derivat aber sie nehmen nicht die Debian Pakete und haben auch eine andere Konfiguration.
Ganon
2019-06-26, 17:50:04
Debian hat keine gewinnorientierten Absichten, daher findet man dort haufenweise Architekturen, die andere Betriebssysteme nicht einmal im Traum unterstützen würden.
Bei Debian steht und fällt es halt beim "Porter". ppc32 wurde auch rausgeworfen, weil der alte Porter nicht mehr verfügbar war. Es haben sich zwar Leute gemeldet, die es weiterführen wollen, aber Debian nimmt auch nicht sofort irgendwen für eine Release-Architektur. Dafür gibt's dann die Ports Ecke. Diskussion hier: https://lists.debian.org/debian-devel/2016/09/msg00473.html
aufkrawall
2019-06-27, 20:38:55
Bunt flackernde Kaestchen habe ich im Notebook auch gelegentlich. Habe aber noch nicht untersucht, ob es an compression, sonstigen Energiesparfunktionen oder woran auch immer liegt.
Hatte ich mit Mesa 19.1 auch schon ohne FBC, bin nun auch mit Intel auf LLVM9 + mesa-git ausgewichen und seitdem trat das nicht wieder auf.
FBC ist mit Gemini Lake auch unter Windows teilweise kaputt, es kann am oberen Bildschirmrand Flackern geben. Womöglich ist da bei GemL etwas in Hardware kaputt, ist ja nicht komplett die gleiche IP wie Desktop-Skylake+ (nur OCL 1.2).
Was mir noch aufgefallen ist: Linux-Firefox hat auch einen höheren Input Lag als Chromium. Wenn man den Scrollbalken fasst, merkt man vs. Chromium einen Gummiband-Effekt.
LibreOffice mit KDE5 VLC hat das nicht und scrollt mit OGL auch komplett flüssig...
Acid-Beatz
2019-06-28, 09:58:50
Guten Tag werte Linuxer,
kann jemand von Euch eine Distri empfehlen, mit der ich aus dem Live-Betrieb heraus Windows Partitionen auf Viren checken kann - quasi etwas wie Desinfect?
Ansonsten würde ich gerne Fedora als Basis für den Stick nehmen und den Rest dann manuell installieren.
Merci und Grüße
Account
2019-06-30, 20:22:35
ist schreiben auf ntfs mittlerweile 100% ok, oder immer noch "auf eigenes risiko"?
aufkrawall
2019-06-30, 21:12:42
Ich würd mich so weit aus dem Fenster lehnen und sagen: generell safe, aber ich würds mit der Integration nicht übertreiben und mich nicht komplett davon abhängig machen.
Account
2019-06-30, 21:27:03
hmm, gibts bessere lösungen für eine gemeinsame win/linux partition (lokal, nicht nas)?
Lokadamus
2019-06-30, 22:16:02
Frage wäre, wie groß sind die Dateien, die du tauschen willst.
Fat32 funktioniert meines Wissens nach fehlerfrei.
Account
2019-06-30, 22:23:26
was heisst tauschen, wollte evtl noch mal dualboot auf dem hauptrechner aufsetzen um das thema spiele unter linux mal unter die lupe zu nehmen (und womöglich langfristig komplett von windows wegzukommen). meine "allgemeines gerümpel"-partition (auch dateien >4gb) würde ich eben aus beiden systemen verwenden wollen.
Loeschzwerg
2019-07-01, 06:41:10
Ja wenn es eh nur "Gerümpel" ist kannst du es doch eigentlich riskieren :) Spielen Nutzerrechte absolut keine Rolle kannst du es auch mit exFAT versuchen.
fezie
2019-07-01, 06:54:31
ntfs-3g dürfte doch mittlerweile echt ausgereift sein? Also zumindest wenn man nicht so Besonderheiten wie die Komprimierung nutzt
exFAT hingegen gibt es ja noch nicht so lange. Ist aber intern natürlich nicht so komplex wie NTFS
Bartfratze
2019-07-01, 10:22:59
Laut Ubuntu-Wiki (https://wiki.ubuntuusers.de/Windows-Partitionen_einbinden/NTFS-3G/) ist NTFS-3G sogar seit gut 12 Jahren stabil. Auch bei Kompression (allerdings nicht selbst probiert). Meiner anekdotischen Evidenz nach, konnte ich keinen Datenverlust feststellen (Treiberstand von vor 6 Jahren). Einzig die Performance ging mächtig in den Keller, bei parallelen Schreibzugriffen.
Bitte den Wiki-Artikel-Abschnitt zu Dual-Boot und Ruhezustand (https://wiki.ubuntuusers.de/Windows-Partitionen_einbinden/NTFS-3G/#Dual-Boot-und-Ruhezustand-Hibernate) lesen.
Da 100%ige Datensicherheit ja sowieso Utopie ist, hat man ja ohnehin Backups.
BigKid
2019-07-01, 10:50:53
Huelfe: Ich muss ein Verzeichnis aus dem Papierkorb retten... Ich SEHE es da auch noch...
Aber ich kann sie nicht rauskopieren - da haut er mir immer mit Zugriffsberechtigung auf die Finger ?! Selbst wenn ich pcmanfm mit sudo starte...
HUELFE HUELFE
Das Ding lag in einem Verzeichnis meines OwnCloud Servers - da müsste ein chown -R www-data:www-data drauf gewesen sein - falls das eine Rolle spielt...
EDIT: Ich glaub ich hab mir die Antwort grad selbst gegeben :-)
Benutzername
2019-07-02, 02:25:39
Ich würd mich so weit aus dem Fenster lehnen und sagen: generell safe, aber ich würds mit der Integration nicht übertreiben und mich nicht komplett davon abhängig machen.
Genau dieses. Mal Dateien lesen und schreiben auf eine NTFS PArtition ist okay. aber zur dauerhaften benutzung eher ungeeignet. Ich persönlich benutze NTFS unter linux eigentlich nur für den Dateiaustausch zwischen Betriebsystemen, aber nicht zum arbeiten. Sprich wenn man photos oder pdfs unter Linux bearbeiten will kopiere Ich die auf Linux rüber und schreibe sie dann später wieder zurück sollte Ich sie auf der Windowsseite brauchen.
Es gibt uebrigens einen btrfs Treiber fuer Windows, der ganz ok sein soll. Ohne jetzt btrfs zu empfehlen koennte man sich das, je nach Anforderungen, mal ueberlegen. https://github.com/maharmstone/btrfs
Ansonsten laesst sich vielleicht auch ueber das WSL was machen? Das soll ja inzwischen einen richtigen Linux Kernel bekommen haben. Ansonsten sind ext Treiber fuer Windows ggue. ntfs-3g sicherlich schlechter.
Oha: https://steamcommunity.com/games/221410/announcements/detail/1602634609636894200
Von Valve kommt ein neuer shader compiler fuer AMD.
aufkrawall
2019-07-04, 12:35:38
Chromim-VAAPI geht wieder, auch mit VP9. Ist im Browser allerdings zu ineffizient für Gemini Lake, selbst 720p ruckelt.
Rooter
2019-07-07, 20:10:58
hmm, gibts bessere lösungen für eine gemeinsame win/linux partition (lokal, nicht nas)?
was heisst tauschen, wollte evtl noch mal dualboot auf dem hauptrechner aufsetzen um das thema spiele unter linux mal unter die lupe zu nehmen (und womöglich langfristig komplett von windows wegzukommen). meine "allgemeines gerümpel"-partition (auch dateien >4gb) würde ich eben aus beiden systemen verwenden wollen.PUSH, da ich vor derselben Problematik wie Account stehe. Was ist in der Situation die Methode der Wahl?
MfG
Rooter
exzentrik
2019-07-07, 20:37:03
Ich nutze für Windows und Manjaro jeweils eine eigene SSD, was schon allein wegen der Vollverschlüsselung in beiden Fällen sinnvoll ist. Die Linux-SSD ist mein primäres Boot-Laufwerk. Und für 3D-Games boote ich über die BIOS-Schnellauswahl bei Bedarf Windows.
Hat sich bisher sehr gut bewährt und ist auch wenn Neuinstallationen anstehen sehr komfortabel, da man sich nicht über Bootmanager-Kram und andere Dinge Gedanken machen muss. Empfehlenswert ist, vor und während der Installation eines OS die SSD mit dem anderen OS abzuklemmen.
So mache ich das auch, ist die sicherste Methode. Deshalb habe ich bisher keine M.2 SSD, weil man da nicht so schnell das Kabel ziehen kann.
Rooter
2019-07-07, 23:36:17
Habt ihr das evt. falsch verstanden? Es geht um eine gemeinsam von Windows und Linux zu nutzende Datenpartition aka "Datengrab". ;)
MfG
Rooter
fezie
2019-07-08, 06:57:20
Habt ihr das evt. falsch verstanden? Es geht um eine gemeinsam von Windows und Linux zu nutzende Datenpartition aka "Datengrab". ;)
MfG
Rooter
Wie schon weiter oben steht spricht nichts gegen NTFS oder evtl. exFAT.
Ganon
2019-07-08, 09:57:37
Hier kurz vielleicht auch als Warnung für die Leute die planen zeitig Linux + AMD Zen2 zusammen zu benutzen: AMD hat nur mit Ubuntu 18.04 LTS getestet und der Softwarestand scheint wohl auch der einzige zu sein, der erfolgreich bootet. Es gibt irgendwo ein Problem im Zusammenspiel Kernel + systemd bzw. systemd scheint irgendwas im Kern zu triggern, was dann alles zum Absturz bringt. Es passiert wohl auch in einer VM.
https://forum.level1techs.com/t/ryzen-3000-booting-linux-and-you/144702
https://www.phoronix.com/scan.php?page=article&item=ryzen-3700x-3900x-linux&num=2
Man sollte also vielleicht noch etwas warten oder Ubuntu 18.04 LTS benutzen. Oder eine der wenigen Distributionen ohne systemd.
Bei ArchLinux hilft wohl ein manuelles Downgrade auf systemd 237 (der Versionsstand von Ubuntu 18.04). https://www.reddit.com/r/linux_gaming/comments/ca8cl5/amd_ryzen_7_3700x_ryzen_9_3900x_offer_incredible/et7weh7/
fezie
2019-07-08, 12:34:55
https://www.heise.de/newsticker/meldung/Ryzen-3000-Bekannter-Fehler-bringt-viele-Linux-Distributionen-zu-Fall-4465220.html
das frisch releaste Debian Buster scheint nicht davon betroffen zu sein laut Heise
Ganon
2019-07-08, 17:37:15
Hmm, wenn das stimmt was Heise schreibt und der systemd Patch das Problem behebt, dann ist wohl die RDRAND Instruktion bei Zen 2 kaputt. RDRAND sagt, dass es valide Zufallszahlen hat, wenn das Carry Flag auf 1 gesetzt ist. systemd prüft das Carry Flag und macht dann normal weiter. Was der Patch ( https://github.com/systemd/systemd/pull/12536/commits/1c53d4a070edbec8ad2d384ba0014d0eb6bae077 ) macht ist, das Resultat, trotz korrektem Carry Flag, nochmals zu prüfen, ob da nicht Quatsch wie 0 drin steht.
Oder -1, was das eigentliche Problem ist (0xFFFFFFFF). Die 0 wurde offenbar nur "vorsichtshalber" dazugenommen. Kurios ist, dass thl von Heise "Herbst 2018" schreibt und dabei auf einen Kernel Bugzilla-Eintrag von 2014 verlinkt. Damals ging es allerdings um Jaguar (fam16h=22).
Hoffentlich behebt AMD das zuegig mit einem Firmware-Update.
Und gleichzeitig geht wieder die Diskussion ueber systemd los. Es kracht naemlich ueberhaupt nur, weil man dort von /dev/random auf RDRAND umgebaut hat. Deshalb ging es mit aelterem systemd auch noch. Jetzt wird wieder diskutiert, warum man dort ueberhaupt Zufallszahlen braucht usw. usf.
Naja. Immerhin wurde der Bug so schnell aufgedeckt. Besser so, als dass jahrelang eine der Quellen fuer Zufallszahlen nur Schrott liefert ohne dass es jemand merkt ;D
Ganon
2019-07-08, 22:00:44
Und gleichzeitig geht wieder die Diskussion ueber systemd los. Es kracht naemlich ueberhaupt nur, weil man dort von /dev/random auf RDRAND umgebaut hat. Deshalb ging es mit aelterem systemd auch noch. Jetzt wird wieder diskutiert, warum man dort ueberhaupt Zufallszahlen braucht usw. usf.
Das Problem kann ich aber nachvollziehen. Also ich weiß natürlich nicht warum systemd so früh Zufallszahlen braucht, aber gerade frisch beim Booten hat der Kernel so gut wie keine Entropie und darum ist er selbst als Quelle nicht allzu geil.
Ich hatte das Problem sogar mal selbst.
Aber gut, das klassische "auf systemd rumhacken" ist ja schon eher ein Meme geworden. Die Kommentare bei Heise sind mal wieder echt typisch :ugly: So ziemlich niemand hat sich den verlinkten Sourcecode überhaupt angesehen.
Das Problem kann ich aber nachvollziehen. Also ich weiß natürlich nicht warum systemd so früh Zufallszahlen braucht, aber gerade frisch beim Booten hat der Kernel so gut wie keine Entropie und darum ist er selbst als Quelle nicht allzu geil.
Offenbar wegen UUIDs, das steht im issue. Die entsprechenden Kommentare (u.a. von poettering) sind von GitHub, warum auch immer, aber zunaechst ausgeblendet.
Ich hatte das Problem sogar mal selbst.
Meinst du jetzt mit Jaguar oder allgemein, dass direkt nach dem Hochfahren keine Entropie da ist?
Letzteres kommt sogar recht haeufig vor, gerade wenn man Hardware hat, die kein RDRAND hat. Wenn man mal auf aelteren PCs modernes Linux bootet, kann man z.B. feststellen, dass login-manager Ewigkeiten zum starten brauchen, was auch genau daran liegt. Oder z.B. Raspberry Images, haben deshalb dann standardmaessig Sachen wie haveged aktiviert.
Aber gut, das klassische "auf systemd rumhacken" ist ja schon eher ein Meme geworden. Die Kommentare bei Heise sind mal wieder echt typisch :ugly: So ziemlich niemand hat sich den verlinkten Sourcecode überhaupt angesehen.
Ja, das ist ja das bloede. So geht auch berechtigte Kritik einfach im Shitstorm unter. Auch wenn natuerlich z.B. das Heise-Forum jetzt mit dev-Kanaelen nichts zu tun hat, aber die Situation vernehme ich schon so.
Ganon
2019-07-08, 22:53:06
Meinst du jetzt mit Jaguar oder allgemein, dass direkt nach dem Hochfahren keine Entropie da ist?
Letzteres kommt sogar recht haeufig vor, gerade wenn man Hardware hat, die kein RDRAND hat. Wenn man mal auf aelteren PCs modernes Linux bootet, kann man z.B. feststellen, dass login-manager Ewigkeiten zum starten brauchen, was auch genau daran liegt. Oder z.B. Raspberry Images, haben deshalb dann standardmaessig Sachen wie haveged aktiviert.
In meinem Fall war es eine VM ohne ordentlich eingerichtetes virtio-rng, also ja, kein RDRAND. Die darin laufende Anwendung hat dann einfach mal mehrere Minuten zum Starten gebraucht. Zugegeben, die Anwendung hatte damit auch etwas "rungeaast", war also auch hier ein beiderseitiger Fix.
aufkrawall
2019-07-09, 10:15:40
Im Arch Testing-Repo enthält systemd nun einen Fix/Workaround:
https://git.archlinux.org/svntogit/packages.git/commit/trunk?h=packages/systemd&id=9597f9860be39b3a2cc6654081b9b98cf54e4edc
Ganon
2019-07-09, 10:51:37
Jetzt muss es dann nur noch seinen Weg in die Installationsmedien finden :D Gut, BIOS Update / Firmware Update wär geiler. Was auch immer zuerst kommt.
Naja zur Not benutzt du ein altes (systemd<237) archiso und installierst dann direkt die gepatchte Version ;D
Kann man ja alles machen, wenn's jetzt schnell gehen muss
aufkrawall
2019-07-11, 11:12:23
Es geschehen doch noch Zeichen und Wunder: CPU Takt-Governor für Zen 2 incoming: https://www.phoronix.com/scan.php?page=news_item&px=AMD-New-CPUFreq-CPPC
Michael schreibt Zen2, in der ML wurde diese Einschraenkung aber nicht gemacht und >=fam17h geschrieben. Sollte also auch mit zen1 funktionieren.
fezie
2019-07-11, 16:12:45
Leider gibt es ja hier nur den Steam Thread für Arch.
Da ich selber aber Debian nutz, frag ich jetzt einfach mal hier:
Also System ist top aktuelles Debian unstable (also praktisch buster)
Als DE nutze ich MATE.
Seit längerem ist mir schon aufgefallen, dass wenn ich Steam mit "STEAM_RUNTIME=0" starte ich kein systray Icon hab.
Wenn ich ganz normal steam starte, dann aber schon.
Im Output von der Konsole steht nix besonderes.
Ist das überhaupt noch notwendig/empfohlen die steam runtime ganz abzuschalten per Variable?
Ganon
2019-07-11, 16:23:31
Seit längerem ist mir schon aufgefallen, dass wenn ich Steam mit "STEAM_RUNTIME=0" starte ich kein systray Icon hab.
Wenn ich ganz normal steam starte, dann aber schon.
Im Output von der Konsole steht nix besonderes.
Schau dir mal an was das steam-native-runtime Meta-Paket unter ArchLinux so an Abhängigkeiten hat. Da siehst du dann was an sich alles so gebraucht wird.
https://www.archlinux.org/packages/multilib/x86_64/steam-native-runtime/
Ist das überhaupt noch notwendig/empfohlen die steam runtime ganz abzuschalten per Variable?
Kommt darauf an. Wenn die Runtime bei dir funktioniert, dann gewinnst du durch das Abschalten der Runtime auch nicht allzu viel. Es gibt/gab halt Probleme, dass die Bibliotheken der Steam Runtime so alt waren, dass sie Probleme mit aktuellen Systemsachen hatten (Grafiktreiber funktioniert nicht, kein Sound, ...).
aufkrawall
2019-07-11, 16:51:59
Michael schreibt Zen2, in der ML wurde diese Einschraenkung aber nicht gemacht und >=fam17h geschrieben. Sollte also auch mit zen1 funktionieren.
Ok. Ist dann die Frage, wie attraktiv das durch die Latenz für die Taktanpassung ist, da AMD für Zen 2 ja mit 1ms wirbt und für Zen 1 20 oder 30ms angibt.
Wegen steam-native: Durch dieses Problem gibts btw. kein webview:
https://bugs.archlinux.org/task/62095?project=5&string=steam-native-runtime&order=lastedit&sort=desc
Einfachste Lösung:
https://aur.archlinux.org/packages/steam-native-pcre-fix/
fezie
2019-07-11, 17:04:44
Schau dir mal an was das steam-native-runtime Meta-Paket unter ArchLinux so an Abhängigkeiten hat. Da siehst du dann was an sich alles so gebraucht wird.
https://www.archlinux.org/packages/multilib/x86_64/steam-native-runtime/
Vielen dank. War die libappindicator die mir in der 32bit Variante gefehlt hat.
Scheint wohl komplett optional zu sein.
Ganon
2019-07-12, 12:08:24
Es kommt wohl demnächst ein BIOS-Update für die Zen 2, das den "Bug in systemd" behebt *scnr* :D Anscheinend traf das Spiel Destiny 2 auf das gleiche Problem.
https://www.heise.de/newsticker/meldung/AMD-beseitigt-Fehler-des-Ryzen-3000-ueber-BIOS-Updates-4468815.html?wt_mc=rss.ho.beitrag.atom
Benutzername
2019-07-13, 13:26:55
Es kommt wohl demnächst ein BIOS-Update für die Zen 2, das den "Bug in systemd" behebt *scnr* :D Anscheinend traf das Spiel Destiny 2 auf das gleiche Problem.
https://www.heise.de/newsticker/meldung/AMD-beseitigt-Fehler-des-Ryzen-3000-ueber-BIOS-Updates-4468815.html?wt_mc=rss.ho.beitrag.atom
Ja, naja. eigentlich nicht doof die rnd Funktionen für die Nummerierung zu nutzen, damit es keine Kollisionen gibt. Dafür sollte diese Funktion eigentlich reichen. Ist ja nicht systemds Schuld, wenn AMD das vergeigt.
Ganon
2019-07-13, 16:23:38
Ist ja nicht systemds Schuld, wenn AMD das vergeigt.
Na genau das meine ich doch ;) Lies dir einfach mal die Kommentare bei z.B. Heise oder Computerbase zu den Meldungen durch. Es gibt immer noch (!) Leute die hier systemd die Schuld geben. Davon plappern vermutlich noch mal 50% den fefe nach (der die Problematik auch nicht verstanden hat).
aufkrawall
2019-07-13, 16:50:04
Wie konnte diese FUD-Schleuder eigentlich jemals diese völlig unverdiente Bekanntheit erlangen?
Lurtz
2019-07-14, 14:27:02
Wie konnte diese FUD-Schleuder eigentlich jemals diese völlig unverdiente Bekanntheit erlangen?
Wahrscheinlich weil er schonmal einen DNS-Resolver programmiert hat. Oder so.
Ganon
2019-07-15, 08:05:03
https://twitter.com/TimSweeneyEpic/status/1150513857342922752
Linux is a great. UE4, Epic Online Services, and Easy Anti-Cheat support it as a native runtime platform, and we’re seeking to better support Wine as a solution for running Epic Games store window titles.
Epics "Linux Strategie"... oder in Kurz: Gar keine. Dass Easy Anti-Cheat Linux unterstützt kommt aus Richtung Valve.
Ganon
2019-07-15, 08:42:33
Oh, "lscpu" hat jetzt auch eine nette Übersicht über die CPU Bugs und ihre Mitigations:
Vulnerability L1tf: Mitigation; PTE Inversion; VMX conditional cache flushes, SMT vulnerable
Vulnerability Mds: Mitigation; Clear CPU buffers; SMT vulnerable
Vulnerability Meltdown: Mitigation; PTI
Vulnerability Spec store bypass: Mitigation; Speculative Store Bypass disabled via prctl and seccomp
Vulnerability Spectre v1: Mitigation; __user pointer sanitization
Vulnerability Spectre v2: Mitigation; Full generic retpoline, IBPB conditional, IBRS_FW, STIBP conditional, RSB filling
lieni
2019-07-15, 08:48:17
Ich selbst verwende meist ubuntu und zwar die server variante. ich bin es gewohnt ohne gui zu arbeiten und die server varianten sind einfach viel schneller.
nebst ubuntu käme auch debian in frage, neinen schüleren empfehle ich jedoch ubuntu, da die hilfen etwas besser sind.
Gibt man bsp ein:
nmap localhost
so sagt debian, dass es nmap nicht kenne, ubuntu hingegen gibt eine auswahl von packages, die nmap enthalten.
Epics "Linux Strategie"... oder in Kurz: Gar keine.
Das ist ja schon lange klar. Dass insbesondere Sweeney auf Linux einen Dreck gibt, hat er schon zuvor in einigen unqualifizierten Tweets verdeutlicht.
so sagt debian, dass es nmap nicht kenne, ubuntu hingegen gibt eine auswahl von packages, die nmap enthalten.
Falls das eine Frage war: das Debian/Ubuntu Paket fuer diese Funktionalitaet heisst "command-not-found".
Dafuer gibt's auch hooks fuer shells andere Paketmanager.
aufkrawall
2019-07-16, 13:53:17
Epics "Linux Strategie"... oder in Kurz: Gar keine. Dass Easy Anti-Cheat Linux unterstützt kommt aus Richtung Valve.
Easy Anti-Cheat ist eh der größte Witz, wie man bei Apex Legends gesehen hat. Die Blizzard-Spiele hingegen laufen schon ewig in Wine, auch in Ranked Matches...
Ganon
2019-07-16, 16:05:23
Ist doch Wurst wie gut der Anti-Cheat Schutz ist, solange Linux-Spieler nicht ausgeschlossen werden ¯\_(ツ)_/¯
Account
2019-07-21, 14:41:56
gibt es eine möglichkeit, einen pulseaudio sink eines linux-rechners übers netzwerk auf einem windowsrechner abzuspielen?
Ganon
2019-07-21, 16:19:39
Also zumindest offizielle Bemühungen Pulseaudio auch unter Windows zum Laufen zu kriegen sind relativ früh eingeschlafen. Ich weiß jetzt nicht ob es Pulseaudio kompatible Services unter Windows gibt. Ansonsten die Holzhammer Methode -> Linux VM
Lokadamus
2019-07-21, 16:58:43
Ich bin mir nicht sicher, ob der Windows Teil alleine reicht. ffplay kommt wohl über ffmpeg rein.
https://gist.github.com/Fusl/3a708b8c32c9d5264fa0
Account
2019-07-21, 17:53:42
auf die ffmpeg idee hätte ich eigentlich auch selbst kommen können, danke ;)
Servus zusammen, was macht die "Linux-Front"?
Ich sehe hier wird immer noch fleißig alles in einen Thread gehauen, statt dass ihr einen neuen aufmacht, damit es hier nicht immer alles durcheinander geht. Oder man auch mal was nachschauen kann.
===
Mein geliebtes Thinkpad x220 (https://www.thinkwiki.org/wiki/Category:X220) ist tot und es lief lange genaus so wie ich es wollte :(
Mit BiosMod (http://x220.mcdonnelltech.com/resources/) (Whitelist) und ME-Cleaner (https://github.com/corna/me_cleaner). 8GB RAM und SSD, dicke schnell genug für mich. Sogar Akkus hat man noch gut per Ebay bekommen. Selbst Arch hat einen eigene Config-Seite (https://wiki.archlinux.org/index.php/Lenovo_ThinkPad_X220). Menno.
Nun überlege ich, ob ich mir ein neues bei Ebay hole. Eigentlich fand ich es perfekt, der einzige Haken, die Auflösung des Displays. Man kann auch ein Panel mit höhere Auflösung einbauen, was dann schon teuer wird, aber das wäre nicht das Problem. Man muss etwas löten und das kann ich nicht. Und HighDPI unter Linux, dann müßte ich ja KDE nehmen.
Wenn ich so bei GH durchschaue, dann haben viele preiswerte bis mittelpreisige noch ein DVD-Laufwerk?! Ersthaft? Ich habe schon 10 Jahre keins mehr.
Und die ohne / kompakten, die mir gefallen, sind dann schnell bei 800Euro plus. Ich kaufe nichts, wo etwas verlötet ist! Der Hammer ist Lenovo - alles außer Thinkpads - hat den RAM verlötet - mit einem RAM-Riegel. Geht gar nicht. Dedizierte Grafik find ich auch für 90% der User fehl am Platz, außer man sucht wirklich ein Desktop-Ersatz.
Welches Notebook würdet ihr euch kaufen?
Gruß Bbig
Lokadamus
2019-07-24, 21:13:44
In diesem Sinne frage ich mich in wie weit die Angabe "Linux" zutreffend ist.
https://www.amazon.de/Laptops-Linux-Computer-Zubeh%C3%B6r/s?rh=n%3A427957031%2Cp_n_operating_system_browse-bin%3A392677011
In Bayern, also im Ausland :ugly:, gibt es einen Hersteller für Linux Notebooks.
https://www.golem.de/news/infinitybook-pro-15-tuxedo-computers-bringt-linux-notebook-im-neuen-gehaeuse-1901-139108.html
aufkrawall
2019-07-24, 21:31:36
Wenn das Budget nicht übermäßig eng ist, würd ich auf jeden Fall voraussetzen, dass das Touchpad zu 100%, inkls. aller Gesten und konfigurierbarer Tap-Empfindlichkeit, unterstützt wird (neben kompletter in-tree Unterstützung jeglicher anderer Komponenten).
Ganon
2019-07-24, 21:52:43
Ich würde bei Herstellern von Linux Notebooks schauen. Als Beispiel wie genannt Tuxedo oder bei System76. Diese kaufen in der Regel Barebones von Clevo aus Taiwan und packen den Rest selbst rein bzw. lasses es den Kunden konfigurieren. Die gibt es dann bei vielen anderen Herstellern auch (z.B. auch Schenker mysn.de).
Über die Basisausstattung + Bildschirmeigenschaften lässt sich das relativ leicht erkennen. Modellname + Clevo bei Google findet oft auch einiges. Alles andere, ThinkPads, DELL und Co. können natürlich auch funktionieren, aber gesichert ist das auch nicht. Afaik bietet DELL ja auch Linux-Support, weiß aber nicht ob überall.
clm[k1]
2019-07-24, 23:14:34
Ich kann die Notebooks von Tuxedo-Computers nur wärmstens empfehlen!
Allein schon, weil das Preis-Leistungs-Verhältnis unschlagbar ist.
Und ich habe bislang nur positive Erfahrung damit gemacht - was ich von Produkten von Dell nicht unbedingt behaupten kann.
fezie
2019-07-25, 07:08:40
Vor 4 Jahren hatte ich hier im Kaufberatungsforum mal nach einem Linux Notebook gefragt.
Und bin dann auch bei Tuxedo gelandet.
Laptop läuft immer noch gut
Kommt natuerlich darauf an, wie deine Anforderungen sind. Wenn du mit dem alten sehr zufrieden warst, kann ein Gebrauchtes durchaus Sinn ergeben, allerdings finde ich persoenlich die Gebrauchtpreise gerade bei solchen begehrten ThinkPads recht hoch. Vielleicht aber auch ein "einfacheres", modernes Geraet, z.B. ein Chromebook. Die laufen ja auch mit Coreboot.
Afaik bietet DELL ja auch Linux-Support, weiß aber nicht ob überall.
Ich habe ein XPS13, das wird auch mit Linux verkauft. Trotzdem hat es so bloede Sachen wie z.B. das Tool, das den adaptiven Kontrast deaktiviert gibt's dann nur fuer Windows.
Im Arch Wiki sind oft Eintraege fuer beliebte Geraete vorhanden, da kann man, wenn man ein Geraet im Blick hat, auch einfach mal nach dem Modell suchen. https://wiki.archlinux.org/index.php/Category:Laptops
Welches Geraet ich im Uebrigen absolut nicht empfehlen kann, ist das Fujitsu LifeBook U748. Das hat andauernd Probleme mit den Eingabegeraeten (sogar Tastatur) und ausserdem ist die Kuehlung der letzte Schrott. Aber das wird afaik auch nicht mit Linux verkauft und erst recht nicht beworben.
Loeschzwerg
2019-07-25, 08:15:09
In Bayern, also im Ausland :ugly:, gibt es einen Hersteller für Linux Notebooks.
https://www.golem.de/news/infinitybook-pro-15-tuxedo-computers-bringt-linux-notebook-im-neuen-gehaeuse-1901-139108.html
Ausland... pfff, das ist quasi bei mir um die Ecke :D
Lurtz
2019-07-25, 15:54:06
Schade dass ich das mit den Tuxedo-Notebooks erst jetzt lese, dann hätte ich nochmal überlegt. Bin mal gespannt ob ich Linux auf meinem Thinkpad X1 Carbon 7th Gen vernünftig zum Laufen kriege, aber bei der Fehlerliste in der Arch Wiki habe ich vor allem zu Beginn eher wenig Hoffnung ^^
Danke für all die Antworten! :up:
Ich verdiene mein Geld nicht mit IT. Daneben bin ich knauserig, :rolleyes:
Dektop ist bei mir immer noch #1. Ich bin nur recht viel unterwegs, da mag ich - für mein Hobby PC / Linux - was haben.
===
Ihr redet alle so positiv von Tuxedo. Für mich sind sie, wie Ganon auch schrieb, nur ein Clevo-Rebrand. ( https://www.clevo.com.tw/ - kenne ich. )
BTW schenker-tech.de und tuxedocomputers.com sind eine Kiste https://www.tronic5-international.com/tronic5-gruppe/
Generell würde ich eher einen Lenovo kaufen, als was von Tuxedo.
Aber schaut man genau bei Lenovo hin, - auch bei in die neuen Thinkpads - dann ist da super viel verlötet und das für den Preis. KA was Lenovo sich dabei denkt?!
Ich habe mir z.B. das Lenovo ThinkPad X1 Carbon G7 (https://www.lenovo.com/us/en/laptops/thinkpad/thinkpad-x/X1-Carbon-Gen-7/p/22TP2TXX17G) von Lurtz angeschaut.
Schickes Teil! Aber der Basis-Preis ist 1650€! Und dann ist der Single-Ram-Riegel verlötet? Bin ich nur so, oder würde euch das nicht stören? Und da ist mein Preisrahmen wirklich gesprengt.
===
Mehr Herz schläg definitiv mehr für AMD, weil ich die OpenSource Treiber unter Linux für runder halte als Intels.
Gut finde ich das Huawei MateBook D 14 mit Ryzen 5 2500U (https://consumer.huawei.com/de/laptops/matebook-d-14-amd/specs/).
Die Idee von iuno mit einem Chromebook mit Coreboot hört sich aber noch besser an. Da schaue ich am WE mal. Oder habt ihr ein Modell im Kopf?
===
Wenn das Budget nicht übermäßig eng ist, würd ich auf jeden Fall voraussetzen, dass das Touchpad zu 100%, inkls. aller Gesten und konfigurierbarer Tap-Empfindlichkeit, unterstützt wird (neben kompletter in-tree Unterstützung jeglicher anderer Komponenten).
Wie schaue ich das nach oder wie würdest du das nachschauen?
...
Im Arch Wiki sind oft Eintraege fuer beliebte Geraete vorhanden, da kann man, wenn man ein Geraet im Blick hat, auch einfach mal nach dem Modell suchen. https://wiki.archlinux.org/index.php/Category:Laptops
...
Die Seite kannte ich im Archwiki noch nicht! Merci.
...
In Bayern, also im Ausland :ugly:, gibt es einen Hersteller für Linux Notebooks.
https://www.golem.de/news/infinitybook-pro-15-tuxedo-computers-bringt-linux-notebook-im-neuen-gehaeuse-1901-139108.html
Ausland... pfff, das ist quasi bei mir um die Ecke :D
Armer Zwerg, :(
Ausland ist ja ok, aber Bayern?! Wenn schon Richtung Süden, dann Spanien, Granada oder Portugal hat auch was...
Gruß Bbig
aufkrawall
2019-07-26, 11:12:02
Wie schaue ich das nach oder wie würdest du das nachschauen?
Ich kenne keine Liste mit Geräten und der verwendeten Touchpad-Hardware + Treiber. Kann man wohl nur im Vorfeld in Foren bez. eines bestimmten Modells fragen, ansonsten würd ich innerhalb der 14 Tage Frist sofort das hier probieren:
https://gitlab.freedesktop.org/libinput/libinput/issues/208
Anderes Thema: Auf dem X470 Taichi R5 2600 OC-Systems meines Bruders gibt es unter Linux in Spielen unschöne Stocker, sofern im Bios die Stromsparmodi der CPU aktiviert sind, obwohl der Performance-Governor genutzt wird. Mit abgeschalteten Stromsparmodi im Bios sind die Stocker weg. Was ist das wieder für eine Ryzen-Teufelei? :freak:
Unter Windows gibt es das Problem so nicht.
Anderes Thema: Auf dem X470 Taichi R5 2600 OC-Systems meines Bruders gibt es unter Linux in Spielen unschöne Stocker, sofern im Bios die Stromsparmodi der CPU aktiviert sind, obwohl der Performance-Governor genutzt wird. Mit abgeschalteten Stromsparmodi im Bios sind die Stocker weg. Was ist das wieder für eine Ryzen-Teufelei? :freak:
Unter Windows gibt es das Problem so nicht.
Der Fall mit RDRAND hat ja gezeigt, dass das in der Firma keinen juckt. Nur mal kurz Ubuntu gebootet und dann tuts das schon :P Es ist da sicher nicht verkehrt, laenger zu warten, obwohl jetzt X470/Ryzen 2000 natuerlich nicht brandaktuell sind. Mich reizt Zen 2, aber ich halte es diesmal wohl bis zum refresh durch. Und ein X570 Board will ich sowieso nicht.
Ich hatte eine 3600 kurz zum Testen in mein System gesteckt. Obwohl das B350 Board offiziell mit aktuellem BIOS kompatibel war, konnte man das ueberhaupt nicht benutzen. Es gab da irgendein Problem, die Maus ist andauernd stehen geblieben und dabei kurz das ganze System eingefroren. Wenn man die Maus nicht benutzt hat, ist nichts passiert. Am USB Controller lag es jedenfalls nicht, an der polling rate auch nicht und an Stromsparmodi wohl auch nicht. Keine Ahnung was da los sein koennte und ich hatte dann auch keine Zeit, das naeher anzuschauen, weil die CPU weitergewandert ist.
Generell würde ich eher einen Lenovo kaufen, als was von Tuxedo.
Gibt's dafuer auch einen Grund?
Ich meine, ich mag deren Tastaturen. Aber ThinkPads waren vielleicht frueher mal Linux-freundlich.[/QUOTE]
aufkrawall
2019-07-26, 11:23:57
Der Fall mit RDRAND hat ja gezeigt, dass das in der Firma keinen juckt. Es ist da sicher nicht verkehrt, laenger zu warten. Mich reizt Zen 2, aber ich halte es diesmal wohl bis zum refresh durch ;) Und ein X570 Board will ich sowieso nicht.
Ist ja nur Zen+. :)
Ist das die CBS C-state Einstellung oder gibt's da noch mehr?
aufkrawall
2019-07-26, 11:28:16
Es gibt das Anpassen der Pstates via CBS und eine Option an/aus für die Cstates. Ohne aktivierte Cstates werden afair die unteren Pstates nicht genutzt.
OK.
Bei mir war das eh seltsam. Im Setup hat mit dem 3600 die Haelfte der Optionen gefehlt, dafuer waren neue da. Ich kann z.B. mit dem 1700 den Turbo deaktivieren, was mit dem 3600 nicht ging.
Die ganze Mainboard Situation ist doch eh ein Krampf.
aufkrawall
2019-07-26, 22:53:37
Was stellt ihr für PulseAudio ein?
"pacmd list-sinks" spuckt mir 44,1KHz für den ALC1150 aus, die also standardmäßig genutzt werden. Es gehen natürlich auch höhere Werte problemfrei, weshalb ich "default-sample-rate = 48000" gesetzt habe. Trotzdem hab ich noch "avoid-resampling = true" gesetzt, geht auch.
Es sei erwähnt, dass PA standardmäßig "resample-method = speex-float-1" nutzt, was wohl durchaus die Tonqualität hörbar beeinträchtigen kann (und womöglich auch erklärt, wieso man schon mal von schlechterer Tonqualität unter Linux liest). Man soll ruhigen Gewissens "resample-method = speex-float-5" einstellen können (soxr hat wohl immer noch 20ms Latenz).
Es scheint mir auch angeraten, den pulse-Ordner in .config zu löschen, wenn man global Änderungen vorgenommen hat.
Ich kenne keine Liste mit Geräten und der verwendeten Touchpad-Hardware + Treiber. Kann man wohl nur im Vorfeld in Foren bez. eines bestimmten Modells fragen, ansonsten würd ich innerhalb der 14 Tage Frist sofort das hier probieren:
https://gitlab.freedesktop.org/libinput/libinput/issues/208
...
Danke für den Tipp.
...
Gibt's dafuer auch einen Grund?
Ich meine, ich mag deren Tastaturen. Aber ThinkPads waren vielleicht frueher mal Linux-freundlich.
Ich bin von Lenovo auch wieder ab.
Im Bekanntenkreis haben einige ein Lenovo Laptop. Die machen alle einen guten Eindruck, allerdings alle mit Windows. Vll war es auch meine lange Erfahrung mit dem x220.
Aber bei den neuen sagt mir das Komplettpaket nicht zu.
===
Ich denke, es wird ein Huawei MateBook D 14 mit Ryzen 5 2500U (https://consumer.huawei.com/de/laptops/matebook-d-14-amd/specs/).
Ich war gerade auf der HP und es scheint Support zu geben. Es gibt auch neue BIOS (https://consumer.huawei.com/en/support/laptops/matebook-d-14-amd/).
Zu Linux-Erfahrungen kann ich nichts finden, außer nach diesem Minitest (https://krmax44.de/2019/05/19/Huawei-Matebook-D-AMD-14-Review-An-Arch-Linux-Perspective/) scheint es nicht grottig zu sein. Immerhin hat er sogar Arch genommen.
Bei Notebookcheck (https://www.notebookcheck.com/Test-Huawei-MateBook-D-14-W00D-Ryzen-5-RX-Vega-8-Laptop.420374.0.html) kommt es gut weg.
Ich schaue nochmal durch die Chromebooks und entscheide mich dann.
Danke euch.
Ganon
2019-07-27, 12:42:38
Was stellt ihr für PulseAudio ein?
"pacmd list-sinks" spuckt mir 44,1KHz für den ALC1150 aus, die also standardmäßig genutzt werden. Es gehen natürlich auch höhere Werte problemfrei, weshalb ich "default-sample-rate = 48000" gesetzt habe. Trotzdem hab ich noch "avoid-resampling = true" gesetzt, geht auch.
Man kann mittels cat /proc/asound/*/codec#0 nachschauen was die Hardware so kann. Avoid Resampling ist eine relativ neue Funktion und kann je nach Hardware hier und da noch Stress machen, ist aber sicherlich ideal für gängige Hardware und Tonquellen allgemein. Normalerweise hat man ja nur 44.1 oder 48 KHz Daten vorliegen.
Resampling kommt aber ggf. auch mit Avoid Resampling zum Einsatz. Je nachdem was zuerst Ton ausgibt. Nehmen wir an du schaust ein YouTube Video mit 48Khz Ton, dann stellt Pulseaudio auf 48Khz. Jetzt startest du 44.1 Khz Musik und machst das YouTube Video aus. Pulseaudio wird dann weiterhin auf 48Khz resamplen. Man müsste dann die Musik kurz pausieren bzw. neu starten für die "korrekte" Einstellung.
Abnaxos
2019-07-27, 12:44:24
Bei ThinkPads halte ich es so:
Erstmal muss man eines der guten nehmen. Früher war es die T-Serie, heute ist es die P-Serie. Es ist also ganz einfach: alles, was von Lenovo ist und nicht mit "P" beginnt, ist Schrott. Ich bin mir nicht sicher, ob das heute noch so stimmt, aber mit diesem Prinzip bin ich immer sehr gut gefahren.
Die P-Serie sind hervorragende Notebooks und sehr gut für Linux geeignet. Sie haben einen gravierenden Nachteil: kein Multiplexer für externe Monitore. Das bedeutet, ohne NVidia-Treiber kann man keinen externen Monitor benutzen. Das ist ein heftiger Dämpfer, denn ich will keinen NVidia-Treiber. Mit Bumblebee habe ich es schlussendlich gut hingekriegt, es lief perfekt (war aber nicht einfach, das so hinzubiegen). Trotzdem finde ich es völlig unnötig, bei einem 3500€-Notebook die 2€ für einen Multiplexer zu sparen, ich kann es nicht nachvollziehen. Schliesslich sind die Notebooks hochoffiziell vom Hersteller als geeignet für und getestet mit Linux deklariert.
Abgesehen davon sind es die perfekten Linux-Notebooks, alles Andere läuft out of the box reibungslos. Und ich habe hohe Ansprüche an "reibungslos", das muss das übertreffen, was so bei Windows-Usern sehe – beispielsweise absolut unproblematischer Sleep-Mode in allen Lebenslagen bei mindestens 3 Sleeps pro Tag. Keinerlei Laufzeit-Fixes dürfen nötig sein (ausser natürlich nach Updates). Auch nicht, wenn ich alle 5 Minuten die Monitor-Konfiguration und überhaupt sämtliche angeschlossene Hardware ändere.
So viel zu Lenovo. Jetzt Dell:
Von der Firma her muss ich momentan ein Dell-Notebook verwenden. Das ist halt typisch Dell: an und für sich gute Hardware, aber kaputte Firmware an allen Ecken und Enden, die mit Treibern halbherzig repariert wird (unter Linux ist das natürlich sehr problematisch, weil diese Treiber nicht vorhanden sind). Es funktioniert so einigermassen, hat aber ständig irgendwelche Macken. Beispielsweise muss ich alle paar Wochen das BIOS neu flashen, weil der Laptop beginnt, bei Sleep einfach Poweroff zu machen. Das BIOS neu zu flashen behebt das, selbst wenn es exakt dasselbe BIOS ist. Ich meine: WTF!
Manche würden sagen, es funktioniere gut, aber meinen Ansprüchen genügt es eigentlich nicht wirklich. Es wirkt einfach nicht stabil – wie gesagt, typisch Dell: guter Ansatz, aber ungeschliffen, auf halbem Weg aufgehört. Der grosse Vorteil des Dell-Notebooks ist: es hat einen sauberen Multiplexer, damit ist einzige NVidia-Überbleibsel in meiner Linux-Konfiguration bbswitch, um die dGPU auszuschalten (früher konnte man das noch im BIOS machen, das geht heutzutage leider nicht mehr). Leider ist dadurch der Kernel noch immer tainted.
Unter dem Strich mag ich den Dell aber trotz seiner Macken gerne – die sehr schlanke und leichte Bauweise bei voller Power macht dann doch einiges wieder wett (Java-Entwicklung, Datenbanken, Kubernetes uswusf., das Gerät kommt kaum ins Schwitzen). Die Lenovo-Geräte sind eben schon ziemliche Traktoren dagegen.
aufkrawall
2019-07-27, 13:11:37
Man kann mittels cat /proc/asound/*/codec#0 nachschauen was die Hardware so kann.
Nützlich. (y)
Normalerweise hat man ja nur 44.1 oder 48 KHz Daten vorliegen.
Formate wie DTS-HD z.B. auf BDs können schon bescheuert hohe Werte haben.
Resampling kommt aber ggf. auch mit Avoid Resampling zum Einsatz. Je nachdem was zuerst Ton ausgibt. Nehmen wir an du schaust ein YouTube Video mit 48Khz Ton, dann stellt Pulseaudio auf 48Khz. Jetzt startest du 44.1 Khz Musik und machst das YouTube Video aus. Pulseaudio wird dann weiterhin auf 48Khz resamplen. Man müsste dann die Musik kurz pausieren bzw. neu starten für die "korrekte" Einstellung.
Interessant.
Ich hab jetzt mal 96KHz 24 Bit speex-float-10 ohne avoid-resample eingestellt, um zu schauen, ob das mit dem 6700k sich irgendwo negativ bemerkbar macht bez. der Performance (Aussetzer). Schätze aber, es dürfte völlig egal sein.
Unter Windows geht wohl bei manchen Spielen mit eingestellter hoher Sample Rate der Ton schlicht und einfach immer noch kaputt, Qualitätssoftware. :D
Ganon
2019-07-27, 13:38:16
Hohe Sampling Raten haben halt in der Regel eher nur Nachteile und verlangen vom restlichen Audio-Setup auch recht viel ab. Hier (https://people.xiph.org/~xiphmont/demo/neil-young.html) ist ein Artikel darüber mit einigen Test WAV Dateien, die bei ordentlicher Hardware von der Datei bis zum Lautsprecher komplett lautlos sein müssten. Es zeigt sich aber immer wieder, dass das aufgrund kleinerer Abweichungen immer wieder Störgeräusche entstehen können, die eigentlich gar nicht da sind. Aber auch hier: Vorausgesetzt die Hardware lügt nicht betreibt kein geheimes Resampling von 96Khz auf 48Khz.
Von daher sollte man sich nicht zu viele Gedanken machen und gerade bei BluRays wenn möglich einen Passthrough zur Anlage machen.
Bei ThinkPads halte ich es so:
...
Danke Abnaxos.
Ich habe mir die P-Serie von Lenovo angeschaut.
Linux-Laptops mit nVidia-Graka? - "Nein, danke"
Ich sehe das so wie Drew DeVault (https://drewdevault.com/2017/10/26/Fuck-you-nvidia.html).
===
iuno wartet wohl noch mit Zen2, wenn ich das richtig im Kopf habe?
Sonst schon einer damit unterwegs?
Laut Phoronix (https://www.phoronix.com/scan.php?page=news_item&px=AMD-Zen2-k10temp-Patches) können die Temps wahrscheinlich mit 5.3 ausgelesen werden, *huuhu* :tongue: .
Schon jetzt geht es wohl mit Zenpower (https://github.com/ocerman/zenpower).
Wenn kein Laptop anstehen würde, würde Zen2 mich auch reizen. Aber ganz bestimmt ohne x570.
Von daher sollte man sich nicht zu viele Gedanken machen und gerade bei BluRays wenn möglich einen Passthrough zur Anlage machen.
Ich habe seit Jahren keine BluRay mehr geschaut. Damals ging passthrough noch nichtmal mit PA. Offenbar geht es auch jetzt noch nicht mit allen Formaten und man muss dazu die sink auf Stereo stellen? Funktioniert das, davon mal abgesehen, gut? Wird anderer Sound einfach waehrenddessen verschluckt oder switcht es dann auf PCM zurueck?
iuno wartet wohl noch mit Zen2, wenn ich das richtig im Kopf habe?
Ja, aber das ist auch fuer einen Laptop momentan eh keine Option.
Ganon
2019-08-01, 15:46:53
Ich habe seit Jahren keine BluRay mehr geschaut. Damals ging passthrough noch nichtmal mit PA. Offenbar geht es auch jetzt noch nicht mit allen Formaten und man muss dazu die sink auf Stereo stellen? Funktioniert das, davon mal abgesehen, gut? Wird anderer Sound einfach waehrenddessen verschluckt oder switcht es dann auf PCM zurueck?
In Verbindung mit Pulseaudio weiß ich es nicht aus eigener Erfahrung. Mein MediaCenter hat kein Pulseaudio installiert, weil... wozu? :D Ansonsten geht im Passthrough-Modus natürlich kein anderer Sound, wie soll das auch funktionieren, wenn der Receiver einen kodierten Datenstrom erwartet? Was man machen kann ist den 5.1 / 7.1 Datenstrom zu dekodieren und dann vom Rechner aus einen 5.1 / 7.1 PCM Datenstrom an den Receiver zu schicken (über das 5.1 / 7.1 Profil in Alsa/Pulseaudio). Hier kann dann Alsa/Pulseaudio auch andere Signale wieder einstreuen und es geht wieder parallel. Hat dann natürlich auch den Vorteil, dass man bestimmte Audio-Sachen wie Kompressor, Limiter und Co. zwischenschalten kann. Der Nachteil ist natürlich, dass man sich wieder über Dekodierungsqualität, Resampling und Co. Gedanken machen muss.
Ansonsten hab ich mal interessehalber gesucht, TrueHD Passthrough geht wohl mit dem kommenden Pulseaudio 13: https://www.freedesktop.org/wiki/Software/PulseAudio/Notes/13.0/
It's now possible to play Dolby TrueHD and DTS-HD Master Audio encoded audio in passthrough mode.
Die Echtzeit-Encodierung nach Dolby Digital / DTS (a52 Plugin, dcaenc) ist ein bisschen eingeschlafen. Es funktioniert zwar noch, aber es gibt nichts für neuere Standards. Da man bei HDMI aber meistens eh einen AVR braucht, dann kann der meist auch PCM und darum braucht man das praktisch kaum noch.
Danke fuer die Antwort. Es ging nunmal um PA, daher dachte ich, dass du auch davon sprichst.
Dass man parallel zum Passthrough keinen Sound abspielen kann, ist mir auch klar, danach wurde auch gar nicht gefragt. Ich habe gefragt, ob das dann automatisch den passthrough aus macht, was man dann nicht will, wovon ich aber meine, mal gelesen zu haben.
Da man bei HDMI aber meistens eh einen AVR braucht
Nicht nur bei HDMI ;)
Mit meinem DP Monitor, der, wie ueblich auch keinen HDMI mit ARC hat, muss ich gezwungenermassen fuer den AVR einen 2. Bildschirm aktivieren, wenn ich mehr als 2 Kanaele haben will. Das hat in allen DEs irgendwelche usability-Nachteile, vom erhoehten Stromverbrauch mal abgesehen.
Fuer stereo (oder eben bspw. codiertes DTS) allein geht ja Toslink noch. Ich hatte gehofft, dass durch die non-desktop prop, die man gerade fuer HMDs gebaut hat, hier Sound hinbekomme, ohne dass WMs den zusaetzlichen Bildschirm benutzen wollen, was aber leider nicht der Fall ist.
Ganon
2019-08-01, 16:15:49
Dass man parallel zum Passthrough keinen Sound abspielen kann, ist mir auch klar, danach wurde auch gar nicht gefragt. Ich habe gefragt, ob das dann automatisch den passthrough aus macht, was man dann nicht will, wovon ich aber meine, mal gelesen zu haben.
Afaik erkennt er, dass das ein encodierter Datenstrom ist und leitet das dann nur weiter, wenn auch einer anliegt. Ansonsten würde er es halt dekodieren und als PCM weiterleiten. Hauptproblem ist halt immer noch, dass die ganzen Dolby Sachen alle geschlossen sind und ohne viel $$$ man an keine Spezifikation kommt.
Fuer stereo allein ginge ja Toslink noch. Ich hatte gehofft, dass durch die non-desktop prop, die man gerade fuer HMDs gebaut hat, hier Sound hinbekomme, ohne dass WMs den zusaetzlichen Bildschirm benutzen wollen, was aber leider nicht der Fall ist.
Wie gesagt, du könntest probieren das a52 Plugin für ALSA zum Laufen zu kriegen, dann könntest du 5.1 Ton über Toslink rausschicken. Ist dann natürlich theoretisch alles komprimierter Ton, aber naja... ob man es merkt? :D
Ich hatte so ein Setup eine Weile auf dem Windows PC am Laufen. Hier hat das Mainboard aber DTS Connect Support und die Einrichtung war nur ein Haken im Treiber-Menü :D Das ist aber letztendlich nur eine Lizenzfrage und am Ende ist das ein ähnlich zum a52 Plugin von der Funktion her.
Ohne klassischen AVR (PC->HDMI->AVR->Bildschirm) wird's halt immer fummlig.
Wie gesagt, du könntest probieren das a52 Plugin für ALSA zum Laufen zu kriegen, dann könntest du 5.1 Ton über Toslink rausschicken. Ist dann natürlich theoretisch alles komprimierter Ton, aber naja... ob man es merkt? :D
Danke fuer den Hinweis. Aber das stoert mich momentan zu wenig, als dass es mir den Aufwand wert waere. Die letzte BD habe ich wie gesagt vor ein paar Jahren gesehen. Gespielt wird auch fast nix mehr und falls doch idR. mit Kopfhoerer.
Ohne klassischen AVR (PC->HDMI->AVR->Bildschirm) wird's halt immer fummlig.
Dann hat man halt wieder Abstriche am Bild. Mein AVR hat noch HDMI 1.4, da gehen iirc nur 60 Hz bei WQHD, von Adaptive Sync ganz zu schweigen. Und immer Umstecken ist auch bloed. Und ersetzen muss ich den AVR deswegen auch nicht, solange er noch tut.
Ich hatte damals sogar schon komische Sachen ausprobiert: z.B. Raspberry per HDMI an den AVR und dan Pulseaudio uebers Netzwerk gestreamt. Das bekommt man sogar auch in guter Quali (klar) und niedriger Latenz hin, aber der erste Pi konnte auch ueber HDMI nur stereo PCM, wie mir dann aufgefallen ist ;D
PC->HDMI/DP->Monitor->HDMI ARC->AVR waere auch gut, wenn Monitore das haetten, haben sie aber leider nicht.
Ganon
2019-08-01, 17:52:53
Dann hat man halt wieder Abstriche am Bild. Mein AVR hat noch HDMI 1.4, da gehen iirc nur 60 Hz bei WQHD, von Adaptive Sync ganz zu schweigen. Und immer Umstecken ist auch bloed. Und ersetzen muss ich den AVR deswegen auch nicht, solange er noch tut.
Und mit HDMI1 in den AVR gehen und mit DP in den normalen Bildschirm und dann Bild/Ton an den jeweiligen Ausgang leiten? Oder fehlen dazu die Ein/Ausgänge? Den Bildschirm vom HDMI1 müsstest du doch mit xrandr --output HDMI-1 --off deaktivieren können?!
Aber ja, ich wäre auch erfreuter wenn normale Bildschirme mehr als nur Stereo-Ton ausspucken würden.
aufkrawall
2019-08-01, 19:10:59
Wenn der Audio-Stack wie PA schon das Reampling übernimmt, ist es doch durch Anwendungen selbst überflüssig, oder nicht?
Es scheinen ja zig Anwendungen wie spiele oder Player standardmäßig vorzunehmen.
Ganon
2019-08-01, 19:38:42
Wenn der Audio-Stack wie PA schon das Reampling übernimmt, ist es doch durch Anwendungen selbst überflüssig, oder nicht?
Es scheinen ja zig Anwendungen wie spiele oder Player standardmäßig vorzunehmen.
Darum mögen Entwickler (z.B. Kodi) Pulseaudio sehr gerne, weil man sich quasi um (fast) nichts mehr kümmern muss. Man schickt seinen Datenstrom an Pulseaudio und der macht an sich alles. Letztendlich ist das unter Windows und macOS nicht sonderlich anders, wobei ich aus Emulator-Kreisen gehört habe, dass das Standard Windows Sound System nicht gerade das fixeste ist.
Was aber eine Anwendung macht, ist natürlich weiterhin ihr überlassen. Da die meisten Anwendungen auch direkt ALSA unterstützen, brauchen sie den ganzen Kram ggf. ja auch.
Letztendlich kann man hier aber auch diskutieren, weil ALSA prinzipiell auch Plugins hat, um Software Mixing zu betreiben, oder auch Hardware Mixing. Hier übernimmt dann auch ALSA das Resampling (https://wiki.archlinux.org/index.php/Advanced_Linux_Sound_Architecture#High_quality_resampling) für dich, wenn ein 44.1KHz Datenstrom und ein 48Khz Datenstrom parallel reinkommen. Normalerweise geht das aber in ALSA nicht (überall).
Komplizierte Geschichte insgesamt. Aber auch ein Grund warum z.B. FireFox ALSA Support rausgeworfen hat.
Den Bildschirm vom HDMI1 müsstest du doch mit xrandr --output HDMI-1 --off deaktivieren können?!
Dann auch der Ton mit aus ;)
Geht ueber HDMI ja nur, wenn ein "richtiger" Stream, halt inkl. Bild mit ausgegeben wird. Und ein pseudo-out gibts nicht. Zumindest ist mir nichts bekannt. Selbst mit der neuen non-desktop prop geht der Ton aus.
Aber ja, das ist das aktuelle Setup. Wenn entsprechend Ton gebraucht wird, mache ich den AVR "Bildschirm" halt an.
Acid-Beatz
2019-08-02, 14:28:36
Guten Tag zusammen,
da ich bald von einer Quadro auf eine Radeon wechseln werde und das unter Linux mein erster GraKa Wechsel überhaupt ist: Gibt es für mich irgendwas zu beachten?
Aktuell läuft das System (Fedora 30) out-of-the-box und es wurde keine manuelle Nvidia-Treiberinstallation vorgenommen.
Danke & Grüße
Tyrann
2019-08-02, 15:09:45
wenns nicht gerade die 5700 ist dann ist mit dem opensource radeontreiber alles in Butter
aufkrawall
2019-08-05, 10:57:51
Komplizierte Geschichte insgesamt.
Kann eine niedrigere Sample-Rate nicht ohne Resampling als Subset verlustlos abgebildet werden? In einigen Blizzard-Spielen wie HotS oder SC2 kann man in der Config die Sample-Rate und das Resampling einstellen. Stelle ich 48KHz ohne Resampling ein, klingt das völlig für den Arsch. 44,1KHz scheinen hingegen kein Problem zu sein.
Ganon
2019-08-05, 11:15:04
Kann eine niedrigere Sample-Rate nicht ohne Resampling als Subset verlustlos abgebildet werden?
Na nicht ohne Resampling. Wenn du 48'000 Signale pro Sekunde erwartest und du nur 44'100 Signale rein wirfst, dann klingt das natürlich komisch. Da fehlen die 3900 Signale pro Sekunde. Und vermutlich liegen die meisten Töne in 44.1Khz vor.
aufkrawall
2019-08-05, 11:46:21
Ok, das führt offenbar zu Clipping und anscheinend liegen die Audio-Files dann in 44,1KHz vor. Dass Audio-Files in verschiedenen Sample-Raten gleichzeitig vorliegen, ist wohl quasi unmöglich, denn sonst müsste das Spiel ja mehrmals Resampling vornehmen. :)
Ganon
2019-08-05, 12:45:33
Kommt halt immer auf das Spiel drauf an. Mal als Beispiel das Spiel Stardew Valley. Das macht einfach nur das Audio-Device auf und lässt vermutlich der Audio Engine den Rest machen. D.h. wenn dein Pulseaudio Sink gerade auf 48Khz steht, dann wird das Spiel quasi alles resamplen, weil die Audio-Daten vom Spiel in 44.1Khz vorliegen. Starbound hingegen "beantragt" vom System eine 44.1Khz Ausgabe.
Hey!
Folgende, immer währende Frage: Samba?
Ich hab hier einen PC mit Ubuntu 18 LTS und einen Laptop mit Xubuntu 19.04 in meinem Heimnetz. Auf dem PC liegen Daten an die ich mit dem Laptop möchte.
Folgendes hab ich also auf dem PC gemacht, ich hab samba installiert, ich hab in der smb.conf unter "global": "usershare owner only = false" eingetragen, einen Ordner per nautilus-share für jedermann geöffnet, sprich Gastzugriff.
Mit dem Laptop kann ich nun darauf zugreifen, passt. Meine Frage wäre aber, ob ich das ganze absichern muss. Ob da wer im Heimnetz darauf zugreifen kann ist egal, eig gewollt. Aber öffne ich den Ordner auch nach außen - sprich ins Internet? Oder kann das so bleiben?
Gruß!
Ganon
2019-08-07, 09:41:49
Wenn dein Router kein Portforwarding von einem externen Port zu Samba macht (was du in der Regel manuell einstellen musst), bleibt das auch alles im Heimnetz.
Der einzige Angriffsvektor wären Malware Anwendungen auf dem PC oder Handy, die dann ebenfalls darauf zugreifen können, aber naja... in der Regel hat man dann eh schon verloren.
Julius
2019-08-07, 10:34:33
Was für ein Linux Distribution nimmt man für Dota 2 zocken?
Auf Laptop nehme ich Mint seit ein halben Jahr und es läuft gut. Aber nutze hier nur alten Kernel etc. Hier ist mir wichtig das alles einfach und stabil läuft.
Bei meinem zocker PC spiele ich zur Zeit nur Dota 2.
Nvidia 1080
Ryzen 1700
Gsync Monitor
Es darf ruhig alles anders sein etc. Mich stört es wenig mich an zu passen. Sollte nur fürs zocken richtig gut laufen.
Ganon
2019-08-07, 10:51:04
Beim NVidia Treiber ist der zugrundeliegende Kernel für die Performance an sich nicht so wichtig (anders als bei Intel und AMD). Was Unterschiede machen kann ist der verwendete Desktop, aber auch hier in der Regel nicht dermaßen dramatisch, dass sich ein Desktop-Wechsel nur für's Zocken lohnen würde. Der Test wurde zwar mit einer Radeon gemacht, aber dürfte bei NVidia nicht allzu viel anders aussehen. Dir fehlt halt tendenziell die Wayland Option.
https://www.phoronix.com/scan.php?page=article&item=gaming-desktop-eoy2018&num=2
https://openbenchmarking.org/embed.php?i=1812305-SP-UBUNTU19023&sha=9da6753&p=2
Julius
2019-08-07, 11:01:22
D.h. Linux Mint kenn ich mich aus -> einfach Mint nehmen und aktuellen Treiber rein und gut ist?
aufkrawall
2019-08-07, 11:13:27
Was Unterschiede machen kann ist der verwendete Desktop
Genauer gesagt liegt es an den Compositoren der Desktops, ob diese unter Xorg (zuverlässig) im Vollbild aussetzen. Cinnamon schien da letztes Mal leider problematisch gewesen zu sein, evtl. hat sich das durch eine neuere Gnome-Basis aber gebessert.
Rooter
2019-08-11, 16:41:08
Mal zwei kleine Verständnisfragen. Es geht um das aktuelle Mint, falls das eine Rolle spielt.
1.
Installiert ist Kernel 4.15.0-55. Laut
https://en.wikipedia.org/wiki/Linux_kernel#Releases_4.x.y
ist die 4.15-Linie aber seit 4.15.18 EOL. Wie passt das zusammen?
2.
Die Datei /proc/kcore ist bei mir 128TB groß. :O
Ich weiß, dass kcore nur ein Abbild des Arbeitsspeichers und - wie alles in /proc - rein virtuell ist. Aber warum ist die so groß? (Wenn ich so viel RAM hätte würde ich ihn verkaufen und in Frührente gehen... :biggrin:)
MfG
Rooter
Tech_FREAK_2000|GS
2019-08-11, 17:18:13
[...]
2.
Die Datei /proc/kcore ist bei mir 128TB groß. :O
Ich weiß, dass kcore nur ein Abbild des Arbeitsspeichers und - wie alles in /proc - rein virtuell ist. Aber warum ist die so groß? (Wenn ich so viel RAM hätte würde ich ihn verkaufen und in Frührente gehen... :biggrin:)
MfG
Rooter
https://support.microfocus.com/kb/doc.php?id=7004153
[...]
Note: On 64-bit systems the size of /proc/kcore is even 128TB because that's the absolute limit of what 64-bit systems can allocate.
[...]
wusste ich auch noch nicht... hätte gedacht das ist so etwas wie ein Gigacage.
Lokadamus
2019-08-11, 17:37:51
1. Installiert ist Kernel 4.15.0-55. Laut
https://en.wikipedia.org/wiki/Linux_kernel#Releases_4.x.y
ist die 4.15-Linie aber seit 4.15.18 EOL. Wie passt das zusammen?
So weit ich es verstehe, pflegen sie selber den Kernel. Es soll einen Manager wegen den Kernel Updates geben. Auf einem Screenshot stand irgendwas von Support bis 2023.
Hier ist ein Beitrag, dass es die 4.4 und 4.15 bei Mint als longterm gibt. Finde ich auch etwas merkwürdig, aber naja.
https://forums.linuxmint.com/viewtopic.php?t=267189
Edit: https://www.linuxmint.com/rel_tina_cinnamon_whatsnew.php
Benutzername
2019-08-11, 18:26:29
Was Lokadamus schreibt. Debian patcht die älteren Kernel mit backports genauso wie alle möglichen Programme im Debian repository backport patches bekommen.. Gab da mal Ärger mit dem Chef vom x-window screensaver, weil Debian halt so alte Versionsnummern hat, die aber gepatcht sind.
Mit dem neuen verbesserten Kernelmanager in Mint 19.2 (über drowdpwn menü in der Aktualisierungsverwaltung zu finden) kann man aber auch mit einem Mausklick einen 5.0er Kernel installieren, sofern man das möchte. Ich habe hier auch den 4.15.0-55 am laufen auf einem alten Phenom. Habe auch bisher keine Probleme gehabt, die einen Wechsel erzwungen hätten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.