Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue Rechnerkonzepte und Grafik - kein nennenswerter Fortschritt?
boxleitnerb
2019-11-17, 11:45:36
Moin zusammen,
ich bin zwar momentan nicht mehr in der Enthusiastenwelt unterwegs, verfolge die Entwicklungen aber weiterhin regelmäßig.
Was mir auffällt ist, dass sich am grundlegenden Konzept von PCs/Macs seit Jahrzehnten kaum etwas geändert hat:
Man hat recht große Platinen mit Steckplätzen für RAM, Grafikkarten etc. und die Kisten sehen im Grunde sehr ähnlich aus wie vor 10 oder 20 Jahren. Die Rechner sind immer noch weit davon entfernt, sofort (1-2 Sekunden) einsatzbereit zu sein (außer Standby), es bedarf weiterhin für Installationen u.ä. vieler Neustarts.
Es gibt abseits von Grafik und HPC/CAD (soweit ich weiß) keine nennenswerte Nutzung von GPUs für den Otto-Normaluser. Den APU-Hype von vor ein paar Jahren sehe ich als grandios gescheitert an. Oder gibt es irgendwo Benchmarks, die (außer in Nischenszenarien) zeigen, dass eine APU bei gleicher Rechenleistung und Bandbreite verglichen mit einer dGPU nennenswerte Vorteile bringt?
APUs auf Kosten des CPU-Teils mit einem höheren TDP-Rahmen und höherer Bandbreite auszustatten, ist keine Kunst, sondern Brute Force. Ich hatte damals eigentlich gedacht, dass die enge Verzahnung von CPU und GPU mit den einhergehenden niedrigen Latenzen sehr deutliche Performancesprünge bringen würde. Es wurde glaube ich sogar spekuliert, dass die Programme selbst erkennen, auf welchen Recheneinheiten die Berechnungen ablaufen sollen ohne explizites Zutun des Programmierers.
GPU-Physik (visuell und/oder Gameplay) sucht man vergebens, ich kenne jedenfalls keine Spiele damit. Für Unreal 2 (!) wurde vor 20 Jahren versprochen, dass fliegende Kugeln Nebel dynamisch mit Verwirbelungen wegfegen. Es gab in den letzten 10 Jahren Demos von Nvidia und AMD und Intel und man sieht nichts/kaum was in Spielen davon.
Tessellation fand ich damals sehr spannend, als es zur GTX480 kontrovers diskutiert wurde. Man sieht wenig davon (vielleicht soll das so?) - die allermeisten Oberflächen in Spielen wirken immer noch flach, von reellen organischen Strukturen (Waldboden, Baumrinden, Steinwände etc.) weit entfernt. Schön kaschiert von guten Texturen, aber immer noch Fake.
Raytracing kann ich nicht bewerten, ich hab es nie live gesehen - könnte aber spannend werden.
Bin ich zu lange draußen aus den Themen und sehe die Punkte falsch? Nur lesen und nicht spielen/programmieren beschränkt natürlich deutlich die Sichtweise, aber zumindest vom Gefühl her herrscht oftmals "Stillstand".
Was mir auffällt ist, dass sich am grundlegenden Konzept von PCs/Macs seit Jahrzehnten kaum etwas geändert hat:
Man hat recht große Platinen mit Steckplätzen für RAM, Grafikkarten etc. und die Kisten sehen im Grunde sehr ähnlich aus wie vor 10 oder 20 Jahren. Die Rechner sind immer noch weit davon entfernt, sofort (1-2 Sekunden) einsatzbereit zu sein (außer Standby), es bedarf weiterhin für Installationen u.ä. vieler Neustarts.
Das ist ein reines Windows-Problem. Musstest du schonmal einen Mac, Linux-PC oder ein Smartphoe neustarten weil du was installiert hast?
Solange man nichts am Kernel macht, braucht es im Grunde keinen Neustart. Und selbst wenn man was am Kernel macht, gibt es mit live patching inzwischen eine Loesung. Dass man ab und zu bei bestimmten Updates halt mal neustarten muss erzeugt aber am Desktop keinen hinreichender Leidensdruck dass es Microsoft scheren wuerde.
Es gibt abseits von Grafik und HPC/CAD (soweit ich weiß) keine nennenswerte Nutzung von GPUs für den Otto-Normaluser. Den APU-Hype von vor ein paar Jahren sehe ich als grandios gescheitert an. Oder gibt es irgendwo Benchmarks, die (außer in Nischenszenarien) zeigen, dass eine APU bei gleicher Rechenleistung und Bandbreite verglichen mit einer dGPU nennenswerte Vorteile bringt?
Zunaechst mal brauchst du weniger Material. Es ist schlicht billiger und mit Einsparen der off-chip Schnittstellen spart man auch noch Strom.
Und wenn du gleiche Kennzahlen voraussetzt sollte auch klar sein, dass es ein Vorteil ist wenn Daten schon im gemeinsamen Speicher liegen anstatt nochmal extra ueber PCIe zu muessen.
Aber der Vergleich ist natuerlich schwierig. Es gibt ja kaum noch dGPUs, die mit IGPs vergleichbar sind.
APUs auf Kosten des CPU-Teils mit einem höheren TDP-Rahmen und höherer Bandbreite auszustatten, ist keine Kunst, sondern Brute Force. Ich hatte damals eigentlich gedacht, dass die enge Verzahnung von CPU und GPU mit den einhergehenden niedrigen Latenzen sehr deutliche Performancesprünge bringen würde. Es wurde glaube ich sogar spekuliert, dass die Programme selbst erkennen, auf welchen Recheneinheiten die Berechnungen ablaufen sollen ohne explizites Zutun des Programmierers.
Und immer dickere dGPUs zu bauen ist kein brute force?
Ich glaube nicht, dass das letztere je ernsthaft zur Debatte stand. Es existiert ja keine herstelleruebergreifende GPU ISA, fuer die man generischen Code bauen koennte, also etwas vergleichbares wie x86 fuer GPUs.
Die ganze APU Thematik wird halt von keinem wirklich forciert. Man baut APUs wegen der oben genannten Effizienzvorteile und nicht um die maximale Leistung zu erhoehen.
Bei AMD heisst es seit Jahren, dass mal eine fette HPC APU kommt, was vielleicht auch irgendwann der Fall sein wird. Jetzt, wo sie sowieso komplett auf Chiplets gehen, ist es wohl wahrscheinlicher als jemals. Nvidia baut keine CPUs und Intel steigt eben erst wieder neu mit grossen GPUs ein.
Fuer die kleinen APUs , die eigentlich allesamt Notebook-Chips sind, lohnt es sich nicht, viel Geld zu investieren.
Und um jetzt den Kreis zu deinem Anfang zu schliessen: es stimmt ja nicht, dass sich gar nichts tut. Fuer viele Anwendungsbereiche kommt man inzwischen ohne Chipsatz aus, das Mainboard wird wieder kleiner, die CPU wurde ueber die APU zum SoC. Der naechste Schritt koennte sein, dass auch der Speicher vom Board verschwindet und direkt auf (per stacking) oder neben den SoC wandert. Dann hat man schon was deutlich anderes, als man das vom ATX PC gewohnt war. Nur kommt natuerlich auch diese Aenderung eben leistungsmaessig von unten her und wird nicht oben drauf gesetzt.
GPU-Physik (visuell und/oder Gameplay) sucht man vergebens, ich kenne jedenfalls keine Spiele damit. Für Unreal 2 (!) wurde vor 20 Jahren versprochen, dass fliegende Kugeln Nebel dynamisch mit Verwirbelungen wegfegen. Es gab in den letzten 10 Jahren Demos von Nvidia und AMD und Intel und man sieht nichts/kaum was in Spielen davon.
Weil Rechenleistung halt endlich ist. Natuerlich kann man das alles machen, aber meist wird stattdessen halt was anderes gemacht, wie z.B. post processing oder besseres lighting.
Bin ich zu lange draußen aus den Themen und sehe die Punkte falsch? Nur lesen und nicht spielen/programmieren beschränkt natürlich deutlich die Sichtweise, aber zumindest vom Gefühl her herrscht oftmals "Stillstand".
Oft taeuscht es einfach nur. Schau dir einfach mal wieder Spiele der letzten Konsolengeneration an und vergleiche.
Nightspider
2019-11-17, 16:25:09
Tessellation und GPU Physik sind doch recht weit verbreitet.
Man simuliert nur halt nicht alles weil die Spiele-Entwicklung eben auch teuer ist und die letzten Jahre waren davon gekennzeichnet das viele Free2Play Spiele und Spiele für 20-30 Euro (PUBG) der Konkurrenz das Wasser abgegraben haben.
Technisch waren PUBG und Fortnite eher Müll im Vergleich zu einem Battlefield aber die Spielmechanik hat den Leuten eben gefallen.
Ubisoft und EA haben technisch einwandfreie Produkte in den letzten 4 Jahren geliefert aber zuletzt beim eintönigen Gameplay versagt.
Wieso willst du ATX ablösen? Ist doch gerade toll es man PCs noch beliebig erweitern kann mit weiteren Steckkarten.
Lowkey
2019-11-17, 17:33:44
Was mir auffällt ist, dass sich am grundlegenden Konzept von PCs/Macs seit Jahrzehnten kaum etwas geändert hat:
Man hat recht große Platinen mit Steckplätzen für RAM, Grafikkarten etc. und die Kisten sehen im Grunde sehr ähnlich aus wie vor 10 oder 20 Jahren.
BTX war ein Flop. Und niemand traut sich an das Thema heran. Die meisten Käufer wollen ein normales ATX Gehäuse von Fractal Design oder Nanoxia oder Be Quiet mit ATX Anordnung.
Die Rechner sind immer noch weit davon entfernt, sofort (1-2 Sekunden) einsatzbereit zu sein (außer Standby), es bedarf weiterhin für Installationen u.ä. vieler Neustarts.
Seit UEFI ist es sogar langsamer geworden. Rechner booten langsamer. Vermutlich sind in UEFI bergeweise Spy und Sicherheitsvorgänge enthalten.
Es gibt abseits von Grafik und HPC/CAD (soweit ich weiß) keine nennenswerte Nutzung von GPUs für den Otto-Normaluser. Den APU-Hype von vor ein paar Jahren sehe ich als grandios gescheitert an. Oder gibt es irgendwo Benchmarks, die (außer in Nischenszenarien) zeigen, dass eine APU bei gleicher Rechenleistung und Bandbreite verglichen mit einer dGPU nennenswerte Vorteile bringt?
APUs auf Kosten des CPU-Teils mit einem höheren TDP-Rahmen und höherer Bandbreite auszustatten, ist keine Kunst, sondern Brute Force. Ich hatte damals eigentlich gedacht, dass die enge Verzahnung von CPU und GPU mit den einhergehenden niedrigen Latenzen sehr deutliche Performancesprünge bringen würde. Es wurde glaube ich sogar spekuliert, dass die Programme selbst erkennen, auf welchen Recheneinheiten die Berechnungen ablaufen sollen ohne explizites Zutun des Programmierers.
APU wurde gehypted als Ersatz für Casualgamer. Und dann kommt die Erkenntnis, dass es mittels technischen Möglichkeiten funktionieren würde, aber dann die Kosten unangemessen steigen.
GPU-Physik (visuell und/oder Gameplay) sucht man vergebens, ich kenne jedenfalls keine Spiele damit. Für Unreal 2 (!) wurde vor 20 Jahren versprochen, dass fliegende Kugeln Nebel dynamisch mit Verwirbelungen wegfegen. Es gab in den letzten 10 Jahren Demos von Nvidia und AMD und Intel und man sieht nichts/kaum was in Spielen davon.
Tessellation fand ich damals sehr spannend, als es zur GTX480 kontrovers diskutiert wurde. Man sieht wenig davon (vielleicht soll das so?) - die allermeisten Oberflächen in Spielen wirken immer noch flach, von reellen organischen Strukturen (Waldboden, Baumrinden, Steinwände etc.) weit entfernt. Schön kaschiert von guten Texturen, aber immer noch Fake.
Raytracing kann ich nicht bewerten, ich hab es nie live gesehen - könnte aber spannend werden.
Bin ich zu lange draußen aus den Themen und sehe die Punkte falsch? Nur lesen und nicht spielen/programmieren beschränkt natürlich deutlich die Sichtweise, aber zumindest vom Gefühl her herrscht oftmals "Stillstand".
Es gab in den letzten Woche eine größere Menge RT Tests/Benchmarks. Gerade die Sturm Demo war sehr nice, aber auch die neue, realistische Datenbank von Epic sieht fast fotorealistisch aus.
https://www.computerbase.de/2019-11/epic-games-quixel-megascans-unreal-engine/
https://www.computerbase.de/2019-11/crytek-neon-noir-community-benchmark/
https://www.youtube.com/watch?v=ecerIIClbMA
Man denke noch an Crysis 1. Noch heute nach 13 Jahren sehen viele Leute Crysis (auf aktuellen Stand gebracht) als aktuelles Spiel an. Nur es ist als Grafikdemo verschrien worden. Die Menschen damals hatten nicht das Geld für einen schnellen PC und haben das Spiel einfach deswegen schlecht gemacht. Es war mehr oder weniger ein Flop. Daraus hat die ganze Branche gelernt und letztlich gibt es nicht mehr wie in den 90ern jede Woche neue Spielideen von Kellernerds, sondern das Geld bestimmt alles. Es geht nur noch um das liebe Geld und um eine weite Verbreitung. Blizzard hat sich darauf besonnen, dass weltweit jeder Mensch ein Smartphone besitzt, aber nicht zwingend einen PC oder gar aktuellen PC. Also entwickelt man einfach alles für Crossplattform und der limitierende Faktor ist die Leistung von Konsolen und Smartphones. Damit läßt das mehr Geld machen.
Mir ist bei Casemods aufgefallen, dass sie in den letzten 2-3 Jahren außer Mode kommen. Immer weniger Leute basteln am PC herum. Die groben Schnitzer wurde durch neue Gehäuse behoben und die Auswahl ist gewaltig.
Dann wurde ein Luxusmarkt geschaffen:
Grafikkarten wurden teurer.
CPUs bekamen im Desktop bereich neue, höhere Preisklassen
Mäuse mit allen Extras kommen auf 200 Euro.
Monitore + Gaming Fernseher kosten mal eben das Vierfache.
Netzteile mit OLED Anzeige sind nochmals extrateurer.
Mechanische Tastaturen fangen zum Teil bei 100 Euro an.
Mainboardhersteller haben einfach mal die Preise angehoben.
Andererseits ist der Einsteigersektor besser geworden:
Gute Qualität bei Mäusen, Monitoren, Tastaturen, P/L Mainboards, Einsteiger-Vielkern-CPUs, Mauspads, Lüftern und Kopfhörern
Durch Preisdruck günstigere SSDs, Speicher, Netzteile, Wasserkühlungen und Gehäuse. Windows 10 Keys für 1 Euro.
Der Abstand zwischen "braucht man" und "absolutem Highend" war preislich noch nie so hoch. Gleichzeitig will es der Kunde so günstig wie möglich und pfeift an sich auf neue Standards.
Nightspider
2019-11-17, 17:45:52
Mal ein Crysis 1 Remake für die PS5 und moderne highend PCs wäre doch mal was. :naughty:
Im Prinzip ist Star Citizen genauso ein Projekt was versucht neue Maßstäbe zu setzen. Nur ist es eben auch so umfangreich das sich die zähe Entwicklung ewig hinzieht und jeder die Entwicklung über 8 Jahre verfolgen konnte und vieles schon aus der Alpha kennt.
Das ist dann nochmal was Anderes ob so ein Projekt erst kurz vorher angekündigt und auf den Markt gebracht wird oder ob man die kleinen Steps über zig Jahre verfolgen kann und es im Ganzen dann nicht mehr so "krass" überraschen kann wie es Crysis damals tat.
Theoretisch ist mit 8 Zen 2 Cores und superschnellen SSDs in den neuen Konsolen viel möglich aber das kostet dann auch viel Geld.
Dennoch werden da die Engines ihre Muskeln spielen lassen können.
Denn die Tools sind mit das Wichtigste bei der modernen Spieleentwicklung um überhaupt noch mit der Technik mithalten zu können, ohne das man 3000 Mitarbeiter braucht.
gravitationsfeld
2019-11-17, 18:17:42
Das ist ein reines Windows-Problem. Musstest du schonmal einen Mac, Linux-PC oder ein Smartphoe neustarten weil du was installiert hast?
Solange man nichts am Kernel macht, braucht es im Grunde keinen Neustart. Und selbst wenn man was am Kernel macht, gibt es mit live patching inzwischen eine Loesung. Dass man ab und zu bei bestimmten Updates halt mal neustarten muss erzeugt aber am Desktop keinen hinreichender Leidensdruck dass es Microsoft scheren wuerde.
Das ist ein weit verbreiteter Irrtum. Wenn du shared libraries patcht dann bekommen die Programme nur die neue Version wenn sie neu gestartet werden. D.h. wenn du einen security exploit in glibc hast, dann per package manager alle updates installiert, aber Firefox nie neu startest hast du das Problem nicht behoben.
Microsoft geht das Risiko nicht ein und zwingt den kompletten user space halt zum Neustart.
Und ja, Android und iOS muss man neu booten nach einem Update?
Mortalvision
2019-11-17, 18:48:23
Sagen wir mal so: es hat sich besser bewährt als gedacht! Modularität ist ein zentrales Kernmerkmal des klassischen PCs im Gegensatz zur Konsole!
Und die ist auch darüber hinaus vom Highend Server Rack bis zum NUC gegeben ;) Toll, oder?
Eine all-in-one Chip Lösung sehe ich so schnell nicht kommen. Dafür brauchen die einzelnen Komponenten einfach zu unterschiedliche elektrotechnische Umgebungen, und gerade bei einem potentiellen Highendchip wie 2TB SSD+2080Ti+128GB RAM+3950X (Monsterdie? :freak:) hinterm Netzteil wäre dann auch das Ausfallrisiko wahnsinnig hoch!
Screemer
2019-11-17, 18:59:52
Das ist ein weit verbreiteter Irrtum. Wenn du shared libraries patcht dann bekommen die Programme nur die neue Version wenn sie neu gestartet werden. D.h. wenn du einen security exploit in glibc hast, dann per package manager alle updates installiert, aber Firefox nie neu startest hast du das Problem nicht behoben.
Microsoft geht das Risiko nicht ein und zwingt den kompletten user space halt zum Neustart.
Und ja, Android und iOS muss man neu booten nach einem Update?
Ich glaube hier liegt ein klassisches Missverständnis vor. Iuno sprach imho nicht von OS-Patches, sondern von Software die eben im userspace läuft. Klar muss die entsprechende Software auch neu gestartet werden um von Patches "profitieren" zu können. Das macht android ja auch, wenn Patches für Apps eingespielt werden. Wenn eine Linux distri die Software die läuft nach einem Patch der gelinkten Files nicht zu einem Neustart zwingt, dann ist das erst Mal das Problem des os. Bei Windows ist es aber halt so, dass häufig das komplette OS ne Runde im boot drehen muss und nicht nur die installierte Software. Ich denke so war das gemeint.
Das ist ein weit verbreiteter Irrtum. Wenn du shared libraries patcht dann bekommen die Programme nur die neue Version wenn sie neu gestartet werden. D.h. wenn du einen security exploit in glibc hast, dann per package manager alle updates installiert, aber Firefox nie neu startest hast du das Problem nicht behoben.
Microsoft geht das Risiko nicht ein und zwingt den kompletten user space halt zum Neustart.
Und ja, Android und iOS muss man neu booten nach einem Update?
Ist es nicht. Natuerlich muss man Programme an sich neustarten. Ich sprach aber von einem Reboot, und das war aus dem Kontext heraus auch klar. Dasselbe bei iOS und Android, wo du niemals wegen App-Updates rebooten musst.
Mein Vorredner sprach erstmal nur von "Installationen", gar nicht von Updates. Du hast das vielleicht vergessen, aber es gibt immer noch Windows-Programme die nach dem Setup meinen, man muesse jetzt den PC neustarten. Deshalb bin ich auf das Thema eingestiegen.
Ich finde die Ausgangsfrage zur aktuellen Zeit seltsam.
Wir haben als Endkunden letztes Jahr zum ersten Mal dedizierte Hardware für Neuronale Netze und Raytracing bekommen. Quantencomputing hatte die ersten realen Durchbrüche. Deep Learning hat sich generell in vielen Bereichen sensationell schnell durchgesetzt (die grundlegenden Paper dazu sind von 2013). Wieviel Fortschritt will man noch mehr in der kurzen Zeit?
Deep Learning hat sich generell in vielen Bereichen sensationell schnell durchgesetzt (die grundlegenden Paper dazu sind von 2013).
Meinst du jetzt speziell fuer Hardware?
Ansonsten wuerde ich da sowas ueber den Perzeptron als "grundlegend" bezeichnen, und das Zeug ist Jahrzehnte alt.
Meinst du jetzt speziell fuer Hardware?
Ansonsten wuerde ich da sowas ueber den Perzeptron als "grundlegend" bezeichnen, und das Zeug ist Jahrzehnte alt.
Ich meinte schon Deep Learning und nicht Neuronale Netze. Die haben sich in ihrer Grundform nicht ohne Grund nicht durchgesetzt.
Alexnet kam 2012 (sorry für das eine Jahr ;)) und hat alles andere mit einem Schlag zerstört.
Sardaukar.nsn
2019-11-17, 21:08:16
Meinst du jetzt speziell fuer Hardware?
Ansonsten wuerde ich da sowas ueber den Perzeptron als "grundlegend" bezeichnen, und das Zeug ist Jahrzehnte alt.
Gerade im Bereich des autonomen Fahren ist aktuell Gründerzeit, da die Hardware nicht mehr nur virtuelle Welten erschaffen, sondern auch die reale Welt verstehen kann.
Ein interessantes Gespräch das zu hielten die COEs von Daimler und Nivida. https://www.youtube.com/watch?v=GoQLeMCqIWs
blackbox
2019-11-17, 21:44:22
Ich frage mich auch, warum es immer noch diese blöden Pins gibt, um das Gehäuse (bzw. Powerswitch, LEDs etc.) mit dem Mainboard zu verbinden.
Ich meine, nach 20 Jahren sollte man diesen Mist doch mal ersetzt haben?
Und wer braucht heute noch eine serielle oder parallele Schnittstelle auf dem Mainboard?
gravitationsfeld
2019-11-17, 21:53:33
Ich glaube hier liegt ein klassisches Missverständnis vor. Iuno sprach imho nicht von OS-Patches, sondern von Software die eben im userspace läuft.
Nein. Kein Missverstaendnis. Lies was ich schreib. Ich hab explizit User-Space erwaehnt. Oder ist Firefox teil des OS? Willst du mich verarschen?
Ist es nicht. Natuerlich muss man Programme an sich neustarten. Ich sprach aber von einem Reboot, und das war aus dem Kontext heraus auch klar. Dasselbe bei iOS und Android, wo du niemals wegen App-Updates rebooten musst.
Mein Vorredner sprach erstmal nur von "Installationen", gar nicht von Updates. Du hast das vielleicht vergessen, aber es gibt immer noch Windows-Programme die nach dem Setup meinen, man muesse jetzt den PC neustarten. Deshalb bin ich auf das Thema eingestiegen.
Solange der Userspace nicht komplett neu gestartet hat ist das "Update" effektiv nicht installiert und damit die Sicherheitsluecken immer noch da.
Linux hat da keinen Vorteil, es waegt den Benutzer einfach in falscher Sicherheit.
aufkrawall
2019-11-17, 22:05:03
Natürlich hat "Linux" (Das ist btw. nur ein Kernel. Etwas verwirrend, wenn du aber nur den Userspace meinen willst.) hier einen Vorteil, weil Software-Installationen auf Windows ständig wegen völlig undurchsichtiger File Handles völlig unvorhersehbar blockieren. Daher kommen ja schließlich die Neustart-Aufforderungen für jeden zweiten Furz.
Screemer
2019-11-17, 22:05:21
Nein. Kein Missverstaendnis. Lies was ich schreib. Ich hab explizit User-Space erwaehnt. Oder ist Firefox teil des OS? Willst du mich verarschen?
Er schrieb eben nicht von Programmen im userspace und das auch dort Programme nach Patches neu gestartet werden müssen ist klar. Das ist aber was anderes als bei Windows das komplette OS wegen Installationen im Userspace in nen reboot zu zwingen.
Btw. könntest du mal ein bisschen an deinem Schreibstil feilen. Fachlich kompetent heißt nicht, dass du jeden wie es die passt anblaffen musst. Deine Art war schon unter deinem alten Nick häufig grenzwertig und du hast dich scheinbar keinen Millimeter geändert. Das ist wirklich zum kotzen.
gravitationsfeld
2019-11-17, 22:41:00
Er schrieb eben nicht von Programmen im userspace und das auch dort Programme nach Patches neu gestartet werden müssen ist klar. Das ist aber was anderes als bei Windows das komplette OS wegen Installationen im Userspace in nen reboot zu zwingen.
Linux zwingt dich zu gar nichts. Der laufende User-Space bleibt einfach unsicher.
Microsoft muesste auch nicht das ganze System neu starten, machen es aber weil es das Problem loest.
Btw. könntest du mal ein bisschen an deinem Schreibstil feilen. Fachlich kompetent heißt nicht, dass du jeden wie es die passt anblaffen musst. Deine Art war schon unter deinem alten Nick häufig grenzwertig und du hast dich scheinbar keinen Millimeter geändert. Das ist wirklich zum kotzen.
Wer einfach nicht liest und irgend welche unpassenden Argumente bringt nervt mich genauso.
Natürlich hat "Linux" (Das ist btw. nur ein Kernel. Etwas verwirrend, wenn du aber nur den Userspace meinen willst.) hier einen Vorteil, weil Software-Installationen auf Windows ständig wegen völlig undurchsichtiger File Handles völlig unvorhersehbar blockieren. Daher kommen ja schließlich die Neustart-Aufforderungen für jeden zweiten Furz.
Das ist loesbar. Microsoft hat volle Kontrolle ueber das System.
Es gibt keine Alternative zu reboots. Du kannst dem 08/15-Heini nicht erklaeren warum manche Teile des Systems immer noch nen Virus eingefangen haben nach dem Update. Genauso wie es keine Alternative zu Zwangs-Updates gibt, auch wenn die ganze Welt heult.
Linux zwingt dich zu gar nichts. Der laufende User-Space bleibt einfach unsicher.
Natuerlich nicht, ist nicht Aufgabe des Kernels, der hat damit auch ueberhaupt nichts zu tun.
Haengt also alles vom Paketmanager ab. Gibt auch welche (oder grafische frontends dafuer), die einem dann Neustarts nahelegen oder selbst durchfuehren.
Microsoft muesste auch nicht das ganze System neu starten, machen es aber weil es das Problem loest.
Um nochmal darauf zurueckzukommen, wovon ich sprach: Es loest ueberhaupt nichts wenn ein Programm mit einem Installer kommt, der ums verrecken nach Abschluss das System Neustarten will. Im Gegenteil.
Es gibt keine Alternative zu reboots.
Gaebe es schon, ist aber viel komplexer als ein reboot.
gravitationsfeld
2019-11-17, 23:40:58
Natuerlich nicht, ist nicht Aufgabe des Kernels, der hat damit auch ueberhaupt nichts zu tun.
Was? Ich hab ueberhaupt nicht vom Kernel geredet? Hoer auf mir Worte in den Mund zu legen. Ich bin der letzte hier im Forum dem du erklaeren musst, was der Kernel macht.
Haengt also alles vom Paketmanager ab. Gibt auch welche (oder grafische frontends dafuer), die einem dann Neustarts nahelegen oder selbst durchfuehren.
Toll. Dann sind wir ja einer Meinung, dass Neustarts nicht zu vermeiden sind.
Um nochmal darauf zurueckzukommen, wovon ich sprach: Es loest ueberhaupt nichts wenn ein Programm mit einem Installer kommt, der ums verrecken nach Abschluss das System Neustarten will. Im Gegenteil.
Doch, es loest, dass das System unsicher ist.
Gaebe es schon, ist aber viel komplexer als ein reboot.
Gaebe es nicht. Es gibt eigneschraenktes Kernel-Live-Patching. Nichts was fuer den User-Space funktioniert.
Lowkey
2019-11-18, 00:57:37
Ich frage mich auch, warum es immer noch diese blöden Pins gibt, um das Gehäuse (bzw. Powerswitch, LEDs etc.) mit dem Mainboard zu verbinden.
Ich meine, nach 20 Jahren sollte man diesen Mist doch mal ersetzt haben?
Und wer braucht heute noch eine serielle oder parallele Schnittstelle auf dem Mainboard?
Das abschreckende Beispiel war ABIT. Niemand kommt auf die Idee auf die Anschlüsse zu verzichten, damit Otto Casual seine 10 Jahre alten Festplatten weiter nutzen kann. Dickere Mainboards haben die Power/HDD LEDs auf dem Mainboard. Und die kannst du nicht komplett abschalten. Neue Gehäuse verzichten auf die LEDs. Wenn der Rechner an ist, dann leuchten die RGB Lüfter.
Von mir aus könnten sie ein Mainboard entwickeln, dass nur noch das hat, was man derzeit beim Neukauf bekommt: kein Sata, keine weiteren PCI-E, kein Thunderbolt, kein HDMI 1.4 bzw. Onboard Grafik, kein Onboardsound. Da reicht schon ITX aus.
Nur hat Asrock seine Highend OC Boardserie trotz guter Presse + Feedback eingestellt und Asus hinkt immer noch beim Support. MSI konzentriert sich mehr auf Qualität. Der Markt spielt sich bei unter 200 Euro ab. Dicke Boards bekommen eben nicht den besseren Support.
Rabiata
2019-11-27, 13:16:42
Was mir auffällt ist, dass sich am grundlegenden Konzept von PCs/Macs seit Jahrzehnten kaum etwas geändert hat:
Man hat recht große Platinen mit Steckplätzen für RAM, Grafikkarten etc. und die Kisten sehen im Grunde sehr ähnlich aus wie vor 10 oder 20 Jahren. Die Rechner sind immer noch weit davon entfernt, sofort (1-2 Sekunden) einsatzbereit zu sein (außer Standby), es bedarf weiterhin für Installationen u.ä. vieler Neustarts.
Dafür gibt es auch gute Gründe:
Die Steckplätze sind nötig wenn die Kiste upgradefähig und reparierbar sein soll. Alternativ wäre auch so was wie ein Laptop mit fest eingelötetem RAM denkbar, aber gerade die Leute hier im Forum würden damit eher nicht glücklich werden. Im Businessbereich könnte ich mir das eher vorstellen, aber da dominiert der Laptop schon jetzt.
Bei den Updates ist die Technik halt noch nicht auf breiter Front so weit, daß elementare Softwarebestandteile wie der Kernel im laufenden Betrieb getauscht werden können. Ein Mikrokernel (https://de.wikipedia.org/wiki/Microkernel)könnte da vielleicht helfen, aber der Ansatz kommt nicht so recht in die Gänge. Vielleicht auch weil kein finanzkräftiger Hersteller das Konzept ernsthaft pushen will.
Bei den Bootzeiten will ich mal nicht pauschal widersprechen, offenbar wächst der Aufwand um ein System zu starten genau so schnell wie die verfügbare Leistung.
Es gibt abseits von Grafik und HPC/CAD (soweit ich weiß) keine nennenswerte Nutzung von GPUs für den Otto-Normaluser. Den APU-Hype von vor ein paar Jahren sehe ich als grandios gescheitert an. Oder gibt es irgendwo Benchmarks, die (außer in Nischenszenarien) zeigen, dass eine APU bei gleicher Rechenleistung und Bandbreite verglichen mit einer dGPU nennenswerte Vorteile bringt?
APUs auf Kosten des CPU-Teils mit einem höheren TDP-Rahmen und höherer Bandbreite auszustatten, ist keine Kunst, sondern Brute Force. Ich hatte damals eigentlich gedacht, dass die enge Verzahnung von CPU und GPU mit den einhergehenden niedrigen Latenzen sehr deutliche Performancesprünge bringen würde. Es wurde glaube ich sogar spekuliert, dass die Programme selbst erkennen, auf welchen Recheneinheiten die Berechnungen ablaufen sollen ohne explizites Zutun des Programmierers.
Solche Benchmarks sind mir nicht bekannt. Es wird zuweilen behauptet, daß AMD aus "Uniform Memory Access" Vorteile zieht, aber da fehlt es an Vorher/Nachher - Vergleichen. Intel vs. AMD sind die Prozessoren IMHO zu unterschiedlich für direkte APU-Vergleiche.
Bleibt als Vorteil, daß das Mainboard einfacher oder zumindest kleiner werden kann, wenn man auf den üblichen GPU-Steckplatz verzichtet.
Bin ich zu lange draußen aus den Themen und sehe die Punkte falsch? Nur lesen und nicht spielen/programmieren beschränkt natürlich deutlich die Sichtweise, aber zumindest vom Gefühl her herrscht oftmals "Stillstand".
Die Grafik wird tatsächlich immer deteilierter und lebensechter, wobei vieles davon aber Brute Force ist. Tesselation ist da eher eine Optimierung, die es erlaubt mit weniger Vertices für gerundete Oberflächen auszukommen, als etwas das bahnbrechende Unterschiede erlaubt.
Für mein Gefühl ist vieles davon Stillstand, weil es für den Spielablauf keine Vorteile mehr bringt und auch ästhetisch nicht immer eine Bereicherung ist.
Half Life war etwa der Punkt ab dem die "Funktionalität" voll gegeben war, mit klar erkennbaren Objekten welche auch aus der Ferne erkennbar waren.
Bei späteren Spielegenerationen wurden zwar die Grafiken (meistens) hübscher, aber ansonsten hat sich nicht viel geändert. Besonders bei so Serien wie Battlefield & Co.
Bei den Bootzeiten will ich mal nicht pauschal widersprechen, offenbar wächst der Aufwand um ein System zu starten genau so schnell wie die verfügbare Leistung.
Nein, sondern es kommt immer mehr Funktionalitaet dazu, die im Grunde keiner braucht. Noch dazu sind die Implementierungen schlecht. Coreboot war schon vor x Jahren viel schneller als Hersteller-Firmwares.
Ganon
2019-11-27, 15:48:53
Ein Mikrokernel (https://de.wikipedia.org/wiki/Microkernel)könnte da vielleicht helfen, aber der Ansatz kommt nicht so recht in die Gänge. Vielleicht auch weil kein finanzkräftiger Hersteller das Konzept ernsthaft pushen will.
Och, es sind vermutlich mehr Mikrokernel-Systeme im Einsatz als Systeme mit normalem Kernel. In jeder Intel ME, AMD PSP / ARM TrustZone, Telefon-Modems usw. usw. laufen Microkernel-Betriebssysteme.
Das Problem für die Nutzung als normales Computer-Betriebssystem ist schlicht die Performance und der Programmieraufwand. Denn ohne entsprechend angepasste Software bringt dir der Microkernel nicht viel. In der Theorie hat natürlich ein Microkernel verdammt viele Vorteile, in der Praxis stürzt aber auch nicht alle Nase lang das halbe OS ab.
Einzig die (Android-)Smartphones sehe ich als Kandidaten für so einen Umstieg, wegen der ganzen Update-Problematik. Je nachdem was Google so mit Fuchsia vor hat.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.