Archiv verlassen und diese Seite im Standarddesign anzeigen : NTFS Kompression
Da ich ständig tonnenweise von Informationen auf der Platte habe, seien es nun Bilder, Audio, Video, Textdateien, Programme, Treiber, Patches habe ich mich gefragt, ob es nicht sinnvoll ist, die NTFS Kompression zu aktivieren?
Spart das wirklich Platz? Wie gut ist denn die Kompression zu Programmen wie .ace oder .rar?
Gibt es noch andere Tools, die eine "on the fly" kompression ermöglichen, ohne das man jedes mal manuell dafür sorgen muss, das die dateien ausgepackt werden?
Die Kompression ist genau so gut wie das was Du reintust.
Sprich Datein wie Texte lassen sich prima komprimieren, jpg oder avis dagegen werden größer weil sie an sich ja schon ein komprimiertes Format haben...
Das ist eigentlich nicht die Art Antwort, die ich haben wollte.
Ich wollte eher wissen, wie gut sich die NTFS Kompression gegenüber normalen Packprogrammen schlägt und wie es dann mit der CPU Belastung aussieht.
Ich sehe darin keinen Sinn. Programme, Treiber und Patches hast du bestimmt als "Installexes", schon komprimiert oder als Selbstentpackende. Das ist halt schon allles vorkomprimiert. Bilder, wenn nicht RAW und ähnliches, sind ebenfalls komprimiert (durch die Formate). Audio und Video ebenfalls.
Was bleibt sind MS-Office Dokumente und Readmes ;) PDF ist komprimiert.
Falls du dadrin öftersmal rumwühlst, empfehlt sich eigentlich ein Dateimanager. TotalCommander 6.5x. Der kan einen Haufen dekomprimieren. Behandelt Archive wie Ordner. Sauschnell. Für den gibt es auch einen affenstarken 7-zip Plugin. 7-zip muß nicht mal installiert werden. Damit kann man auch *.7z Archive wie Ordner behandeln. Und "zur Not" auch SICHER verschlüßeln http://www.totalcmd.net/plugring/7zip_plugin.html
Empfohlene Einstellungen (wie bei 7-zip selbst) Maximum, LZMA, 8MB, 64, create solid archives.
Die Komprimierung von NTFS bringt eigentlich nur etwas für \Windows, \Programme (sinngemäß) und \Dokumente und Einstellungen. Also eben da wo es den meisten alleine nur auf den Speed ankommt ;)
1: schlechter. 2: schlecht.
... aber Dateien die mit RAR oder 7-Zip gepackt wurden, brauchen ne halbe Ewigkeit, zum entpacken, besonders wenn es sich um Archive mit mehreren Gigabyte Größe handelt.
Deshalb will ich wissen, wie gut die NTFS Kompression ist. Da die mit sicherheit auf praxiseinsatz optimiert wurde, wird deren kompression eher schlecht sein, aber dafür halt schnell...
Ich bräuchte so ne Art vergleichstest mit verschiedenen Arten von programmen
z.B. Ordner von Open Office
gepackt mit RAR: 80%
gepackt mit ZIP: 45%
gepackt mit NTFS: ? %
Ich habe alles mögliche rumfliegen, auch 25 MB BMPs.
Außerdem glaube ich nicht, das jede Datei gleichermaßen gut komprimiert ist, also MPEG2 eher schlechter, als DivX oder so ...
Du hast einzelen Dateien die mehrere GBs sind? Dann gehe ich pennen. Bin überfragt.
mofa84
2006-11-04, 03:03:31
Filme, Bilder (außer BMP) und Audio (außer WAV) kannste dir sparen zu komprimieren.
Bei mir sind der der Programme-Ordner und teilweise Windoof-Ordner komprimiert.
Hier ein paar Beispiele:
Probleme hattest du damit bisher keine?
Stellt sich auch kein Programm quer, wenn die Dateien mal komprimiert sind?
Nur eines macht mir sorgen: Ist die wahrscheinlichkeit, Dateien bei einem Absturz zu verlieren höher, wenn die kompression an ist?
mofa84
2006-11-04, 03:56:53
nein, das ist schon extra so gemacht dass es keine Probleme gibt (obwohls von M$ ist).
Probleme kannste nur kriegen wenn du mit UPX oder was ähnlichem packst.
also die Kompression von NTFS kann von der Größe nicht mit zip, rar oder ace mithalten. Es hat aber den Vorteil dass eben jedes programm ganz normal auf die Daten zugreifen kann. Und bisher habe ich noch keinerlei Geschwindigkeitsverlust beim laden oder Datenzugriff gemerkt. Und verloren ging auch noch nie etwas. Das einzige was man nach dem komprimieren tun sollte ist defragmentieren, weil Windows hat's einfach nich drauf die Dateien intelligent auf dem Datenträger zu verteilen ;D
mofa84
2006-11-04, 04:08:33
Und bisher habe ich noch keinerlei Geschwindigkeitsverlust beim laden oder Datenzugriff gemerkt.wenn dann sollte es auch schneller werden... :redface:
wenn dann sollte es auch schneller werden... :redface:
Yo!
Das Komprimieren bzw. Schreiben dauert vielleicht etwas länger. Aber das Entpacken ist laufzeitoptimiert und die Festplatte hat weniger zu tun.
Gast@Gast :up:
Außer BMP und WAV sind die meisten anderen Dateien mehr oder weniger komprimiert. Ob besser oder schlechter spielt keine Rolle, WENN man es nachträglich packen will. Es gibt für den Packer kaum was zu holen und so bleibt die Datei im besten Fall (!) gleich groß. Ein 256kbit MP3 kannst du nicht besser "nachpacken" als ein 128kbit. Genauso ein JPEG 90% und 60%. Der Packer kann da nirgendwo mehr ansetzen und NTFS kann das dann schon garnicht (!) Lohnt also nur für Office-Dokumente + HTML und Textdateien.
Gute Packer erkennen die "Extensions" und fügen solche Dateien den Archiven nur hinzu. Ohne sie erstmal durch die packengine zu jagen. Bringt ja sonst nichts nennenswertes, erhöht allgemein das erstellen der Archive ungemein. Die Progger wissen da schon genau was sie machen.
ZIP mit -6 kannst du mit 7-zip ultra noch brauchbar komprimieren, aber solche Fälle sind eher selten. Dann entweder zip -9 oder das ganze gleich mit 7z packen. Unsinn also (imho).
Du brauchst auch nicht dies oder jedens glauben, sondern mit RAR oder 7-zip selbst versuchen eine mpeg2 und eine divx Datei zu packen. Bisschen Eigeninitiative sollte schon sein ;)
Yo!
Das Komprimieren bzw. Schreiben dauert vielleicht etwas länger. Aber das Entpacken ist laufzeitoptimiert und die Festplatte hat weniger zu tun.Aber nicht die CPU. Kann also auch passieren, daß schnelleres Lesen das Entpacken nicht aufwiegt. Laufzeitoptimiert hin oder her.
mofa84
2006-11-04, 17:12:02
das entpacken geht sowas von schnell, das juckt bei den heutigen Prozessoren absolut gar nicht mehr!
Müßen wir jetzt über "heutige Prozessoren" reden, damit du unbeidngt Recht behälst?
mofa84
2006-11-04, 19:21:48
Müßen wir jetzt über "heutige Prozessoren" reden, damit du unbeidngt Recht behälst?nein, da dürfte ein P3 auch schon reichen.
Bei NTFS, nicht zwangsläufig beim UPX. NTFS scheint mir aber eh nicht das richtige für ihn zu sein. Nun. Egal :)
mofa84
2006-11-04, 22:21:04
Bei NTFS, nicht zwangsläufig beim UPX. NTFS scheint mir aber eh nicht das richtige für ihn zu sein. Nun. Egal :)Was ist das jetzt bitte für ne Antwort und auf was bezieht sich die überhaupt?
Was soll er bitte sonst unter Windoof nehmen? FAT? Oder auch wenn nicht möglich ext2? :|
san.salvador
2006-11-04, 23:07:53
So, ich hab das jetzt mal bei mir ausprobiert.
Allerdings kann ich die Komprimierung nur bei 3 von 5 Partitionen auswählen, bei den anderen beiden ist die Option nicht verfügbar. Sie sind nicht auf einer selben Festplatte und NTFS sind sie auch ganz sicher. Wie kann ich auch diese zwei Partitionen komprimieren?
Was ist das jetzt bitte für ne Antwort und auf was bezieht sich die überhaupt?
Was soll er bitte sonst unter Windoof nehmen? FAT? Oder auch wenn nicht möglich ext2? :|NTFS als Packer. Mann. Bist du so einer der durch ein fehlendes Koma ganze Absätze nicht verstehen kann?
@san.salvador
Das reicht doch erstmal um paar Erfahrungsberichte zu liefern ;)
mofa84
2006-11-05, 00:23:26
NTFS als Packer. Mann. Bist du so einer der durch ein fehlendes Koma ganze Absätze nicht verstehen kann?
@san.salvador
Das reicht doch erstmal um paar Erfahrungsberichte zu liefern ;)
Bei NTFS, nicht zwangsläufig beim UPX. NTFS scheint mir aber eh nicht das richtige für ihn zu sein.
Ich kann keine Sätze verstehen bei denen sowohl der Bezug als auch der Sinn fehlen.
NTFS ist ein Dateissystem, UPX ein Komprimierungstool für ausführbare Dateien und DLLs - was ist das für ein Vergleich?
Gepackt wird bei NTFS mit Cabinet, und eine Alternative dazu gibt es nicht (zumindest keine, die dasselbe macht).
Was soll also die Behauptung dass NTFS nicht das richtige sein soll?
The Cell
2006-11-05, 00:33:14
http://www.findapp.com/fMgmt/PDetails.aspx?PID=20999
Hier, ein Tool, das mitunter nützlich sein kann, wenn man Größen bei der NTFS Kompression vergleichen möchte.
Gruß,
QFT
san.salvador
2006-11-05, 01:01:59
NTFS als Packer. Mann. Bist du so einer der durch ein fehlendes Koma ganze Absätze nicht verstehen kann?
@san.salvador
Das reicht doch erstmal um paar Erfahrungsberichte zu liefern ;)
C: wurde ca. 15% kleiner ohne Geschwidigkeit zu verlieren. Deshalb würd ichs ja gern auf meine Spielepartiton anwenden, aber es geht irgendwie nicht.
http://img223.imageshack.us/img223/4126/bild1or4.png (http://imageshack.us)
Wie kann ich auch die Partition komprimieren?
mofa84
2006-11-05, 01:07:45
ist nur ein Vermutung, aber vielleicht ist da irgendwas drauf, was nicht komprimiert werden soll/darf?!
Kannst du die einzelnen Ordner darauf komprimieren?
san.salvador
2006-11-05, 01:09:14
Nein, einzelne Ordner gehen nicht.
ABer ich glaub ich hab das Problem gefunden. Diese beiden Partitionen haben eine Clustersize von 8kb statt der 4kb, die bei WinXP Standard sind. Ich pass das mal eben an und schau dann weiter.
€dit: Bingo, das wars. Bin ich gut... :D
@mofa
Ja siehste. Jetzt haben wir es. Cabinet. Jetzt sind alle glücklich und wir beide auf jeden Fall fertig.
@san.salvador
Es gab irgendwelche Restriktionen für die Komprimierung. Kann mich nur nicht dran erinnern. Habe erwartet lokadamus weiß es aus dem FF ;) Ich glaub, wenn Verschlüßelung benutzt wird, dann kann man ganze Partition nicht auch noch komprimieren. Mein ich jedenfalls. Oder Indizierung, aber das glaub ich eher weniger.
Bravo! Oder die Clustergröße :up: Wie kommt man auf 8 KB Cluster?
mofa84
2006-11-05, 01:16:33
Wie kommt man auf 8 KB Cluster?kann man beim Formatieren auswählen.
Sorry. Habe mich wieder falsch artikuliert. Ich meinte wie man darauf und nicht dazu kommt. Danke mofa :uclap:
san.salvador
2006-11-05, 01:22:37
Ich habs vorhin mitm Partition Magic auf 8 kb gestellt, weil ich mir für die Spielepartition etwas mehr Speed erhofft hab. War aber nicht zu spüren, kann man sich also sparen denk ich.
So siehts jetzt auf c: aus:
http://img237.imageshack.us/img237/1499/bild1sq4.png (http://imageshack.us)
Sind also doch so 30% ersparnis, net schlecht.
Die Partition war davor mit O%O Defrag komplett defragmentiert und danach komplett fragmentiert - wenn man das nicht behebt kann das dann sehrwohl Geschwindigkeit kosten.
Cool. Die frage wäre nur, ob das den Threadstarter weiter bringt. auch die 30% kann er sich mit dem Anteil von "vorgepackten" Dateien leider knicken.
san.salvador
2006-11-05, 01:26:57
Ich bin gerade dabei meine Spielepartition umzustellen, in O%O Defrag kann man sehr gut sehen wie weit WinXP schon ist. Blau ist gut, rot ist schlecht. :D
http://img223.imageshack.us/img223/3453/bild1oo4.th.png (http://img223.imageshack.us/my.php?image=bild1oo4.png)
san.salvador
2006-11-05, 01:30:15
Cool. Die frage wäre nur, ob das den Threadstarter weiter bringt. auch die 30% kann er sich mit dem Anteil von "vorgepackten" Dateien leider knicken.
Das stimmt. Ich habs auch mit e: probiert, da liegen Musik, Fotos und runtergeladenes (also meist .rar, .zip oder andere gepackte Sachen) rum. Brachte nichtmal 1%.
hmm, aber ihr habt alle so standardmäßige partitionen... ich dachte da eher an zwei 300 GB Partitionen und 800 GB insgesamt. ;D
Laut defrag ist die durchschnittliche Dateigröße etwa 25 MB, bei mindestens 12000 Dateien pro Partitionen.
Was passiert denn, wenn die Platte bis zum Rand voll ist, durch komprimierung mehr platz ist und weitere dateien draufgeschrieben werden? Wo werden die dateien dann entpackt?
san.salvador
2006-11-05, 02:04:12
So siehts bei der Spielepartition nun aus.
http://img188.imageshack.us/img188/6163/bild1ji9.png (http://imageshack.us)
Besonders der Steamordner hat gut mitgespielt, von 9,1 Gib auf 6,6 Gib.
Die Partition ist jetzt übrigens zu 82% fragmentiert, vorher warens 0%: :ugly:
Darque
2006-11-05, 09:24:44
hmm, aber ihr habt alle so standardmäßige partitionen... ich dachte da eher an zwei 300 GB Partitionen und 800 GB insgesamt. ;D
Laut defrag ist die durchschnittliche Dateigröße etwa 25 MB, bei mindestens 12000 Dateien pro Partitionen.
Was passiert denn, wenn die Platte bis zum Rand voll ist, durch komprimierung mehr platz ist und weitere dateien draufgeschrieben werden? Wo werden die dateien dann entpackt?
Die geladenen komprimierten Daten werden im Arbeitsspeicher entpackt. Wenn die nochmal auf die HD geschrieben werden, wäre es ja sonst ziemlich Schwachsinnig die Komprimierung überhaupt zu aktivieren.
Ich habe jetzt nicht mit der Stoppuhr gemessen, aber meine kurz getesteten Spiele (BF2, Dark Messiah, UT2k4 und WoW) mit der Komprimierung laden nun noch einen Tick schneller - mit der Raptor 150er. In Windows habe ich ansonsten keinen unterschied bemerkt.
Auf meine Datastore HDs mit 2x 250GB werde ich das später nochmal nachtesten. Das Komprimieren dort dauert extrem Lange. ~11 Stunden wird gerade als verbleibende Zeit angezeigt *hust* - sind aber wohl im Endeffekt mehr Stunden.
Nach der Komprimierung muss man natürlich unbedingt Defragmentieren.
mofa84
2006-11-05, 11:47:37
Der Sinn war ja auch nie, dadurch schneller zu werden, sondern halt der Platz, der früher noch nicht nahezu unbegrenzt und billig war wie heute.
alpha-centauri
2006-11-05, 12:56:53
Die Kompression ist genau so gut wie das was Du reintust.
Sprich Datein wie Texte lassen sich prima komprimieren, jpg oder avis dagegen werden größer weil sie an sich ja schon ein komprimiertes Format haben...
ist sehr gut. darfst dir halt kein zip oder rar vorstellen, aber es läuft flott. ich nutz es aber idr. wenig, da ich mir lieber ne flotte platte kaufe. wo es gut ist, sind z.B. mini images von spielen, oder p2p-temp-dateien. oder halt sonstiger kram, der einfach nur doof platz belegt, sich aber gut komprimieren laesst.
Die geladenen komprimierten Daten werden im Arbeitsspeicher entpackt. Wenn die nochmal auf die HD geschrieben werden, wäre es ja sonst ziemlich Schwachsinnig die Komprimierung überhaupt zu aktivieren.
Und wie soll das bitte gehen?
Einfaches Beispiel: 100 GB Partition, 99,9GB voll (unkomprimiert), komprimiert 89,9 GB. Jetzt packe ich noch ein zusätzliches 10 GB File drauf (geht das überhaupt) und möchte dann, obwohl auf der Platte nur noch 100 MB frei sind und nur 2 GB Arbeitsspeicher verbaut sind, ein 4 GB file nutzen, was auf dieser Partition liegt!????
Kinehs
2006-11-06, 00:08:42
... aber Dateien die mit RAR oder 7-Zip gepackt wurden, brauchen ne halbe Ewigkeit, zum entpacken, besonders wenn es sich um Archive mit mehreren Gigabyte Größe handelt.
Deshalb will ich wissen, wie gut die NTFS Kompression ist. Da die mit sicherheit auf praxiseinsatz optimiert wurde, wird deren kompression eher schlecht sein, aber dafür halt schnell...
Ich bräuchte so ne Art vergleichstest mit verschiedenen Arten von programmen
z.B. Ordner von Open Office
gepackt mit RAR: 80%
gepackt mit ZIP: 45%
gepackt mit NTFS: ? %
Ich habe alles mögliche rumfliegen, auch 25 MB BMPs.
Außerdem glaube ich nicht, das jede Datei gleichermaßen gut komprimiert ist, also MPEG2 eher schlechter, als DivX oder so ...
Also Systemdateien, Texte (HTML, Office...), unkomprimierte Bilder, Videos und Musik können sehr gut bis mittelmäßig komprimiert werden. Bei schon komprimierten Material (JPG, MPEG, DIVX, MP3) lassen sich maximal ein paar Prozent erzielen. Probier das doch mal mit ZIP, RAR unter schlechter, normaler und maximaler Kompression.
Du hast recht, bei MPEG1 oder MPEG2 kannst du ein paar Prozent mehr als bei MPEG4 rausholen.
Wenn du viele Dateien in einer komprimierten Datei hast (RAR,7Z), dann rate ich dir, nicht die SOLID Kompression zu verwenden, ansonsten brauchst du wirklich Ewigkeiten, wenn du mal eine Datei aus dem Archiv willst.
NTFS Kompression ist bestimmt das einfachste, wenn du es unter Windows im laufenden Betrieb hernehmen willst und immer mit den entsprechenden Dateien arbeitest.
Kinehs
2006-11-06, 00:11:26
Und wie soll das bitte gehen?
Einfaches Beispiel: 100 GB Partition, 99,9GB voll (unkomprimiert), komprimiert 89,9 GB. Jetzt packe ich noch ein zusätzliches 10 GB File drauf (geht das überhaupt) und möchte dann, obwohl auf der Platte nur noch 100 MB frei sind und nur 2 GB Arbeitsspeicher verbaut sind, ein 4 GB file nutzen, was auf dieser Partition liegt!????
naja dann würde er wohl swappen und versuchen die Datei auszulagern, wenn du eine 10GB Datei in den Hauptspeicher laden würdest.
Mit einer Fehlermeldung würde er dann abbrechen.
Das würde er aber auch ohne Kompression tun, wenn du versuchst, 10GB in den Speicher zu laden und dein SWAPfile es nicht mitmacht.
mofa84
2006-11-06, 01:27:22
Und wie soll das bitte gehen?
Einfaches Beispiel: 100 GB Partition, 99,9GB voll (unkomprimiert), komprimiert 89,9 GB. Jetzt packe ich noch ein zusätzliches 10 GB File drauf (geht das überhaupt) und möchte dann, obwohl auf der Platte nur noch 100 MB frei sind und nur 2 GB Arbeitsspeicher verbaut sind, ein 4 GB file nutzen, was auf dieser Partition liegt!????Hallo? Was ist das wieder für ein hergezaubertes Beispiel?
Das Beispiel ist zwar praktisch möglich, aber wer sowas macht, sollte seinen PC verkaufen!
naja dann würde er wohl swappen und versuchen die Datei auszulagern, wenn du eine 10GB Datei in den Hauptspeicher laden würdest.
Ja, eben, aber bei 1-2 GB RAM und ne Auslagerungsdatei von max. 1-2 GB Größe, wäre das nicht möglich, die Datei jemals zu entpacken.
Außerdem denke ich nicht, das komprimierte Dateien vollständig in den Arbeitsspeicher geladen werden. Wo gibts denn sowas?
Wenn du eine CD oder DVD von der Platte mountest, also benutzt, wird sie ja auch nicht vollständig in den Speicher geladen,sondern bleibt auf der Platte. Aber in dem geschilderten Fall bei NTFS müsste sie entpackt werden, weil sonst kein Zugriff erfolgen kann...
Hallo? Was ist das wieder für ein hergezaubertes Beispiel?
Was ist daran hergezaubert? Das wäre die gängige Verfahrensweise.
Ich komprimiere um Platz zu sparen oder mehr speichern zu können. Das ist, nennen wir es mal, NORMAL! ;D
Das Beispiel ist zwar praktisch möglich, aber wer sowas macht, sollte seinen PC verkaufen!
Kannst du uns auch erklären warum?
Ein Punkt spricht sehr stark für die Kompression: Dadurch, das die Dateien insgesamt weniger Platz auf der Platte belegen, erhöht sich der Durchsatz.
Bei einer normalen Festplatte nimmt die Datenrate vom anfang bis ende stetig ab (z.B. von 80MB/s auf bis zu 45 MB/s).
Wenn die Platte 100% voll wäre, mit komprimierung jedoch nur noch 80%, so wären die letzten 20% (die langsamsten) frei und die Datentransferrate ist höher. Natürlich nur nach Defragmentierung, denn die sorgt dafür, das die Daten auf dem schnellsten Teil der Platte gelagert werden.
Dann noch der zweite bekannte Punkt: Dateien die komprimiert sind, sind insgesamt schneller lesbar, weil weniger Daten in selber Zeit von der Platte gelesen werden müssen, Nachteil ist natürlich höhere CPU Last, wobei hier Dual Core oder Quad Core schon wieder für abhilfe sorgen...
Alles in allem eine sehr gute Idee, muss ich sagen. Die Kompressionsrate lässt jedoch zu wünschen übrig. Ich hoffe darauf, das zukünftige NTFS Versionen bessere Algorithmen einsetzen, was dank immer schnellerer Prozessoren auch kein Problem darstellen sollte.
Kurzer Praxistest:
Eine Datei mit RAR auf höchster Kompressionstufe gepackt.
Danach NTFS Kompression an: Datei wurde um einige KB kleiner.
Ich vermute, das nicht die Datei selbst, sondern auch die Dateiinformationen (z.B. Die Datumsangaben für "Erstellt", "Geändert" oder "Letzter Zugriff" komprimiert wurden).
Die Windows XP CD ist sogar (als image) um 28 MB kleiner geworden.
StefanV
2006-11-06, 03:55:29
Das ist eigentlich nicht die Art Antwort, die ich haben wollte.
Ich wollte eher wissen, wie gut sich die NTFS Kompression gegenüber normalen Packprogrammen schlägt und wie es dann mit der CPU Belastung aussieht.
Schlägt sicht ziemlich bescheiden.
Ein Extrembeispiel sind Transportgigant Saves:
Von ~10MB schaffts NTFS Kompression vielleicht auf 5MB, maximal.
WinRAR schafft das ganze auf 1MB (oder weniger) zu packen.
Der Grund dafür liegt in der Geschwindigkeit. Da bei der NTFS-Kompression alles "on the fly" passiert, kann man nicht mit Algorithmen arbeiten die für ein paar Megabyte 1-2 Minuten brauchen...
Ich glaube, das wissen wir alle.
Aber die "Geschwindigkeit" bleibt nicht konstant. Als Microsoft dieses System einführte (mit Win 2000 oder XP), das war 2001 oder noch früher, da gabs ganz andere Hardware als heute.
Für Vista ist es wohl schon zu spät, aber warum kein verbessertes Dateisystem im Vista Nachfolger? Schnellere CPUs bedeuten auch mehr Reserven für die Kompression...
mofa84
2006-11-06, 09:07:41
Was ist daran hergezaubert? Das wäre die gängige Verfahrensweise.
Ich komprimiere um Platz zu sparen oder mehr speichern zu können. Das ist, nennen wir es mal, NORMAL! ;D
Kannst du uns auch erklären warum?10GB Dateine hat man als Privatanwender ausschließlich beim Videoschnitt behaupte ich mal - wer da Kompression einschaltet sollte seinen PC verkaufen und sich erstmal ein Buch für Noobs kaufen!
Außerdem hat man dann idR keinen schlechten PC und sollte auch das Geld für Festplatten haben.
Andere Möglichkeit wäre, ständig DVD-Images zu machen, und da gilt wieder der Satz von grad eben.
10GB Dateine hat man als Privatanwender ausschließlich beim Videoschnitt behaupte ich mal - wer da Kompression einschaltet sollte seinen PC verkaufen und sich erstmal ein Buch für Noobs kaufen!
Außerdem hat man dann idR keinen schlechten PC und sollte auch das Geld für Festplatten haben.
Andere Möglichkeit wäre, ständig DVD-Images zu machen, und da gilt wieder der Satz von grad eben.
Wo besteht der Zusammenhang?
Das Beispiel ließe sich beliebig auch mit 4, 2, 1 GB große Dateien fortführen... und die sind alles andere als unnormal.
Warum sollte jemand, der versucht alle ressourcen ausnutzen, "dümmer" sein, als jemand, der dies nicht tut und stattdessen viel mehr Geld in - in diesem Fall - überflüssigere weitere Platten zu investieren?
Und was ist bitte an Dateien die größer als 4 GB sind unnormal? Schon das Backup der privaten Daten kann mal lockere, 10, 20 GB verschlingen, als Archiv wohlgemerkt. Nebenbei noch hier und da ein paar aufgenommene Videos, selbst das tun Privatanwender heute schon ziemlich oft, dafür braucht es keinen High End PC, der Pentium 4 mit 3,2 ausm ALDI tuts ausreichend gut.
Und wie soll das bitte gehen?
Einfaches Beispiel: 100 GB Partition, 99,9GB voll (unkomprimiert), komprimiert 89,9 GB. Jetzt packe ich noch ein zusätzliches 10 GB File drauf (geht das überhaupt) und möchte dann, obwohl auf der Platte nur noch 100 MB frei sind und nur 2 GB Arbeitsspeicher verbaut sind, ein 4 GB file nutzen, was auf dieser Partition liegt!????
Die Dekomprimierung erfolgt ja on-the-fly. Das ist ohne weiteres möglich.
mofa84
2006-11-06, 16:30:39
Wo besteht der Zusammenhang?
Das Beispiel ließe sich beliebig auch mit 4, 2, 1 GB große Dateien fortführen... und die sind alles andere als unnormal.
Warum sollte jemand, der versucht alle ressourcen ausnutzen, "dümmer" sein, als jemand, der dies nicht tut und stattdessen viel mehr Geld in - in diesem Fall - überflüssigere weitere Platten zu investieren?
Und was ist bitte an Dateien die größer als 4 GB sind unnormal? Schon das Backup der privaten Daten kann mal lockere, 10, 20 GB verschlingen, als Archiv wohlgemerkt. Nebenbei noch hier und da ein paar aufgenommene Videos, selbst das tun Privatanwender heute schon ziemlich oft, dafür braucht es keinen High End PC, der Pentium 4 mit 3,2 ausm ALDI tuts ausreichend gut.ja, alles klar!
20GB Archiv auf eine komprimierte Partition! - bringt ja dann extrem viel, die Kompression! Ebenso beim Video!
Und ein Backup so zu machen ist ja äußerst sinnvoll und sicher! :biggrin:
20GB Archiv auf eine komprimierte Partition! - bringt ja dann extrem viel, die Kompression! Ebenso beim Video!
Ähm, falsch verstanden, was?
Wer redet von einer komprimierten Datei oder Partition? Man braucht eine Partition nicht komplett komprimieren, man kann auch nur einzelne Ordner komprimiert lassen und Videos, Archive außen vor lassen. Das löst das hier dargestellte Problem aber trotzdem nicht. Ich frag mich immer noch, wie bei einer vollen Platte, dann die daraufliegenden files dekomprimiert werden können, vorallem wenn diese die größe des Arbeitsspeichers und des virtuellen Speichers übersteigen!
Und ein Backup so zu machen ist ja äußerst sinnvoll und sicher! :biggrin:
Sag mal, stellst dich nur so an, oder bist Du so komisch drauf?
Natürlich ist so ein Backup sinnvoll, warum auch nicht??? Stell dir vor, es gibt Leute mit mehreren Platten im Rechner... :eek:
Weitere Erfahrungswerte:
MPEG1
vorher: 1,25 GB (1.346.104.306 Bytes)
nachher: 1,24 GB (1.334.852.608 Bytes)
Sind immerhin über 10 MB, kein Unterschied beim anschauen feststellbar (öffnet genauso schnell).
ICQ Datenbank (Text)
vorher: 90,9 MB (95.410.031 Bytes)
nachher: 34,8 MB (36.586.352 Bytes)
Erstaunlicherweise ist die Kompression hier ziemlich hoch, obwohl die Dateien vorher mit dem ICQ Datenbank-Programm bereits komprimiert wurden. :eek:
Spiele:
vorher: 3,41 GB (3.672.193.024 Bytes)
nachher: 1,03 GB (1.114.814.464 Bytes)
Da muss wohl ein Stümper am Werk gewesen sein :-)
vorher: 3,50 GB (3.763.820.544 Bytes)
nachher: 3,45 GB (3.709.634.048 Bytes)
vorher: 3,67 GB (3.947.614.208 Bytes)
nachher: 2,73 GB (2.939.725.824 Bytes)
Bei vielen Musikdateien (vorkomprimiert) konnten insgesamt ~160 MB gewonnen werden, bei Videodateien (MPEG1, DivX, WMV gemischt) sogar etwa ~380 MB! :eek:
Ein merkwürdiges Verhalten konnte ich jedoch festellen: Beim Komprimieren der Ordner lag die CPU Auslastung bei Konstant ~20%.
Die Festplatte scheint auch nicht limitiert zu haben, weil ich simultan mehrere Ordner komprimiert habe, die geschätzte Zeit sich bei allen aber nicht geändert hat!?
Wo lag der Flaschenhals?
Auch beim öffnen von Dateien ist keine volle CPU Auslastung zu sehen. So wie ich das sehe, empfiehlt sich die NTFS Kompression eigentlich immer! Nur bei Ordnern mit *.rar, *.ace, *.7z würde ich sie nicht aktivieren, da bringts zwar auch jeweils etwa 20-80 Kilobyte, aber das lohnt den Aufwand (Wartezeit beim packen) halt nicht.
LordDeath
2006-11-06, 23:50:21
vollständig komprimierte laufwerke fragmententieren deutlich schneller. einige nfts files hatten nach einigen wochen über 5000 fragmente...
Kinehs
2006-11-07, 06:49:10
Ein merkwürdiges Verhalten konnte ich jedoch festellen: Beim Komprimieren der Ordner lag die CPU Auslastung bei Konstant ~20%.
Weil du nebenbei noch arbeiten willst? :)
Weil du nebenbei noch arbeiten willst? :)
Nein!?
Wenn ich ne Platte *manuell* komprimiere, also selbst den Befehl dazu gebe, soll er gefälligst so schnell wie möglich machen und nicht mit 20 % Auslastung, wodurch es 5x mal länger dauert und der Computer noch längere Zeit unnutzbar ist...
mofa84
2006-11-07, 16:51:40
vielleicht ist die Kompression so schwach dass sie schneller ist als die Platte?
vielleicht ist die Kompression so schwach dass sie schneller ist als die Platte?
Das würde aber der Aussage widersprechen, das ich 4 Ordner gleichzeitig komprimieren kann, ohne das die Zeit für jeden einzelnen Vorgang nach oben schnellt.
Bei der on the fly Kompression mag so ne Begrenze noch sinnvoll sein, aber bei der manuellen Kompression? Stellt euch mal vor, WinRAR arbeitet immer nur mit 10 % Kompression, da würdet ihr in Jahren niemals fertig werden mit den Archiven. ;)
mofa84
2006-11-07, 17:22:23
Ich schätze mal dass Windows wurst ist, warum es komprimiert, es wird immer otf gemacht.
Es handelt sich immer noch um ein Dateisystem, nicht um ein Archivierungsprogramm!
Dass die Auslastung absichtlich so niedrig ist, damit man noch arbeiten kann, war nämlich auch schon mein Gedankengang.
LordDeath
2006-11-07, 19:57:13
...ohne das die Zeit für jeden einzelnen Vorgang nach oben schnellt...
diese anzeigen sind sehr ungenau und passen sich erst nach einiger zeit langsam an die neuen umstände an. vier komprimierungen auf einmal dauern auf jeden fall auch hier länger! hörst du deine platte gut rattern, dann ist sie auch ausgelastet.
Sie ratterte nicht, das ist es ja, was ich damit meinte. Und ich hatte alle 4 Dialoge im Blickfeld, hat sich nichts geändert. Die Zeit wurde sogar nach unten korrigiert.
Das komprimieren einer Datei von CD Größe hat auch viel zu lange gedauert (ich schätze 40 sekunden), als das die Festplatte dort limitiert.
Einen Nachteil habe ich aber gefunden: Defragmentieren dauert beim ersten mal sehr lang... ;-)
20 % erst nach fast einer Stude... okay, ist zwar ne 300 GB partition aber normal sind 20 minuten max. :)
Er defragmentiert immer noch, jetzt sinds 37%. Welch ein Wahnsinn :-)
Darque
2006-11-08, 08:23:32
*Update*
So, nach knapp 3 Tagen ist alles umgestellt.
Das Umstellen der 150GBer Raptor ging ziemlich fix, aber die anderen 2 Festplatten mit jeweils 250GB haben die meiste Zeit gefressen. Das Komprimieren und nachfolgende Defragmentieren in O&O mit Complete/Name hat insgesamt ~55 Stunden gedauert.
Es wäre daher am besten, die Komprimierung bei leeren Festplatten/Partitionen von beginn an zu aktivieren.
Ich habe im Windows Betrieb nach der Komprimierung doch eine Leistungssteigerung bemerkt.
So gut wie jedes installierte Programm startet nun schneller (Photoshop, Cubase SX, Premiere Elements, Mailclienten mit mehreren hunderten MB Archiven etc.), trotz der Raptor gings noch schneller.
Die Prozessor/Rambelastung und Zugriffszeit hat sich nicht verändert - weder Spürbar noch Messbar.
Kann aber auch am Dualcore und schnellem Ram liegen, dass da keine Unterschiede auszumachen waren.
Klar, bei Videos oder Imagedaten wird das nichts bringen, aber man hat auch keine Nachteile.
Ich werde die Komprimierung erstmal lassen. Nachteile gab es bisher jedenfalls überhaupt keine - nur Vorteile. Der Fragmentierungsgrad blieb bei häufigen schreiben/löschen auch gleich.
Die Komprimierung kann evtl. bei sehr alten Prozessoren die Leistung mindern, aber bei heutigen halbwegs aktuellen Prozessoren dürfte das nicht der Rede wert sein.
Und, wer die On-The-Fly NTFS Komprimierung mit Theorie schlecht macht, sollte es vorher erstmal Praktisch testen. Das Feature wird ziemlich unterschätzt.
Vielleicht hat der eine oder andere die selbe Positive Erfahrung wie ich gemacht :-)
PS: Das soll jetzt keine verallgemeinerung sein, sondern nur ein Persönlicher Erfahrungsbericht
PSS: Wenn man die Windows Partition komprimieren will, dann sollte man das lieber im Abgesicherten Modus tun (habe ich zu spüren bekommen) - da viele dll`s und sonstige Daten in Benutzung waren/sind, die dann nicht Komprimiert werden/wurden.
mofa84
2006-11-13, 20:05:08
Was ich immer wieder krass finde, ist dass in meinem eMule-Temp-Ordner Dateien fragmiert werden, obwohl sich überhaupt nicht benutzt bzw. weiter geladen wurden. Und der Ordner ist nicht mal komprimiert.
LordDeath
2006-11-13, 22:26:01
Was ich immer wieder krass finde, ist dass in meinem eMule-Temp-Ordner Dateien fragmiert werden, obwohl sich überhaupt nicht benutzt bzw. weiter geladen wurden. Und der Ordner ist nicht mal komprimiert.
schau mal unter emule bei options --> extended --> create new part files as 'sparse' (ntfs only)
das fragmentiert brutal :)
DerRob
2006-11-13, 23:50:59
Ähm, falsch verstanden, was?
Wer redet von einer komprimierten Datei oder Partition? Man braucht eine Partition nicht komplett komprimieren, man kann auch nur einzelne Ordner komprimiert lassen und Videos, Archive außen vor lassen. Das löst das hier dargestellte Problem aber trotzdem nicht. Ich frag mich immer noch, wie bei einer vollen Platte, dann die daraufliegenden files dekomprimiert werden können, vorallem wenn diese die größe des Arbeitsspeichers und des virtuellen Speichers übersteigen!
die datei wird in den arbeitsspeicher dekomprimiert, auf der festplatte liegt NUR die komprimierte version.
und wenn man eine 10gb große datei laden möchte, ist es völlig egal, ob die datei nun komprimiert ist oder nicht, man bekommt sie eh nicht komplett in den arbeitsspeicher. also werden so große dateien auch nicht komplett sondern immer nur häppchenweise geladen.
bei einer unkomprimierten datei werden also z.b. 100mb aus dieser 10gb-datei von der festplatte gelesen und in den arbeitsspeicher geschrieben. bei einer komprimierten datei werden dann beispielsweise 60 komprimierte mb von der festplatte eingelesen, (häppchenweise) von der cpu dekomprimiert und in den arbeitsspeicher geschrieben, so daß man im endeffekt die gleichen daten wie bei der unkomprimierten version im arbeitsspeicher hat. die anwendung merkt von diesem ganzen komprimieren/dekomprimieren garnix.
wenn die daten wieder auf die festplatte geschrieben werden sollen, läuft das ganze natürlich genau umgekehrt ab: die cpu fängt die datei häppchenweise ab, komprimiert diese häppchen, und speichert diese daten dann auf die platte.
mofa84
2006-11-13, 23:52:24
schau mal unter emule bei options --> extended --> create new part files as 'sparse' (ntfs only)
das fragmentiert brutal :)das hab ich eingstellt.
Aber die Datei wurde ja schon seit Wochen nicht mehr geladen :confused:
LordDeath
2006-11-13, 23:56:58
das hab ich eingstellt.
abstellen bitte :rolleyes:
mofa84
2006-11-14, 00:18:49
abstellen bitte :rolleyes:aber spart doch Platz!?
LordDeath
2006-11-14, 00:28:23
aber spart doch Platz!?
ja das, was du noch nicht runtergeladen hast, nimmt bis zum erfolgreichen download noch keinen platz ein. aber wenn du die dateien komplett runterladen willst, brauchst du am ende dennoch deren wirkliche größe. daher ist das nur verwirrend und fragmentiert die festplatte nur.
es hat schon seinen sinn, wenn filesharingprogramme den speicherplatz schon direkt beim downloadstart reservieren.
mofa84
2006-11-14, 00:32:30
hab mit meinen 100 gig im laptop sowieso ständig zu kämpfen, da kann ich das nicht auch noch deaktivieren.
da lass ich lieber ab und zu mal contig über die part-files laufen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.