Dann werde ich mal beide Portionen C und D
Schaffst Du 2 Portitionen? Nicht verschlucken,langsam essen!
Schaffst Du 2 Portitionen? Nicht verschlucken,langsam essen!
Mal ein paar ganz nebensächliche Bemerkungen dazu. -
Mal ein paar ganz nebensächliche Bemerkungen dazu. -
Alle Daten werden, wenn diese auch nur gelesen, nicht einmal bearbeitet werden von der Festplatte entfernt und sogleich wieder geschrieben.
Nun aber eben nicht am selben Fleck, sondern so, wie es gerade am günstigsten erscheint.
Damit diese Daten dann wieder eine homogene Einheit bilden, werden diese am Anfang und am Ende mit Informationen versehen - der "Datenwurm" sucht sich seine Segmente also selbst.
Es sollte einleuchtend sein, je mehr Informationen existieren, desto einfacher ist es, eine dieser Informationen zu beschädigen.
Und plötzlich weiß eben so ein armseeliges Segmentchen nicht mehr, wo es hingehört und irrt weinend auf der unendlichen Festplatte herum...
Bei der Defragmentation werden nun die Teile, die Segmente wieder fein aneinandergefügt. Die nun überflüssigen Kopplungs- Informationen werden nicht mehr benötigt.
Schon wieder ein kleiner Schritt in Richtung Datensicherheit.
Solche Fehler, das ein Teilstück, ein Dateifragment seine Information verliert, tritt garnicht mal so selten auf. Die Folge ist eine Meldung, das die Datenstruktur beschädigt sei und chkdsk erforderlich sei!
Oft genug reicht nun schon vor chkdsk eine Defragmentierung aus...
Ja, und zum Image:
TrueImage erstellt ein absolut identisches Abbild = Image der gesicherten Partition. Auch hier sollte es einleuchtend sein - je mehr Informationen (=Daten) gesichert werden müssen, umso wahrscheinlicher ist ein Fehler. Nun hat TI eine eingebaute Fehlerkorrektur mit einer intelligenten Optimierung - TI erkennt, welche Daten zusammengehören und speichert diese intern, im Image zusammenhängend ab. Mit den "Kopplungs- Informationen"! Weil bei der Wiederherstellung diese so ordentlich beieinander liegenden Dateien wieder zu zerrupft werden, wie sie zuvor waren.
Überflüssige (aber notwendige) Aktivitäten, überflüssige, Performance und Zuverlässigkeit fressende Prozesse.
Muß das Imageprogramm nur die sauber daliegenden Dateien sichern, dann ist das eine sichere, eben saubere Sache.
Muß das Imageprogramm hingegen noch alle Ortsbestimmungen der verstreut liegenden Dateisegmente mit sichern, abspeichern, wird die Zuverlässigkeit sinken.
Deshalb ist eine Defragmentierung vor dem Erstellen eines Images zwingend nötig.
Und auch für andere Gegebenheiten ist das sinnvoll.
Ich habe schon einige Festplatten in der Hand gehabt, die anscheinend rettungslos abgestürzt waren. Und wichtige Daten darauf...
Ich konnte diese Daten meist zu 100% wieder herstellen. Kein Problem bei einer defragmentierten Festplatte!
Aber schon, wenn man einen Film auch nur einmal angeschaut hat, wird dieser Film nicht mehr als Stück da liegen - sondern in einer Masse von Bruchteilen.
Die sehr mühsam wieder zusammengefügt werden müssen.
Die regelmäßige Defragmentierung (Ich empfehle O&ODefrag) ist ein wichtiger Bestandteil meiner Systemhygiene.
Das Argument, oft gehört "Die Festplatte wird schnell verschlissen" ist dümmlicher Unsinn.
Zum Ersten sind Festplatten dafür ausgelegt, das man damit arbeitet. (Genau wie Schuhe - diese sind dazu da, das man darinnen herumlatscht)
Sehr viel mehr als bei der Defragmentation wird die Festplattenmechanik belastet, wenn sie in einer Tour die verstreuten Dateifragmente zusammen fügen muß.
Jürgen
[/quote
korrekte info emm noch etwas neben bei: Sollte man öffterns Defragmentieren oder reicht es einmal
korrekte info emm noch etwas neben bei: Sollte man öffterns Defragmentieren oder reicht es einmal
Denke, das war deine Frage
Man sollte öfters | regelmäßig defragmentieren !
Besonders wenn man viel aus dem Netz lädt | installiert.
Kann man aber auch "automatisieren"...genau wie den Vierenscanner.
Ich habe auch etwas "geschlammt" und gerade mit Erschrecken festgestellt, dass ich meine Datenpartition nicht mehr defragmentieren kann, da sie fast voll ist. Jetzt muss ich für mich 'ne Lösung finden.
Geli
es mit der defragmentierung überhaupt lohnt und nicht wie bei dir es wird
Jaja...wer den Schaden hat...
Bei C hab ich ja genug, nur eben nicht auf D
Es sind nur noch 4% frei...aber davon stehen nur 2% für's Defragmentieren zur Verfügung.
Zum Ausführen der Defragmentierung sind min. 15% des Speicherplatz erforderlich.
Sagt mir das Defragtool von XP. Also gar nicht so viel
Nur 2GB sind halt definitiv zuwenig
Geli
mit Partition-Manager die Partitionen ändern ???
Hallo,
Mal ein paar ganz nebensächliche Bemerkungen dazu. -
Alle Daten werden, wenn diese auch nur gelesen, nicht einmal bearbeitet werden von der Festplatte entfernt und sogleich wieder geschriebenLeider ist das nicht so!
Nun aber eben nicht am selben Fleck, sondern so, wie es gerade am günstigsten erscheint.
der "Datenwurm" sucht sich seine Segmente also selbst.
Bei der Defragmentation werden nun die Teile, die Segmente wieder fein aneinandergefügt. Die nun überflüssigen Kopplungs- Informationen werden nicht mehr benötigt.Trifft auch weitestgehend auf FAT(32) zu!
Schon wieder ein kleiner Schritt in Richtung Datensicherheit.Wie das ?
Hallo,
Und noch ein paar nebensächliche Bemerkungen!
Leider ist das nicht so!
Die Daten bleiben beim Lesen auf der Festplatte und werden wie gesagt gelesen und dabei in den Arbeitsspeicher geladen.
Sie verbleiben an genau der Stelle auf der HDD an der sie während des Schreibvorganges geschrieben wurden, also beim Erstellen oder ändern der Datei!
So ist es beim Dateisystem FAT(32) bei NTFS leider nicht so.
Das BS sucht die Dateifragmente zusammen!
Trifft auch weitestgehend auf FAT(32) zu!
NTFS ist ein Journalingfilesystem und arbeitet anders!
Besteht eine Datei vor Defragmentierung aus 50 Fragmententen, besteht die gleiche datei nach Defragmentierung immer noch aus 50 Fragmenten, allerdings in (un)güstigsten Fall aus 50 aneinander gereihten Dateifragmenten! Die da der Lesevorgang (fast) immer Blockweise erfolgt auch Nachteilig sein kann, da die Datei größer als der max. zu lesende Block ist und die Festplatte eine weitere Umdrehung braucht um die Datei zulesen.
Passt dann der dazugehörige Interleavefaktor nicht dazu wird eine weitete Umdrehung benötigt.
Wie das ?
Wenn bei NTFS steht das 10% Fragmentierung vor liegt heißt das,
nicht das 10% der Daten fragmentiert sind, sonder das 10% der vorhandenen Dateien fragmentiert sind.
Was in diesen Fall heißt das 90% der Dateien nicht fragmentiert sind
"Früher" konnte man im Defrag aber sehen , dass erst alle Teile gelesen und auf einem freien Platz zwischengelagert wurden .
Danach wurden die zusammengefassten Teile zurückgeschrieben .
Ist das wirklich heute (NTFS) anders ?
Ich hab auch geglaubt , dass der Defrag seriell sammelt und in einem Stück speichert .
Hast Du spezielle Lektüre darüber (Page/Pdf) ??
"Früher" konnte man im Defrag aber sehen , dass erst alle Teile gelesen und auf einem freien Platz zwischengelagert wurden .
Danach wurden die zusammengefassten Teile zurückgeschrieben .
Ist das wirklich heute (NTFS) anders ?
Ich hab auch geglaubt , dass der Defrag seriell sammelt und in einem Stück speichert .
Hast Du spezielle Lektüre darüber (Page/Pdf) ??
« Win XP: Win XP: free antivirus | Global(dsl anbieter) » | ||