ext2 Partition auf block-level kopieren

21/02/2011 - 14:01 von Peter Mairhofer | Report spam
Hi,

Ich habe derzeit eine 320GB Backupplatte auf ext2. Da oben liegen monate
alte Backups mit rsync --dest-links erstellt, d.h. mit Hardlinks verknüpft.

Rein auf die Anzahl der Dateien bezogen ist das fast unendlich viel da
es jedes Backup Verzeichnisse mit mehreren Tausend Dateien enthàlt die
nur per hardlinks verknüpft sind.

Jetzt möchte ich auf eine 2TB Platte upgraden, die Frage ist nur: Wie
bekomme ich die Daten dort hin? Klar, ein simples cp tuts nicht.

Mit rsync -H ... könnte ich zumindest die Hardlinks beibehalten. Da
diese Methode aber auf Datei-/Verzeichnisebene arbeitet benötigt der
Kopiervorgang gefühlte 2 Monate [1] (2 Tage Backup hab ich innerhalb 1
Tag "geschafft").

Zweite Möglichkeit ist ein simples "dd", das benötigt "nur" mehr 12
Stunden, allerdings ist das Dateisystem dann nur 320GB groß. Ob es
sinnvoll ist, danach mit resize2fs zu vergrößern bezweifle ich.

Ausserdem würde ich das neue FS gerne mit -O dir_index,sparse_super
erstellen.

Gibts nach nicht einen Kompromiss der das Zeug auf Blocklevel kopiert
damit man nicht ganz alt wird?

Noch einmal: Eine normale Platte kopiere ich gerne auf Dateisystemebene.
Aber in diesem Fall handelt es sich um vielleicht Millionen kleine
Dateien bzw. Links wodurch das einfach extrem ineffizient ist.


LG
Peter



[1] Leider müssen die Daten noch per USB kopiert werden - es handelt
sich um 2 externe USB Platten.
 

Lesen sie die antworten

#1 Udo Toedter
21/02/2011 - 14:43 | Warnen spam
Peter Mairhofer wrote:
Hi,

Ich habe derzeit eine 320GB Backupplatte auf ext2. Da oben liegen monate
alte Backups mit rsync --dest-links erstellt, d.h. mit Hardlinks verknüpft.

Rein auf die Anzahl der Dateien bezogen ist das fast unendlich viel da
es jedes Backup Verzeichnisse mit mehreren Tausend Dateien enthàlt die
nur per hardlinks verknüpft sind.

Jetzt möchte ich auf eine 2TB Platte upgraden, die Frage ist nur: Wie
bekomme ich die Daten dort hin? Klar, ein simples cp tuts nicht.

Mit rsync -H ... könnte ich zumindest die Hardlinks beibehalten. Da
diese Methode aber auf Datei-/Verzeichnisebene arbeitet benötigt der
Kopiervorgang gefühlte 2 Monate [1] (2 Tage Backup hab ich innerhalb 1
Tag "geschafft").

Zweite Möglichkeit ist ein simples "dd", das benötigt "nur" mehr 12
Stunden, allerdings ist das Dateisystem dann nur 320GB groß. Ob es
sinnvoll ist, danach mit resize2fs zu vergrößern bezweifle ich.



Wenn man es nicht ueber das ganze Geràt, sondern nur ueber die Partition macht,
könnte es klappen. Sollte man aber erstmal ausprobieren.

Ausserdem würde ich das neue FS gerne mit -O dir_index,sparse_super
erstellen.


das wird dann wohl nicht gehen, denn das Filesystem hat dann genau die
selben Features wie das Original. Schick wàre es gewesen, hàttest Du
das Filesystem im LVM liegen, dann wàre es nur ein
vgextend;pvmove;vgreduce gewesen.

Gibts nach nicht einen Kompromiss der das Zeug auf Blocklevel kopiert
damit man nicht ganz alt wird?


Ich denke das Problem liegt bei Dir in der Menge der Metainformationen die
in einem Direktory abgespeichert werden soll. Bei der Wahl des Filesystems
sollte das berücksichtigt werden, evtl. ist da was anderes als ext4 besser
geeignet ist.


Udo
+--+
|Udo Toedter| FSU Jena|Email: |Phone +493641940532|
| | URZ ||FAX +493641940632|
+--+

Ähnliche fragen