既存のdebianパーティションをLVM on ソフトウェアRAID1へ移行した時の手順。
作業準備
移行前のディスク情報とパーティション
hda: IC35L090AVV207-0, ATA DISK drive
Using anticipatory io scheduler
ide0 at 0x1f0-0x1f7,0x3f6 on irq 14
hda: max request size: 1024KiB
hda: 160836480 sectors (82348 MB) w/1821KiB Cache, CHS=16383/255/63, UDMA(100)
/dev/ide/host0/bus0/target0/lun0: p1 p2 p3
Disk /dev/hda: 82.3 GB, 82348277760 bytes
255 heads, 63 sectors/track, 10011 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/hda1 * 1 1216 9767488+ 83 Linux
/dev/hda2 1217 1338 979965 82 Linux swap / Solaris
/dev/hda3 1339 10011 69665872+ 8e Linux LVM
bar:~$ df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/hda1 9614116 8786116 730328 93% /
tmpfs 778100 4 778096 1% /dev/shm
/dev/mapper/vol1-vmware
20642428 11677940 8754776 58% /home/vmware
/dev/mapper/vol1-annex_mirror
41284928 20437992 20427508 51% /mirror/annex
/dev/mapper/vol1-blackbox_os_mirror
6644056 32860 6543696 1% /mirror/blackbox_os
tmpfs 10240 720 9520 8% /dev
bar:/# du -s *|sort -n
0 cdrom
0 initrd.img
0 initrd.img.old
0 sys
0 vmlinuz
0 vmlinuz.old
4 initrd
4 mnt
4 srv
8 media
20 mnt2
48 lost+found
312 tmp
836 dev
3364 bin
3592 sbin
14888 opt
34244 etc
44944 root
48316 boot
200932 lib
922489 proc
1705252 var
4024076 usr
14311168 home
19983844 mirror
bar:/#
作業項目
IDE HDD2をhdcとしてセカンダリマスターで接続
RAID1の信頼性向上のため、各ディスクはプライマリマスタ/セカンダリマスタへ1台づつ接続。
非RAIDの既存ディスクから移行するため、1台づつ設定を行う。
まずはセカンダリI/Fに IC35L120AVVA07-0 (123GB) をセカンダリのマスターとして接続。
このドライブは/dev/hdcとして認識される。
KNOPPIXでブート
既存ディスクから新ディスクへパーティションを移行させるため、以降の
作業はKNOPPIX上にて作業を進める。CDドライブにKNOPPIXディスクを入れて再起動する。ちなみに使用したKNOPPIXはバージョン4.0。
データ移行の作業効率をあげるため、ブート時のプロンプトで
boot: knoppix dma noswap
として、HDDのDMAモード化とHDDスワップ使用の無効化のチートコードを指定した。
今回の作業PCがメモリ1.5Gのため noswap指定をしたが、メモリが少ない場合は指定を外した方がよいかもしれない。
KNOPPIXでLVMを有効化
KNOPPIXでブートしてさらにLVMを使えるよう設定。
LVM有効化は「KNOPPIXをLVMレスキューCDとして使う」を参考に設定。
hdcパーティション設定
追加したhdcに対してパーティションの設定を行う。RAID1+LVMの構成と
するので、RAIDパーティションとswapのみ作成。
こんな感じにしてみた。
Disk /dev/hdc: 123.5 GB, 123522416640 bytes
255 heads, 63 sectors/track, 15017 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
デバイス Boot Start End Blocks Id System
/dev/hdc1 1 32 257008+ fd Linux raid 自動検出
/dev/hdc2 33 801 6176992+ 82 Linux swap / Solaris
/dev/hdc3 802 15017 114190020 fd Linux raid 自動検出
hdcでRAID1設定(hdcのみの片肺運転)
sargeからRAID関連の設定はraidtoolからmdadmコマンドになった。
既存ドライブからデータを吸い上げるまでは片肺運転となるため、hdcのみでRAID1デバイスを作成。
今回はhdc1,hdc3をそれぞれmd0,md1としてセットアップすることに。
md0,md1デバイス設定
- RAIDデバイスの作成
「--force」 オプションはシングルでRAID1デバイスを作成するために必要
root@0[bin]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hdc1
mdadm: /dev/hdc1 appears to contain an ext2fs file system
size=120624020K mtime=Sun Oct 30 11:40:29 2005
Continue creating array? y
mdadm: array /dev/md0 started.
root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hdc3
mdadm: array /dev/md1 started.
- デバイスの定義を/etc/mdadm/mdadm.conf に追加。
DEVICE /dev/hdc1
DEVICE /dev/hdc3
- 作成したRAIDデバイスを/etc/mdadm/mdadm.conf に設定追加
mdadmコマンドで認識されたデバイス情報を確認。
root@0[~]# mdadm -E --scan
ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175
devices=/dev/hdc3
ARRAY /dev/md0 level=raid1 num-devices=1 UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757
devices=/dev/hdc1
- 確認したデバイス情報を/etc/mdadm/mdadm.conf に追加する。
root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf
- /etc/mdadm/mdadm.conf のARRAY行にauto=yesを追加
DEVICE /dev/hdc1
ARRAY /dev/md0 level=raid1 num-devices=1 auto=yes UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757
devices=/dev/hdc1
DEVICE /dev/hdc3
ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175
devices=/dev/hdc3
- 構成したmdデバイスを有効にする
mdadm --assemble --scan
root@2[~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 hdc3[0]
114189952 blocks [1/1] [U]
md0 : active raid1 hdc1[0]
256896 blocks [1/1] [U]
unused devices: <none>
root@2[~]#
</none>
LVMデバイス設定
LVMボリューム設定
- PV(物理ボリューム)設定
root@0[~]# /lib/lvm-200/pvcreate /dev/md0
Physical volume "/dev/md0" successfully created
root@0[~]# /lib/lvm-200/pvcreate /dev/md1
Physical volume "/dev/md1" successfully created
- VG(ボリュームグループ)設定
ここではsys-vg、user-vgの名前でVolumeGroupを作成した。
root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md0
/etc/lvm/backup: fsync failed: 無効な引数です
Volume group "sys-vg" successfully created
root@0[~]# /lib/lvm-200/vgcreate user-vg /dev/md1
/etc/lvm/backup: fsync failed: 無効な引数です
Volume group "user-vg" successfully created
- LV(論理的グループ)設定
root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 248M
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvroot" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvusr" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr2 -L 4G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvusr2" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvvar" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvhome" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvmware -L 20G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvvmware" created
LVMボリュームを削除したい場合は
名前を変えたいとかで削除したい場合は、lvremoveコマンドを使用する
/lib/lvm-200/lvremove /dev/vgの名前/lvの名前 # < -- 自分の場合に合わせて名前を変更してください)
最初からやり直す場合は、
- 論理ボリューム削除 (lvremove /dev/vgの名前/lvの名前)
- ボリュームグループ削除 (vgremove vgの名前)
- 物理グループ削除 (pvremove デバイス名)
の順で削除をおこなう
mdデバイスを削除したい場合は
/dev/md0を例にとると
- デバイスを停止させる
mdadm --stop /dev/md0
- デバイスを削除する
mdadm -r /dev/md0
元ディスク側のLVMボリュームを認識させる
root@2[~]# /lib/lvm-200/lvscan
inactive '/dev/vol1/vmware' [20.00 GB] inherit
inactive '/dev/vol1/annex_mirror' [40.00 GB] inherit
inactive '/dev/vol1/blackbox_os_mirror' [6.44 GB] inherit
ACTIVE '/dev/user-vg/lvusr' [4.00 GB] inherit
ACTIVE '/dev/user-vg/lvusr2' [4.00 GB] inherit
ACTIVE '/dev/sys-vg/lvroot' [248.00 MB] inherit
全てACTIVEなら次へ。
inactiveになっているボリュームがあったら、lvchangeコマンドを使用して有効化する。
root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/vmware
root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/annex_mirror
root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/blackbox_os_mirror
新たに作成したLVMボリュームをフォーマット
root@1[~]# mke2fs -j /dev/sys-vg/lvroot
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
63488 inodes, 253952 blocks
12697 blocks (5.00%) reserved for the super user
First data block=1
31 block groups
8192 blocks per group, 8192 fragments per group
2048 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729, 204801, 221185
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 21 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@1[~]# mke2fs -j /dev/user-vg/lvusr
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
524288 inodes, 1048576 blocks
52428 blocks (5.00%) reserved for the super user
First data block=0
32 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@1[~]# mke2fs -j /dev/user-vg/lvusr2
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
524288 inodes, 1048576 blocks
52428 blocks (5.00%) reserved for the super user
First data block=0
32 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 31 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@1[~]# mke2fs -j /dev/user-vg/lvvar
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
524288 inodes, 1048576 blocks
52428 blocks (5.00%) reserved for the super user
First data block=0
32 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 31 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@1[~]# mke2fs -j /dev/user-vg/lvhome
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
5242880 inodes, 10485760 blocks
524288 blocks (5.00%) reserved for the super user
First data block=0
320 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 21 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
ターゲットディスク側のLVMボリュームを/target にマウント
元ディスク側では /home以下を除いて全て単一パーティションだったため、今回 /usr /var /home を別パーティションとし、ルートパーティションのスリム化のため、/usr/share /usr/src /lib をシンボリックリンクで /usr2 パーティションに逃すことにした。
mkdir /target
mount /dev/sys-vg/lvroot /target/
mkdir /target/usr
mount /dev/user-vg/lvusr /target/usr/
mkdir /target/var
mount /dev/user-vg/lvvar /target/var/
mkdir /target/home
mount /dev/user-vg/lvhome /target/home
mkdir /target/home/vmware
mount /dev/user-vg/lvvmware /target/home/vmware
mkdir /target/usr2
mount /dev/user-vg/lvusr2 /target/usr2
cd /target
mkdir /target/home/root
ln -s /target/home/root .
mkdir /target/usr2/root-boot
ln -s /target/usr2/root-boot/ boot
mkdir /target/usr2/root-lib
ln -s /target/usr2/root-lib/ lib
mkdir /target/usr2/usr-src
ln -s /target/usr2/usr-src usr/src
mkdir /target/usr2/usr-share
ln -s /target/usr2/usr-share usr/share
mkdir /target/usr2/usr-local
ln -s /target/usr2/usr-local usr/local
root@3[target]# ls -l
合計 28
lrwxrwxrwx 1 root root 23 2005-11-02 23:17 boot -> /target/usr2/root-boot/
drwxr-xr-x 5 root root 4096 2005-11-02 23:17 home
lrwxrwxrwx 1 root root 22 2005-11-02 23:17 lib -> /target/usr2/root-lib/
drwx------ 2 root root 12288 2005-11-02 23:11 lost+found
lrwxrwxrwx 1 root root 17 2005-11-02 23:17 root -> /target/home/root
drwxr-xr-x 3 root root 4096 2005-11-02 23:17 usr
drwxr-xr-x 7 root root 4096 2005-11-02 23:17 usr2
drwxr-xr-x 3 root root 4096 2005-11-02 23:12 var
root@3[target]# ls -l usr
合計 16
lrwxrwxrwx 1 root root 22 2005-11-02 23:17 local -> /target/usr2/usr-local
drwx------ 2 root root 16384 2005-11-02 23:12 lost+found
lrwxrwxrwx 1 root root 22 2005-11-02 23:17 share -> /target/usr2/usr-share
lrwxrwxrwx 1 root root 20 2005-11-02 23:17 src -> /target/usr2/usr-src
root@3[target]# ls -l usr2
合計 40
drwx------ 2 root root 16384 2005-11-02 23:12 lost+found
drwxr-xr-x 3 root root 4096 2005-11-02 23:26 root-boot
drwxr-xr-x 2 root root 4096 2005-11-02 23:28 root-lib
drwxr-xr-x 9 root root 4096 2005-11-02 23:26 usr-local
drwxr-xr-x 258 root root 8192 2005-11-02 23:26 usr-share
drwxr-xr-x 13 root root 4096 2005-11-02 23:26 usr-src
元ディスクから新ディスクへレストア
ようやく準備が整ったので、dumpコマンドとrestoreコマンドを使ってデータ移行に入る。40分ほどで終了した。
root@2[target]# (cd /target; dump 0uf - /dev/hda1|restore rf -); \
sync;echo '**FINISHED restore /dev/hda1'>/dev/console;date>/dev/console; \
(cd /target/home; dump 0uf - /dev/vol1/annex_mirror |restore rf -); \
sync;echo 'FINISHED restore /dev/vol1/annex_mirror'>/dev/console;date>/dev/console; \
(cd /target/home/vmware; dump 0uf - /dev/vol1/vmware |restore rf -); \
sync;echo 'FINISHED restore /dev/vol1/vmware'>/dev/console;date>/dev/console;df;sync
参考URL
Debian WoodyでSoftware RAIDを使いraid1を作る
UNIX02/Install Knoppix On A Software RAID
ブートディスクをソフトウェア RAID 1 (ミラーリング) に構成する際の注意
Installing with Software RAID or LVM
[Xen-devel] Debian Sarge Root Raid + LVM + XEN install guide (LONG)
HOWTO Clone Disk Images on Linux Booted from a Network
mdadmコマンドの参考URL
- ディスクをRAIDにする
http://www.s-me.co.jp/ipnuts/ipnuts41/server/ch02s02.html - F.3. RAID ベース及びマルチパスのストレージを設定するのに mdadm を使用する
Red Hat Enterprise Linux | Red Hat Product DocumentationRed Hat Enterprise Linux | Red Hat Documentation - Sarge RAID1設定でハードディスク交換
301 Moved Permanently -
mdadm(8) ver.1.0 man page [日本語]
http://www.ioss.jp/sohodiy/mdadm8.html -
[linux-lvm] Updated lvm2create_initrd
https://www.redhat.com/archives/linux-lvm/2004-April/msg00086.html
インストールtest
Disk /dev/hda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
デバイス Boot Start End Blocks Id System
/dev/hda1 * 1 9 72261 fd Linux raid 自動検出
/dev/hda2 10 43 273105 fd Linux raid 自動検出
/dev/hda3 44 105 498015 82 Linux swap / Solaris
/dev/hda4 106 9729 77304780 fd Linux raid 自動検出
コマンド (m でヘルプ): q
root@0[~]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hda 1
mdadm: array /dev/md0 started.
root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hda2
mdadm: array /dev/md1 started.
root@0[~]# mdadm --create --auto=yes /dev/md2 --level=1 --force --raid-devices=1 /dev/hda4
mdadm: /dev/hda4 appears to be part of a raid array:
level=1 devices=1 ctime=Fri Nov 18 22:06:13 2005
Continue creating array? yes
mdadm: array /dev/md2 started.
root@0[~]# mdadm -E --scan
ARRAY /dev/md2 level=raid1 num-devices=1 UUID=2504765d:5c056d53:38089e40:77fece62
devices=/dev/hda4
ARRAY /dev/md1 level=raid1 num-devices=1 UUID=84a66c8c:cf638b9e:3d3ba46e:e2290ad9
devices=/dev/hda2
ARRAY /dev/md0 level=raid1 num-devices=1 UUID=6e923bf4:ccbd37a0:accf7e16:a8152c2f
devices=/dev/hda1
root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf
root@0[~]# vi /etc/mdadm/mdadm.conf
root@0[~]# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 hda4[0]
77304704 blocks [1/1] [U]
md1 : active raid1 hda2[0]
273024 blocks [1/1] [U]
md0 : active raid1 hda1[0]
72192 blocks [1/1] [U]
unused devices: <none>
root@0[~]# mkdir /target
root@0[~]# /lib/lvm-200/pvcreate /dev/md1
Physical volume "/dev/md1" successfully created
root@0[~]# /lib/lvm-200/pvcreate /dev/md2
Incorrect metadata area header checksum
Incorrect metadata area header checksum
Incorrect metadata area header checksum
Physical volume "/dev/md2" successfully created
root@0[~]#
root@0[~]# /lib/lvm-200/pvs
pvs pvscan
root@0[~]# /lib/lvm-200/pvscan
PV /dev/md1 lvm2 [266.44 MB]
PV /dev/md2 lvm2 [73.72 GB]
Total: 2 [73.98 GB] / in use: 0 [0 ] / in no VG: 2 [73.98 GB]
root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md1
/etc/lvm/backup: fsync failed: 無効な引数です
Volume group "sys-vg" successfully created
root@0[~]#
root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 264M
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvroot" created
root@0[~]#
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvusr" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvvar" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G
/etc/lvm/backup: fsync failed: 無効な引数です
/etc/lvm/backup: fsync failed: 無効な引数です
Logical volume "lvhome" created
root@0[~]#
root@0[~]# mke2fs -j /dev/sys-vg/lvroot
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
67584 inodes, 270336 blocks
13516 blocks (5.00%) reserved for the super user
First data block=1
33 block groups
8192 blocks per group, 8192 fragments per group
2048 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729, 204801, 221185
Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 33 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@0[~]#
root@0[~]# mke2fs -j /dev/user-vg/lvusr
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
524288 inodes, 1048576 blocks
52428 blocks (5.00%) reserved for the super user
First data block=0
32 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 31 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@0[~]#
root@0[~]# mke2fs -j /dev/user-vg/lvhome
mke2fs 1.38 (30-Jun-2005)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
5242880 inodes, 10485760 blocks
524288 blocks (5.00%) reserved for the super user
First data block=0
320 block groups
32768 blocks per group, 32768 fragments per group
16384 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 27 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
root@0[~]#
root@0[~]# mount -t ext3 /dev/sys-vg/lvroot /target
root@0[~]# mkdir /target/usr
root@0[~]# mkdir /target/var
root@0[~]# mount -t ext3 /dev/user-vg/lvusr /target/usr
root@0[~]# mount -t ext3 /dev/user-vg/lvvar /target/var
root@0[~]# mkdir /target/home
root@0[~]# mount -t ext3 /dev/user-vg/lvhome /target/home
root@0[~]#
root@0[~]# mkdir /target/home/lib
root@0[~]# mkdir /target/home/boot
root@0[~]# cd /target/
root@0[target]# ln -s home/lib .
root@0[target]# ln -s home/boot .
root@0[target]#
root@0[target]# mkdir home/root
root@0[target]# ln -s home/root .
root@0[target]# ls -l
合計 24
lrwxrwxrwx 1 root root 9 2005-11-21 00:25 boot -> home/boot
drwxr-xr-x 6 root root 4096 2005-11-21 00:31 home
lrwxrwxrwx 1 root root 8 2005-11-21 00:25 lib -> home/lib
drwx------ 2 root root 12288 2005-11-21 00:15 lost+found
lrwxrwxrwx 1 root root 9 2005-11-21 00:32 root -> home/root
drwxr-xr-x 3 root root 4096 2005-11-21 00:16 usr
drwxr-xr-x 3 root root 4096 2005-11-21 00:18 var
root@0[target]# sync
root@0[target]#
root@0[target]# (dump 0uf - /dev/hdc1|restore rf -);sync;date
DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005
DUMP: Dumping /dev/hdc1 (/mnt/hdc1) to standard output
DUMP: Label: /
DUMP: Writing 10 Kilobyte records
DUMP: mapping (Pass I) [regular files]
DUMP: mapping (Pass II) [directories]
DUMP: estimated 1536187 blocks.
DUMP: Volume 1 started with block 1 at: Mon Nov 21 00:37:50 2005
DUMP: dumping (Pass III) [directories]
DUMP: dumping (Pass IV) [regular files]
restore: ./lost+found: File exists
restore: ./home: File exists
restore: ./var: File exists
restore: ./usr: File exists
restore: ./boot: File exists
restore: ./lib: File exists
restore: ./root: File exists
DUMP: 71.81% done at 3677 kB/s, finished in 0:01
DUMP: Volume 1 completed at: Mon Nov 21 00:44:37 2005
DUMP: Volume 1 1555860 blocks (1519.39MB)
DUMP: Volume 1 took 0:06:47
DUMP: Volume 1 transfer rate: 3822 kB/s
DUMP: 1555860 blocks (1519.39MB)
DUMP: finished in 407 seconds, throughput 3822 kBytes/sec
DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005
DUMP: Date this dump completed: Mon Nov 21 00:44:37 2005
DUMP: Average transfer rate: 3822 kB/s
DUMP: DUMP IS DONE
2005年 11月 21日 月曜日 00:45:07 JST
root@0[target]#
</none>
Last Updated on 2024-08-13 by spicebeat