既存パーティションをRAID+LVMに変更

PC

既存のdebianパーティションをLVM on ソフトウェアRAID1へ移行した時の手順。

作業準備

移行前のディスク情報とパーティション

 hda: IC35L090AVV207-0, ATA DISK drive
 Using anticipatory io scheduler
 ide0 at 0x1f0-0x1f7,0x3f6 on irq 14
 hda: max request size: 1024KiB
 hda: 160836480 sectors (82348 MB) w/1821KiB Cache, CHS=16383/255/63, UDMA(100)
  /dev/ide/host0/bus0/target0/lun0: p1 p2 p3

 Disk /dev/hda: 82.3 GB, 82348277760 bytes
 255 heads, 63 sectors/track, 10011 cylinders
 Units = cylinders of 16065 * 512 = 8225280 bytes

    Device Boot      Start         End      Blocks   Id  System
 /dev/hda1   *           1        1216     9767488+  83  Linux
 /dev/hda2            1217        1338      979965   82  Linux swap / Solaris
 /dev/hda3            1339       10011    69665872+  8e  Linux LVM

 bar:~$ df
 Filesystem           1K-blocks      Used Available Use% Mounted on
 /dev/hda1              9614116   8786116    730328  93% /
 tmpfs                   778100         4    778096   1% /dev/shm
 /dev/mapper/vol1-vmware
                       20642428  11677940   8754776  58% /home/vmware
 /dev/mapper/vol1-annex_mirror
                       41284928  20437992  20427508  51% /mirror/annex
 /dev/mapper/vol1-blackbox_os_mirror
                        6644056     32860   6543696   1% /mirror/blackbox_os
 tmpfs                    10240       720      9520   8% /dev

 bar:/# du -s *|sort -n
 0       cdrom
 0       initrd.img
 0       initrd.img.old
 0       sys
 0       vmlinuz
 0       vmlinuz.old
 4       initrd
 4       mnt
 4       srv
 8       media
 20      mnt2
 48      lost+found
 312     tmp
 836     dev
 3364    bin
 3592    sbin
 14888   opt
 34244   etc
 44944   root
 48316   boot
 200932  lib
 922489  proc
 1705252 var
 4024076 usr
 14311168        home
 19983844        mirror
 bar:/#

作業項目

IDE HDD2をhdcとしてセカンダリマスターで接続

RAID1の信頼性向上のため、各ディスクはプライマリマスタ/セカンダリマスタへ1台づつ接続。
非RAIDの既存ディスクから移行するため、1台づつ設定を行う。
まずはセカンダリI/Fに IC35L120AVVA07-0 (123GB) をセカンダリのマスターとして接続。
このドライブは/dev/hdcとして認識される。

KNOPPIXでブート

既存ディスクから新ディスクへパーティションを移行させるため、以降の
作業はKNOPPIX上にて作業を進める。CDドライブにKNOPPIXディスクを入れて再起動する。ちなみに使用したKNOPPIXはバージョン4.0。

データ移行の作業効率をあげるため、ブート時のプロンプトで

 boot: knoppix dma noswap

として、HDDのDMAモード化とHDDスワップ使用の無効化のチートコードを指定した。
今回の作業PCがメモリ1.5Gのため noswap指定をしたが、メモリが少ない場合は指定を外した方がよいかもしれない。

KNOPPIXでLVMを有効化

KNOPPIXでブートしてさらにLVMを使えるよう設定。
LVM有効化は「KNOPPIXをLVMレスキューCDとして使う」を参考に設定。

hdcパーティション設定

追加したhdcに対してパーティションの設定を行う。RAID1+LVMの構成と
するので、RAIDパーティションとswapのみ作成。
こんな感じにしてみた。

 Disk /dev/hdc: 123.5 GB, 123522416640 bytes
 255 heads, 63 sectors/track, 15017 cylinders
 Units = シリンダ数 of 16065 * 512 = 8225280 bytes

  デバイス Boot      Start         End      Blocks   Id  System
 /dev/hdc1               1          32      257008+  fd  Linux raid 自動検出
 /dev/hdc2              33         801     6176992+  82  Linux swap / Solaris
 /dev/hdc3             802       15017   114190020   fd  Linux raid 自動検出

hdcでRAID1設定(hdcのみの片肺運転)

sargeからRAID関連の設定はraidtoolからmdadmコマンドになった。
既存ドライブからデータを吸い上げるまでは片肺運転となるため、hdcのみでRAID1デバイスを作成。
今回はhdc1,hdc3をそれぞれmd0,md1としてセットアップすることに。

md0,md1デバイス設定

  • RAIDデバイスの作成
    「--force」 オプションはシングルでRAID1デバイスを作成するために必要
 root@0[bin]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hdc1
 mdadm: /dev/hdc1 appears to contain an ext2fs file system
     size=120624020K  mtime=Sun Oct 30 11:40:29 2005
 Continue creating array? y
 mdadm: array /dev/md0 started.
 root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hdc3
 mdadm: array /dev/md1 started.
  • デバイスの定義を/etc/mdadm/mdadm.conf に追加。
 DEVICE /dev/hdc1
 DEVICE /dev/hdc3
  • 作成したRAIDデバイスを/etc/mdadm/mdadm.conf に設定追加
    mdadmコマンドで認識されたデバイス情報を確認。
 root@0[~]# mdadm -E --scan
 ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175
    devices=/dev/hdc3
 ARRAY /dev/md0 level=raid1 num-devices=1 UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757
    devices=/dev/hdc1
  • 確認したデバイス情報を/etc/mdadm/mdadm.conf に追加する。
 root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf
  • /etc/mdadm/mdadm.conf のARRAY行にauto=yesを追加
 DEVICE /dev/hdc1
 ARRAY /dev/md0 level=raid1 num-devices=1 auto=yes UUID=e677b2b1:cb14a7cc:f33adc52:d18b6757
    devices=/dev/hdc1
 DEVICE /dev/hdc3
 ARRAY /dev/md1 level=raid1 num-devices=1 UUID=0976bdbd:7d405aaa:43109230:22d5a175
    devices=/dev/hdc3
  • 構成したmdデバイスを有効にする
 mdadm --assemble --scan

 root@2[~]# cat /proc/mdstat
 Personalities : [raid1]
 md1 : active raid1 hdc3[0]
       114189952 blocks [1/1] [U]

 md0 : active raid1 hdc1[0]
       256896 blocks [1/1] [U]

 unused devices: <none>
 root@2[~]#
</none>

LVMデバイス設定

LVMボリューム設定

  • PV(物理ボリューム)設定
 root@0[~]# /lib/lvm-200/pvcreate /dev/md0
   Physical volume "/dev/md0" successfully created
 root@0[~]# /lib/lvm-200/pvcreate /dev/md1
   Physical volume "/dev/md1" successfully created
  • VG(ボリュームグループ)設定
    ここではsys-vg、user-vgの名前でVolumeGroupを作成した。
 root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md0
   /etc/lvm/backup: fsync failed: 無効な引数です
   Volume group "sys-vg" successfully created
 root@0[~]# /lib/lvm-200/vgcreate user-vg /dev/md1
   /etc/lvm/backup: fsync failed: 無効な引数です
   Volume group "user-vg" successfully created
  • LV(論理的グループ)設定
root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 248M
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvroot" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvusr" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr2 -L 4G
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvusr2" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvvar" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvhome" created
root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvmware -L 20G
  /etc/lvm/backup: fsync failed: 無効な引数です
  /etc/lvm/backup: fsync failed: 無効な引数です
  Logical volume "lvvmware" created

LVMボリュームを削除したい場合は

名前を変えたいとかで削除したい場合は、lvremoveコマンドを使用する

 /lib/lvm-200/lvremove /dev/vgの名前/lvの名前    # < -- 自分の場合に合わせて名前を変更してください)

最初からやり直す場合は、
- 論理ボリューム削除 (lvremove /dev/vgの名前/lvの名前)
- ボリュームグループ削除 (vgremove vgの名前)
- 物理グループ削除 (pvremove デバイス名)
の順で削除をおこなう

mdデバイスを削除したい場合は

/dev/md0を例にとると
- デバイスを停止させる

 mdadm --stop /dev/md0
  • デバイスを削除する
 mdadm -r /dev/md0

元ディスク側のLVMボリュームを認識させる

 root@2[~]# /lib/lvm-200/lvscan
   inactive          '/dev/vol1/vmware' [20.00 GB] inherit
   inactive          '/dev/vol1/annex_mirror' [40.00 GB] inherit
   inactive          '/dev/vol1/blackbox_os_mirror' [6.44 GB] inherit
   ACTIVE            '/dev/user-vg/lvusr' [4.00 GB] inherit
   ACTIVE            '/dev/user-vg/lvusr2' [4.00 GB] inherit
   ACTIVE            '/dev/sys-vg/lvroot' [248.00 MB] inherit

全てACTIVEなら次へ。
inactiveになっているボリュームがあったら、lvchangeコマンドを使用して有効化する。

 root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/vmware
 root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/annex_mirror
 root@2[~]# /lib/lvm-200/lvchange -ay /dev/vol1/blackbox_os_mirror

新たに作成したLVMボリュームをフォーマット

 root@1[~]# mke2fs -j /dev/sys-vg/lvroot
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=1024 (log=0)
 Fragment size=1024 (log=0)
 63488 inodes, 253952 blocks
 12697 blocks (5.00%) reserved for the super user
 First data block=1
 31 block groups
 8192 blocks per group, 8192 fragments per group
 2048 inodes per group
 Superblock backups stored on blocks:
         8193, 24577, 40961, 57345, 73729, 204801, 221185

 Writing inode tables: done
 Creating journal (4096 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 21 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.

 root@1[~]# mke2fs -j /dev/user-vg/lvusr
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 524288 inodes, 1048576 blocks
 52428 blocks (5.00%) reserved for the super user
 First data block=0
 32 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 30 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.

 root@1[~]# mke2fs -j /dev/user-vg/lvusr2
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 524288 inodes, 1048576 blocks
 52428 blocks (5.00%) reserved for the super user
 First data block=0
 32 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 31 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.

 root@1[~]# mke2fs -j /dev/user-vg/lvvar
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 524288 inodes, 1048576 blocks
 52428 blocks (5.00%) reserved for the super user
 First data block=0
 32 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 31 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.

 root@1[~]# mke2fs -j /dev/user-vg/lvhome
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 5242880 inodes, 10485760 blocks
 524288 blocks (5.00%) reserved for the super user
 First data block=0
 320 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
         4096000, 7962624

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 21 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.

ターゲットディスク側のLVMボリュームを/target にマウント

元ディスク側では /home以下を除いて全て単一パーティションだったため、今回 /usr /var /home を別パーティションとし、ルートパーティションのスリム化のため、/usr/share /usr/src /lib をシンボリックリンクで /usr2 パーティションに逃すことにした。

 mkdir /target
 mount /dev/sys-vg/lvroot /target/
 mkdir /target/usr
 mount /dev/user-vg/lvusr /target/usr/
 mkdir /target/var
 mount /dev/user-vg/lvvar /target/var/
 mkdir /target/home
 mount /dev/user-vg/lvhome /target/home
 mkdir /target/home/vmware
 mount /dev/user-vg/lvvmware /target/home/vmware
 mkdir /target/usr2
 mount /dev/user-vg/lvusr2 /target/usr2

 cd /target
 mkdir /target/home/root
 ln -s /target/home/root .
 mkdir /target/usr2/root-boot
 ln -s /target/usr2/root-boot/ boot
 mkdir /target/usr2/root-lib
 ln -s /target/usr2/root-lib/ lib
 mkdir /target/usr2/usr-src
 ln -s /target/usr2/usr-src usr/src
 mkdir /target/usr2/usr-share
 ln -s /target/usr2/usr-share usr/share
 mkdir /target/usr2/usr-local
 ln -s /target/usr2/usr-local usr/local

 root@3[target]# ls -l
 合計 28
 lrwxrwxrwx  1 root root    23 2005-11-02 23:17 boot -> /target/usr2/root-boot/
 drwxr-xr-x  5 root root  4096 2005-11-02 23:17 home
 lrwxrwxrwx  1 root root    22 2005-11-02 23:17 lib -> /target/usr2/root-lib/
 drwx------  2 root root 12288 2005-11-02 23:11 lost+found
 lrwxrwxrwx  1 root root    17 2005-11-02 23:17 root -> /target/home/root
 drwxr-xr-x  3 root root  4096 2005-11-02 23:17 usr
 drwxr-xr-x  7 root root  4096 2005-11-02 23:17 usr2
 drwxr-xr-x  3 root root  4096 2005-11-02 23:12 var
 root@3[target]# ls -l usr
 合計 16
 lrwxrwxrwx  1 root root    22 2005-11-02 23:17 local -> /target/usr2/usr-local
 drwx------  2 root root 16384 2005-11-02 23:12 lost+found
 lrwxrwxrwx  1 root root    22 2005-11-02 23:17 share -> /target/usr2/usr-share
 lrwxrwxrwx  1 root root    20 2005-11-02 23:17 src -> /target/usr2/usr-src
 root@3[target]# ls -l usr2
 合計 40
 drwx------    2 root root 16384 2005-11-02 23:12 lost+found
 drwxr-xr-x    3 root root  4096 2005-11-02 23:26 root-boot
 drwxr-xr-x    2 root root  4096 2005-11-02 23:28 root-lib
 drwxr-xr-x    9 root root  4096 2005-11-02 23:26 usr-local
 drwxr-xr-x  258 root root  8192 2005-11-02 23:26 usr-share
 drwxr-xr-x   13 root root  4096 2005-11-02 23:26 usr-src

元ディスクから新ディスクへレストア

ようやく準備が整ったので、dumpコマンドとrestoreコマンドを使ってデータ移行に入る。40分ほどで終了した。

 root@2[target]# (cd /target; dump 0uf - /dev/hda1|restore rf -); \
                 sync;echo '**FINISHED restore /dev/hda1'>/dev/console;date>/dev/console; \
                 (cd /target/home; dump 0uf - /dev/vol1/annex_mirror |restore rf -); \
                 sync;echo 'FINISHED restore /dev/vol1/annex_mirror'>/dev/console;date>/dev/console; \
                 (cd /target/home/vmware; dump 0uf - /dev/vol1/vmware |restore rf -); \
                 sync;echo 'FINISHED restore /dev/vol1/vmware'>/dev/console;date>/dev/console;df;sync  

参考URL

Debian WoodyでSoftware RAIDを使いraid1を作る

Software-RAID設定メモ

特集:LVMによるディスクパーティションの動的化(前編)

特集:LVMによるディスクパーティションの動的化(後編)

Linux/LVM/LVMの削除

UNIX02/Install Knoppix On A Software RAID

ブートディスクをソフトウェア RAID 1 (ミラーリング) に構成する際の注意

Installing with Software RAID or LVM

[Xen-devel] Debian Sarge Root Raid + LVM + XEN install guide (LONG)

Gentoo LVM2インストール

HOWTO Clone Disk Images on Linux Booted from a Network

mdadmコマンドの参考URL

インストールtest

 Disk /dev/hda: 80.0 GB, 80026361856 bytes
 255 heads, 63 sectors/track, 9729 cylinders
 Units = シリンダ数 of 16065 * 512 = 8225280 bytes

  デバイス Boot      Start         End      Blocks   Id  System
 /dev/hda1   *           1           9       72261   fd  Linux raid 自動検出
 /dev/hda2              10          43      273105   fd  Linux raid 自動検出
 /dev/hda3              44         105      498015   82  Linux swap / Solaris
 /dev/hda4             106        9729    77304780   fd  Linux raid 自動検出

 コマンド (m でヘルプ): q

 root@0[~]# mdadm --create --auto=yes /dev/md0 --level=1 --force --raid-devices=1 /dev/hda   1
 mdadm: array /dev/md0 started.
 root@0[~]# mdadm --create --auto=yes /dev/md1 --level=1 --force --raid-devices=1 /dev/hda2
 mdadm: array /dev/md1 started.
 root@0[~]# mdadm --create --auto=yes /dev/md2 --level=1 --force --raid-devices=1 /dev/hda4
 mdadm: /dev/hda4 appears to be part of a raid array:
     level=1 devices=1 ctime=Fri Nov 18 22:06:13 2005
 Continue creating array? yes
 mdadm: array /dev/md2 started.

 root@0[~]# mdadm -E --scan
 ARRAY /dev/md2 level=raid1 num-devices=1 UUID=2504765d:5c056d53:38089e40:77fece62
    devices=/dev/hda4
 ARRAY /dev/md1 level=raid1 num-devices=1 UUID=84a66c8c:cf638b9e:3d3ba46e:e2290ad9
    devices=/dev/hda2
 ARRAY /dev/md0 level=raid1 num-devices=1 UUID=6e923bf4:ccbd37a0:accf7e16:a8152c2f
    devices=/dev/hda1
 root@0[~]# mdadm -E --scan >> /etc/mdadm/mdadm.conf
 root@0[~]# vi /etc/mdadm/mdadm.conf
 root@0[~]# cat /proc/mdstat
 Personalities : [raid1]
 md2 : active raid1 hda4[0]
       77304704 blocks [1/1] [U]

 md1 : active raid1 hda2[0]
       273024 blocks [1/1] [U]

 md0 : active raid1 hda1[0]
       72192 blocks [1/1] [U]

 unused devices: <none>
 root@0[~]# mkdir /target
 root@0[~]# /lib/lvm-200/pvcreate /dev/md1
   Physical volume "/dev/md1" successfully created
 root@0[~]# /lib/lvm-200/pvcreate /dev/md2
   Incorrect metadata area header checksum
   Incorrect metadata area header checksum

   Incorrect metadata area header checksum
   Physical volume "/dev/md2" successfully created
 root@0[~]#
 root@0[~]# /lib/lvm-200/pvs
 pvs     pvscan
 root@0[~]# /lib/lvm-200/pvscan
   PV /dev/md1         lvm2 [266.44 MB]
   PV /dev/md2         lvm2 [73.72 GB]
   Total: 2 [73.98 GB] / in use: 0 [0   ] / in no VG: 2 [73.98 GB]
 root@0[~]# /lib/lvm-200/vgcreate sys-vg /dev/md1
   /etc/lvm/backup: fsync failed: 無効な引数です
   Volume group "sys-vg" successfully created
 root@0[~]#                                     
 root@0[~]# /lib/lvm-200/lvcreate sys-vg -n lvroot -L 264M
   /etc/lvm/backup: fsync failed: 無効な引数です
   /etc/lvm/backup: fsync failed: 無効な引数です
   Logical volume "lvroot" created
 root@0[~]#  
 root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvusr -L 4G
   /etc/lvm/backup: fsync failed: 無効な引数です
   /etc/lvm/backup: fsync failed: 無効な引数です
   Logical volume "lvusr" created
 root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvvar -L 4G
   /etc/lvm/backup: fsync failed: 無効な引数です
   /etc/lvm/backup: fsync failed: 無効な引数です
   Logical volume "lvvar" created
 root@0[~]# /lib/lvm-200/lvcreate user-vg -n lvhome -L 40G
   /etc/lvm/backup: fsync failed: 無効な引数です
   /etc/lvm/backup: fsync failed: 無効な引数です
   Logical volume "lvhome" created
 root@0[~]#    
 root@0[~]# mke2fs -j /dev/sys-vg/lvroot
  mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=1024 (log=0)
 Fragment size=1024 (log=0)
 67584 inodes, 270336 blocks
 13516 blocks (5.00%) reserved for the super user
 First data block=1
 33 block groups
 8192 blocks per group, 8192 fragments per group
 2048 inodes per group
 Superblock backups stored on blocks:
         8193, 24577, 40961, 57345, 73729, 204801, 221185

 Writing inode tables: done
 Creating journal (8192 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 33 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.
 root@0[~]#
 root@0[~]# mke2fs -j /dev/user-vg/lvusr
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 524288 inodes, 1048576 blocks
 52428 blocks (5.00%) reserved for the super user
 First data block=0
 32 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 31 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.
 root@0[~]#
 root@0[~]# mke2fs -j /dev/user-vg/lvhome
 mke2fs 1.38 (30-Jun-2005)
 Filesystem label=
 OS type: Linux
 Block size=4096 (log=2)
 Fragment size=4096 (log=2)
 5242880 inodes, 10485760 blocks
 524288 blocks (5.00%) reserved for the super user
 First data block=0
 320 block groups
 32768 blocks per group, 32768 fragments per group
 16384 inodes per group
 Superblock backups stored on blocks:
         32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
         4096000, 7962624

 Writing inode tables: done
 Creating journal (32768 blocks): done
 Writing superblocks and filesystem accounting information: done

 This filesystem will be automatically checked every 27 mounts or
 180 days, whichever comes first.  Use tune2fs -c or -i to override.
 root@0[~]#
 root@0[~]# mount -t ext3 /dev/sys-vg/lvroot /target
 root@0[~]# mkdir /target/usr
 root@0[~]# mkdir /target/var
 root@0[~]# mount -t ext3 /dev/user-vg/lvusr /target/usr
 root@0[~]# mount -t ext3 /dev/user-vg/lvvar /target/var
 root@0[~]# mkdir /target/home
 root@0[~]# mount -t ext3 /dev/user-vg/lvhome /target/home
 root@0[~]#   
 root@0[~]# mkdir /target/home/lib
 root@0[~]# mkdir /target/home/boot
 root@0[~]# cd /target/
 root@0[target]# ln -s home/lib .
 root@0[target]# ln -s home/boot .
 root@0[target]#

 root@0[target]# mkdir home/root
 root@0[target]# ln -s home/root .
 root@0[target]# ls -l
 合計 24
 lrwxrwxrwx  1 root root     9 2005-11-21 00:25 boot -> home/boot
 drwxr-xr-x  6 root root  4096 2005-11-21 00:31 home
 lrwxrwxrwx  1 root root     8 2005-11-21 00:25 lib -> home/lib
 drwx------  2 root root 12288 2005-11-21 00:15 lost+found
 lrwxrwxrwx  1 root root     9 2005-11-21 00:32 root -> home/root
 drwxr-xr-x  3 root root  4096 2005-11-21 00:16 usr
 drwxr-xr-x  3 root root  4096 2005-11-21 00:18 var
 root@0[target]# sync
 root@0[target]#

 root@0[target]# (dump 0uf - /dev/hdc1|restore rf -);sync;date
   DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005
   DUMP: Dumping /dev/hdc1 (/mnt/hdc1) to standard output
   DUMP: Label: /
   DUMP: Writing 10 Kilobyte records
   DUMP: mapping (Pass I) [regular files]
   DUMP: mapping (Pass II) [directories]
   DUMP: estimated 1536187 blocks.
   DUMP: Volume 1 started with block 1 at: Mon Nov 21 00:37:50 2005
   DUMP: dumping (Pass III) [directories]
   DUMP: dumping (Pass IV) [regular files]
 restore: ./lost+found: File exists
 restore: ./home: File exists
 restore: ./var: File exists
 restore: ./usr: File exists
 restore: ./boot: File exists
 restore: ./lib: File exists
 restore: ./root: File exists
   DUMP: 71.81% done at 3677 kB/s, finished in 0:01
   DUMP: Volume 1 completed at: Mon Nov 21 00:44:37 2005
   DUMP: Volume 1 1555860 blocks (1519.39MB)
   DUMP: Volume 1 took 0:06:47
   DUMP: Volume 1 transfer rate: 3822 kB/s
   DUMP: 1555860 blocks (1519.39MB)
   DUMP: finished in 407 seconds, throughput 3822 kBytes/sec
   DUMP: Date of this level 0 dump: Mon Nov 21 00:37:35 2005
   DUMP: Date this dump completed:  Mon Nov 21 00:44:37 2005
   DUMP: Average transfer rate: 3822 kB/s
   DUMP: DUMP IS DONE
 2005年 11月 21日 月曜日 00:45:07 JST
 root@0[target]#
</none>

Last Updated on 2024-08-13 by spicebeat

タイトルとURLをコピーしました