link 未来から過去へ表示(*)
link 過去から未来へ表示

link もっと前
   2009年 1月 31日 ---> 2009年 1月 22日
link もっと後

2009年 1月 31日

ソフトウェア RAID の拡張

今ハードディスクがとても安いので、1TB のディスクを 3個買いました。HDD を注文したときから、後でディスクを追加(5台まで増築予定)したときに拡張できるのか?と気になっていました。

世の中に同じ想いの方がどれだけいるか知りませんが、一度作った RAID 5 アレイを拡張する方法を紹介します。当方の実験環境は Debian GNU/Linux(etch) です。

例としてディスク 3本からなる RAID-5 アレイを作り、そこへ 1本追加する様子を示したいと思います。実験のため 100MB のパーティションでアレイを作っていますが、HDD 全体を使っていても同じ手順でできるはずです。

RAID-5 アレイの構築
# mdadm --create /dev/md0 -n 3 -l 5 -a p /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: array /dev/md0 started.

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdd1[2] sdc1[1] sdb1[0]
      208640 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>

Linux でソフトウェア RAID アレイをいじるには mdadm コマンドを使います。まず --create で 100MB x 3(-n 3)の領域からなる RAID-5 アレイ(-l 5)を作りました。容量は 200MB です。今回はパーティションを作らないので関係ありませんが、パーティションが作れるアレイ(-a p)にするのが無難でしょう。

次にアレイ上の領域にファイルシステムを作り、マウントします。

アレイ上にファイルシステムを構築
# mkreiserfs /dev/md0
mkreiserfs 3.6.19 (2003 www.namesys.com)
(... 略 ...)
Guessing about desired format.. Kernel 2.6.25 is running.
Format 3.6 with standard journal
Count of blocks on the device: 52160
Number of blocks consumed by mkreiserfs formatting process: 8213
Blocksize: 4096
Hash function used to sort names: "r5"
Journal Size 8193 blocks (first block 18)
Journal Max transaction length 1024
inode generation number: 0
UUID: 27c689b4-5cee-4223-9d7c-adb29cfdeb7c
ATTENTION: YOU SHOULD REBOOT AFTER FDISK!
        ALL DATA WILL BE LOST ON '/dev/md0'!
Continue (y/n):y
Initializing journal - 0%....20%....40%....60%....80%....100%
Syncing..ok

Tell your friends to use a kernel based on 2.4.18 or later, and especially not a
kernel based on 2.4.9, when you use reiserFS. Have fun.

ReiserFS is successfully created on /dev/md0.

# mount /dev/md0 /mnt/md0
# df
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/sda1             62498888   1879688  60619200   4% /
/dev/md0                208628     32840    175788  16% /mnt/md0

おなじみの mkfs コマンドでファイルシステムを作り、マウントして容量を確認しています。例では ReiserFS ですが、ext2, XFS, JFS の場合でも resize ツールがあれば同じ手順で拡張できます。

次にアレイを拡張します。ファイルシステムを利用中の場合は、一度アンマウントしてアレイを変更できるようにしてから作業してください。

アレイを拡張する
# umount /mnt/md0

# mdadm --add /dev/md0 /dev/sdb2
mdadm: added /dev/sdb2

# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Sun Feb  1 04:05:28 2009
     Raid Level : raid5
     Array Size : 208640 (203.78 MiB 213.65 MB)
    Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1

       3       8       18        -      spare   /dev/sdb2

# mdadm --grow /dev/md0 -n 4
mdadm: Need to backup 384K of critical section..
mdadm: ... critical section passed.

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0]
      208640 blocks super 0.91 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      [===>.................]  reshape = 15.6% (16384/104320) finish=0.8min speed=1638K/sec

unused devices: <none>

(... しばし待ちます ...)

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0]
      312960 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

まず --add でスペアディスクを追加します。例では /dev/sdb2 です。次に --grow で RAID アレイのディスク数を変更します。するとアレイの reshape が始まります。容量が大きいほど時間がかかるので、しばし待ってください。reshape 中のアレイの容量は 200MB ですが、reshape が終わると容量が 300MB に増加していることがわかると思います。

次にファイルシステムの領域を拡張します。

ファイルシステムを拡張する
# resize_reiserfs /dev/md0
resize_reiserfs 3.6.19 (2003 www.namesys.com)

ReiserFS report:
blocksize             4096
block count           78240 (52160)
free blocks           70026 (43947)
bitmap block count    3 (2)

Syncing..done


resize_reiserfs: Resizing finished successfully.

# mount /dev/md0 /mnt/md0
# df
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/sda1             62498888   1879692  60619196   4% /
/dev/md0                312944     32840    280104  11% /mnt/md0

ReiserFS の場合は、resize_reiserfs コマンドで領域のサイズ変更ができます。サイズを指定しなければ自動的にパーティションサイズの最大まで拡張してくれます。サイズを減らす(シュリンク)機能はベータ版らしく、実行すると警告が出ます。

編集者: すずき(更新: 2009年 2月 1日 05:49)

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2009年 1月 30日

ソフトウェア RAID のディスク交換

RAID-5, 6 あるいは 1 などでディスクが壊れた際の交換方法を紹介します。

ディスクが壊れた
# df
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/sda1             62498888   1879716  60619172   4% /
/dev/md0                521580    521580         0 100% /mnt/md0

# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Sat Jan 31 16:05:28 2009
     Raid Level : raid5
     Array Size : 521600 (509.46 MiB 534.12 MB)
    Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       18        3      active sync   /dev/sdb2
       4       8       50        4      active sync   /dev/sdd2
       5       8       34        5      active sync   /dev/sdc2

# mdadm --fail /dev/md0 /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0

# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Sat Jan 31 16:15:28 2009
     Raid Level : raid5
     Array Size : 521600 (509.46 MiB 534.12 MB)
    Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       18        3      active sync   /dev/sdb2
       4       8       50        4      active sync   /dev/sdd2
       5       8       34        5      active sync   /dev/sdc2

       6       8       17        -      faulty spare   /dev/sdb1

Linux でソフトウェア RAID アレイをいじるには mdadm コマンドを使います。使用中の RAID アレイ(100MB ディスク 6本からなる RAID-5 アレイ)で故障を発生させます。といっても実際にディスクを破壊するわけにはいきませんので、--fail でシステムに故障を伝えます。故障したデバイスは faulty spare という状態に変更されます。

次に故障したディスクを外します。

ディスクを取り除く
# mdadm --remove /dev/md0 /dev/sdb1
mdadm: hot removed /dev/sdb1

# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Sat Jan 31 16:28:28 2009
     Raid Level : raid5
     Array Size : 521600 (509.46 MiB 534.12 MB)
    Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       18        3      active sync   /dev/sdb2
       4       8       50        4      active sync   /dev/sdd2
       5       8       34        5      active sync   /dev/sdc2

故障したディスク(faulty spare)を --remove に指定して、アレイから取り除きます。アレイから取り除けるのは、故障している、していないに関わらずスペアディスクのみです。活きているディスクを --remove しようとしても失敗します。

次に新たなディスクを追加します。

ディスクを追加する
# mdadm --add /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb1[6] sdd2[4] sdc2[5] sdb2[3] sdd1[2] sdc1[1]
      521600 blocks level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU]
      [====>................]  recovery = 20.5% (22272/104320) finish=0.0min speed=22272K/sec

unused devices: <none>

# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Sat Jan 31 16:58:28 2009
     Raid Level : raid5
     Array Size : 521600 (509.46 MiB 534.12 MB)
    Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       18        3      active sync   /dev/sdb2
       4       8       50        4      active sync   /dev/sdd2
       5       8       34        5      active sync   /dev/sdc2

新たなディスクを --add で加えることでディスクの数が 6本に戻ります。するとリカバリが始まります。今まで通り --detail で見ても良いですが、/proc/mdstat にもっとわかりやすい進行表示が出ます。

素晴らしいことに RAID-5 アレイを止めなくとも、上記の作業が全てできます。リカバリ処理も I/O 帯域を食いつぶさないように加減しますから、ユーザは --remove してディスク交換して --add すれば、後はシステムがよきに計らってくれるわけです。便利ですね。

編集者: すずき(更新: 2009年 2月 1日 06:22)

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2009年 1月 25日

VAIO が嫌われた

SeaMonkey でVAIO type G のサイトを見ると 100%フリーズします。一方 IE7 だと正常に表示されます。

SeaMonkey がクラッシュするなら開発元にレポートを送れるけど、フリーズだとどうしようもないですね。しかもどういう条件で再現するのか試しているうちに、一切フリーズしなくなってしまいました。真相は闇の中です。

もちろん今も正常に表示されます。原因はフラッシュ周りかと思ったけど、IE は動いていたしなあ?一体なんだったんだろうか。キャッシュが壊れたのかなあ?

編集者: すずき(更新: 2009年 2月 8日 14:55)

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



2009年 1月 24日

アトム

最近話題の Intel Atom 330 を買いました。1.60GHz 駆動、デュアルコア& Hyper-Threading で疑似 4コアだそうです。HDD を外付けして静音ファイルサーバにする予定です。

静音性、値段、省スペース性から見て玄箱 PRO は有力な対立候補でしたが、肝心の PCI Express スロットは箱から基盤をばらさないと使えなくて不便だし、CPU が非力(ARM9/400MHz)なので見送りました。

Atom プロセッサは単独では販売されておらず、マザーボードとセットで販売されています。価格は 1万円くらいです。安いもんですね。

現時点で Atom 330 を搭載する製品は Intel D945GCLF2 と MSI Wind Board 330 です。あとは ECS からも出るとか出ないとか。どちらのボードもノース Intel 945GC、サウス ICH7 です。ネットワークやオーディオ周りが違うので要チェック。

ファイルサーバ

以下、ファイルサーバでやりたいことリスト。

  • e-SATA とポートマルチプライヤ
  • iSCSI ターゲットか ATA over Ethernet ターゲット

ATA over Ethernet は以前 VM 上で実験して散々な結果でしたが、実機だとどうかなあ。

編集者: すずき(更新: 2009年 1月 25日 05:29)

コメント一覧

  • コメントはありません。
open/close この記事にコメントする



link もっと前
   2009年 1月 31日 ---> 2009年 1月 22日
link もっと後

管理用メニュー

link 記事を新規作成

合計:  counter total
本日:  counter today

link About www.katsuster.net
RDF ファイル RSS 1.0
QR コード QR コード

最終更新: 9/24 14:00

カレンダー

<2009>
<<<01>>>
----123
45678910
11121314151617
18192021222324
25262728293031

最近のコメント 5件

  • link 21年03月03日
    すずき 「お役に立てたようで幸いです。」
    (更新:06/17 17:24)
  • link 21年03月03日
    Shige 「とても参考になりました。\nGood!!...」
    (更新:06/17 13:28)
  • link 20年12月19日
    すずき 「なるほど、地元愛 No.1 は福岡なんで...」
    (更新:05/02 00:08)
  • link 20年12月19日
    Twitterから 「> 大学時代に知り合った人たちを思...」
    (更新:04/28 13:38)
  • link 21年04月12日
    すずき 「コメントありがとうございます。ご参考にな...」
    (更新:04/18 22:39)

最近の記事 3件

link もっとみる
  • link 21年04月05日
    すずき 「[GCC を調べる - GCC 8.3 の folding バ] ...」
    (更新:09/24 14:00)
  • link 21年09月20日
    すずき 「[RISC-V の cmodel] 目次: RISC-V - まと...」
    (更新:09/21 23:04)
  • link 21年06月18日
    すずき 「[RISC-V まとめリンク] 目次: RISC-V - まとめリ...」
    (更新:09/21 23:01)

こんてんつ

open/close wiki
open/close Java API

過去の日記

open/close 2002年
open/close 2003年
open/close 2004年
open/close 2005年
open/close 2006年
open/close 2007年
open/close 2008年
open/close 2009年
open/close 2010年
open/close 2011年
open/close 2012年
open/close 2013年
open/close 2014年
open/close 2015年
open/close 2016年
open/close 2017年
open/close 2018年
open/close 2019年
open/close 2020年
open/close 2021年
open/close 過去日記について

その他の情報

open/close アクセス統計
open/close サーバ一覧
open/close サイトの情報