本日、Linuxサーバーのメンテ中に、下記コマンドでDisk-Raid(Raid-1:ミラーリング)から1台ディスクが解列されていることを発見。
# cat /proc/mdstat
Personalities : [raid1]
read_ahead 1024 sectors
md0 : active raid1 hda3[0]
154231936 blocks [2/ ] [U_]
unused devices: <none>
オンライン異常時の稼動継続性チェックの件、昨夜帰宅し早速試してみました。...
社内ネットワークの再構築の一環で、2台のVineLinuxサーバーの構築を同時に進行中なのですが、 ファイル構成に 「Linux-Raid1 + LVM」 を使う方針でして、その際に気をつけなければいけない点があるのでメモを残しておきます。
今回色々迷った末、「VMwareServer上のゲストOSを公開サーバーに使っても良い」とのVMware社からの返答を いただきまして、晴れてゲストOSへの乗せ換えを決意。 そのため、ホスト側は将来ディスクエリアが不足した際の拡張を見越して、思い切ってLVMを導入 することにしました。 (Vine Linuxは今回リリース予定の4.0から、インストール時にRaid+LVMを構成できるようになっています。但し、/bootパーティションを除きます。)...
VMWare-Player(無償) 上で動作する仮想OS (今回はVineLinux4.0b2) に、RawDisk(実ハードディスク) パーティションを使用したLinux-Raid1を構成しました。
インストール直後はうまくゆかず、 「Raidが壊れた」 なんて思ったのですが、手順を間違えていた私のミスでした。 以下はよくある備忘録です。
また、後半にVMWare-Toolsの組み込みに関して記載しました。...
やはりこの日が来ました。
VineLinux4.0で運用中の、公開サーバー用ホストPCのHDD(Linux-Raid1) 80GB、 2台中の1台が「IOerror」をログに大量に吐き出して、お亡くなりになりました。 4年前から使っていたものの流用ですんで、仕方ありません。 予想より早かったと思えばそうですが、案外持ったほうかも。
それでも、エラー後もサーバー自体は稼動を継続しておりました。 (boot側のHDDでは無かったので、助かった。 boot側だったら即停止でした。)
...昨日、ようやくサーバー更新が完了しました。
細かいところではいくつか問題が出ましたが、一つずつクリアして現在も順調に稼動中です。
ところで、内部の(ADAPTEC)ASR-2405-RAIDカードに繋がったHDDのアクセスは、OSにWindowsやLinuxを普通に乗せれば、それぞれOS上のツールが存在して管理もできるのですが、 ESXi上にはドライバがあるだけで、管理ツールがありません。
なので、ブート時のRAIDカードのRON-biosによるチェックが全てで、 あとは実際のアクセス状況を物理的に見ることしかできないんです。
ところが、RAIDカードに繋がったHDDアクセスでは、ケース前面のHDDランプは光りません。 そこで、RAIDカードのピンにリード線付きLEDランプを差して前面まで引っ張ってきました。...
新年1月7日の記事で宣言した、AMDからIntelへのサーバー移行計画、物理的には8割方完了しています。
ここらで一旦、内容を記録しておきます。 そうしないと忘れてしまって後で記事にできなくなりそう。。
ということで以下、まとまってないけど詳細。紆余曲折を経ているので少し長くなります。 以前の構成は、こちら。...