カテゴリー「パソコン・インターネット」の49件の記事

2010年6月19日 (土)

Google Chrome Dev版で拡張機能の同期を有効にする方法

先日、Google ChromeのDev版に、拡張機能を他のPCと同期する機能が入ったということなので、早速使ってみた。

そして早速はまったので、メモに残しておく。ただしWindows版での方法ね。

まず、ChromeはDev版でないと話が始まらないので、ここからDev Channelというのをインストールする。

そしたら、Chromeのショートカットアイコンのプロパティで、リンク先に
--enable-sync-extensions --sync-url=https://clients4.google.com/chrome-sync/dev
を追加する。

このショートカットアイコンから起動すると、同期のカスタマイズのダイアログボックスに「拡張機能」の項目が現れているので、チェックを入れて完了。

ポイント1: --sync-url=https://clients4.google.com/chrome-sync/dev を追加することを忘れないこと。Web上にはやり方が書いてあるページが結構あるけど、これを忘れていることが多い。これがないと、同期をOnする時に「サーバーに接続できません」というエラーになる。同期がすでにOnになっていると何もエラーが出ない(が、拡張機能は同期されない)ので厄介。

ポイント2: すでに同期がOnになっている場合、上の手順のあと一度Offにしてから再度同期をOnしないと有効にならない。注意。

| | コメント (2) | トラックバック (0)

2010年3月16日 (火)

EX4200の10GbE Uplink Moduleを手に入れたぞ!

10GbE SFP+ Uplink Moduleが届きました!1ヶ月前ぐらいに手に入れたJuniper Networks EX4200-24T用の、EX-UM2X4SFPってやつです。
Exum2x4sfp

初の10GbE体験だー、と喜びうかれて、さくさくインストール。すると、何かがおかしい…

root@EX4200> show interfaces ge-0/0/0
error: device ge-0/0/0 not found

あれぇ、何で内蔵ポートまで見えなくなってるの?

root@EX4200> show chassis hardware
error: the chassis-control subsystem is not running

え、なにごと…?

と思ってdmesgを見てみると、

pid 526 (chassism), uid 0: exited on signal 6 (core dumped)
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
pid 635 (chassism), uid 0: exited on signal 6 (core dumped)
pid 770 (chassism), uid 0: exited on signal 6 (core dumped)
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
pid 718 (chassism), uid 0: exited on signal 6 (core dumped)
pid 856 (chassism), uid 0: exited on signal 6 (core dumped)
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
pid 810 (chassism), uid 0: exited on signal 6 (core dumped)
pid 939 (chassism), uid 0: exited on signal 6 (core dumped)
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0
in_ifalrequest: .local. op 5 local 0/0

えええーーー!マジデスカ?

で、ここにきて初めてドキュメントをきちんと読んでみると、

The SFP+ uplink module requires JUNOS Software for EX Series switches, Release 9.4 or later.

うちのスイッチのJUNOSは9.2やねん…

というわけで、私の10GbE体験はしばらくお預けになってしまいましたとさ。

続きを読む "EX4200の10GbE Uplink Moduleを手に入れたぞ!"

| | コメント (0) | トラックバック (0)

2010年1月 9日 (土)

Withings WiFi body scale 届いた

年末、我が家の体重計が壊れてしまったので、年始早々新しく買う計画を立てていました。

そこで知ったのが、TwitterでつぶやくWiFi体重計 Withings WiFi body scale というもの。どうやら界隈では最近とみに話題になっているらしい。で、調べてみると、単にTwitterにつぶやけるというだけでなく、8人分まで過去のデータを記録してWeb上で見られたり、きちんと体脂肪測定も出来るなど、基本機能も充分。おフランス製というだけあって、デザインもぬきんでている!

…気が付くとポチっちゃってました。

さて、そのWiFi体重計が今日届きました。意外と箱がちっちゃいです。早速開梱。

 

Withingsbodyscale01 Withingsbodyscale02 Withingsbodyscale03 Withingsbodyscale04 Withingsbodyscale05 Withingsbodyscale06

高級ホテルのバスルームが似合いそうな体重計です。我が家の洗面所では浮いてしまいます。orz

箱から取り出したら、PCとUSBケーブルを繋いでセットアップ。
Withingsbodyscale07
すでに体重計というよりガジェットと呼ぶのがふさわしいですね。WiFiの設定と、オンラインアカウントを作成すれば、準備完了。

あとはこんなふうに、普通の体重計のように上に乗るだけ。
Withingsbodyscale08
体重計が勝手にデータを送信してくれます。

ちなみにこれが私の体重データ。Twitterでもつぶやいています

| | コメント (0) | トラックバック (0)

2009年12月12日 (土)

GbE対応ブロードバンドルータ買ってしまいました

GbE対応ブロードバンドルータを買ってしまいました。中古ですが。
Juniper Networksっていうメーカーの、M10 Internet Routerというやつです。
ついかっとなって買ってしまいました。今はまだ反省していません:-P

Juniper Networksというのはアメリカのメーカーです。バッファローやIO DATAほど有名ではありませんが、Cisco Systemsと同じぐらいには有名です。

で、それが今日届きました。こんな感じのやつです。
M10_01
大きいです。いや、分かっていたんですけどね。

とりあえず、電源だけ入れてみました。
今晩ぐらいに動作確認しようかな。

続きを読む "GbE対応ブロードバンドルータ買ってしまいました"

| | コメント (2) | トラックバック (0)

2008年9月21日 (日)

サンダラ

なんかいきなり雷の襲撃を受けました。魔法で言うとサンダラぐらい?

雨雲レーダーと落雷情報を見ると、私の住んでいる周り30kmが集中攻撃されています。

そして…停電!30秒ぐらいで復電。どうも、特高送電線に雷が落ちたっぽいなぁ。

続きを読む "サンダラ"

| | コメント (0) | トラックバック (0)

2008年8月30日 (土)

簡単おためしZFS@FreeBSD

高専BSDユーザーグループ(KosenBUG)のBOFが仙台でありました。そこでFreeBSD上でZFSを使う様子を実演したのですが、結構好評だったので、やったことをまとめておきます。

とりあえずZFSを簡単に試してみる、というコンセプトなので、HDDなどの準備が無くても大丈夫なように、mdデバイス(要はRAM Disk)を使って試してみます。とりあえず、4つデバイスを用意してみましょう(サイズは、1つのデバイスが64MB以上無いとZFSでは使えないので、それ以上にしておく)。

# mdconfig -a -t malloc -s 100m
md0
# mdconfig -a -t malloc -s 100m
md1
# mdconfig -a -t malloc -s 100m
md2
# mdconfig -a -t malloc -s 100m
md3
# mdconfig -l
md0 md1 md2 md3

とりあえずこれで100MBのRAM Diskが4つ(md0~md3)できたので、こいつを使ってZFSのストレージプール(ZFSのファイルシステムを切り出す元となるHDDのかたまりのようなもの)を構成してみます。とりあえずストレージプールの名前をkbugpooolとすると、

# zpool create kbugpool md0 md1 md2 md3

これだけで作れます。作った領域は、(デフォルトでは)勝手に/の下にマウントされます。

# zpool status kbugpool
  pool: kbugpool
state: ONLINE
scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        kbugpool    ONLINE       0     0     0
          md0       ONLINE       0     0     0
          md1       ONLINE       0     0     0
          md2       ONLINE       0     0     0
          md3       ONLINE       0     0     0

errors: No known data errors

# df -H kbugpool
Filesystem    Size    Used   Avail Capacity  Mounted on
kbugpool      367M      0B    367M     0%    /kbugpool

zpool createの引数として単純にデバイスファイル名を並べると、単純に領域が連結されます(すなわちRAID0 / JBODみたいなもの)。もちろん、この状態でどれかのディスクに障害が起きると、データが失われちゃいます。

それじゃあんまりなので、いわゆるRAID10の構成にしてみます。今作ったkbugpoolを一度削除して、

# zpool destroy kbugpool

今度はmirror指定を加えて作ってみます。

# zpool create kbugpool mirror md0 md1 mirror md2 md3

`mirror'指示の後ろに書いたデバイス同士でデータがミラーリングされます。ここではmd0とmd1、md2とmd3とでそれぞれミラーリング(RAID1)されます。それらを連結(RAID0)するので、結局RAID10の完成です。

# zpool status kbugpool
  pool: kbugpool
state: ONLINE
scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        kbugpool    ONLINE       0     0     0
          mirror    ONLINE       0     0     0
            md0     ONLINE       0     0     0
            md1     ONLINE       0     0     0
          mirror    ONLINE       0     0     0
            md2     ONLINE       0     0     0
            md3     ONLINE       0     0     0

errors: No known data errors
# df -H kbugpool
Filesystem    Size    Used   Avail Capacity  Mounted on
kbugpool      167M      0B    167M     0%    /kbugpool

ミラーリングしているので、最初の例の約半分の容量になっています。

とりあえず障害対策はできました。でも、時代はRAID6でしょう。もちろんZFSでもできます。ZFSではraidz2指定をすることによりRAID6相当の構成が作れます。とりあえずさっき作ったストレージプールを消して、

# zpool destroy kbugpool

raidz2で作ってみます。

# zpool create kbugpool raidz2 md0 md1 md2 md3

コマンドはこれだけ。

# zpool status kbugpool
  pool: kbugpool
state: ONLINE
scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        kbugpool    ONLINE       0     0     0
          raidz2    ONLINE       0     0     0
            md0     ONLINE       0     0     0
            md1     ONLINE       0     0     0
            md2     ONLINE       0     0     0
            md3     ONLINE       0     0     0

errors: No known data errors
# df -H kbugpool
Filesystem    Size    Used   Avail Capacity  Mounted on
kbugpool      166M    131k    166M     0%    /kbugpool

パリティで2台分の容量を使用するので、4台構成の場合RAID10の例と容量は変わっていませんが、RAID6になっています。

さて、ここまででストレージプールの作成は終了。今度はファイルシステムをストレージプールから切り出してみます。

たとえば、dataとbackupの2つのファイルシステムを作成するには、

# zfs create kbugpool/data
# zfs create kbugpool/backup

これだけです。デフォルトでは、ストレージプールがマウントされたディレクトリの下にマウントされます。

# zfs list
NAME              USED  AVAIL  REFER  MOUNTPOINT
kbugpool          206K   158M  31.4K  /kbugpool
kbugpool/backup  26.9K   158M  26.9K  /kbugpool/backup
kbugpool/data    26.9K   158M  26.9K  /kbugpool/data
# df -H /kbugpool /kbugpool/data /kbugpool/backup
Filesystem            Size    Used   Avail Capacity  Mounted on
kbugpool              166M      0B    166M     0%    /kbugpool
kbugpool/data         166M      0B    166M     0%    /kbugpool/data
kbugpool/backup       166M      0B    166M     0%    /kbugpool/backup

もちろん、オプションでマウント先は変えられます。他にも、最低限確保しておく容量や最大容量制限(Quota)など、たくさん指定できるオプションがあります。

以上、簡単ZFS体験でした。

最後に後始末。

# zpool destroy kbugpool
# mdconfig -d -u 3
# mdconfig -d -u 2
# mdconfig -d -u 1
# mdconfig -d -u 0

| | コメント (0) | トラックバック (0)

2008年6月22日 (日)

ZFS (raidz2)でのデグレード→リビルド確認

さて、RAIDアレイを組んだらとりあえずやっておかないといけないこと、それは障害時にちゃんとリビルドできるかという確認。これをやっておかないと、いざというときに泣きを見ます。

とりあえず、現状は、

# zpool status
  pool: zpool0
state: ONLINE
scrub: none requested
config:


        NAME        STATE     READ WRITE CKSUM
        zpool0      ONLINE       0     0     0
          raidz2    ONLINE       0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    ONLINE       0     0     0


errors: No known data errors

と、6台のHDDでRAID6(raidz2)を組んでいます。

ここで、ad14に障害が起きたと仮定して、えいやっとad14を引っこ抜きます(ちょっと乱暴だけど…)。すると、

# zpool status
  pool: zpool0
state: DEGRADED
status: One or more devices could not be opened.  Sufficient replicas exist for
        the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
   see: http://www.sun.com/msg/ZFS-8000-D3
scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        zpool0      DEGRADED     0     0     0
          raidz2    DEGRADED     0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    UNAVAIL      0     0     0  cannot open

errors: No known data errors

となり、見事にad14が壊れたっぽくなりました。

ここで一旦電源を落として(電源を入れたままでもよかったんだろうけど)、ad14を差し直して、再度立ち上げます。で、状態を確認すると、

# zpool status
  pool: zpool0
state: ONLINE
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-4J
scrub: resilver completed with 0 errors on Mon Jun 23 22:31:55 2008
config:

        NAME        STATE     READ WRITE CKSUM
        zpool0      ONLINE       0     0     0
          raidz2    ONLINE       0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    UNAVAIL      0     0     0  corrupted data

errors: No known data errors

ちょっと状態が変わりました。メッセージにもあるとおり、zpool replaceコマンドを実行して、HDDを交換したよということをZFSに教えてあげる必要があるので、

# zpool replace zpool0 ad14

とコマンドを打ってあげます。そうしたら、HDDが頑張って働き始めて、なんかやってるっぽい感じがします。

# zpool status
  pool: zpool0
state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress, 0.00% done, 510h5m to go
config:

        NAME            STATE     READ WRITE CKSUM
        zpool0          DEGRADED     0     0     0
          raidz2        DEGRADED     0     0     0
            ad4         ONLINE       0     0     0
            ad6         ONLINE       0     0     0
            ad8         ONLINE       0     0     0
            ad10        ONLINE       0     0     0
            ad12        ONLINE       0     0     0
            replacing   DEGRADED     0     0     0
              ad14/old  UNAVAIL      0     0     0  cannot open
              ad14      ONLINE       0     0     0

errors: No known data errors

実際、ad14をリビルドしていることが分かります(ZFSでは、rebuildではなくresilverというらしい)。で、しばらく放置すると元通り。

# zpool status
  pool: zpool0
state: ONLINE
scrub: none requested
config:


        NAME        STATE     READ WRITE CKSUM
        zpool0      ONLINE       0     0     0
          raidz2    ONLINE       0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    ONLINE       0     0     0


errors: No known data errors

以上、無事リビルド完了です。本当にZFSは簡単です。

参考資料:

続きを読む "ZFS (raidz2)でのデグレード→リビルド確認"

| | コメント (0) | トラックバック (0)

FreeBSDでZFSを導入してみる

今まで、Dell CERC/SATA 1.5/6ch RAIDカードを使ってRAID5のディスクアレイを組んでいました。特に不満もなく今まで使ってきたのですが、最近どうもこのコントローラが不安定。壊れかけのようです。

こういうときはとっととRAIDカードを交換するのが定石なのですが、困ったことに今使っているRAIDカード、もともとDELLのサーバのオプション(しかもオークションで入手)なので、同じ物は簡単に手に入りません。

こうなるとハードウェアRAIDの困ったところ、もうそのまま復旧はあきらめるしかありません(実際はこのRAIDカード、AdaptecのOEMなので、AdaptecのRAIDカード買ってくればたぶん大丈夫なんだけれどもね)。本当はこういうときに備えて、同一カードを交換用として準備すべきなんだけれども、いかんせん個人では難しいですよね。

まぁ、ちょうど今のアレイも容量がいっぱいいっぱいだったので、いい機会と思い、新しくディスクアレイを構築することにしました。今回の件でハードウェアRAIDはやめて完全ソフトウェアRAIDとすることで方針は決定(どーせお家サーバなので、性能はソフトウェアで十分)。

また、現状はRAID5ですが、今ならRAID6だろう、ということで、冗長化はRAID6に決定。

さて、方針が決まればどうやってそれを実現するかですが、

  • ZFS (Solaris, FreeBSD)
  • raid456.ko (Linux) ?

のどちらかしか選択肢はないようです。さすがRAID6。

で、ぐぐってみると、raid456はあんまりいい評判がないのです。というか、情報自体が少ない。対してZFSの方は、さすが商用だけあって、なかなかのものらしい。となれば、ZFSしか残らないわけですよ。

あとは、OpenSolarisかFreeBSDか、どっちかで組む、ということになるのですが、今使っているのがFreeBSDなので、FreeBSDでやってみる事に決定。バージョンを7.0に上げないといけないけど…

というわけで、ここからが本題。ZFS on FreeBSD 7.0-RELEASEの構築。

7.0-RELEASEに上げるのは本稿の目的から外れるので、さくっと省略。

で、今あるRAID5アレイのファイルをバックアップ。これは1TBのHDDを用意してコピーしただけ。

そしたら、今使っているRAIDカードと、それにつながっているHDDを全交換。もうRAIDコントローラの載ったカードじゃなくてもいいので、単なるSATA拡張カードAOC-SAT2-MV8と、500GB HDD×6台を搭載。

atacontrolで見てみると、こんな感じ。

# atacontrol list
ATA channel 0:
    Master:      no device present
    Slave:       no device present
ATA channel 1:
    Master:      no device present
    Slave:       no device present
ATA channel 2:
    Master:  ad4 <ST3500630AS/3.AAK> Serial ATA II
    Slave:       no device present
ATA channel 3:
    Master:  ad6 <ST3500320AS/SD15> Serial ATA II
    Slave:       no device present
ATA channel 4:
    Master:  ad8 <ST3500320AS/SD15> Serial ATA II
    Slave:       no device present
ATA channel 5:
    Master: ad10 <ST3500320AS/SD15> Serial ATA II
    Slave:       no device present
ATA channel 6:
    Master: ad12 <ST3500320AS/SD15> Serial ATA II
    Slave:       no device present
ATA channel 7:
    Master: ad14 <ST3500320AS/SD15> Serial ATA II
    Slave:       no device present
ATA channel 8:
    Master:      no device present
    Slave:       no device present
ATA channel 9:
    Master:      no device present
    Slave:       no device present
ATA channel 10:
    Master: ad20 <ST3250820AS/3.AAE> Serial ATA II
    Slave:       no device present
ATA channel 11:
    Master: ad22 <ST3250820AS/3.AAE> Serial ATA II
    Slave:       no device present
ATA channel 12:
    Master: ad24 <ST3320620AS/3.AAK> Serial ATA II
    Slave:       no device present
ATA channel 13:
    Master: ad26 <ST3320620AS/3.AAE> Serial ATA II
    Slave:       no device present

なんかすごいことになっています。ad20~ad26は今まで使っていた(これからも使うけど)/や/homeなどが入っているディスク。ad4~ad14までが新しくつないだディスク。ad4~ad14の6台を使ってZFSでRAID6のアレイを組みます。

まずは、ZFSのカーネルモジュールzfs.koのロード…と思ったけれども、何もしなくても、必要なときに勝手に読み込まれるみたい。なので、ちゃっちゃと進んじゃいます。

ZFSについての詳しい説明は他に譲る(参考資料参照)として、結果的には次の順で作業します。

  1. ストレージプールの作成
  2. ファイルシステムの作成

以上です。とってもシンプルです。実際の作業もシンプルです。実際の作業は次のようになります。

ストレージプールの作成は、今回RAID6とするのでraidz2を明示して

# zpool create zpool0 raidz2 /dev/ad4 /dev/ad6 /dev/ad8 /dev/ad10 /dev/ad12 /dev/ad14

これだけでおしまい。zpool statusコマンドで見てみると、

# zpool status
  pool: zpool0
state: ONLINE
scrub: none requested
config:


        NAME        STATE     READ WRITE CKSUM
        zpool0      ONLINE       0     0     0
          raidz2    ONLINE       0     0     0
            ad4     ONLINE       0     0     0
            ad6     ONLINE       0     0     0
            ad8     ONLINE       0     0     0
            ad10    ONLINE       0     0     0
            ad12    ONLINE       0     0     0
            ad14    ONLINE       0     0     0


errors: No known data errors

このように、zpool0というストレージプールができていることが分かります。この時点で、/zpool0にすでにマウントされてしまうのでそのまま使えるっぽいのだけど…

# mount
/dev/mirror/gm0s1a on / (ufs, local)
devfs on /dev (devfs, local)
/dev/mirror/gm0s1e on /tmp (ufs, local, soft-updates)
/dev/mirror/gm0s1f on /usr (ufs, NFS exported, local, soft-updates)
/dev/mirror/gm0s1d on /var (ufs, local, soft-updates)
/dev/mirror/gm1s1d on /home (ufs, local, soft-updates, acls)
procfs on /proc (procfs, local)
zpool0 on /zpool0 (zfs, local)
devfs on /var/named/dev (devfs, local)

次に、ファイルシステムの作成(?)をおこないます。今回は、zpool0から/backupと/recを切り出します。zfsコマンドで、マウントポイントを明示して、

# zfs create -o mountpoint=/backup zpool0/backup
# zfs create -o mountpoint=/rec zpool0/rec

これもこれだけでおしまい。手応え無し。(^^;)

# mount
/dev/mirror/gm0s1a on / (ufs, local)
devfs on /dev (devfs, local)
/dev/mirror/gm0s1e on /tmp (ufs, local, soft-updates)
/dev/mirror/gm0s1f on /usr (ufs, NFS exported, local, soft-updates)
/dev/mirror/gm0s1d on /var (ufs, local, soft-updates)
/dev/mirror/gm1s1d on /home (ufs, local, soft-updates, acls)
procfs on /proc (procfs, local)
zpool0/backup on /backup (zfs, local)
zpool0/rec on /rec (zfs, NFS exported, local)
zpool0 on /zpool0 (zfs, local)
devfs on /var/named/dev (devfs, local)

以上、完了。ちなみに、dfしてみると、

# df  -H
Filesystem            Size    Used   Avail Capacity  Mounted on
/dev/mirror/gm0s1a    520M    315M    164M    66%    /
devfs                 1.0k    1.0k      0B   100%    /dev
/dev/mirror/gm0s1e    260M     27M    212M    11%    /tmp
/dev/mirror/gm0s1f    154G    5.7G    136G     4%    /usr
/dev/mirror/gm0s1d    4.2G    1.4G    2.4G    38%    /var
/dev/mirror/gm1s1d    242G    177G     46G    79%    /home
procfs                4.1k    4.1k      0B   100%    /proc
zpool0/backup         769G     56G    713G     7%    /backup
zpool0/rec            1.9T    1.2T    713G    63%    /rec
zpool0                713G    131k    713G     0%    /zpool0
devfs                 1.0k    1.0k      0B   100%    /var/named/dev

てな感じ。ちょっとわかりにくい…

あとは、起動時にZFSのファイルシステムを自動でマウントするように、/etc/rc.confへzfs_enable="YES"を入れておく。これでおしまい。

まぁ、とりあえずZFSは拍子抜けするぐらい簡単に使えちゃうって事で。

参考資料:

| | コメント (0) | トラックバック (0)

2007年10月25日 (木)

妙なサーバ障害

今日、会社でなんか開発室の方が騒がしいと思ったら、サーバ障害があったということだった。

そのとき職場にHP-UXが分かる人間が(自分含め)2人しかいなくて、つい顔を突っ込んでしまった。トラブルなんて、そうそう体験できるもんじゃないしね。苦労は買ってでもしろと言うし。

ま、どうも原因はコンソール端末とHDDが同時にお亡くなりになったようで、おかげで原因切り分けに苦労しちゃった。

最初、シリアルポートが死んだと思って、LAN Consoleからコンソールを掴もうと思って挑戦したけど、全然設定されて無くて使えず。

でも、実はOSは生きていて、Telnetで(今時sshじゃないなんてという突っ込みはおいといて)ログインできてしまった。

この時点で、サーバのシリアルインターフェースか死んだのかと思えたが、まぁ原因の切り分けはしておかないといけないと思い、シリアル端末を別のにしてみたら、見事に管理コンソールが出てきた。ということは、まずシリアル端末が死んだということだろうと推測。

並行しておこなっていたOS側の調査では、どうもHDD1台が認識されなくなった模様。復活した管理コンソールから、ハードウェアログを見てみても、インターフェース周りでエラーが発生しているようで、HDD死亡も確定かと思われる結果に。

まぁ、コンソールは掴めて状況が把握できたので、後はハードウェア保守の人にお任せで終了。

| | コメント (0) | トラックバック (0)

2007年10月23日 (火)

RAIDコントローラ復活

昨日お亡くなりになったかと思ったRAIDコントローラ、今日サーバを再起動してみたら、無事コントローラも上がってくれました。一安心。原因不明だけど。

おかげで、RAIDコントローラが死ぬ怖さを思い知りました。同じボードが手に入るうちに、予備として手に入れておいた方がいいなぁ。

| | コメント (0) | トラックバック (0)

より以前の記事一覧