Hatena::Groupfilesystem

fs_n314

2007-12-30

debian etchでのglusterfsのインストール

| 04:47 |  debian etchでのglusterfsのインストール - fs_n314 を含むブックマーク はてなブックマーク -  debian etchでのglusterfsのインストール - fs_n314

Documentation has moved! —Gluster ほぼここの記述そのまま。




まずは http://ftp.zresearch.com/pub/gluster/glusterfs/ からfuseとglusterfsの最新版をDL


fuseインストール

apt-get install libfuse2 fuse-utils libfuse-dev

でパッケージをインストールできるがバージョンが古い。よってソースからインストール


tar xvzf fuse-2.7.0-glfs7.tar.gz
cd fuse-2.7.0-glfs7
./configure --enable-kernel-module
make install

prefixを指定しなければ /usr/local 以下にインストールされる。消したいときは make uninstallで。


次はglusterfsのインストール

tar xvzf glusterfs-1.3.7.tar.gz
cd glusterfs-1.3.7
./configure --disable-ibverbs
make install

手順は同じ。


ここからクライアントサーバを同一マシンで動かす。

cd /usr/local/etc/glusterfs
cp glusterfs-server.vol{.sample,}
cp glusterfs-client.vol{.sample,}

serverの方の option directory を /tmp/export に変更。

クライアントはサンプルの127.0.0.1のままで。

mkdir /tmp/glusterfs
mkdir /mnt/glusterfs
glusterfsd -f glusterfs-server.vol
glusterfs -f glusterfs-client.vol /mnt/glusterfs

これで /tmp/glusterfs や /mnt/glusterfs に書き込んでみると動く。



。。。。。

同一マシンで動かしてもバインドマウントと変わらないことに気付いた。

なのでsargeのメインマシンにも入れてみる。


cd glusterfs-1.3.7
./configure --disable-ibverbs --disable-fuse-client
make install
cd /usr/local/etc/glusterfs
cp glusterfs-server.vol{.sample,}
vi glusterfs-server.vol
mkdir /tmp/export
mkdir -p /usr/local/var/log/glusterfs
glusterfs -f glusterfs-server.vol

同様に option directory を書き換える。

あと、logのディレクトリが作成されていなかったので作成する。


クライアントをkillall(ちゃんとした停止の仕方がある?)してから設定ファイルを編集し、再度glusterfsを立ち上げる。



サーバクライアント

server.vol

volume brick
  type storage/posix
  option directory /tmp/export
end-volume

volume brick-ns
  type storage/posix
  option directory /tmp/export-ns
end-volume

volume server
  type protocol/server
  option transport-type tcp/server
  subvolumes brick brick-ns
  option auth.ip.brick.allow *
  option auth.ip.brick-ns.allow *
end-volume

client.vol

volume client
  type protocol/client
  option transport-type tcp/client
  option remote-host 127.0.0.1
  option remote-subvolume brick
end-volume

volume client2
  type protocol/client
  option transport-type tcp/client
  option remote-host 192.168.235.1 # host os from vmware
  option remote-subvolume brick
end-volume

volume client-ns
  type protocol/client
  option transport-type tcp/client
  option remote-host 127.0.0.1
  option remote-subvolume brick-ns
end-volume

volume unify
  type cluster/unify
  subvolumes client client2
  option namespace client-ns
  option scheduler rr # ラウンドロビン?
end-volume

サーバ

server.vol

volume brick
  type storage/posix
  option directory /tmp/export
end-volume

volume server
  type protocol/server
  option transport-type tcp/server
  subvolumes brick
  option auth.ip.brick.allow *
end-volume

注意するのはサーバのnsボリュームとクライアントの設定。

/mnt/glusterfsにマウントして

for i in $(seq 1 9); do echo $i > /mnt/glusterfs/$i; done

とかやってみると動作がわかる。

nsに設定したディレクトリは、全サーバのdentryが集約されている感じ。中身は無し。


やっぱり2台じゃまだ足りないな。

afjviazdmeafjviazdme2014/06/24 10:19xmtxxgjmftztufn, <a href="http://www.wykjlyxwan.com/">glsqeddusq</a> , [url=http://www.exttypsxvu.com/]wrtdlqhxdi[/url], http://www.wjtzceizux.com/ glsqeddusq

トラックバック - http://filesystem.g.hatena.ne.jp/n314/20071230
日記の検索