このチュートリアルに従って、Ubuntuで複製されたGlusterFSボリュームをセットアップする方法を学びます。 がある さまざまなタイプのボリュームアーキテクチャ あなたが考慮したいかもしれません。 これらには以下が含まれます。
Ubuntuで複製されたGlusterFSボリュームをセットアップする
複製されたGlusterFSボリュームは、信頼性とデータの冗長性を提供し、ブリックの1つが損傷した場合のデータ損失に対するクッションを提供します。 これは、データの正確なコピーがボリュームを構成するすべてのブリックに保存されているためです。 あなたが必要です 2つのレプリカを持つボリュームを作成するための少なくとも2つのブリック、または3つのレプリカのボリュームを作成するための少なくとも3つのブリック。
次の問題を回避するために、少なくとも3つのブリックを使用することをお勧めします。 スプリットブレイン。
では、Ubuntuで複製されたGlusterFSボリュームをどのようにセットアップできますか?
展開アーキテクチャでは、ルートパーティションとは別に追加のストレージパーティションが接続された2つのストレージサーバーを使用しています。
- ストレージノード1:
- ホスト名:gfs01.kifarunix-demo.com
- IPアドレス:192.168.57.6
- Glusterストレージディスク:/ dev / sdb1
- サイズ:4GB
- マウントポイント:/ gfsvolume
- OS:Ubuntu 22.04 / Ubuntu 20.04
- ストレージノード2:
- ホスト名:gfs02.kifarunix-demo.com
- IPアドレス:192.168.56.124
- Glusterストレージディスク:/ dev / sdb1
- サイズ:4GB
- マウントポイント:/ gfsvolume
- OS:Ubuntu 22.04 / Ubuntu 20.04
- ホスト名:gfs03.kifarunix-demo.com
- IPアドレス:192.168.56.125
- Glusterストレージディスク:/ dev / sdb1
- サイズ:4GB
- マウントポイント:/ gfsvolume
- OS:Ubuntu 22.04 / Ubuntu 20.04
- GlusterFSクライアント:
- ホスト名:gfsclient.kifarunix-demo.com
- IPアドレス:192.168.43.197
- OS:Ubuntu 22.04 / Ubuntu 20.04
先に進む前に;
UbuntuにGlusterFSサーバーをインストールする
ファイアウォールでGlusterFSポートを開く
GlusterFSトラステッドストレージプールを作成する
ストレージプールは、ストレージボリュームにブリックを提供するストレージノードのクラスターです。
GlusterFS TSPを作成するには、いずれかのノードから以下のコマンドを実行し、 サーバ 他のノードがプローブされます。
gluster peer probe SERVER
たとえば、ノード01からノード02とノード03を含む信頼できるストレージプールを作成するには、
gluster peer probe gfs02
gluster peer probe gfs03
すべてが順調であれば、プローブは成功するはずです。 peer probe: success
。
TSPピアのステータスを取得するには;
gluster peer status
サンプル出力;
Number of Peers: 2 Hostname: gfs02 Uuid: b81803a8-893a-499e-9a87-6bac00a62822 State: Peer in Cluster (Connected) Hostname: gfs03 Uuid: 88cf40a0-d458-4080-8c7a-c3cddbce86c0 State: Peer in Cluster (Connected)
複製されたGlusterFSストレージボリュームを作成する
まず、ストレージドライブがマウントされていることを確認します。 私たちのセットアップでは、非ルートパーティションを使用しています。 /dev/sdb1
下にマウント /gfsvolume
。
df -hTP /gfsvolume/
Filesystem Type Size Used Avail Use% Mounted on
/dev/sdb1 ext4 3.9G 24K 3.7G 1% /gfsvolume
複製されたGlusterFSストレージボリュームを作成するには、 gluster volume create
コマンド。CLI構文を以下に示します。
gluster volume create <NEW-VOLNAME> [[replica <COUNT>
[arbiter <COUNT>]]|[replica 2 thin-arbiter 1]] [disperse [<COUNT>]]
[disperse-data <COUNT>] [redundancy <COUNT>] [transport <tcp|rdma|tcp,rdma>]
<NEW-BRICK> <TA-BRICK>... [force]
たとえば、2つのノードを使用してレプリケートされたストレージボリュームを作成するには、ボリュームの名前を置き換えます。 replicated_volume
それに応じてノードのホスト名も同様です。
gluster volume create replicated_volume replica 3 transport tcp gfs01:/gfsvolume/gv0
gfs02:/gfsvolume/gv0
gfs03:/gfsvolume/gv0
サンプルコマンド出力;
volume create: replicated_volume: success: please start the volume to access data
GlusterFSボリュームを起動します
ボリュームを作成したら、ボリュームへのデータの保存を開始するためにボリュームを開始できます。
コマンド、 gluster volume start VOLUME_NAME
、ボリュームを開始するために使用できます。
gluster volume start replicated_volume
サンプルコマンド出力;
volume start: replicated_volume: success
ボリュームのステータスを確認します。
gluster volume status
Status of volume: replicated_volume Gluster process TCP Port RDMA Port Online Pid ------------------------------------------------------------------------------ Brick gfs01:/gfsvolume/gv0 49152 0 Y 2050 Brick gfs02:/gfsvolume/gv0 50073 0 Y 16260 Brick gfs03:/gfsvolume/gv0 60961 0 Y 1421 Self-heal Daemon on localhost N/A N/A Y 2071 Self-heal Daemon on gfs03 N/A N/A Y 1438 Self-heal Daemon on gfs02 N/A N/A Y 16277 Task Status of Volume replicated_volume ------------------------------------------------------------------------------ There are no active volume tasks
gluster情報を確認してください。
gluster volume info
Volume Name: replicated_volume Type: Replicate Volume ID: 4f522843-13df-4042-b73a-ff6722dc9891 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 3 = 3 Transport-type: tcp Bricks: Brick1: gfs01:/gfsvolume/gv0 Brick2: gfs02:/gfsvolume/gv0 Brick3: gfs03:/gfsvolume/gv0 Options Reconfigured: transport.address-family: inet storage.fips-mode-rchecksum: on nfs.disable: on performance.client-io-threads: off
ファイアウォールでGlusterFSボリュームポートを開く
クライアントが作成されたボリュームに接続するには、ファイアウォールでそれぞれのノードボリュームポートを開く必要があります。 ポートはを使用して表示されます gluster volume status
上記のコマンド。
同様に、ノードがこれらのノードで相互に通信できることを確認してください
たとえば、ノード01でUFWを使用している場合、以下のコマンドを実行して、クライアントおよびその他のGlusterノードがポート49152/tcpに接続できるようにします。
ufw allow from <Client-IP-or-Network> to any port 49152 proto tcp comment "GlusterFS Client Access"
ufw allow from <Node02 IP> to any port 49152 proto tcp comment "GlusterFS Node02"
ufw allow from <Node03 IP> to any port 49152 proto tcp comment "GlusterFS Node03"
ノード02で、以下のコマンドを実行して、クライアントがポート50073/tcpに接続できるようにします。
ufw allow from <Client-IP-or-Network> to any port 50073 proto tcp comment "GlusterFS Client Access"
ufw allow from <Node01-IP> to any port 50073 proto tcp comment "GlusterFS Node01"
ufw allow from <Node03 IP> to any port 50073 proto tcp comment "GlusterFS Node03"
ノード03で、以下のコマンドを実行して、クライアントがポート60961/tcpに接続できるようにします。
ufw allow from <Client-IP-or-Network> to any port 60961 proto tcp comment "GlusterFS Client Access"
ufw allow from <Node01 IP> to any port 60961 proto tcp comment "GlusterFS Node01"
ufw allow from <Node02 IP> to any port 60961 proto tcp comment "GlusterFS Node02"
複製されたGlusterFSボリュームをクライアントにマウントする
例として、UbuntuシステムをGlusterFSクライアントとして使用しています。
したがって、GlusterFSクライアントをインストールし、次の手順に従って、複製されたGlusterFSボリュームをマウントします。
クライアントがGlusterノードのホスト名を解決できることを確認します。
マウントポイントを作成します
mkdir /mnt/gfsvol
分散ボリュームをマウントします。 ドメイン名を使用する場合は、それらが解決可能であることを確認してください。
mount -t glusterfs gfs01:/replicated_volume /mnt/gfsvol/
dfコマンドを実行して、マウントされたファイルシステムを確認します。
df -hTP /mnt/gfsvol/
Filesystem Type Size Used Avail Use% Mounted on
gfs01:/replicated_volume fuse.glusterfs 3.9G 41M 3.7G 2% /mnt/gfsvol
他のクライアントから、他のノードにボリュームをマウントできます。
mount -t glusterfs gfs02:/replicated_volume /mnt/gfsvol/
システム起動時にボリュームを自動マウントするには、以下の行をに追加する必要があります。 /etc/fstab
。
gfs01:/replicated_volume /mnt/gfsvol glusterfs defaults,_netdev 0 0
データ分散をテストするには、クライアントで2つのテストファイルを作成します。 ファイルの1つは、一方のボリュームに保存され、もう一方のファイルはもう一方のボリュームに保存されます。 以下の例を参照してください。
mkdir /mnt/gfsvol/Test-dir touch /mnt/gfsvol/Test-dir/{test-file,test-file-two}
node01、node02、node 03を確認できる場合は、すべて同じファイルが含まれている必要があります
ls /gfsvolume/gv0/Test-dir/ test-file test-file-two
node02では、
ls /gfsvolume/gv0/Test-dir/ test-file test-file-two
node03では、
ls /gfsvolume/gv0/Test-dir/ test-file test-file-two
これで、UbuntuにレプリケートされたGlusterFSボリュームをインストールしてセットアップする方法に関するガイドは終わりです。
その他のチュートリアル
Ubuntu22.04にSambaファイルサーバーを簡単にインストールして構成する
Ubuntu 22.04 /Ubuntu20.04にCouchbaseServerをインストールします
Ubuntu20.04にCephStorageClusterをインストールしてセットアップする
The post Ubuntuで複製されたGlusterFSボリュームをセットアップする appeared first on Gamingsym Japan.