--- categories: cloud storage haute-disponibilite title: Howto GlusterFS ... * Documentation : **GlusterFS** est un système de fichier distribué permettant d'utilisé le stockage de plusieurs serveurs pour un seul système de fichier. On peut l'utilisé en mode réplication, où chaque fichier est répliquer sur plusieurs serveurs afin d'augmenter sa disponibilité en cas de coupures (un peu comme du RAID1), ou en mode distribué, où les fichiers ne sont pas tous sur un même serveur (un peu comme du RAID0), ou un mixe des deux. ## Vocabulaire de GlusterFS
Cluster
Un groupe de serveurs partageant une configuration GlusterFS commune.
Peer
Un serveur qui est membre du cluster.
Brick
L'emplacement physique utilisé pour le stockage des données d'un volume.
Volume
Un stockage logique exporté par GlusterFS.
## Configuration d'un nouveau cluster ### Installation ~~~ # apt install glusterfs-server ~~~ Il est ensuite possible de vérifié que glusterfs est installé avec : ~~~ # glusterd --version glusterfs 9.2 Repository revision: git://git.gluster.org/glusterfs.git [...] ~~~ ### Création du cluster Après avoir installé `glusterfs-server` sur l'ensemble des serveurs du future cluster, il faut ajouté les serveurs à leur liste de serveurs de confiance. glusterd s'occupe de communiquer la liste entre chaque serveur déjà présent dans la liste, et l'ajout est symétrique, il suffit donc de faire la commande suivante sur une seule machine du cluster (1 fois par serveur à ajouté) : ~~~ srv1# gluster peer probe peer probe: success. ~~~ > Note : Les serveurs doivent pouvoir communiquer entre eux sans restriction au niveau réseau. Pour vérifier que les serveurs ont bien était ajoutés, faire la commande suivante sur un des serveurs du cluster : ~~~ # gluster peer status Number of Peers: 1 Hostname: xxx Uuid: xxxxx State: Peer in Cluster (Connected) ~~~ ### Création d'un volume Ici `/srv/gluster/` est un montage d'un volume dédié pour GlusterFS et le volume à créer se nomme `foovol`. Créer le répertoire sur chaque serveur : ~~~ # mkdir /srv/gluster/foovol ~~~ Puis sur un des serveurs, créer le volume GlusterFS ~~~ # gluster volume create foovol replica 2 :/srv/gluster/foovol :/srv/gluster/foovol volume create: foovol: success: please start the volume to access data # gluster volume start foovol volume start: foovol: success ~~~ > Note: Un volume en mode replica avec seulement 2 réplication comme ci-dessus est fortement sensible aux split-brain, il est donc recommandé d'utilisé au moins 3 serveurs et `replica 3`. En général, le mode réplica devrait être utilisé avec `2n+1` replica, où `n` est le nombre de serveurs de stockage pouvant tomber sans coupures de service. Vérification : ~~~ # gluster volume info gluster volume info Volume Name: foovol Type: Replicate Volume ID: [...] Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: :/srv/gluster/foovol Brick2: :/srv/gluster/foovol [...] ~~~ Sur la machine cliente, on peut maintenant monter le volume : ~~~ # echo "srv1:/foovol /mnt/foovol glusterfs defaults 0 0" >>/etc/fstab # mkdir /mnt/foovol # mount /mnt/foovol ~~~ ## Administration Vérifier l'état global des volumes GlusterFS : ~~~ # gluster volume status ~~~ Obtenir la liste des clients glusterfs et leur utilisation des différentes brick : ~~~ # gluster volume status clients ~~~ Autres informations : ~~~ # gluster volume status (mem|fd|inode|callpool) ~~~ ### Lister les peers ~~~ # gluster peer status ~~~ ### Lister les volumes ~~~ # gluster volume list ~~~ #### Voir la santé du volume "foo" ~~~ # gluster volume heal foo info ~~~ #### Forcer un 'heal' pour le volume "bar" ~~~ # gluster volume heal bar ~~~ ## Cas pratiques ### Récupération d'un split-brain - Forcer l'utilisation d'un réplicas comme source de résolution Dans une situation de split-brain, on peut avoir : ~~~ # gluster volume heal foo info Brick tic.example.net:/srv/gluster/foovol - Is in split-brain Status: Connected Number of entries: 1 Brick tac.example.net:/srv/gluster/foovol - Is in split-brain Status: Connected Number of entries: 1 ~~~ Dans ce cas, on peut définir que c'est le réplica "tic" qui va être utilisé pour rétablir le reste du cluster avec la commande : ~~~ # gluster volume heal foo split-brain source-brick tic.example.net:/srv/gluster/foovol gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc Healed gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc ~~~ [Plus de documentation](https://docs.gluster.org/en/v3/Troubleshooting/resolving-splitbrain/)