orthographe

This commit is contained in:
jlecour 2023-12-01 14:15:23 +01:00
parent 0f5663ebc7
commit 246281eb18

View file

@ -5,7 +5,7 @@ title: Howto GlusterFS
* Documentation : <https://docs.gluster.org/en/latest/>
**GlusterFS** est un système de fichier distribué permettant d'utilisé le stockage de plusieurs serveurs pour un seul système de fichier. On peut l'utilisé en mode réplication, où chaque fichier est répliquer sur plusieurs serveurs afin d'augmenter sa disponibilité en cas de coupures (un peu comme du RAID1), ou en mode distribué, où les fichiers ne sont pas tous sur un même serveur (un peu comme du RAID0), ou un mixe des deux.
**GlusterFS** est un système de fichier distribué permettant d'utiliser le stockage de plusieurs serveurs pour un seul système de fichier. On peut l'utiliser en mode réplication, où chaque fichier est répliqué sur plusieurs serveurs afin d'augmenter sa disponibilité en cas de coupures (un peu comme du RAID1), ou en mode distribué, où les fichiers ne sont pas tous sur un même serveur (un peu comme du RAID0), ou un mixe des deux.
## Vocabulaire de GlusterFS
@ -31,7 +31,7 @@ title: Howto GlusterFS
# apt install glusterfs-server
~~~
Il est ensuite possible de vérifié que glusterfs est installé avec :
Il est ensuite possible de vérifier que glusterfs est installé avec :
~~~
# glusterd --version
@ -42,16 +42,16 @@ Repository revision: git://git.gluster.org/glusterfs.git
### Création du cluster
Après avoir installé `glusterfs-server` sur l'ensemble des serveurs du future cluster, il faut ajouté les serveurs à leur liste de serveurs de confiance. glusterd s'occupe de communiquer la liste entre chaque serveur déjà présent dans la liste, et l'ajout est symétrique, il suffit donc de faire la commande suivante sur une seule machine du cluster (1 fois par serveur à ajouté) :
Après avoir installé `glusterfs-server` sur l'ensemble des serveurs du futur cluster, il faut ajouter les serveurs à leur liste de serveurs de confiance. glusterd s'occupe de communiquer la liste entre chaque serveur déjà présent dans la liste, et l'ajout est symétrique, il suffit donc de faire la commande suivante sur une seule machine du cluster (1 fois par serveur à ajouter) :
~~~
srv1# gluster peer probe <adresse IP srv2>
peer probe: success.
~~~
> Note : Les serveurs doivent pouvoir communiquer entre eux sans restriction au niveau réseau (techniquement ils ont besoin d'accès à : 24007/TCP, 24008/TCP, */UDP et `base-port`-`max-port`/TCP (à priori 49152-60999/TCP)). Le port 24007 étant particulièrement important, étant celui utilisé pour ajouté des serveurs dans la liste des serveurs de confiances.
> Note : Les serveurs doivent pouvoir communiquer entre eux sans restriction au niveau réseau (techniquement ils ont besoin d'accès à : 24007/TCP, 24008/TCP, */UDP et `base-port`-`max-port`/TCP (à priori 49152-60999/TCP)). Le port 24007 étant particulièrement important, étant celui utilisé pour ajouter des serveurs dans la liste des serveurs de confiances.
Pour vérifier que les serveurs ont bien était ajoutés, faire la commande suivante sur un des serveurs du cluster :
Pour vérifier que les serveurs ont bien été ajoutés, faire la commande suivante sur un des serveurs du cluster :
~~~
# gluster peer status
@ -81,7 +81,7 @@ volume create: foovol: success: please start the volume to access data
volume start: foovol: success
~~~
> Note: Un volume en mode replica avec seulement 2 réplication comme ci-dessus est fortement sensible aux split-brain, il est donc recommandé d'utilisé au moins 3 serveurs et `replica 3`. En général, le mode réplica devrait être utilisé avec `2n+1` replica, où `n` est le nombre de serveurs de stockage pouvant tomber sans coupures de service.
> Note: Un volume en mode replica avec seulement 2 réplications comme ci-dessus est fortement sensible aux split-brain, il est donc recommandé d'utiliser au moins 3 serveurs et `replica 3`. En général, le mode réplica devrait être utilisé avec `2n+1` replica, où `n` est le nombre de serveurs de stockage pouvant tomber sans coupures de service.
Vérification :
@ -118,7 +118,7 @@ Vérifier l'état global des volumes GlusterFS :
# gluster volume status <volume|all>
~~~
Obtenir la liste des clients glusterfs et leur utilisation des différentes brick :
Obtenir la liste des clients glusterfs et leur utilisation des différentes bricks :
~~~
# gluster volume status <volume|all> clients
@ -190,7 +190,7 @@ Healed gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc
> Ce plugin, sans modification, provoque des faux-positifs dans le cas où glusterfs n'utilise pas les FQDN des serveurs.
Le monitoring de glusterfs au niveau des serveurs glusterfs peut ce faire avec le plugin [atlantos/nagios-check-gluster](https://github.com/atlantos/nagios-check-gluster).
Le monitoring de glusterfs au niveau des serveurs glusterfs peut se faire avec le plugin [atlantos/nagios-check-gluster](https://github.com/atlantos/nagios-check-gluster).
Celui-ci surveille :
@ -200,7 +200,7 @@ Celui-ci surveille :
* que les services servant à l'export des données des volumes soient bien démarrés,
* (si voulu, et par défaut) que les services de correction automatique de la synchronisation soient bien démarrés,
* (si voulu, et par défaut) que les services de détection du "Bitrot" soient bien démarrés,
* (si voulu, et par défaut) que les services (interne) d'export par NFS soient bien démarrés (il ne sont pas utilisé lors de l'export par Ganesha),
* (si voulu, et par défaut) que les services (interne) d'export par NFS soient bien démarrés (ils ne sont pas utilisés lors de l'export par Ganesha),
* (si voulu, et par défaut) qu'il n'y a pas de problèmes de synchronisation,
* (si voulu, et par défaut) que le check de "Bitrot" ne retourne aucune erreur.
@ -208,7 +208,7 @@ Ce plugin a besoin de tourner en tant que `root`.
## Export de volumes par NFS
> Glusterd peut techniquement exporté nativement un volume par NFS mais cette fonctionnalité n'est pas compilé dans le paquet dans les dépôts Debian.
> Glusterd peut techniquement exporter nativement un volume par NFS mais cette fonctionnalité n'est pas compilé dans le paquet dans les dépôts Debian.
> L'export par Ganesha est aussi nécessaire pour faire de la Haute Disponibilité avec NFS.
@ -224,14 +224,14 @@ Il faut ensuite définir un export tel que :
EXPORT {
Export_Id = <nombre>; # Identifiant interne à Ganesha pour cet export, doit être un nombre entre 1 et 65535
Path = "<volume_path>"; # Chemin du volume à être exporter, peut être '/<volume_name>' par exemple
Path = "<volume_path>"; # Chemin du volume à être exporté, peut être '/<volume_name>' par exemple
Pseudo = "<pseudo_path>"; # pseudo chemin pour NFSv4
Access_Type = <None|RW|RO|MDONLY|MDONLY_RO>;
FSAL {
Name = "GLUSTER";
Hostname = "<nom_de_domaine|adresse_ip>"; # Adresse du serveur glusterfs à contacté, probablement localhost
Hostname = "<nom_de_domaine|adresse_ip>"; # Adresse du serveur glusterfs à contacter, probablement localhost
Volume = "<nom_du_volume_glusterfs>";
}
}