22
0
Fork 0
This commit is contained in:
btatu 2018-08-20 11:48:45 +02:00
parent c8e9fc7a21
commit 1f04c7403a
1 changed files with 10 additions and 11 deletions

View File

@ -59,7 +59,7 @@ User cephuser
L'utilisateur `cephuser` doit pouvoir exécuter la commande `sudo` sans mot de passe.
> Il est peut-être nécéssaire d'ajouter les machines dans le fichier `/etc/hosts` :
> Il est peut-être nécessaire d'ajouter les machines dans le fichier `/etc/hosts` :
>
> ~~~
> X.X.X.X ceph1
@ -163,7 +163,7 @@ $ ceph-deploy osd create --data /dev/sdX deb3
> On peut lancer la commande suivante pour s'assurer que le cluster fonctionne bien :
>
> ~~~
> $ ssh ceph1 sudo ceph -s | grep HEALTH_OK && echo yee || echo fail
> $ ssh ceph1 sudo ceph -s | grep HEALTH_OK && echo yes || echo fail
> ~~~
On ajoute des moniteurs afin d'assurer la bonne disponibilité du cluster. Il vaut mieux avoir un nombre impair de moniteurs.
@ -216,7 +216,7 @@ Sur le client, on peut désormais récupérer le block device :
# map foo --name client.admin
~~~
> On peut connaitre l'espace maximal allouable à un pool :
> On peut connaître l'espace maximal réservé à un pool :
>
> ~~~
> $ ceph df
@ -234,8 +234,7 @@ EOF
~~~
# Gestion des utilisateurs
# Gestion des comptes utilisateurs
Ceph a un système interne de gestion des utilisateurs. Un utilisateur est représenté par :
@ -258,7 +257,7 @@ exported keyring for client.admin
> On constate naturellement que l'utilisateur `client.admin` a tous les droits sur chacun des éléments du cluster.
Après avoir installé le cluster, `client.admin` est le seul utilisateur et celui par défaut. Si vous vous êtes placé dans `/home/$USER/ceph` pour la mise en place du cluster, les fichiers de configuration et la clef de l'utilisateur `client.admin` s'y trouvent. Cependant, par défaut, les commandes comme `ceph` ou `rbd` cherchent les clefs dans `/etc/ceph`. De ce fait, si on est pas `root` ou que la clef n'est pas dans `/etc/ceph`, Ceph renvera une erreur disant qu'il ne peut pas accéder au cluster. Pour corriger ça, il faut spécifier manuellement l'emplacement de la clef en option :
Après avoir installé le cluster, `client.admin` est le seul utilisateur et celui par défaut. Si vous vous êtes placé dans `/home/$USER/ceph` pour la mise en place du cluster, les fichiers de configuration et la clef de l'utilisateur `client.admin` s'y trouvent. Cependant, par défaut, les commandes comme `ceph` ou `rbd` cherchent les clefs dans `/etc/ceph`. De ce fait, si on est pas `root` ou que la clef n'est pas dans `/etc/ceph`, Ceph renverra une erreur disant qu'il ne peut pas accéder au cluster. Pour corriger ça, il faut spécifier manuellement l'emplacement de la clef en option :
~~~
$ ceph -n client.admin -k ~/ceph/ceph.client.admin.keyring health
@ -368,7 +367,7 @@ On peut utiliser un block device pour y installer une machine virtuelle avec `vi
## Redimensionnement
Il est possible d'étendre ou de réduire un block device au sein d'un pool. Si des machines virtuelles ont été installée sur le block device en question, il n'est pas nécéssaire de les éteindre. On suppose ici que l'on souhaite étendre le block device foo de 8 Gio à 16 Gio. Depuis le nœud admin ou client, il suffit de faire :
Il est possible d'étendre ou de réduire un block device au sein d'un pool. Si des machines virtuelles ont été installées sur le block device en question, il n'est pas nécessaire de les éteindre. On suppose ici que l'on souhaite étendre le block device foo de 8 Gio à 16 Gio. Depuis le nœud admin ou client, il suffit de faire :
~~~
# rbd resize foo --size 16G
@ -386,7 +385,7 @@ Il reste à avertir la machine que le device a changé de taille :
> # rbd resize foo --size 8G --allow-shrink
> ~~~
Le reste de la procédure dépend du système de fichiers utilisé et est à faire sur la VM. Si on souhaite étendre une partition `ext4` :
Le reste de la procédure dépend du système de fichier utilisé et est à faire sur la VM. Si on souhaite étendre une partition `ext4` :
~~~
# fdisk /dev/sdXY # suppression puis recréation de la partition
@ -521,7 +520,7 @@ $ ceph-fuse -n $CEPH_USERNAME -m $MONITOR_IP_ADDRESS:6789 /mnt/mycephfs -r /dir0
## Crash
Si une ou plusieurs machines du cluster s'éteigent brutalement, il suffit de les redémarrer et de s'assurer que le service NTP soit lancé sur la machine :
Si une ou plusieurs machines du cluster s'éteigent brutalement, il suffit de les redémarrer et de s'assurer que le service NTP soit lancé sur la machine :
~~~
# timedatectl status | grep -q '^NTP synchronized: yes$' || timedatectl set-ntp true
@ -532,7 +531,7 @@ Ceph devrait se réparer tout seul. La commande `watch ceph -s` permet de s'en a
## Installation client impossible
Si l'installation d'un client n'est pas possible à cause d'une erreur de configuration des paquets avec dpkg :
Si l'installation d'un client n'est pas possible à cause d'une erreur de configuration des paquets avec dpkg :
~~~
# dpkg --configure ceph-common
@ -554,7 +553,7 @@ $ ceph -s
Degraded data redundancy: 888/5094 objects degraded (17.432%), 66 pgs degraded
~~~
Dans la plupart des cas il suffira d'attendre que le cluster se soigne seul. On peut surveiller l'état du cluster avec `watch sudo ceph -s`. En dernier recours, si le cluster est bloqué, la commande suivante *peut* de corriger ce warning :
Dans la plupart des cas il suffira d'attendre que le cluster se soigne seul. On peut surveiller l'état du cluster avec `watch sudo ceph -s`. En dernier recours, si le cluster est bloqué, la commande suivante *peut* corriger ce warning :
~~~
$ ceph sync force --yes-i-really-mean-it --i-know-what-i-am-doing