diff --git a/HowtoCeph.md b/HowtoCeph.md index e68a92e9..68f50185 100644 --- a/HowtoCeph.md +++ b/HowtoCeph.md @@ -69,7 +69,7 @@ L'utilisateur `cephuser` doit pouvoir exécuter la commande `sudo` sans mot de p > En réalité seul le nœud maître à besoin de se connecter aux autres nœud du cluster mais je n'ai pas essayé. -Dans cet exemple, chaque noeud - `ceph1`, `ceph2` et `ceph3` - à un disque supplémentaire à sa disposition. Ce disque contiendra les données à stocker dans le cluster et doit être vide, sans table de partitions et être utilisé comme volume physique : +Dans cet exemple, chaque nœud - `ceph1`, `ceph2` et `ceph3` - à un disque supplémentaire à sa disposition. Ce disque contiendra les données à stocker dans le cluster et doit être vide, sans table de partitions et être utilisé comme volume physique : ~~~ wipefs -a /dev/sdX @@ -255,6 +255,17 @@ EOF # Gestion des nœuds +## Redémarrer Ceph + +Pour redémarrer tous les services du cluster faire, sur tous les nœuds du cluster : + +~~~ +# systemctl stop ceph\*.service ceph\*.target +# systemctl start ceph.target +~~~ + +Pour plus de détail : [Operating a Cluster](http://docs.ceph.com/docs/luminous/rados/operations/operating/). + ## Redémarrer un nœud Si on souhaite redémarrer un des nœuds du cluster, on commence par désactiver le balancing du cluster temporairement. L'objectif est d'empêcher le cluster de répliquer les objects perdus ailleurs. Sur un des nœuds :