diff --git a/HowtoCeph.md b/HowtoCeph.md index 426cc35a..72c274f0 100644 --- a/HowtoCeph.md +++ b/HowtoCeph.md @@ -282,4 +282,15 @@ Après avoir éteint le cluster pendant un week-end, la commande `sudo ceph -s` Dans la plupart des cas il suffira d'attendre que le cluster se soigne seul. On peut surveiller l'état du cluster avec `watch sudo ceph -s`. En dernier recours, si le cluster est bloqué, la commande suivante *peut* de corriger ce warning : - $ sudo ceph sync force --yes-i-really-mean-it --i-know-what-i-am-doing \ No newline at end of file + $ sudo ceph sync force --yes-i-really-mean-it --i-know-what-i-am-doing + +## Manque de placement groups + +Si on ajoute un grand nombres d'OSD sur un cluster de petite taille (c.à.d ayant moins de 10 OSD) le rapport de santé de Ceph peut nous avertir d'un manque de placement groups (noté « pgs »). Il suffit d'en ajouter avec la commande suivante : + +~~~ +ceph osd pool set $POOL_NAME pg_num $PG_NUM +ceph osd pool set $POOL_NAME pgp_num $PG_NUM +~~~ + +> $PG_NUM doit être une puissance de 2. \ No newline at end of file