From c13a681dce4656f9ac068a09ec04681f6bbe0c47 Mon Sep 17 00:00:00 2001 From: abenmiloud Date: Wed, 3 Oct 2018 14:29:20 +0200 Subject: [PATCH] =?UTF-8?q?Mise=20=C3=A0=20jour=20installation=20client?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- HowtoCeph.md | 53 ++++++++++++++++++++++++++++++++-------------------- 1 file changed, 33 insertions(+), 20 deletions(-) diff --git a/HowtoCeph.md b/HowtoCeph.md index e7bc174d..36cf074a 100644 --- a/HowtoCeph.md +++ b/HowtoCeph.md @@ -196,33 +196,47 @@ Le cluster est prêt. On peut maintenant s'occuper du client. ## Client -L'installation du client est analogue à celle des nœuds. Depuis le nœud admin : +L'installation du client est analogue à celle des nœuds. On install Ceph sur la machine cliente : ~~~ -$ ceph-deploy install --release luminous debc -$ ceph-deploy admin debc +# apt install apt-transport-https +# wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add - +# echo deb https://download.ceph.com/debian-luminous/ $(lsb_release -sc) main | tee /etc/apt/sources.list.d/ceph.list +# apt update && apt install ceph-common ~~~ -> Si cette étape échoue à cause d'un problème de clefs, il faut copier les clefs dans /etc/ceph : -> -> ~~~ -> # cp ceph.client.admin.keyring /etc/ceph -> ~~~ - -Sur le client, on peut désormais récupérer le block device : +Depuis un nœud admin, on copie la configuration du cluster : ~~~ -# rbd create foo --size 4096 --image-feature layering -# map foo --name client.admin +# ceph-deploy --overwrite-conf config push $MACHINE_CIBLE +# ceph auth export client.libvirt 2> /dev/null | ssh $USER@client 'cat - > ~/ceph.client.libvirt.keyring' ~~~ -> On peut connaître l'espace maximal réservé à un pool : -> -> ~~~ -> $ ceph df -> ~~~ +De retour sur la machine cliente, on place le fichier de configuration au bon endroit : -Si on compte utiliser le block device pour y installer une machine virtuelle, on peut s'arrêter là. Sinon, il ne reste qu'à le formater puis à le monter : +~~~ +# cp /home/$USER/ceph.client.libvirt.keyring /etc/ceph +~~~ + +Par défault, Ceph passe l'utilisateur ceph.admin. On peut passer en paramètre des commandes rbd et ceph le nom et le fichier qui contient la clef de l'utilisateur. Il est plus simple d'utiliser la variable d'environnement CEPH_ARGS : + +~~~ +# CEPH_ARGS='-n client.libvirt -k /etc/ceph/ceph.client.libvirt.keyring' +# export CEPH_ARGS +~~~ + +Cet utilisateur n'a que les droits de lecture sur les informations du cluster, comme l'état de santé, et les droit de lecture et d'écriture pour le pool rbd. Il devrait donc être possible de faire : + +~~~ +# ceph health +# rbd create $RBD_NAME --size 1G --image-feature layering +# rbd map $RBD_NAME +~~~ + +Le block device devrait être disponible dans /dev/rbd/rbd/$RBD_NAME. Happy fdisk! + + +Si on compte utiliser le block device pour y installer une machine virtuelle, il faut aller à la section [Libvirt](#rbd-et-libvirt). Sinon, il ne reste qu'à le formater puis à le monter : ~~~ # mkfs.ext4 -m0 /dev/rbd/rbd/foo @@ -347,6 +361,7 @@ Pour finir, on supprime le pool puis on active à nouveau la sécurité : # RBD +## RBD et Libvirt ## VM @@ -444,8 +459,6 @@ $ rbd snap rm rbd/foo@$SNAPNAME **TODO** ajouter la partie protection et clonage des snapshots -## Es - # CephFS