22
0
Fork 0

Mise à jour installation client

This commit is contained in:
abenmiloud 2018-10-03 14:29:20 +02:00
parent 2e8f4a70dd
commit c13a681dce
1 changed files with 33 additions and 20 deletions

View File

@ -196,33 +196,47 @@ Le cluster est prêt. On peut maintenant s'occuper du client.
## Client
L'installation du client est analogue à celle des nœuds. Depuis le nœud admin :
L'installation du client est analogue à celle des nœuds. On install Ceph sur la machine cliente :
~~~
$ ceph-deploy install --release luminous debc
$ ceph-deploy admin debc
# apt install apt-transport-https
# wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add -
# echo deb https://download.ceph.com/debian-luminous/ $(lsb_release -sc) main | tee /etc/apt/sources.list.d/ceph.list
# apt update && apt install ceph-common
~~~
> Si cette étape échoue à cause d'un problème de clefs, il faut copier les clefs dans /etc/ceph :
>
> ~~~
> # cp ceph.client.admin.keyring /etc/ceph
> ~~~
Sur le client, on peut désormais récupérer le block device :
Depuis un nœud admin, on copie la configuration du cluster :
~~~
# rbd create foo --size 4096 --image-feature layering
# map foo --name client.admin
# ceph-deploy --overwrite-conf config push $MACHINE_CIBLE
# ceph auth export client.libvirt 2> /dev/null | ssh $USER@client 'cat - > ~/ceph.client.libvirt.keyring'
~~~
> On peut connaître l'espace maximal réservé à un pool :
>
> ~~~
> $ ceph df
> ~~~
De retour sur la machine cliente, on place le fichier de configuration au bon endroit :
Si on compte utiliser le block device pour y installer une machine virtuelle, on peut s'arrêter là. Sinon, il ne reste qu'à le formater puis à le monter :
~~~
# cp /home/$USER/ceph.client.libvirt.keyring /etc/ceph
~~~
Par défault, Ceph passe l'utilisateur ceph.admin. On peut passer en paramètre des commandes rbd et ceph le nom et le fichier qui contient la clef de l'utilisateur. Il est plus simple d'utiliser la variable d'environnement CEPH_ARGS :
~~~
# CEPH_ARGS='-n client.libvirt -k /etc/ceph/ceph.client.libvirt.keyring'
# export CEPH_ARGS
~~~
Cet utilisateur n'a que les droits de lecture sur les informations du cluster, comme l'état de santé, et les droit de lecture et d'écriture pour le pool rbd. Il devrait donc être possible de faire :
~~~
# ceph health
# rbd create $RBD_NAME --size 1G --image-feature layering
# rbd map $RBD_NAME
~~~
Le block device devrait être disponible dans /dev/rbd/rbd/$RBD_NAME. Happy fdisk!
Si on compte utiliser le block device pour y installer une machine virtuelle, il faut aller à la section [Libvirt](#rbd-et-libvirt). Sinon, il ne reste qu'à le formater puis à le monter :
~~~
# mkfs.ext4 -m0 /dev/rbd/rbd/foo
@ -347,6 +361,7 @@ Pour finir, on supprime le pool puis on active à nouveau la sécurité :
# RBD
## RBD et Libvirt
## VM
@ -444,8 +459,6 @@ $ rbd snap rm rbd/foo@$SNAPNAME
**TODO** ajouter la partie protection et clonage des snapshots
## Es
# CephFS