22
0
Fork 0

amélioration

This commit is contained in:
Gregory Colpart 2019-11-23 01:16:45 +01:00
parent bed2bb3797
commit 27dbc06e2f
1 changed files with 43 additions and 1 deletions

View File

@ -4,9 +4,51 @@ title: Howto Ceph
...
* Documentation : <http://docs.ceph.com>
* Thèse de Sage Weil : <https://ceph.com/wp-content/uploads/2016/08/weil-thesis.pdf>
* Publications sur Ceph : <https://ceph.io/publications/>
* Vidéo "Intro to Ceph" par Sage Weil : <https://youtu.be/PmLPbrf-x9g>
[Ceph](https://ceph.io/) est une plateforme libre de stockage. Historiquement développé par [Sage Weil](https://en.wikipedia.org/wiki/Sage_Weil) à la suite d'une thèse en 2007, Ceph appartient désormais à Red Hat.
Ceph peut également s'apparenter à un « disque distribué auto-réparant » ou encore une sorte de « RAID-NG ». Le principe est de s'appuyer sur des disques répartis au sein de plusieurs ordinateurs reliés en réseau, et d'avoir une tolérance de panne avec réparation rapide et de permettre l'ajout de disques de façon simple.
## Principes de bases
Ceph permet la répartition d'objets (fichiers, morceaux de fichiers, blocs, etc.) dans un volume (pool) découpé en centaines de morceaux de plusieurs Go (PG). Chaque morceau (PG) est réparti sur 3 disques (OSD) situés dans des ordinateurs distincts.
L'algorithme CRUSH décrit ce découpage et rassemble toutes les informations dans une CRUSH map.
Un cluster Ceph est constitué de démons `osd` pour chaque disque, 3 démons `monitor` et 1 démon `manager`. Si besoin de faire du CephFS il faudra avoir un ou plusieurs démons `mds`, et si besoin d'avoir un accès HTTP REST (compatible Amazon S3) des démons` rgw`.
Pour accéder à un cluster Ceph, un client Ceph peut le faire via RADOS : en mode bloc (RBD), en mode fichers (CephFS) ou en mode HTTP REST compatible Amazon S3 (RGW).
# Installation
## Utilisation basique
Voir les infos d'un cluster Ceph :
~~~
# ceph -w
cluster:
id: c947bfab-ed62-443b-8df2-6e24852a7740
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph01,ceph02,ceph03
mgr: ceph01(active), standbys: ceph02, ceph03
osd: 12 osds: 12 up, 12 in
data:
pools: 1 pools, 512 pgs
objects: 4.05M objects, 15.3TiB
usage: 30.7TiB used, 34.6TiB / 65.3TiB avail
pgs: 511 active+clean
1 active+clean+scrubbing+deep
io:
client: 3.33KiB/s wr, 0op/s rd, 0op/s wr
~~~
## Installation
On cherche à créer l'architecture suivante où un client interagit avec un cluster Ceph :