diff --git a/HowtoCeph.md b/HowtoCeph.md index 6ede2f4c..6c25fba3 100644 --- a/HowtoCeph.md +++ b/HowtoCeph.md @@ -4,9 +4,51 @@ title: Howto Ceph ... * Documentation : +* Thèse de Sage Weil : +* Publications sur Ceph : +* Vidéo "Intro to Ceph" par Sage Weil : + +[Ceph](https://ceph.io/) est une plateforme libre de stockage. Historiquement développé par [Sage Weil](https://en.wikipedia.org/wiki/Sage_Weil) à la suite d'une thèse en 2007, Ceph appartient désormais à Red Hat. +Ceph peut également s'apparenter à un « disque distribué auto-réparant » ou encore une sorte de « RAID-NG ». Le principe est de s'appuyer sur des disques répartis au sein de plusieurs ordinateurs reliés en réseau, et d'avoir une tolérance de panne avec réparation rapide et de permettre l'ajout de disques de façon simple. + +## Principes de bases + +Ceph permet la répartition d'objets (fichiers, morceaux de fichiers, blocs, etc.) dans un volume (pool) découpé en centaines de morceaux de plusieurs Go (PG). Chaque morceau (PG) est réparti sur 3 disques (OSD) situés dans des ordinateurs distincts. + +L'algorithme CRUSH décrit ce découpage et rassemble toutes les informations dans une CRUSH map. + +Un cluster Ceph est constitué de démons `osd` pour chaque disque, 3 démons `monitor` et 1 démon `manager`. Si besoin de faire du CephFS il faudra avoir un ou plusieurs démons `mds`, et si besoin d'avoir un accès HTTP REST (compatible Amazon S3) des démons` rgw`. + +Pour accéder à un cluster Ceph, un client Ceph peut le faire via RADOS : en mode bloc (RBD), en mode fichers (CephFS) ou en mode HTTP REST compatible Amazon S3 (RGW). -# Installation +## Utilisation basique + +Voir les infos d'un cluster Ceph : + +~~~ +# ceph -w + cluster: + id: c947bfab-ed62-443b-8df2-6e24852a7740 + health: HEALTH_OK + + services: + mon: 3 daemons, quorum ceph01,ceph02,ceph03 + mgr: ceph01(active), standbys: ceph02, ceph03 + osd: 12 osds: 12 up, 12 in + + data: + pools: 1 pools, 512 pgs + objects: 4.05M objects, 15.3TiB + usage: 30.7TiB used, 34.6TiB / 65.3TiB avail + pgs: 511 active+clean + 1 active+clean+scrubbing+deep + + io: + client: 3.33KiB/s wr, 0op/s rd, 0op/s wr +~~~ + +## Installation On cherche à créer l'architecture suivante où un client interagit avec un cluster Ceph :