mirroir readonly du Gitit wiki.evolix.org (attention, ne rien commiter/merger sur ce dépôt) https://wiki.evolix.org
Vous ne pouvez pas sélectionner plus de 25 sujets Les noms de sujets doivent commencer par une lettre ou un nombre, peuvent contenir des tirets ('-') et peuvent comporter jusqu'à 35 caractères.

HowtoGlusterFS.md 2.5 KiB

il y a 4 ans
il y a 4 ans
il y a 2 ans
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127
  1. # Howto GlusterFS
  2. TODO : Description, vocabulaire (peer, brick, volume)...
  3. ## Configuration d'un nouveau cluster
  4. ### Installation
  5. ~~~
  6. # apt install glusterfs-server
  7. ~~~
  8. ### Création du cluster
  9. ~~~
  10. srv1# gluster peer probe <adresse IP srv2>
  11. peer probe: success.
  12. ~~~
  13. Note : srv1 et srv2 doivent pouvoir communiquer entre eux sans restriction au niveau réseau.
  14. Vérification :
  15. ~~~
  16. # gluster peer status
  17. Number of Peers: 1
  18. Hostname: xxx
  19. Uuid: xxxxx
  20. State: Peer in Cluster (Connected)
  21. ~~~
  22. ### Création d'un volume
  23. Ici _/srv/gluster/_ est un montage d'un volume dédié pour GlusterFS et le volume à créer se nomme _foovol_.
  24. Créer le répertoire sur chaque serveur :
  25. ~~~
  26. # mkdir /srv/gluster/foovol
  27. ~~~
  28. Puis sur un des serveurs, créer le volume GlusterFS
  29. ~~~
  30. # gluster volume create foovol replica 2 <IP srv1>:/srv/gluster/foovol <IP srv2>:/srv/gluster/foovol
  31. volume create: foovol: success: please start the volume to access data
  32. # gluster volume start foovol
  33. volume start: foovol: success
  34. ~~~
  35. Vérification :
  36. ~~~
  37. # gluster volume info
  38. […]
  39. ~~~
  40. Sur la machine cliente, on peut maintenant monter le volume :
  41. ~~~
  42. # echo "srv1:/foovol /mnt/foovol glusterfs defaults 0 0" >>/etc/fstab
  43. # mkdir /mnt/foovol
  44. # mount /mnt/foovol
  45. ~~~
  46. ## Administration
  47. ~~~
  48. # gluster volume status all
  49. # gluster volume status all clients
  50. # gluster volume status all (mem|fd|inode|callpool)
  51. ~~~
  52. # Lister les peers
  53. ~~~
  54. # gluster peer status
  55. ~~~
  56. # Lister les volumes
  57. ~~~
  58. # gluster volume list
  59. ~~~
  60. # Voir la santé du volume "foo"
  61. ~~~
  62. # gluster volume heal foo info
  63. ~~~
  64. # Forcer un 'heal' pour le volume "bar"
  65. ~~~
  66. # gluster volume heal bar
  67. ~~~
  68. # Cas pratiques
  69. ## Récupération d'un split-brain - Forcer l'utilisation d'un réplicas comme source de résolution
  70. Dans une situation de split-brain, on peut avoir :
  71. ~~~
  72. # gluster volume heal foo info
  73. Brick tic.example.net:/srv/gluster/foovol
  74. <gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc> - Is in split-brain
  75. Status: Connected
  76. Number of entries: 1
  77. Brick tac.example.net:/srv/gluster/foovol
  78. <gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc> - Is in split-brain
  79. Status: Connected
  80. Number of entries: 1
  81. ~~~
  82. Dans ce cas, on peut définir que c'est le réplica "tic" qui va être utilisé pour rétablir le reste du cluster avec la commande :
  83. ~~~
  84. # gluster volume heal foo split-brain source-brick tic.example.net:/srv/gluster/foovol gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc
  85. Healed gfid:1b82dc4fd-3d3f-4dc1-89a9-0783b2c10bc
  86. ~~~
  87. [Plus de documentation](https://docs.gluster.org/en/v3/Troubleshooting/resolving-splitbrain/)