18
0
Fork 0

relecture

This commit is contained in:
Ludovic Poujol 2017-02-09 16:05:23 +01:00
parent a8c2a2863c
commit 8e18759c81
1 changed files with 29 additions and 26 deletions

View File

@ -11,7 +11,7 @@ Sous Linux, on peut utiliser du [RAID](https://fr.wikipedia.org/wiki/RAID_%28inf
## Installation ## Installation
~~~ ~~~
# aptitude install mdadm # apt install mdadm
$ /sbin/mdadm -V $ /sbin/mdadm -V
mdadm - v3.3.2 - 21st August 2014 mdadm - v3.3.2 - 21st August 2014
@ -90,40 +90,42 @@ pour avoir plusieurs partitions (/var, /usr/, /home, etc.), vous aurez donc de
multiples partitions *Linux raid autodetect* sur vos disques. multiples partitions *Linux raid autodetect* sur vos disques.
## Opération sur les disques et volumes RAID ## Opérations sur les disques et volumes RAID
### Remplacer un disque ### Remplacer un disque
Cas classique : vous avez un disque défectueux (prenons */dev/sdd*) et plusieurs volumes RAID, Cas classique : vous avez un disque défectueux (prenons */dev/sdz*) et plusieurs volumes RAID,
par exemple *md1*, *md2*, etc. Voici précisément comment le remettre en place : par exemple *md1*, *md2*, etc. Voici précisément comment le remettre en place :
En table de partitions MS-DOS : En table de partitions DOS :
~~~ ~~~
# sfdisk -d /dev/sda > /tmp/part.out # sfdisk -d /dev/sda > /tmp/part.out
# sfdisk -f /dev/sdd < /tmp/part.out # sfdisk -f /dev/sdz < /tmp/part.out
# partprobe /dev/sdd # partprobe /dev/sdz
~~~ ~~~
En table de partitions GPT (valable à partir de Debian 7) : En table de partitions GPT (valable à partir de Debian 7) :
~~~ ~~~
# aptitude install gdisk # apt install gdisk
# sgdisk -R=/dev/sdd /dev/sda # sgdisk -R=/dev/sdz /dev/sda
# sgdisk -G /dev/sdd # sgdisk -G /dev/sdz
~~~ ~~~
Puis on restaure les partitions, par exemple :
~~~ ~~~
# mdadm /dev/md1 --add /dev/sdd1 # mdadm /dev/md1 --add /dev/sdz1
mdadm: added /dev/sdd1 mdadm: added /dev/sdz1
# mdadm /dev/md2 --add /dev/sdd2 # mdadm /dev/md2 --add /dev/sdz2
mdadm: added /dev/sdd2 mdadm: added /dev/sdz2
# mdadm /dev/md3 --add /dev/sdd3 # mdadm /dev/md3 --add /dev/sdz3
mdadm: added /dev/sdd3 mdadm: added /dev/sdz3
# mdadm /dev/md5 --add /dev/sdd5 # mdadm /dev/md5 --add /dev/sdz5
mdadm: added /dev/sdd5 mdadm: added /dev/sdz5
# mdadm /dev/md6 --add /dev/sdd7 # mdadm /dev/md6 --add /dev/sdz7
mdadm: added /dev/sdd7 mdadm: added /dev/sdz7
~~~ ~~~
> *Note* : `sfdisk` peut nécessiter d'avoir un disque déjà partitionné, le contournement est de créer une partition quelconque avant de l'utiliser avec un disque vierge. > *Note* : `sfdisk` peut nécessiter d'avoir un disque déjà partitionné, le contournement est de créer une partition quelconque avant de l'utiliser avec un disque vierge.
@ -224,7 +226,7 @@ Un démon _mdadm_ est lancé par défaut pour détecter la panne d'un disque dur
~~~ ~~~
# ps -ef |grep mdadm # ps -ef |grep mdadm
root 3858 1 0 Apr15 ? 00:00:19 /sbin/mdadm --monitor --pid-file /var/run/mdadm/monitor.pid --daemonise --scan --syslog root 3858 1 0 Apr15 ? 00:00:19 /sbin/mdadm --monitor --pid-file /var/run/mdadm/monitor.pid --daemonise --scan --syslog
~~~ ~~~
On s'assurera que le fichier */etc/default/mdadm* contient les informations : On s'assurera que le fichier */etc/default/mdadm* contient les informations :
@ -236,7 +238,7 @@ AUTOCHECK=true
START_DAEMON=true START_DAEMON=true
~~~ ~~~
Dès qu'une panne disque est détectée, mdadm inscrit l'information dans syslog : Dès qu'une panne disque est détectée, mdadm inscrit l'information dans _syslog_ :
~~~ ~~~
May 10 14:28:44 serveur mdadm[3858]: Fail event detected on md device /dev/md42, component device /dev/sdz1 May 10 14:28:44 serveur mdadm[3858]: Fail event detected on md device /dev/md42, component device /dev/sdz1
@ -274,8 +276,7 @@ kernel: md: sda1 does not have a valid v0.90 superblock, not importing!
...c'est que l'auto-détection du noyau Linux n'a pas fonctionné (il paraît que c'est [obsolète](http://bugs.debian.org/627281)). ...c'est que l'auto-détection du noyau Linux n'a pas fonctionné (il paraît que c'est [obsolète](http://bugs.debian.org/627281)).
Il faut donc manuellement ajouter les lignes correspondant au volume RAID dans le fichier Il faut donc manuellement ajouter les lignes correspondant au volume RAID dans le fichier `/etc/mdadm/mdadm.conf` grâce à l'outil `/usr/share/mdadm/mkconf`.
*/etc/mdadm/mdadm.conf* grâce à l'outil */usr/share/mdadm/mkconf*.
### does not appear to be active ### does not appear to be active
@ -302,7 +303,7 @@ mdadm: device 4 in /dev/md9 has wrong state in superblock, but /dev/sdd10 seems
mdadm: /dev/md9 assembled from 3 drives and 1 spare - not enough to start the array while not clean - consider --force. mdadm: /dev/md9 assembled from 3 drives and 1 spare - not enough to start the array while not clean - consider --force.
~~~ ~~~
Mais rien à faire, votre volume reste inactif... même avec 4 disques : Mais rien à faire, votre volume reste inactif même avec 4 disques :
~~~ ~~~
# cat /proc/mdstat # cat /proc/mdstat
@ -330,15 +331,17 @@ Votre volume est désormais actif, il vous reste qu'à ajouter le nouveau disque
### Changer la taille du cache ### Changer la taille du cache
Permet de synchroniser plus rapidement le RAID. Attention, influence sur l'utilisation RAM et CPU. Valeur par défaut de 4096K. Pour synchroniser un volume RAID (la valeur par défaut de 4096K) :
~~~ ~~~
# echo 32768 > /sys/block/md42/md/stripe_cache_size # echo 32768 > /sys/block/md42/md/stripe_cache_size
~~~ ~~~
> *Note* : Attention, cela consomme davantage de CPU/RAM.
### Activer le bitmap ### Activer le bitmap
Cela permet d'identifier les blocs modifiés et gagner énormément de temps en cas de resynchronisation. Cela permet d'identifier les blocs modifiés et gagner du temps en cas de future resynchronisation.
~~~ ~~~
# mdadm --grow --bitmap=internal /dev/md42 # mdadm --grow --bitmap=internal /dev/md42