18
0
Fork 0
wiki/HowtoOpenVZ.md

6.8 KiB

Cette page a été importée automatiquement de notre ancien wiki mais n'a pas encore été révisée.

Howto OpenVZ

OpenVZ permet de compartimenter les processus au sein de conteneurs. Ce n'est pas vraiment de la virtualisation car un seul et même noyau est utilisé par tous les conteneurs. Cependant un VE (Virtual Environment) ne peut voir que ses processus (un init avec un PID=1 est recréé pour chaque VE, ce qui ne perturbe pas le schéma standard des processus dans le VE).

Le principe de conteneur permet d'obtenir de meilleures performances (un seul noyau chargé en mémoire, accès aux périphériques plus rapide (moins de couches logicielles à traverser)) et de modifier les ressources matérielles allouées à chaud.

Cependant, tous les systèmes virtualisés partagerons la même version du noyau et les mêmes modules. Il ne peut donc y avoir un système Debian et un FreeBSD sur la même machine physique par exemple.

Configuration du système hôte (VE0)

Au niveau du partitionement, il peut être utile de créer une partition contenant tous les VE, à monter dans /var/lib/vz/, étant donné que les fichiers des VE sont des vrais fichiers pour le système de fichiers hôte (contrairement à d'autres solutions de virtualisation où les fichiers sont dans une image).

Ensuite, on installe le noyau Linux avec le support d'OpenVZ (ne pas oublier de rebooter dessus après l'install avant de continuer) :

# aptitude install linux-image-2.6-openvz-amd64

Configuration du réseau : il faut activer le forwarding des paquets :

/etc/sysctl.conf

net.ipv4.conf.default.forwarding=1
net.ipv4.conf.default.proxy_arp = 0
net.ipv4.ip_forward=1

Prise en compte de la configuration :

sysctl -p
echo 1 > /proc/sys/net/ipv4/ip_forward

Création d'un VE

Il faut avant tous posséder un template du système à installer. On peut les trouver ici. Un template se présente sous la forme d'une archive contenant le système de fichier du système à installer. Elle doit être placée (non décompressée) dans /var/lib/vz/template/cache/.

Ensuite on peut créer un nouveau VE en utilisant ce template :

vzctl create 1 --ostemplate debian-5.0-amd64-minimal --hostname --ipadd x.x.x.x --hostname foo

1 représente l'id du VE. l'id 0 est réservé au système hôte. l'ostemplate doit correspondre au nom du template sans l'extension. ipadd permet de spécifier l'adresse IP du VE.

On peut également définir une configuration à l'aide de vzctl set, par exemple :

vzctl set 1 --nameserver x.x.x.x

Gestion des VE

Démarrer, arréter un VE :

vzctl (start|stop|restart) VEID

Se connecter à un VE :

vzctl enter VEID

Exécuter une commande sur un VE (depuis l'hôte) :

vzctl exec VEID COMMAND

Lister les VE actifs :

# vzlist
      VEID      NPROC STATUS  IP_ADDR         HOSTNAME                        
         1          6 running x.x.x.x         foo

Lister les VE actifs et éteints :

# vzlist --all

Modifier le hostname :

# vzctl set VMID --hostname foo.evolix.net --save

Modifier l'IP :

# vzctl set VMID --ipdel 1.2.3.4 --save
# vzctl set VMID --ipadd 4.3.2.1 --save

Ajouter de la RAM :

vzctl set VMID --ram 3072M --save

Migration de VE à chaud

Il est possible de migrer un VE d'une machine physique à une autre en utilisant la commande vzmigrate. Avant tout, il faut s'assurer d'avoir le PermitRootLogin yes et une clé SSH autorisée sur la machine cible.

Ensuite, on peut démarrer la migration :

vzmigrate -v --online TARGET_HOST VEID

L'option online permet de minimiser le temps indisponibilité du VE (il est en pratique de quelques secondes).

Cette méthode a plusieurs limitations, qui peuvent être gênantes dans certains cas :

  • Impossibilité de renommé l'ID du VE pendant la migration. Si un VE possède déjà le même ID sur la machine cible, la migration échouera ;
  • Impossibilité de changer les paramètres réseau (IP, passerelle, DNS...). Si la machine cible se trouve dans un autre réseau, ou bien l'IP du VE est déjà prise, la migration échouera.

Enfin, il faut s'assurer également que les limitations matérielles (quota mémoire, disque...) sont cohérentes avec l'environnement cible.

Créer et restaurer une snapshot d'un VE

Un snapshot consister à freeze tous les processus et sauvegarder toutes les informations d'état, puis créer une image du VE. L'image pourra ensuite être restaurer pour que tous les processus se retrouvent exactement dans le même état au moment du freeze.

Freezer le VE :

# vzctl chkpnt VEID --suspend

À partir de maintenant la machine devient indisponible. Il faut donc sauvegarder son état :

# vzctl chkpnt VEID --dump --dumpfile /path/foo

Enfin, on peut réveiller le VE :

# vzctl chkpnt VEID --resume

Pour ce qui est de la réstauration, il faut avant tout stopper le VE si il est actif :

# vzctl stop VEID

Ensuite, on peut restaurer le snapshot :

# vzctl restore VEID --dumpfile /path/foo

Le VE est alors démarré en utilisant le snapshot et retrouve son ancien état.

Limiter les ressources utilisées par VE

Quotas disque

vzctl set VEID --diskspace SOFT_LIMIT:HARD_LIMIT --save
vzctl set VEID --diskinodes SOFT_LIMIT:HARD_LIMIT --save

De la même manière que pour les quotas Linux, on peut définir une limite soft et une limite hard.

Temps CPU

On peut partager le temps CPU de 2 manière différenetes :

  • soit on limite un VE à un certain pourcentage d'utilisation du processeur :
vzctl set VEID --cpulimit POURCENTAGE --save
  • soit on indique une proportion d'utilisation du CPU en fonction des autres VE :
vzctl set 1 --cpuunits 10 --save
vzctl set 2 --cpuunits 20 --save

Dans cet exemple, si tous les VE ont besoins du CPU en même temps, OpenVZ accordera 2 fois plus de temps CPU au VE 2. L'avantage de cette méthode est que si le VE 2 n'utilise pas le CPU, le VE 1 peut prendre jusqu'à 100% du temps CPU. Ainsi, il n'y a pas de ressources inutilisées inutilement. }}}

Les paramètres UBC

Les UBC (Users BeanCounters) permettent de régler plus finement l'utilisation des ressources par VE. En général (ce n'est pas le cas de tous les paramètres), il faut définir une valeur barrière (limite soft) et une valeur limite (limite hard), dans le même esprit que les quotas Linux.

La liste des UBC peut se trouver ici

OpenVZ via Proxmox

sources.list :

deb <http://download.proxmox.com/debian> wheezy pve-no-subscription

Installer :

# aptitude install pve-kernel-2.6.32-39-pve proxmox-ve-2.6.32

Interface d'admin sur le port 8006

Les configurations des VEs se retrouvent dans /etc/pve/nodes/VE0/openvz/VEID.conf