complément pour contenu en français

This commit is contained in:
Jérémy Lecour 2022-10-01 18:05:16 +02:00 committed by Jérémy Lecour
parent 0cfe1483b1
commit 75324af0bf

123
README.md
View file

@ -24,13 +24,13 @@ Il peut y avoir plusieurs frontend, pour avoir des configurations et traitements
Grace à une analyse et une compréhension complète des protocoles — TCP, mais surtout HTTP — HAProxy peut altérer la requête ou la réponse, décider de la transmettre à telle ou telle entité… Tout ça se fait de manière très optimisée.
Un backend ets un point de sortie du trafic. Il doit y en avoir un pour chaque groupe de serveurs pouvant prendre un erequête en charge. S'il y a un seul serveur dans un backend, il traitera toutes les requêtes. S'il y en a plusieurs, ils se répartiront les requêtes, selon l'algorithme de répartition choisi. C'est là qu'on commence à parler de répartition de charge et de tolérance de panne.
Un backend est un point de sortie du trafic. Il doit y en avoir un pour chaque groupe de serveurs pouvant prendre un erequête en charge. S'il y a un seul serveur dans un backend, il traitera toutes les requêtes. S'il y en a plusieurs, ils se répartiront les requêtes, selon l'algorithme de répartition choisi. C'est là qu'on commence à parler de répartition de charge. Et lorsqu'on indique à HAProxy comment gérer la défaillance d'un serveur pour envoyer la requête ailleurs, ça devient de la tolérance de panne.
### Varnish
Varnish va servir à mettre en cache le résultat de certaines requêtes pour ne pas avoir à solliciter le serveur applicatif final. Il va appliquer des règles plus ou moins complexes pour décider s'il met en cache,s'il sert depuis le cache…
Varnish propose par défaut un fonctionnement courant et relativement conventionnel qui nécessite généralement peu de configuration.
Varnish propose par défaut un fonctionnement courant et relativement conventionnel qui nécessite généralement peu de configuration. Il y a des bonnes pratiques qui s'appliquent bien à la plupart des situations.
Les étapes clés du traitement dune requête-réponse HTTP sont gérées par des fonctions dédiées, quil est possible de personnaliser et d'empiler/composer pour modifier le comportement.
Varnish expose toute la requête et la réponse aux fonctions afin de décider sil faut modifier le contenu (ajouter/supprimer/modifier des en-têtes), servir une réponse depuis le cache ou la transmettre au serveur, mettre en cache ou pas la réponse dun serveur…
@ -41,21 +41,21 @@ Varnish stockant toutes les données de cache en mémoire, il est aussi importan
Nous avons donc choisir de mettre ces 2 logiciels ensemble, de manière coordonnée, pour un résultat performant et riche en fonctionnalités.
Comme dit précédemment, HAProxy utilise des _frontend_ comme point d'entrée te des backends commepoint de sortie.
Comme dit précédemment, HAProxy utilise des _frontend_ comme point d'entrée et des backends commepoint de sortie.
Dans notre cas, après avoir pris en charge la requête du client HTTP, HAProxy va la transmettre à Varnish,via un backend spécifique.
Dans notre cas, après avoir pris en charge la requête du client HTTP, HAProxy va la transmettre à Varnish, via un backend spécifique.
Nous avons choisi de placer HAProxy et Varnish sur le même serveur, et de les faire communiquer par socket, mais c'est un détail et rien n'empêche de les mettre sur des serveurs différents.
Une fois la requête transmise à Varnish, il va également l'analyser pour décider s'il peut servir une réponse depuis le cache ou s'il doit la faire passer. Et s'il l'a fait passer, lors du retour il va décider s'il peut la mettre en cache.
Dans le cas le plus courant d'utilisation de Varnish, lorsqu'il doit faire passer une requête, il le fait directement au serveur d'application (lui-aussi appelle ça un _backend_). Nous avons choisi de faire un peu différemment et de ne pas gérer dans Varnish la partie load-balancing et tolérance de panne, car elle est gérée de manière plus complète par HAProxy, et c'est ce que nous maitrisons le mieux.
Dans le cas le plus courant d'utilisation de Varnish, lorsqu'il doit faire passer une requête, il le fait directement au serveur d'application (lui aussi appelle ça un _backend_). Nous avons choisi de faire un peu différemment et de ne pas gérer dans Varnish la partie load-balancing et tolérance de panne, car elle est gérée de manière plus complète par HAProxy, et c'est ce que nous maitrisons le mieux.
Varnish va donc renvoyer la requête à HAProxy, le même que celui qui a traité la requête entrante.
Mais pour ne pas tomber dans une boucle, et pour ne pas refaire certaines analyses déjà faites au début, nous faisons entrer la requête par un autre _frontend_. Celui-ci sera plus simple et aura comme principale responsabilité de choisir le _backend_ final à utiliser pour la requête. Si vous gérez des sites ou applications qui sont réparties sur des groupes de serveurs différents, il faut avoir autant de _backend_ que de groupes de serveurs.
Mais pour ne pas tomber dans une boucle, et pour ne pas refaire certaines analyses déjà faites au début, nous faisons rentrer la requête par un autre _frontend_. Celui-ci sera plus simple et aura comme principale responsabilité de choisir le _backend_ final à utiliser pour la requête. Si vous gérez des sites ou applications qui sont réparties sur des groupes de serveurs différents, il faut avoir autant de _backend_ que de groupes de serveurs.
Au final on passe donc la requête aux serveurs web qui vont effectivement traiter la requête.
La réponse fera le chemin inverse, en revenant à HAProxy, puis Varnish (qui décidera q'il met la réponse en cache), puis HAProxy puis le client HTTP qui a fait initialement la requête.
La réponse fera ensuite le chemin inverse, en revenant à HAProxy, puis Varnish (qui décidera s'il met la réponse en cache), puis HAProxy puis le client HTTP qui a fait initialement la requête.
Chaîne :
@ -68,10 +68,11 @@ Chaîne :
## Multi-sites
Même en faisant passer tout le trafic entrant (http/https) par un seul _frontend_,il est tout à fait possible d'avoir des serveurs finaux spécifiques pour chaque site, ainsi que des traitements intérmédiaires specifiques aussi.
Même en faisant passer tout le trafic entrant (http/https) par un seul _frontend_, il est tout à fait possible d'avoir des serveurs finaux spécifiques pour chaque site, ainsi que des traitements intermédiaires spécifiques aussi.
Il n'y a pas dans HAProxy de logique ressemblant aux `VirtualHost` de Apache ou Nginx, mais on peut utiliser des primitives conditionnelles plus bas-niveau pour cela.
On crée (au moins) une ACL pour détecter si l'hôte demandée est lié à tel ou tel site, et plus oin on utilise ces ACL pour conditionnement un comportement.
On crée (au moins) une ACL pour détecter si l'hôte demandée est lié à tel ou tel site, et ensuite on utilise ces ACL pour conditionnement un comportement.
Une ACL est comme une variable booléenne.
```
frontend external
@ -82,8 +83,7 @@ frontend external
use_backend foo_bar if foo_bar_domains
```
## Fallback if Varnish is DOWN
## Transmettre la requête à Varnish
Dans la configuration de HAProxy, nous avons créé un _backend_ « varnish », avec un seul serveur final.
@ -115,23 +115,56 @@ frontend external
# Is the request routable to Varnish ?
acl varnish_available nbsrv(varnish) gt 0
# Is the request comming for example.com ?
acl example_com_domains hdr(host) -i example.com
# Use Varnish if available
use_backend varnish if example_com_domains varnish_available
use_backend varnish if varnish_available
# … or use normal backend
use_backend example_com if example_com_domains
use_backend default_backend
backend varnish
option httpchk HEAD /varnishcheck
server varnish_sock /run/varnish.sock check observe layer7 maxconn 3000 inter 1s send-proxy-v2
backend example_com
backend default_backend
server example-hostname 1.2.3.4:443 check observe layer4 ssl
```
Rien n'oblige à utiliser Varnish tout le temps et pour tous les sites.
On peut soit utiliser une ACL :
```
frontend external
acl example_com_domains hdr(host) -i example.com
[…]
use_backend varnish if example_com_domains
```
Soit utiliser un système plus dynamique, avec un fichier dans lequel on met les domaines pour lesquels on veut utiliser Varnish :
```
frontend external
acl use_cache if hdr(host) -f /etc/haproxy/cached_domains
[…]
use_backend varnish if use_cache
```
Nous pouvons économiser le passage par Varnish dans certains cas. Par exemple lorsque la requête n'est ni `GET`, `HEAD` ou `PURGE` :
```
frontend external
acl varnish_http_verb method GET HEAD PURGE
[…]
use_backend varnish if varnish_http_verb
```
On peut donc combiner ces conditions, pour passer à Varnish ou le contourner :
* le domaine doit-il être mis en cache ?
* la requête est-elle éligible au cache?
* Varnish est-il disponible ?
## PROXY protocol
### Pourquoi ?
@ -140,7 +173,7 @@ L'utilisation du PROXY protocol n'est pas du tout indispensable, mais elle ajout
Dans leur rôle de proxy intermédiaire, HAProxy et Varnish sont vus comme des clients au niveau TCP ; entre eux, mais surtout vis-à-vis du serveur web final. Si on ne fait rien de particulier,le serveur final verra toujours l'IP d'HAProxy comme IP du client. Ça rend impossible l'application dautorisations ou restrictions par IP. Ça rend difficile le suivi des requêtes, les statistiques…
Vous me direz qu'on a pour ça l'en-tête HTTP `X-Forwarded-For`, mais elle est invisible ua niveau TCP, et sa prise en compte au niveau applicatif n'est pas toujours possible.
Vous me direz qu'on a pour ça l'en-tête HTTP `X-Forwarded-For`, mais elle est invisible au niveau TCP, et sa prise en compte au niveau applicatif n'est pas toujours facile, voire possible.
Le PROXY protocol est une simple extension de TCP qui permet d'ajouter cette notion d'IP réelle du client.
Cela impose que les 2 parties de l'échange sachent gérer cette extension, mais à partir de là il n'est plus besoin de le gérer dans la couche applicative.
@ -151,7 +184,6 @@ Au niveau HAProxy, nous retrouvons celà dans le backend qui transmet à Varnish
```
backend varnish
option httpchk HEAD /varnishcheck
server varnish_sock /run/varnish.sock check observe layer7 maxconn 3000 inter 1s send-proxy-v2
frontend internal
@ -161,13 +193,13 @@ backend example_com
server example-hostname 1.2.3.4:443 check observe layer4 ssl verify none send-proxy-v2
```
Lorsqu'HAproxy est client on ajoute `send-proxy-v2` et lorsqu'il est serveur on ajoute `accept-proxy`.
Lorsqu'HAProxy est client on ajoute `send-proxy-v2` et lorsqu'il est serveur on ajoute `accept-proxy`.
Pour Varnish, l'écoute se gère dans la ligne de commande de démarrage avec l'option `PROXY` :
```
/usr/sbin/varnishd […] -a /path/to/varnish.sock,PROXY […]
/usr/sbin/varnishd […] -a /run/varnish.sock,PROXY […]
```
Et pour le retour vers HAProxy, c'est dans la configuration, avec l'option `proxy_header = 1` :
@ -190,13 +222,33 @@ C'est particulièrement utile au niveau de Varnish pour faire du debug sans pass
/usr/sbin/varnishd […] -a 127.0.0.1:82 […]
```
Si la liaison finale entre HAProxy et le serveur final se fait aussi avec le PROXY protocol, alors on peut faire la même chose que dans Varnish et mettre une écoute protégée et sans PROXY protocol.
Il devient alors très facile de faire une requête directe :
```
curl --verbose \
--resolve www.example.com:82:127.0.0.1 \
--header "X-Forwarded-Proto: https" \
http://www.example.com:82/foo/bar
```
Alors oui, curl supporte le PROXY protocol depuis laversion 7.37.0 avec l'option `--proxy-header`, mais c'est un exemple.
### Jusqu'au serveur final
Si on contrôle les serveurs web finaux et qu'il ssont compatibles, on peut aussi faire la liaison finale avec le PROXY protocol. On sera alors aussi tenté d'ajouter au serveur web un port d'écoute sans PROXY protocol, et bien protégé.
Note: si vous utilisez Apache, je vous recommande d'étudier le module "ForensicLog" qui permet facilement un debug détaillé de tous les en-têtes échangés. C'est très pratique pour débug des chaînes de proxy et voir si tout arrive bien au serveur web final. Je ne sais pas s'il existe quelque chose de similaire pour Nginx.
## HTTP tagging
Toujours dans une optique de traçabilité et de facilité de debug, nous nous servons de HAProxy et Varnish pour ajouter dans les en-têtes HTTP des informations sur leur fonctionnement.
Rappelons que la norme HTTP définit des en-têtes normalisés, dont la syntaxe et l'utilisation sont bien codifiés : `Host`, `Set-Cookie`, `Cache-Control`
Mais nous pouvons ajouter n'importe quel en-tête no standard avec un prefix `X-`. Certains sont quasi standards, d'autres sont totalement personnalisés.
### X-Forwarded-*
Bien que nous utilisions le PROXY protocol en interne (et éventuellement vers certains serveurs finaux), nous conservons le'en-tête HTTP `X-Forwarded-For`.
Bien que nous utilisions le PROXY protocol en interne (et éventuellement vers certains serveurs finaux), nous conservons généralement l'en-tête HTTP `X-Forwarded-For`.
Nous ajoutons aussi `X-Forwarded-Port` pour indiquer à quel port de HAProxy le client s'est adressé.
Et enfin nous ajoutons `X-Forwarded-Proto` pour indiquer si la connexion initiale était chiffrée ou pas.
@ -214,6 +266,8 @@ frontend external
http-request set-header X-Forwarded-Proto https if { ssl_fc }
```
Ce dernier en-tête est souvent imortant lorsque la requête finale est utilisée par des framework qui impose un accès en https te ne peuvent pas s'appuyer sur le fait que la requête leur arrive au final en https.
### X-Unique-ID
Il est très utile de marquer une requête entrante d'un identifiant unique qui pourra être transmis d'étape en étape jusqu'au serveur final (et pourquoi pas au retour aussi).
@ -248,6 +302,7 @@ frontend external
Au niveau du frontend « internal » on applique le même principe, mais en indiquant que c'est pour l'étape 3.
```
frontend internal
[…]
http-request add-header X-Boost-Step3 haproxy-internal
@ -277,6 +332,7 @@ sub vcl_recv {
Lorsque la réponse est renvoyée, elle est marquée sur l'étape 2 de détails à propos des modalités de cache
```
sub vcl_deliver {
[…]
if (resp.http.Set-Cookie && resp.http.Cache-Control) {
@ -290,9 +346,13 @@ sub vcl_deliver {
}
```
Par ailleurs, Varnish ajoute par défaut de nombreux en-têtes sur l'utilisation ou non du cache, l'âge de la ressource…
Note: La syntaxe de ces en-têtes `X-Boost-*` est encore expérimentale. Nous prévoyons de les rendre plus compacts et faciles à traiter automatiquement.
### Log HAProxy complet
Dans des situations de debug avancées, nous pouvons aussi activer l'ajout dans un en-tête HTTP de la totalité de la ligne de log :
Dans des situations avancées de debug, nous pouvons aussi activer l'ajout dans un en-tête HTTP de la totalité de la ligne de log :
```
frontend external
@ -308,7 +368,7 @@ frontend internal
### Côté applicatif
Lorsque le site ou l'application web final dispose de plusieurs serveurs pour gérer les requêtes, on peut prendre en charge directement dans HAProxy la répartition de charge.
Lorsque le site ou l'application web finale dispose de plusieurs serveurs pour gérer les requêtes, on peut prendre en charge directement dans HAProxy la répartition de charge.
Lorsque c'est possible, on fait de préférence un `round-robin` sur les serveurs web.
Lorsque l'application gère mal les sessions ou des aspects bloquants, on met un serveur en actif et les autres en backup, pour basculer sur un secours si le primaire n'est plus disponible.
@ -318,7 +378,7 @@ Pour éviter que HAProxy + Varnish ne soient un « Single Point Of Failure », n
Cette approche n'est pas la plus avancée, car en cas de panne d'un serveur il faut intervenir au niveau DNS. Cependant elle a le mérite de la simplicité et les pannes complète de machines virtuelles tournant sur de la virtualisation redondante sont heureusement très rares. En revanche, ce système nous permet pas mal de souplesse.
Il serait aussi possible de faire du « actif-passif » en mettant une IP flottante (keepalived/vrrp) en amont de deux serveurs, pour avoir une bascule automatique sur le secondaire en cas de panne du primaire.
On peut aussi faire du « actif-actif » avec 2 HAProxy en « layer 4 » qui renvoient ensuite sur 2 HAproxy en « layer 7 »
On aller encor eplus loin et faire du « actif-actif » avec 2 HAProxy en « layer 4 » qui renvoient ensuite sur 2 HAproxy en « layer 7 »
Ces approches permettent une reprise d'activité quasi immédiate en cas de panne, mais elles impliquent plus de ressources et une topologie réseau particulière.
## Fonctionnalités complémentaires
@ -341,7 +401,7 @@ Cela ne remplace pas un vrai firewall, mais ça permet de facilement exclure des
En analysant la requête au niveau HTTP (couche 7), on peut filtrer de manière beaucoup plus fine.
Par exemple, si un site est passé en mode maintenance (détaillé plus loin), on peut contourner ce mode maintenance pour une liste d'IP particulière qui pourra tout de même consulter le site.
Par exemple, si un site est passé en mode maintenance (détaillé plus loin), on peut contourner ce mode maintenance pour une liste d'IP particulière qui pourra tout de même consulter le site et vérifier par exemple l'état des opérationsde maintenance.
```
frontend external
@ -355,7 +415,7 @@ backend maintenance
http-request set-log-level silent
# Custom 503 error page
errorfile 503 /etc/haproxy/errors/maintenance.http
# If no server is defined, a 503 is returned for every request
# With no server defined, a 503 is returned for every request
```
Pour les outils locaux de monitoring (exemple: Munin) ou pour les challenges ACME, il peut être utile de renvoyer sur un serveur web local (exemple: Apache ou Nginx), au lieu de renvoyer sur Varnish ou les serveurs web appliatifs.
@ -406,10 +466,10 @@ backend maintenance
http-request set-log-level silent
# Custom 503 error page
errorfile 503 /etc/haproxy/errors/maintenance.http
# If no server is defined, a 503 is returned for every request
# With no server defined, a 503 is returned for every request
```
Pour une coupure par site, il faut définir un backend spécial pour ce site et activer l'utilisation de ce backend pour les requêtes.
Pour une coupure par site, il faut définir un backend spécial pour ce site et activer l'utilisation de ce backend pour les requêtes. On retrouve notre ACL par domaine.
```
frontend external
@ -428,3 +488,6 @@ On peut définir des ACL pour chaque site et ainsi provoquer des comportements l
Par exemple, les redirections http vers https, ou pour des sous-domaines, les en-têtes HSTS
## Configuration complète
Parcourons la configuration complète de HAProxy puis Varnish, pour commenter petit à petit tout ce qu'on a vu jusque là.