--- categories: web title: Howto Nginx ... * Documentation : * Rôle Ansible : [Nginx](https://nginx.org/) est un serveur [HTTP](HowtoHTTP) léger, le deuxième plus utilisé sur le web derrière [Apache](HowtoApache). ## Installation Nous utilisons les paquets Debian officiels (version 1.10.3 sous Stretch et Jessie-Backports, version 1.6.2 sous Jessie) : ~~~ # apt install nginx-full $ /usr/sbin/nginx -V nginx version: nginx/1.10.3 built with OpenSSL 1.1.0f 25 May 2017 TLS SNI support enabled configure arguments: --with-cc-opt='-g -O2 […] systemctl status nginx ● nginx.service - A high performance web server and a reverse proxy server Loaded: loaded (/lib/systemd/system/nginx.service; enabled; vendor preset: enabled) Docs: man:nginx(8) Process: 6881 ExecStart=/usr/sbin/nginx -g daemon on; master_process on; (code=exited, status=0/SUCCESS) Process: 6878 ExecStartPre=/usr/sbin/nginx -t -q -g daemon on; master_process on; (code=exited, status=0/SUCCESS) Main PID: 6882 (nginx) Tasks: 5 (limit: 4915) CGroup: /system.slice/nginx.service ├─6882 nginx: master process /usr/sbin/nginx -g daemon on; master_process on; ├─6883 nginx: worker process ├─6884 nginx: worker process ├─6885 nginx: worker process └─6886 nginx: worker process ~~~ ## Configuration de base Fichiers de configuration : ~~~ /etc/nginx/ ├── conf.d ├── fastcgi.conf ├── fastcgi_params ├── koi-utf ├── koi-win ├── mime.types ├── modules-available ├── modules-enabled │ ├── 50-mod-http-auth-pam.conf -> /usr/share/nginx/modules-available/mod-http-auth-pam.conf │ ├── 50-mod-http-dav-ext.conf -> /usr/share/nginx/modules-available/mod-http-dav-ext.conf │ ├── 50-mod-http-echo.conf -> /usr/share/nginx/modules-available/mod-http-echo.conf │ ├── 50-mod-http-geoip.conf -> /usr/share/nginx/modules-available/mod-http-geoip.conf │ ├── 50-mod-http-image-filter.conf -> /usr/share/nginx/modules-available/mod-http-image-filter.conf │ ├── 50-mod-http-subs-filter.conf -> /usr/share/nginx/modules-available/mod-http-subs-filter.conf │ ├── 50-mod-http-upstream-fair.conf -> /usr/share/nginx/modules-available/mod-http-upstream-fair.conf │ ├── 50-mod-http-xslt-filter.conf -> /usr/share/nginx/modules-available/mod-http-xslt-filter.conf │ ├── 50-mod-mail.conf -> /usr/share/nginx/modules-available/mod-mail.conf │ └── 50-mod-stream.conf -> /usr/share/nginx/modules-available/mod-stream.conf ├── nginx.conf ├── proxy_params ├── scgi_params ├── sites-available │ └── default ├── sites-enabled │ └── default -> /etc/nginx/sites-available/default ├── snippets │ ├── fastcgi-php.conf │ └── snakeoil.conf ├── uwsgi_params └── win-utf ~~~ La configuration principale se fait dans le fichier `/etc/nginx/nginx.conf` qui inclut plusieurs fichiers séparés : ~~~ user www-data; worker_processes auto; pid /run/nginx.pid; include /etc/nginx/modules-enabled/*.conf; events { use epoll; worker_connections 10240; } http { sendfile on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 65; types_hash_max_size 2048; include /etc/nginx/mime.types; default_type application/octet-stream; ssl_prefer_server_ciphers on; ssl_dhparam /etc/ssl/dhparam.pem; access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; gzip on; gzip_disable "msie6"; include /etc/nginx/conf.d/*.conf; include /etc/nginx/sites-enabled/*; } ~~~ Le fichier `/etc/nginx/conf.d/z-evolinux-defaults.conf` contient nos optimisations basiques : ~~~ server_tokens off; server_names_hash_max_size 512; server_names_hash_bucket_size 128; server_name_in_redirect off; index index.html; ~~~ Le fichier `/etc/nginx/snippets/ipaddr_whitelist` centralise les adresses IP privilégiées, on peut ainsi utiliser `include /etc/nginx/snippets/ipaddr_whitelist;` à différents endroits dans la configuration de Nginx sans dupliquer ces adresses : ~~~ allow 192.0.2.42; ~~~ ### Valider la configuration Avant de redémarrer le serveur, vérifier que vous n'ayez pas introduit des erreurs de syntaxes dans la configuration : ~~~ # nginx -t -c /etc/nginx/nginx.conf configuration file /etc/nginx/nginx.conf test is successful ~~~ ## VirtualHost De façon similaire à [Apache](HowtoApache), on peut avoir plusieurs **VirtualHost** (sites sur un même serveur HTTP). Voici un exemple de VirtualHost via `/etc/nginx/sites-available/example` : ~~~ server { listen 80; listen [::]:80; listen 443 ssl; listen [::]:443 ssl; ssl_certificate /etc/ssl/certs/www.example.com.chain.pem; ssl_certificate_key /etc/ssl/private/www.example.com.key; server_name www.example.com example.com; root /home/example/www; location / { try_files $uri $uri/ =404; } location /images/ { root /home/example/images; } location ~ \.css$ { root /home/example/css; } access_log /home/example/log/access.log; error_log /home/example/log/error.log; } ~~~ Pour les directives _location_, Nginx va d'abord examiner celles avec des expressions régulières, puis les plus longues qui seront choisies avant les plus courtes. Dans l'exemple ci-dessous, Nginx vérifiera d'abord si la ressource demandée se termine par .css puis si elle commence par /images/ puis au final la directive _location/_. ### alias Les alias permettent de faire servir du contenu qui ne serait pas stocké dans un répertoire servi par nginx (/var/www/nginx par exemple). ~~~ location /crossdomain.xml { alias /foo/bar/fichier.xml; } ~~~ Quelle différence entre la directive `alias` et `root` ? `alias` redirige la requête initiale sans le chemin complet tandis que la directive root passe en paramètre le chemin complet. Exemple : ~~~ location /hello/ { alias /spool/images/; } ~~~ Avec `alias`, pour une requête sur `/hello/world.png` Nginx renverra le contenu de `/spool/images/world.png` tandis qu'avec la directive `root`, elle renverra le contenu de `/spool/images/hello/world.png`. ### proxy_pass Nginx peut aussi agir comme Reverse Proxy. On utilisera alors la directive **proxy_pass** pour définir le serveur vers lequel la requête est envoyée. On peut aussi définir des headers qui seront ajoutés à la requête quand elle est transmise (Notamment, l'IP du visiteur, car le serveur derrière le proxy ne peut voir l'IP de celui-ci) ~~~ location / { proxy_pass http://127.0.0.1:8080; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } ~~~ Il est aussi possible de déplacer les infos sur l'upstream vers un bloc de configuration du même nom en dehors du bloc *server*. Cela peut permettre notamment de spécifier plusieurs backends (cas load-balancer) ou un backend de secours. La [documentation de Nginx](http://nginx.org/en/docs/http/ngx_http_upstream_module.html) liste tous les paramètres utilisables dans ce contexte ~~~ upstream backend { server 127.0.0.1:8080; } [...] location / { proxy_pass http://backend; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } ~~~ ### rewrite On peut faire des ré-écritures basiques (moins puissant que les [Rewrite Rules d'Apache](HowtoApache#rewrite-rules)), par exemple : ~~~ rewrite ^regex$ /vers-cette/uri.exemple.php {last,break,permanent,redirect} ~~~ ### real_ip_header Si les requêtes viennent d'un proxy HTTP (Varnish par exemple), il faut substituer l'adresse IP d'origine par celle contenue dans le header `X-Forwarded-for`. Cela se fait ainsi en s'assurant d'avoir le paquet `nginx-extras` installé : ~~~ set_real_ip_from 192.0.2.10; # IP du proxy HTTP real_ip_recursive on; real_ip_header X-Forwarded-For; ~~~ Cela permet ensuite d'appliquer ensuite des restrictions d'adresses IP par exemple. ### Authentification HTTP Pour configurer une authentification HTTP, on ajoutera les lignes suivantes au sein d'une directive `location` : ~~~ auth_basic "Restricted"; auth_basic_user_file /home/foo/.htpasswd; ~~~ Attention, si l'on ne souhaite protéger tout le site (location /), il faudra se méfier et bien ajuster la configuration pour s'assurer que tous les fichiers sont protégés (notamment les fichiers PHP par exemple). Le fichier `.htpasswd` étant généré avec l'utilitaire *htpasswd* (comme pour Apache). Bien vérifier les droits en lecture pour l'utilisateur qui fait tourner Nginx (_www-data_ en général). ### Redirection https ~~~ server { listen 80; server_name www.example.com example.com; return 301 https://www.example.com$request_uri; } server { listen 443 ssl; server_name example.com; return 301 https://www.example.com$request_uri; […] } server { listen 443 ssl; server_name www.example.com; […] } ~~~ Ou globalement, de manière générale, on peut faire : ~~~ if ($scheme = http) { return 301 https://$server_name$request_uri; } ~~~ ### Bloquer selon adresse IP Le but est de bloquer par adresse IP et de rediriger vers une page « Vous êtes bloqués ». ~~~ # Blacklisting geo $blacklist { default 0; 192.0.2.42/32 1; } server { […] # Blacklisting if ($blacklist) { rewrite ^ http://donthackmeplz.fr; } ~~~ ### Fermer la connexion sans envoyer de réponse Dans certains cas, pour protéger le serveur par exemple, on peut être amené à vouloir fermer directement certaines connexions, sans même donner de réponse. Cela peut servir notamment lors d'un DDoS pour bloquer certaines parties d'un site qui peuvent être lourdes (comme une page de recherche) ou certains clients que l'on juge malicieux. Il suffit alors d'utiliser `return 444`. Exemple : ~~~ location /search { return 444; } ~~~ ### Cross-domain pour les fonts ~~~ location ~* \.(eot|ttf|woff)$ { add_header Access-Control-Allow-Origin *; } ~~~ ### http_user_agent On peut définir des actions en fonction du User-Agent : ~~~ if ($http_user_agent ~* (DotBot|Cliqzbot|AhrefsBot|SemrushBot)) { return 404; } ~~~ > *Note* : Si l'on doit bloquer un User-Agent avec des espaces dans son nom, une solution est d’échapper les espaces : > > ~~~ > if ($http_user_agent ~* (DotBot|Cliqzbot|AhrefsBot|SemrushBot|Go\ 1\.1\ package\ http)) { > return 404; > } > ~~~ ### more_set_headers Si l'on veut manipuler les headers HTTP, on s'assure d'avoir le paquet `nginx-extras` installé, puis on peut utiliser la directive `more_set_headers`. Exemples : ~~~ more_set_headers 'Server: ' more_set_headers 'Server: My Server v42' ~~~ ### PHP-FPM Vous devez [installer PHP-FPM](HowtoPHP#php-fpm) et puis [configurer le vhost NGINX](HowtoNginx-PHP-FPM.md). ### Mode maintenance Il est possible de déclencher très facilement un mode maintenance avec une page spécifique. En plaçant cette ligne dans votre bloc `location`, il suffira que le fichier `maintenance.html` existe pour que Nginx renvoie systématiquement une erreur 503. ~~~ location / { if (-f /home/example/www/maintenance.html) { return 503; } […] } ~~~ On personnalise alors la page présentée en cas d'erreur 503, en servant cette même page `maintenance.html` ~~~ error_page 503 @maintenance; location @maintenance { root /home/example/www; rewrite ^(.*)$ /maintenance.html break; } ~~~ En situation normale, on peut avoir le fichier `/home/example/www/_maintenance.html`. Pour activer le mode maintenance (pas besoin de recharger Nginx) : ~~~ $ mv /home/example/www/{_,}maintenance.html ~~~ Pour désactiver le mode maintenance (pas besoin de recharger Nginx) : ~~~ $ mv /home/example/www/{,_}maintenance.html ~~~ ### Favicon en cache Pour favoriser la mise en cache des "favicon" il est possible d'ajouter cet extrait dans un bloc "server" : ~~~ server { […] location ~* favicon\.(ico|gif|png)$ { expires 30d; add_header Pragma public; add_header Cache-Control public; access_log off; } […] } ~~~ Les fichiers favicon.ico, favicon.png et favicon.gif seront candidats à la mise en cache pendant 30 jours et aucun log d'accès ne sera inscrit. ### GZIP Afin d'activer la compression GZIP, nous conseillons d'ajouter la configuration suivante : ~~~ gzip on; #gzip_disable "msie6"; gzip_vary on; gzip_proxied any; gzip_comp_level 6; gzip_types text/html text/plain text/css text/xml text/javascript application/x-javascript application/javascript application/ecmascript application/xml application/xml+rss application/json image/svg+xml ~~~ ## Monitoring ### log2mail Pour être alerté en cas d'erreur grave, on ajoute la configuration suivante au logiciel [log2mail](HowtoLog2mail) : ~~~ file = /var/log/nginx/error.log pattern = "[emerg]" mailto = alert@example.com ~~~ ~~~ # adduser log2mail adm # servicectl restart log2mail ~~~ ### apachetop **apachetop** peut servir aussi pour Nginx, voir [HowtoApache#apachetop]() ### Munin Ajouter dans la configuration Nginx : ~~~ location /nginx_status_NNNN { stub_status on; allow 127.0.0.1; allow 192.0.2.42; deny all; } ~~~ Puis dans la configuration Munin : ~~~ [nginx*] env.url http://127.0.0.1/nginx_status_NNNN ~~~ On peut ainsi activer les plugins _nginx_request_ et _nginx_status_ : ~~~ # cd /etc/munin/plugins # ln -s /usr/share/munin/plugins/nginx_request nginx_request # ln -s /usr/share/munin/plugins/nginx_status nginx_status ~~~ ## Optimisation ### Worker Connections et Keep Alive Il s'agit du nombre de connexions qu'un _worker process_ peut gérer. Le nombre de connexions multiplié par le nombre de _worker processes_ détermine le nombre total de connexions qu'il est possible de gérer simultanément. Cependant un autre paramètre intervient, il s'agit du _keep-alive time-out_ qui détermine la durée d'une connexion d'un client : lorsqu'un client se connecte au site, la connexion établie n'est pas fermée tout de suite, cela permet de faire passer plusieurs requêtes dans une seule connexion. La connexion sera fermée après le timeout. Il faut donc ajuster ces 2 paramètres en fonction de votre site (astuce : surveiller ses courbes Munin puis ajuster ces paramètres). Une configuration classique est de mettre 10240 en `worker_connections` et entre 10 et 20 secondes pour `keepalive_timeout`. ~~~ events { worker_connections 10240; } http { keepalive_timeout 15; […] ~~~ Si l'on souhaite désactiver complètement le Keep Alive, on mettra `keepalive_timeout 0;` ### Diminuer les I/O Afin d'éviter un goulot d'étranglement sur les I/O, on peut via certains paramètres réduire les accès disques, et donc optimiser l'I/O pour servir le contenu web. #### Access Logs À chaque requête nginx écrit dans le fichier d'access logs. Plus il y a de requêtes plus cela est coûteux en accès disque. Il est donc recommandé d'écrire les access logs dans la mémoire RAM (via une ramdisk par exemple), et de faire un logrotate sur le disque une fois une certaine taille atteinte. #### Error Logs Ne pas oublier de désactiver le mode verbose/debug lorsque le serveur est en production… #### Open File Cache Détermine le nombre de fichiers ouverts à mettre en cache. #### Buffers Si les tampons mémoire ne sont pas assez grands, nginx va devoir écrire dans des tampons temporaires sur le disque dur ce qui augmente les accès disques. La directive `client_body_buffer_size` détermine la taille du buffer du champ `body` d'une requête d'un client. Selon cas il peut être intéressant de l'accorder avec une taille en concordance avec vos formulaires, typiquement si vous avez des gros formulaires avec des données à uploader il faudra augmenter le buffer. La directive `fastcgi_buffers` et `proxy_buffers` sont les buffers associés à php/cgi/… Le concept est le même que le buffer pour les clients. Si les tampons sont trop petits, les données vont être temporairement écrite sur le disque. #### Activer la compression gzip Cette directive permet au visiteur de télécharger des données compressées par le serveur, permettant d'alléger la bande passante. *Il est recommandé de mettre `gzip_comp_level` à 4 ou 5*. On peut aussi servir directement des fichiers déjà compressés : voir ### Augmenter le nombre maximum de descripteur de fichiers L'[astuce](https://www.masv.io/boost-nginx-connection-limits/) consiste à créer un override systemd de l'unité nginx. ~~~ # mkdir -p /lib/systemd/system/nginx.service.d # cat << EOT > /lib/systemd/system/nginx.service.d/limitnofile [Service] LimitNOFILE=16384 EOT # systemctl daemon-reload ### Mettre la directive worker_rlimit_nofile 16384; dans les premières lignes de nginx.conf # systemctl restart nginx ~~~ ## SSL ~~~ listen 0.0.0.0:443 ssl; listen [::]:443 ssl; ssl_certificate /etc/ssl/certs/ssl.example.com.crt; ssl_certificate_key /etc/ssl/private/ssl.example.com.key; ~~~ Attention, `ssl_certificate` doit contenir toute la chaîne de certification, donc il sera nécessaire de concaténer les certificats. Par exemple, on ajoutera le certificat intermédiaire via : ~~~ # cd /tmp # wget https://www.startssl.com/certs/class1/sha2/pem/sub.class1.server.sha2.ca.pem # cat sub.class1.server.sha2.ca.pem >> /etc/ssl/certs/ssl.example.com.crt ~~~ Pour une configuration plus avancée, voir [HowtoSSL](HowtoSSL#configuration-nginx) ## HTTP/2 En version 1.10, la plupart des fonctionnalités du protocole est supportée par Nginx. > *Note* : une version limitée du protocole était déjà supportée depuis Nginx 1.9.5. Il faut alors activer le protocole dans la directive `listen`. Sachant que les navigateurs courants ne supportent HTTP/2 que pour des connexions sécurisées, on activera toujours le SSL/TLS. Il est également nécessaire de désactiver le protocole SPDY s'il était utilisé : ~~~ listen 0.0.0.0:443 ssl http2; ~~~ ## Cas pratiques ### Fail-over d'un backend principal pour proxy_pass Dans certains cas, on peut utiliser *Nginx* pour faire la décharge SSL/TLS avant d'envoyer les requêtes vers un Varnish avec proxy_pass. Pour ne pas perturber le site lors d'un redémarrage ou rechargement de Varnish, on peut par exemple configurer *Nginx* pour renvoyer directement les requêtes vers le service caché par Varnish si le service de cache n'est pas disponible. Il suffit d'utiliser le mot clé `backup` dans la définition du serveur dans l'objet `upstream` : ~~~ upstream varnish_or_direct_backend { server 127.0.0.1:8080; # Varnish server 192.0.2.2:8081 backup; # Service caché par Varnish } [...] location / { proxy_pass http://varnish_or_direct_backend; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } ~~~ ## RTMP ~~~ # apt install libnginx-mod-rtmp ~~~ Configuration à ajouter à nginx.conf : ~~~ rtmp { server { listen 1935; application live { live on; } } } ~~~ Publication d'un flux RTMP : ~~~ $ ffmpeg -thread_queue_size 0 -f v4l2 -i /dev/video0 -f flv "rtmp://127.0.0.1/live/foo" ~~~ Lecture d'un flux : ~~~ $ ffplay -probesize 32 -sync ext "rtmp://127.0.0.1/live/foo" ~~~ ## FAQ ### Configuration en ligne Un site permet de générer sa configuration Nginx en ligne : ### Page personnalisée lors code erreur HTTP On peut avoir une page personnalisée selon le code d'erreur HTTP renvoyé. ~~~ location /YYYYYY/ { alias /var/wwwerror/; index page.html; } error_page 403 /YYYYYY/; ~~~ ### Appliquer des conditions sur des en-têtes Il est possible de configurer des comportements conditionnés par le contexte d'une requête. Voici quelques exemples : ~~~ # rejetter toutes les méthodes autres que POST if ($request_method != "POST" ) { return 405; } # rejetter les requêtes qui n'ont pas une valeur spécifique pour un en-tête personnalisé # NB : les variables "$http_x_" sont automatiquement remplies avec les en-têtes personnalisés. if ($http_x_requested_with != "XMLHttpRequest" ) { return 403; } # rejeter les requêtes qui ne sont pas du JSON if ($content_type != "application/json") { return 403; } ~~~ Attention toutefois à l'utilisation de `if` dans un bloc `location` : [IfIsEvil](https://www.nginx.com/resources/wiki/start/topics/depth/ifisevil/). Cela peut avir des comportements inattendus. ### Comment prononcer Nginx ? C'est la première question de la [FAQ officielle](https://www.nginx.com/resources/wiki/community/faq/#how-do-you-pronounce-nginx) du projet. Pour les francophones, voilà notre astuce : * D'abord le **N** se prononce tout seul, comme dans « haine ». * Puis **gin**, comme dans « imagine », ou « j'ai enfilé mon jean ». * Et enfin **x**, comme dans « j'habite à Aix ». ### .htaccess ? Nginx ne gère pas les fichiers `.htaccess`. Si vous devez utiliser des fichiers `.htaccess`, utilisez [Apache](HowtoApache). ### Erreurs diverses ### Hash maps non prises en compte Il est posisble de créer des "hash map" (cf. [ngx_http_map_module](http://nginx.org/en/docs/http/ngx_http_map_module.html)) pour facilement cérer des variables utilisables dans des blocks, des logs… Sauf que ces maps ne sont pas restreintes à un bloc serveur (VHost), mais appliquées à tout le bloc http. Il ne faut donc pas donner le même nom à 2 maps, au risque d'avoir des conflits difficiles à débugger.