wiki/HowtoPostgreSQLStreamingReplication.md

218 lines
9.5 KiB
Markdown
Raw Normal View History

2017-12-01 00:01:44 +01:00
# _Streaming Replication_ avec PostgreSQL
2016-12-29 11:25:39 +01:00
2017-11-30 23:02:20 +01:00
La réplication en flux (_Streaming Replication_) est disponible à partir de la version 9.0 de PostgreSQL. Celle-ci est différente de la réplication logique apparue dans la version 10.
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
## Caractéristiques
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
* Réplication de type asynchrone (le maître et le réplicat peuvent ne pas être synchro à un instant _t_) ou synchrone (une transaction est commitée uniquement si elle a pu être écrite sur le maître et envoyé au réplicat) ;
2016-12-29 11:25:39 +01:00
* réplication basée sur les journaux binaires générés par PostgreSQL (WAL, pour _Write Ahead Log_) ;
* réplication de l'intégralité des données et structures (toutes les bases de données sont répliquées, avec leurs tables et leurs données, pas de granularité possible). Cette fonctionnalité commencera à être introduite à partir de la 9.3 ;
2017-11-30 23:01:06 +01:00
* le serveur jouant le rôle de réplicat ne peut être interrogé qu'en lecture ;
* possibilité de mettre en cascade plusieurs réplicats.
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
Par rapport au mode de réplication _Hot Standby_, l'avantage avec la réplication en flux est qu'il n'est pas besoin d'attendre qu'un journal soit plein et fermé pour qu'il soit communiquer au serveur réplicat. À l'inverse cela introduit une légère charge supplémentaire (au niveau CPU) puisqu'un (ou plusieurs) processus supplémentaire doit tourner sur le maître (wal_senders).
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
## Pré-requis
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
Pré-requis pour pouvoir mettre en place une infra avec 1 maître et 1 réplicat :
2016-12-29 11:25:39 +01:00
* même architecture (32 bits/64 bits) sur les 2 serveur ;
2017-11-30 23:14:43 +01:00
* même version majeure de PostgreSQL sur les 2 serveur (et même version mineure est conseillé) ;
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
## Installation de PostgreSQL
2016-12-29 11:25:39 +01:00
2017-11-30 23:14:43 +01:00
Voir la documentation présente sur la page principale <https://wiki.evolix.org/HowtoPostgreSQL#installation>
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
## Configuration du serveur maître
2016-12-29 11:25:39 +01:00
2017-12-13 02:17:20 +01:00
> **Note** : Cette configuration est relative au serveur maître, mais elle doit également être reprise à l'identique sur le serveur réplicat, dans le cas où les rôles doivent être échangés (suite à un failover/switchover).
2016-12-29 11:25:39 +01:00
Décommenter ou ajouter les directives suivantes dans le fichier _/etc/postgresql/9.X/main/postgresql.conf_ :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
2017-11-30 23:01:06 +01:00
# Nécessaire pour que le réplicat puisse se connecter.
2016-12-29 11:25:39 +01:00
listen_addresses = '*'
# Nombre maximum de processus walsender à lancer (mettre au moins le même
2017-11-30 23:01:06 +01:00
# nombre que de serveur réplicat qui se connecteront dessus + 1 (reconnexions,
2016-12-29 11:25:39 +01:00
# maintenance...).
# (1 processus = 1 connexion)
max_wal_senders = 2
# « niveau de verbosité » des journaux PostgreSQL. Le niveau maximum est
2017-11-30 23:01:06 +01:00
# nécessaire (hot_standby) pour que le réplicat soit accessible en lecture.
2016-12-29 11:25:39 +01:00
wal_level = hot_standby
# Activation de l'archivage des WAL. Nécessaire pour pouvoir remettre en
# place facilement la réplication suite à un failover/switchover.
archive_mode = on
archive_command = 'rsync %p 192.0.2.2:/srv/pg-archives/%f'
~~~
Créer un utilisateur dédié pour la réplication :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
postgres=# CREATE ROLE repl WITH LOGIN REPLICATION PASSWORD 'xxxxxxxx';
~~~
2017-11-30 23:01:06 +01:00
Autoriser le serveur réplicat à se connecter au maître :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
hostssl replication repl 192.0.2.2/32 md5
~~~
2017-12-01 00:01:44 +01:00
## Configuration du serveur réplicat
2016-12-29 11:25:39 +01:00
2017-12-13 02:17:20 +01:00
> **Note** : Cette configuration est relative au serveur réplicat, mais elle doit également être reprise à l'identique sur le serveur maître, en renommant le fichier _recovery.conf_ pour qu'il ne soit pas pris en compte.
2016-12-29 11:25:39 +01:00
Décommenter ou ajouter les directives suivantes dans le fichier _/etc/postgresql/9.X/main/postgresql.conf_ :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
2017-11-30 23:01:06 +01:00
# Le serveur est en mode réplicat en lecture seule
2016-12-29 11:25:39 +01:00
hot_standby = on
~~~
2017-12-13 02:00:48 +01:00
Créer un fichier _recovery.conf_ situé dans le datadir avec les info suivantes :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
2017-12-13 02:00:48 +01:00
standby_mode = 'on'
primary_conninfo = 'host=192.0.2.1 user=repl password=xxxxxxxx application_name=foo'
archive_cleanup_command = '/usr/lib/postgresql/9.X/bin/pg_archivecleanup /srv/pg-archives/ %r'
recovery_target_timeline = 'latest'
2016-12-29 11:25:39 +01:00
~~~
2017-12-13 02:00:48 +01:00
Il est nécessaire que ce fichier appartienne à l'utilisateur _postgres_, notamment en cas de promotion en master (car postgresql va renommer le fichier en recovery.done.
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# chown postgres:postgres ~postgres/9.X/main/recovery.conf
2016-12-29 11:25:39 +01:00
~~~
2017-12-01 00:01:44 +01:00
## Synchronisation initiale des données
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
* Arrêter PostgreSQL sur le réplicat ;
2016-12-29 11:25:39 +01:00
* sur le maître, indiquer à PostgreSQL qu'on commence une sauvegarde. Il va notamment faire un checkpoint dans son WAL courant et retourner sa position :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
postgres$ psql -c "SELECT pg_start_backup('synchro initiale')"
~~~
2017-01-03 11:20:35 +01:00
2017-11-30 23:01:06 +01:00
* lancer le rsync du datadir vers le réplicat :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# rsync -avz --delete --exclude /pg_xlog/* --exclude /postmaster.* --exclude /recovery.* ~postgres/9.X/main/ 192.0.2.2:~postgres/9.X/main/
2016-12-29 11:25:39 +01:00
~~~
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
* indiquer à PostgreSQL que le backup est terminé :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
postgres$ psql -c "SELECT pg_stop_backup()"
~~~
2017-01-03 11:20:35 +01:00
2017-11-30 23:01:06 +01:00
* redémarrer PostgreSQL sur le réplicat.
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
## Administration
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
### Monitoring
2016-12-29 11:25:39 +01:00
Plusieurs possibilité pour surveiller la réplication :
2017-11-30 23:01:06 +01:00
* Voir la position courante dans les logs sur le maître et le réplicat (on peut en déduire si ils sont synchro ou pas) :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# pgrep -lf "wal (sender|receiver) process"
6891 postgres: wal receiver process streaming 0/C085240
~~~
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
* PostgreSQL fournit la vue `pg_stat_replication()` qui permet de lister les connexions aux processus walsender, avec différentes informations utiles :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
postgres=# SELECT * from pg_stat_replication;
-[ RECORD 1 ]----+------------------------------
pid | 29745
usesysid | 16387
usename | repl
application_name | foo
client_addr | 192.0.2.2
2017-01-03 11:20:35 +01:00
client_hostname |
2016-12-29 11:25:39 +01:00
client_port | 46581
backend_start | 2013-04-30 10:39:43.230287-04
state | streaming
sent_location | 0/C0873B8
write_location | 0/C0873B8
flush_location | 0/C0873B8
replay_location | 0/C0873B8
sync_priority | 0
sync_state | async
~~~
* Les données à surveiller sont notamment les `*_location`, qui indique la position courante dans les WAL à différentes étapes de la réplication. Voir <https://www.postgresql.org/docs/current/static/monitoring-stats.html#PG-STAT-REPLICATION-VIEW> pour le détails des champs.
2016-12-29 11:25:39 +01:00
* Pour pouvoir quantifié le retard de réplication, on peut utiliser la commande [check_postgres](http://bucardo.org/check_postgres/check_postgres.pl.html) avec l'option _hot_standby_delay_ :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
$ check_postgres --action=hot_standby_delay --dbhost=localhost --dbport=5432 --dbname=template1 --dbuser=nrpe --dbpass=xxxxxx --dbhost=192.0.2.2 --dbport=5432 --warning=500000 --critical=1000000
2017-01-03 11:20:35 +01:00
POSTGRES_HOT_STANDBY_DELAY OK: DB "template1" (host:192.0.2.2) 0 | time=0.09s replay_delay=12568;500000;1000000 receive-delay=8192;500000;1000000
2016-12-29 11:25:39 +01:00
~~~
2017-01-03 11:20:35 +01:00
2017-11-30 23:01:06 +01:00
Où localhost est le maître et 192.0.2.2 le réplicat. Les valeurs de _replay_delay_ et _receive-delay_ sont *à priori* exprimées en octets de WAL à rejouer.
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
### Passer un serveur réplicat en maître
2016-12-29 11:25:39 +01:00
Si le maître est toujours joignable, éteindre PostgreSQL en forçant la déconnexion des clients :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# pg_ctlcluster 9.X main stop -- -m fast
2016-12-29 11:25:39 +01:00
~~~
2017-11-30 23:01:06 +01:00
Sur le réplicat, faire en sorte que PostgreSQL accepte les connexions en écriture :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# pg_ctlcluster 9.X main promote
2016-12-29 11:25:39 +01:00
~~~
2017-11-30 23:01:06 +01:00
Le réplicat va d'abord rattraper son éventuel retard dans le traitement des logs de réplication, puis une fois prêt se mettra à accepter les requêtes en écritures.
2016-12-29 11:25:39 +01:00
Le fichier _recovery.conf_ est renommé en _recovery.done_ pour qu'il ne soit pas lu en cas de redémarrage de PostgreSQL.
Messages de PostgreSQL lors du passage en maître :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
2013-04-23 05:54:15 EDT LOG: received promote request
2013-04-23 05:54:15 EDT LOG: redo done at 0/6000020
2013-04-23 05:54:15 EDT LOG: last completed transaction was at log time 2013-04-23 05:54:10.217923-04
2013-04-23 05:54:15 EDT LOG: selected new timeline ID: 2
2013-04-23 05:54:15 EDT LOG: archive recovery complete
2013-04-23 05:54:15 EDT LOG: database system is ready to accept connections
2013-04-23 05:54:15 EDT LOG: autovacuum launcher started
~~~
2017-11-30 23:01:06 +01:00
*ATTENTION : à partir du moment où le réplicat cesse de lire les journaux du maître, toutes les écritures qui continuent de se faire sur le maître seront perdues. Il faut donc être certain que le maître soit réellement inaccessible avant de faire la bascule.*
2016-12-29 11:25:39 +01:00
2017-12-01 00:01:44 +01:00
### Rétablissement de la réplication après un failover
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
État courant : le serveur réplicat accepte les écritures suite à la procédure de failover, et le serveur maître contient des données obsolètes car pas mises à jour.
2016-12-29 11:25:39 +01:00
Il faut alors mettre en place le _recovery.conf_ sur l'ancien master et démarrer PostgreSQL. Il va alors rejouer les WAL pour rattraper le retard accumulé, puis se mettre en mettre en mode _streaming replication_.
2017-12-01 00:01:44 +01:00
### Arrêter la réplication
2017-01-03 11:20:35 +01:00
2017-11-30 23:01:06 +01:00
* Arrêter/reprendre le "replay" des WAL sur le réplicat :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
postgres=# SELECT pg_xlog_replay_pause();
postgres=# SELECT pg_xlog_replay_resume();
~~~
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
* Arrêter/reprendre le flux des WAL depuis le maître. Il ne semble pas y avoir de solution autre que de couper le flux au niveau réseau. Sur le maître :
2017-01-03 11:20:35 +01:00
2016-12-29 11:25:39 +01:00
~~~
# iptables -I INPUT -s 192.0.2.2 -p tcp --dport 5432 -j REJECT
# iptables -D INPUT 1
~~~
2017-12-01 00:01:44 +01:00
## Diverses notes/spécificités de la réplication
2016-12-29 11:25:39 +01:00
2017-12-13 02:13:59 +01:00
* Si une requête sur le serveur réplicat bloque la réplication (par exemple un `SELECT` qui bloque un `DROP TABLE`) pendant un temps trop long, la requête sur le réplicat sera tuée (ici le SELECT). Ce temps est défini par la directive `max_standby_streaming_delay` sur la configuration du réplicat.
2016-12-29 11:25:39 +01:00
2017-11-30 23:01:06 +01:00
Ce comportement peut-être désactivé grâce à la directive `hot_standby_feedback`, qui fait en sorte que le réplicat communique l'état des requêtes au maître, mais cela à un impact sur le maître.