Cluster actif passif drbd sync

J'ai une application qui est installée dans

/opt/my_app/

catalogue. Maintenant, je veux configurer deux serveurs dans un cluster (actif - passif) et synchroniser tout le catalogue avec DRBD. Maintenant, comme je le comprends, DRBD nécessite un dispositif de blocage. Par conséquent, j'ajouterais un nouveau disque virtuel (Les deux sont des machines virtuelles ESX), Créé une section, puis volume physique, groupe de volumes et volume logique. Mais la question que j'ai techniquement possible de placer / opt / my_app / sur l'appareil DRBD et synchroniser-le entre deux nœuds?

ÉDITER:

[root@server2 otrs]# pcs config
Cluster Name: otrs_cluster
Corosync Nodes:
server1 server2
Pacemaker Nodes:
server1 server2

Resources:
Group: OTRS
Resource: ClusterIP (class=ocf provider=heartbeat type=IPaddr2)
Attributes: cidr_netmask=8 ip=10.0.0.60
Operations: monitor interval=20s (ClusterIP-monitor-interval-20s)
start interval=0s timeout=20s (ClusterIP-start-interval-0s)
stop interval=0s timeout=20s (ClusterIP-stop-interval-0s)
Resource: otrs_file_system (class=ocf provider=heartbeat type=Filesystem)
Attributes: device=/dev/drbd0 directory=/opt/otrs/ fstype=ext4
Operations: monitor interval=20 timeout=40 (otrs_file_system-monitor-interval-20)
start interval=0s timeout=60 (otrs_file_system-start-interval-0s)
stop interval=0s timeout=60 (otrs_file_system-stop-interval-0s)
Master: otrs_data_clone
Meta Attrs: master-node-max=1 clone-max=2 notify=true master-max=1 clone-node-max=1
Resource: otrs_data (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=otrs
Operations: demote interval=0s timeout=90 (otrs_data-demote-interval-0s)
monitor interval=30s (otrs_data-monitor-interval-30s)
promote interval=0s timeout=90 (otrs_data-promote-interval-0s)
start interval=0s timeout=240 (otrs_data-start-interval-0s)
stop interval=0s timeout=100 (otrs_data-stop-interval-0s)

Stonith Devices:
Fencing Levels:

Location Constraints:
Resource: ClusterIP
Enabled on: server1 (score:INFINITY) (role: Started) (id:cli-prefer-ClusterIP)
Ordering Constraints:
Colocation Constraints:
Ticket Constraints:

Alerts:
No alerts defined

Resources Defaults:
No defaults set
Operations Defaults:
No defaults set

Cluster Properties:
cluster-infrastructure: corosync
cluster-name: otrs_cluster
dc-version: 1.1.16-12.el7_4.8-94ff4df
have-watchdog: false
last-lrm-refresh: 1525108871
stonith-enabled: false

Quorum:
Options:
[root@server2 otrs]#




[root@server2 otrs]# pcs status
Cluster name: otrs_cluster
Stack: corosync
Current DC: server1 (version 1.1.16-12.el7_4.8-94ff4df) - partition with quorum
Last updated: Mon Apr 30 14:11:54 2018
Last change: Mon Apr 30 13:27:47 2018 by root via crm_resource on server2

2 nodes configured
4 resources configured

Online: [ server1 server2 ]

Full list of resources:

Resource Group: OTRS
ClusterIP (ocf::heartbeat:IPaddr2): Started server2
otrs_file_system (ocf::heartbeat:Filesystem): Started server2
Master/Slave Set: otrs_data_clone [otrs_data]
Masters: [ server2 ]
Slaves: [ server1 ]

Failed Actions:
* otrs_file_system_start_0 on server1 'unknown error' (1): call=78, status=complete, exitreason='Couldn't mount filesystem /dev/drbd0 on /opt/otrs',
last-rc-change='Mon Apr 30 13:21:13 2018', queued=0ms, exec=151ms


Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[root@server2 otrs]#
Invité:

Blanche

Confirmation de:

Bien sur, c'est possible.

Après avoir ajouté un appareil de bloc et créer LVM Pour soutenir l'appareil DRBD Vous devez configurer et initialiser le périphérique. DRBD (

drbdadm create-md <res>

et

drbdadm up <res>

.

Faire un nœud principal (Remarque: vous devez activer avec force le BASIC uniquement lorsque vous promouvez d'abord l'appareil, car vous avez

Inconsistent/Inconsistent

Statut de disque):

drbdadm primary <res> --force

Ensuite, vous pouvez placer le système de fichiers sur l'appareil et le monté n'importe où dans le système, y compris

/opt/my_app

, Comme avec un dispositif de bloc conventionnel.

S'il y a des données dans

/opt/my_app/

De quoi avez-vous besoin de passer à l'appareil DRBD, Vous pouvez monter l'appareil ailleurs, déplacer / Copier des données de

/opt/my_app/

au point de montage, puis élimine à distance DRBD sur

/opt/myapp

, Ou vous pouvez utiliser des liens symboliques pour spécifier

/opt/my_app

Au point de montage de l'appareil DRBD.

Réponse mise à jour après EDIT:

Vous devez ajouter des restrictions de placement et de commander dans la configuration du cluster pour signaler

OTRS

Le groupe de ressources ne devrait fonctionner que sur le périphérique hôte. DRBD et ne fonctionne que après avoir amélioré le niveau du maître DRBD.

Ces commandes doivent ajouter ces restrictions:

# pcs constraint colocation add OTRS with otrs_data_clone INFINITY with-rsc-role=Master
# pcs constraint order promote otrs_data_clone then start OTRS

</res></res></res>

Pour répondre aux questions, connectez-vous ou registre