Nastavení Pacemakeru na SUSE Linux Enterprise Serveru v Azure
Tento článek popisuje, jak nastavit Pacemaker na SUSE Linux Enterprise Server (SLES) v Azure.
Přehled
V Azure máte dvě možnosti nastavení ohraničení v clusteru Pacemaker pro SLES. Můžete použít agenta plotu Azure, který restartuje uzel, který selhal prostřednictvím rozhraní API Azure, nebo můžete použít zařízení SBD.
Použití zařízení SBD
Zařízení SBD můžete nakonfigurovat pomocí jedné ze dvou možností:
SBD s cílovým serverem iSCSI:
Zařízení SBD vyžaduje alespoň jeden další virtuální počítač, který funguje jako cílový server iSCSI (Internet Small Computer System Interface) a poskytuje zařízení SBD. Tyto cílové servery iSCSI se ale dají sdílet s jinými clustery Pacemaker. Výhodou použití zařízení SBD je, že pokud už používáte místní zařízení SBD, nevyžadují žádné změny způsobu, jakým provozujete cluster Pacemaker.
Pro cluster Pacemaker můžete použít až tři zařízení SBD, aby bylo možné zařízení SBD nedostupné (například během opravy operačního systému cílového serveru iSCSI). Pokud chcete použít více než jedno zařízení SBD na Pacemaker, nezapomeňte nasadit více cílových serverů iSCSI a připojit jeden SBD z každého cílového serveru iSCSI. Doporučujeme použít jedno zařízení SBD nebo tři. Pacemaker nemůže automaticky ohrazovat uzel clusteru, pokud jsou nakonfigurovaná jenom dvě zařízení SBD a jedna z nich není k dispozici. Pokud chcete být schopni ohrazení, když je jeden cílový server iSCSI, musíte použít tři zařízení SBD, a proto tři cílové servery iSCSI. To je nejodolnější konfigurace při používání sbd.
Důležité
Pokud plánujete a nasazujete clusterové uzly Pacemaker s Linuxem a zařízení SBD, nepovolujte směrování mezi vašimi virtuálními počítači a virtuálními počítači, které jsou hostitelem zařízení SBD, aby prošla všemi dalšími zařízeními, jako je síťové virtuální zařízení (NVA).
Události údržby a další problémy se síťovým virtuálním zařízením můžou mít negativní dopad na stabilitu a spolehlivost celkové konfigurace clusteru. Další informace najdete v tématu Pravidla směrování definovaná uživatelem.
SBD se sdíleným diskem Azure:
Pokud chcete nakonfigurovat zařízení SBD, musíte ke všem virtuálním počítačům, které jsou součástí clusteru Pacemaker, připojit aspoň jeden sdílený disk Azure. Výhodou zařízení SBD, které používá sdílený disk Azure, je, že nemusíte nasazovat další virtuální počítače.
Tady je několik důležitých informací o zařízeních SBD při používání sdíleného disku Azure:
- Sdílený disk Azure s SSD úrovně Premium se podporuje jako zařízení SBD.
- Zařízení SBD, která používají sdílený disk Azure, se podporují na zařízeních s vysokou dostupností SLES 15 SP01 a novějších.
- Zařízení SBD, která používají sdílený disk Azure Premium, se podporují v místně redundantním úložišti (LRS) a zónově redundantním úložišti (ZRS).
- V závislosti na typu nasazení zvolte jako zařízení SBD odpovídající redundantní úložiště pro sdílený disk Azure.
- Zařízení SBD využívající LRS pro sdílený disk Azure Premium (skuName – Premium_LRS) se podporuje pouze při nasazení ve skupině dostupnosti.
- Zařízení SBD využívající ZRS pro sdílený disk Azure Premium (skuName – Premium_ZRS) se doporučuje s nasazením v zónách dostupnosti.
- ZRS pro spravovaný disk je momentálně nedostupný ve všech oblastech se zónami dostupnosti. Další informace najdete v části Omezení ZRS v možnostech redundance pro spravované disky.
- Sdílený disk Azure, který používáte pro zařízení SBD, nemusí být velký. Hodnota maxShares určuje, kolik uzlů clusteru může sdílený disk používat. Pro zařízení SBD můžete například použít velikosti disků P1 nebo P2 v clusteru se dvěma uzly, jako je SAP ASCS/ERS nebo vertikální navýšení kapacity SAP HANA.
- Pro horizontální navýšení kapacity HANA pomocí replikace systému HANA (HSR) a Pacemakeru můžete použít sdílený disk Azure pro zařízení SBD v clusterech s až čtyřmi uzly na lokalitu replikace kvůli aktuálnímu limitu maximálního počtu sdílených složek.
- Nedoporučujeme připojovat zařízení SBD sdíleného disku Azure napříč clustery Pacemaker.
- Pokud používáte více zařízení SBD sdíleného disku Azure, zkontrolujte limit maximálního počtu datových disků, které je možné připojit k virtuálnímu počítači.
- Další informace o omezeních sdílených disků Azure najdete v dokumentaci ke sdíleným diskům Azure v části Omezení.
Použití agenta azure plotu
Ohraničení můžete nastavit pomocí agenta plotu Azure. Agent plotu Azure vyžaduje spravované identity pro virtuální počítače clusteru nebo instanční objekt, který spravuje restartování neúspěšných uzlů prostřednictvím rozhraní API Azure. Agent plotu Azure nevyžaduje nasazení dalších virtuálních počítačů.
SBD s cílovým serverem iSCSI
Chcete-li použít zařízení SBD, které používá cílový server iSCSI pro ohraničení, postupujte podle pokynů v následujících částech.
Nastavení cílového serveru iSCSI
Nejprve musíte vytvořit cílové virtuální počítače iSCSI. Cílové servery iSCSI můžete sdílet s několika clustery Pacemaker.
Nasaďte nové virtuální počítače SLES 12 SP3 nebo vyšší a připojte se k nim přes SSH. Počítače nemusí být velké. Stačí velikost virtuálních počítačů Standard_E2s_v3 nebo Standard_D2s_v3. Ujistěte se, že pro disk s operačním systémem používáte Premium Storage.
Na cílových virtuálních počítačích iSCSI spusťte následující příkazy:
a. Aktualizujte SLES.
sudo zypper update
Poznámka:
Po upgradu nebo aktualizaci operačního systému možná budete muset operační systém restartovat.
b. Odeberte balíčky.
Abyste se vyhnuli známému problému s cílovým seznamem a SLES 12 SP3, odinstalujte následující balíčky. Chyby týkající se balíčků, které se nedají najít, můžete ignorovat.
sudo zypper remove lio-utils python-rtslib python-configshell targetcli
c. Nainstalujte cílové balíčky iSCSI.
sudo zypper install targetcli-fb dbus-1-python
d. Povolte cílovou službu iSCSI.
sudo systemctl enable targetcli sudo systemctl start targetcli
Vytvoření zařízení iSCSI na cílovém serveru iSCSI
Pokud chcete vytvořit disky iSCSI pro clustery, které budou vaše systémy SAP používat, spusťte na všech cílových virtuálních počítačích iSCSI následující příkazy. V tomto příkladu se vytvoří zařízení SBD pro více clusterů. Ukazuje, jak byste pro více clusterů použili jeden cílový server iSCSI. Zařízení SBD se umístí na disk s operačním systémem. Ujistěte se, že máte dostatek místa.
- Nfs: Identifikuje cluster NFS.
- ascsnw1: Identifikuje cluster ASCS NW1.
- dbnw1: Identifikuje databázový cluster NW1.
- nfs-0 a nfs-1: Názvy hostitelů uzlů clusteru NFS.
- nw1-xscs-0 a nw1-xscs-1: názvy hostitelů uzlů clusteru NW1 ASCS.
- nw1-db-0 a nw1-db-1: názvy hostitelů uzlů databázového clusteru.
V následujících pokynech nahraďte názvy hostitelů uzlů clusteru a identifikátor SID systému SAP.
Vytvořte kořenovou složku pro všechna zařízení SBD.
sudo mkdir /sbd
Vytvořte zařízení SBD pro server NFS.
sudo targetcli backstores/fileio create sbdnfs /sbd/sbdnfs 50M write_back=false sudo targetcli iscsi/ create iqn.2006-04.nfs.local:nfs sudo targetcli iscsi/iqn.2006-04.nfs.local:nfs/tpg1/luns/ create /backstores/fileio/sbdnfs sudo targetcli iscsi/iqn.2006-04.nfs.local:nfs/tpg1/acls/ create iqn.2006-04.nfs-0.local:nfs-0 sudo targetcli iscsi/iqn.2006-04.nfs.local:nfs/tpg1/acls/ create iqn.2006-04.nfs-1.local:nfs-1
Vytvořte zařízení SBD pro server ASCS systému SAP NW1.
sudo targetcli backstores/fileio create sbdascsnw1 /sbd/sbdascsnw1 50M write_back=false sudo targetcli iscsi/ create iqn.2006-04.ascsnw1.local:ascsnw1 sudo targetcli iscsi/iqn.2006-04.ascsnw1.local:ascsnw1/tpg1/luns/ create /backstores/fileio/sbdascsnw1 sudo targetcli iscsi/iqn.2006-04.ascsnw1.local:ascsnw1/tpg1/acls/ create iqn.2006-04.nw1-xscs-0.local:nw1-xscs-0 sudo targetcli iscsi/iqn.2006-04.ascsnw1.local:ascsnw1/tpg1/acls/ create iqn.2006-04.nw1-xscs-1.local:nw1-xscs-1
Vytvořte zařízení SBD pro databázový cluster SYSTÉMU SAP System NW1.
sudo targetcli backstores/fileio create sbddbnw1 /sbd/sbddbnw1 50M write_back=false sudo targetcli iscsi/ create iqn.2006-04.dbnw1.local:dbnw1 sudo targetcli iscsi/iqn.2006-04.dbnw1.local:dbnw1/tpg1/luns/ create /backstores/fileio/sbddbnw1 sudo targetcli iscsi/iqn.2006-04.dbnw1.local:dbnw1/tpg1/acls/ create iqn.2006-04.nw1-db-0.local:nw1-db-0 sudo targetcli iscsi/iqn.2006-04.dbnw1.local:dbnw1/tpg1/acls/ create iqn.2006-04.nw1-db-1.local:nw1-db-1
Uložte změny cílového seznamu.
sudo targetcli saveconfig
Zkontrolujte, jestli je všechno správně nastavené.
sudo targetcli ls o- / .......................................................................................................... [...] o- backstores ............................................................................................... [...] | o- block ................................................................................... [Storage Objects: 0] | o- fileio .................................................................................. [Storage Objects: 3] | | o- sbdascsnw1 ................................................ [/sbd/sbdascsnw1 (50.0MiB) write-thru activated] | | | o- alua .................................................................................... [ALUA Groups: 1] | | | o- default_tg_pt_gp ........................................................ [ALUA state: Active/optimized] | | o- sbddbnw1 .................................................... [/sbd/sbddbnw1 (50.0MiB) write-thru activated] | | | o- alua .................................................................................... [ALUA Groups: 1] | | | o- default_tg_pt_gp ........................................................ [ALUA state: Active/optimized] | | o- sbdnfs ........................................................ [/sbd/sbdnfs (50.0MiB) write-thru activated] | | o- alua .................................................................................... [ALUA Groups: 1] | | o- default_tg_pt_gp ........................................................ [ALUA state: Active/optimized] | o- pscsi ................................................................................... [Storage Objects: 0] | o- ramdisk ................................................................................. [Storage Objects: 0] o- iscsi ............................................................................................. [Targets: 3] | o- iqn.2006-04.ascsnw1.local:ascsnw1 .................................................................. [TPGs: 1] | | o- tpg1 ................................................................................ [no-gen-acls, no-auth] | | o- acls ........................................................................................... [ACLs: 2] | | | o- iqn.2006-04.nw1-xscs-0.local:nw1-xscs-0 ............................................... [Mapped LUNs: 1] | | | | o- mapped_lun0 ............................................................ [lun0 fileio/sbdascsnw1 (rw)] | | | o- iqn.2006-04.nw1-xscs-1.local:nw1-xscs-1 ............................................... [Mapped LUNs: 1] | | | o- mapped_lun0 ............................................................ [lun0 fileio/sbdascsnw1 (rw)] | | o- luns ........................................................................................... [LUNs: 1] | | | o- lun0 .......................................... [fileio/sbdascsnw1 (/sbd/sbdascsnw1) (default_tg_pt_gp)] | | o- portals ..................................................................................... [Portals: 1] | | o- 0.0.0.0:3260 ...................................................................................... [OK] | o- iqn.2006-04.dbnw1.local:dbnw1 ...................................................................... [TPGs: 1] | | o- tpg1 ................................................................................ [no-gen-acls, no-auth] | | o- acls ........................................................................................... [ACLs: 2] | | | o- iqn.2006-04.nw1-db-0.local:nw1-db-0 ................................................... [Mapped LUNs: 1] | | | | o- mapped_lun0 .............................................................. [lun0 fileio/sbddbnw1 (rw)] | | | o- iqn.2006-04.nw1-db-1.local:nw1-db-1 ................................................... [Mapped LUNs: 1] | | | o- mapped_lun0 .............................................................. [lun0 fileio/sbddbnw1 (rw)] | | o- luns ........................................................................................... [LUNs: 1] | | | o- lun0 .............................................. [fileio/sbddbnw1 (/sbd/sbddbnw1) (default_tg_pt_gp)] | | o- portals ..................................................................................... [Portals: 1] | | o- 0.0.0.0:3260 ...................................................................................... [OK] | o- iqn.2006-04.nfs.local:nfs .......................................................................... [TPGs: 1] | o- tpg1 ................................................................................ [no-gen-acls, no-auth] | o- acls ........................................................................................... [ACLs: 2] | | o- iqn.2006-04.nfs-0.local:nfs-0 ......................................................... [Mapped LUNs: 1] | | | o- mapped_lun0 ................................................................ [lun0 fileio/sbdnfs (rw)] | | o- iqn.2006-04.nfs-1.local:nfs-1 ......................................................... [Mapped LUNs: 1] | | o- mapped_lun0 ................................................................ [lun0 fileio/sbdnfs (rw)] | o- luns ........................................................................................... [LUNs: 1] | | o- lun0 .................................................. [fileio/sbdnfs (/sbd/sbdnfs) (default_tg_pt_gp)] | o- portals ..................................................................................... [Portals: 1] | o- 0.0.0.0:3260 ...................................................................................... [OK] o- loopback .......................................................................................... [Targets: 0] o- vhost ............................................................................................. [Targets: 0] o- xen-pvscsi ........................................................................................ [Targets: 0]
Nastavení zařízení SBD cílového serveru iSCSI
Připojte se k zařízení iSCSI, které jste vytvořili v posledním kroku z clusteru. Na uzlech nového clusteru, který chcete vytvořit, spusťte následující příkazy.
Poznámka:
- [A]: Platí pro všechny uzly.
- [1]: Platí pouze pro uzel 1.
- [2]: Platí pouze pro uzel 2.
[A] Nainstalujte balíček iSCSI.
sudo zypper install open-iscsi
[A] Připojte se k zařízením iSCSI. Nejprve povolte služby iSCSI a SBD.
sudo systemctl enable iscsid sudo systemctl enable iscsi sudo systemctl enable sbd
[1] Změňte název iniciátoru na prvním uzlu.
sudo vi /etc/iscsi/initiatorname.iscsi
[1] Změňte obsah souboru tak, aby odpovídal seznamům řízení přístupu (ACL), které jste použili při vytváření zařízení iSCSI na cílovém serveru iSCSI (například pro server NFS).
InitiatorName=iqn.2006-04.nfs-0.local:nfs-0
[2] Změňte název iniciátoru na druhém uzlu.
sudo vi /etc/iscsi/initiatorname.iscsi
[2] Změňte obsah souboru tak, aby odpovídal seznamům ACL, které jste použili při vytváření zařízení iSCSI na cílovém serveru iSCSI.
InitiatorName=iqn.2006-04.nfs-1.local:nfs-1
[A] Restartujte službu iSCSI, aby se změna použila.
sudo systemctl restart iscsid sudo systemctl restart iscsi
[A] Připojte zařízení iSCSI. V následujícím příkladu je 10.0.0.17 IP adresa cílového serveru iSCSI a 3260 je výchozí port. iqn.2006-04.nfs.local:nfs je jedním z cílových názvů uvedených při spuštění prvního příkazu.
iscsiadm -m discovery
sudo iscsiadm -m discovery --type=st --portal=10.0.0.17:3260 sudo iscsiadm -m node -T iqn.2006-04.nfs.local:nfs --login --portal=10.0.0.17:3260 sudo iscsiadm -m node -p 10.0.0.17:3260 -T iqn.2006-04.nfs.local:nfs --op=update --name=node.startup --value=automatic
[A] Pokud chcete použít více zařízení SBD, připojte se také k druhému cílovému serveru iSCSI.
sudo iscsiadm -m discovery --type=st --portal=10.0.0.18:3260 sudo iscsiadm -m node -T iqn.2006-04.nfs.local:nfs --login --portal=10.0.0.18:3260 sudo iscsiadm -m node -p 10.0.0.18:3260 -T iqn.2006-04.nfs.local:nfs --op=update --name=node.startup --value=automatic
[A] Pokud chcete použít více zařízení SBD, připojte se také k třetímu cílovému serveru iSCSI.
sudo iscsiadm -m discovery --type=st --portal=10.0.0.19:3260 sudo iscsiadm -m node -T iqn.2006-04.nfs.local:nfs --login --portal=10.0.0.19:3260 sudo iscsiadm -m node -p 10.0.0.19:3260 -T iqn.2006-04.nfs.local:nfs --op=update --name=node.startup --value=automatic
[A] Ujistěte se, že jsou zařízení iSCSI dostupná, a poznamenejte si název zařízení (/dev/sde v následujícím příkladu).
lsscsi # [2:0:0:0] disk Msft Virtual Disk 1.0 /dev/sda # [3:0:1:0] disk Msft Virtual Disk 1.0 /dev/sdb # [5:0:0:0] disk Msft Virtual Disk 1.0 /dev/sdc # [5:0:0:1] disk Msft Virtual Disk 1.0 /dev/sdd # [6:0:0:0] disk LIO-ORG sbdnfs 4.0 /dev/sdd # [7:0:0:0] disk LIO-ORG sbdnfs 4.0 /dev/sde # [8:0:0:0] disk LIO-ORG sbdnfs 4.0 /dev/sdf
[A] Načtěte ID zařízení iSCSI.
ls -l /dev/disk/by-id/scsi-* | grep sdd # lrwxrwxrwx 1 root root 9 Aug 9 13:20 /dev/disk/by-id/scsi-1LIO-ORG_sbdnfs:afb0ba8d-3a3c-413b-8cc2-cca03e63ef42 -> ../../sdd # lrwxrwxrwx 1 root root 9 Aug 9 13:20 /dev/disk/by-id/scsi-36001405afb0ba8d3a3c413b8cc2cca03 -> ../../sdd # lrwxrwxrwx 1 root root 9 Aug 9 13:20 /dev/disk/by-id/scsi-SLIO-ORG_sbdnfs_afb0ba8d-3a3c-413b-8cc2-cca03e63ef42 -> ../../sdd ls -l /dev/disk/by-id/scsi-* | grep sde # lrwxrwxrwx 1 root root 9 Feb 7 12:39 /dev/disk/by-id/scsi-1LIO-ORG_cl1:3fe4da37-1a5a-4bb6-9a41-9a4df57770e4 -> ../../sde # lrwxrwxrwx 1 root root 9 Feb 7 12:39 /dev/disk/by-id/scsi-360014053fe4da371a5a4bb69a419a4df -> ../../sde # lrwxrwxrwx 1 root root 9 Feb 7 12:39 /dev/disk/by-id/scsi-SLIO-ORG_cl1_3fe4da37-1a5a-4bb6-9a41-9a4df57770e4 -> ../../sde ls -l /dev/disk/by-id/scsi-* | grep sdf # lrwxrwxrwx 1 root root 9 Aug 9 13:32 /dev/disk/by-id/scsi-1LIO-ORG_sbdnfs:f88f30e7-c968-4678-bc87-fe7bfcbdb625 -> ../../sdf # lrwxrwxrwx 1 root root 9 Aug 9 13:32 /dev/disk/by-id/scsi-36001405f88f30e7c9684678bc87fe7bf -> ../../sdf # lrwxrwxrwx 1 root root 9 Aug 9 13:32 /dev/disk/by-id/scsi-SLIO-ORG_sbdnfs_f88f30e7-c968-4678-bc87-fe7bfcbdb625 -> ../../sdf
Příkaz zobrazí seznam tří ID zařízení pro každé zařízení SBD. Doporučujeme použít ID začínající rozhraním scsi-3. V předchozím příkladu jsou ID:
- /dev/disk/by-id/scsi-36001405afb0ba8d3a3c413b8cc2cca03
- /dev/disk/by-id/scsi-360014053fe4da371a5a4bb69a419a4df
- /dev/disk/by-id/scsi-36001405f88f30e7c9684678bc87fe7bf
[1] Vytvořte zařízení SBD.
a. Pomocí ID zařízení iSCSI vytvořte nová zařízení SBD na prvním uzlu clusteru.
sudo sbd -d /dev/disk/by-id/scsi-36001405afb0ba8d3a3c413b8cc2cca03 -1 60 -4 120 create
b. Pokud chcete použít více než jedno zařízení, vytvořte také druhá a třetí zařízení SBD.
sudo sbd -d /dev/disk/by-id/scsi-360014053fe4da371a5a4bb69a419a4df -1 60 -4 120 create sudo sbd -d /dev/disk/by-id/scsi-36001405f88f30e7c9684678bc87fe7bf -1 60 -4 120 create
[A] Přizpůsobte konfiguraci SBD.
a. Otevřete konfigurační soubor SBD.
sudo vi /etc/sysconfig/sbd
b. Změňte vlastnost zařízení SBD, povolte integraci Pacemakeru a změňte režim spuštění SBD.
[...] SBD_DEVICE="/dev/disk/by-id/scsi-36001405afb0ba8d3a3c413b8cc2cca03;/dev/disk/by-id/scsi-360014053fe4da371a5a4bb69a419a4df;/dev/disk/by-id/scsi-36001405f88f30e7c9684678bc87fe7bf" [...] SBD_PACEMAKER="yes" [...] SBD_STARTMODE="always" [...]
Poznámka:
Pokud je hodnota vlastnosti SBD_DELAY_START nastavená na "ne", změňte hodnotu na ano. Musíte také zkontrolovat soubor služby SBD, abyste měli jistotu, že hodnota TimeoutStartSec je větší než hodnota SBD_DELAY_START. Další informace najdete v tématu Konfigurace souboru SBD
[A] Vytvořte
softdog
konfigurační soubor.echo softdog | sudo tee /etc/modules-load.d/softdog.conf
[A] Načtěte modul.
sudo modprobe -v softdog
SBD se sdíleným diskem Azure
Tato část platí jenom v případě, že chcete použít zařízení SBD se sdíleným diskem Azure.
Vytvoření a připojení sdíleného disku Azure pomocí PowerShellu
Upravte hodnoty pro vaši skupinu prostředků, oblast Azure, virtuální počítače, čísla logických jednotek (LUN) atd.
$ResourceGroup = "MyResourceGroup" $Location = "MyAzureRegion"
Definujte velikost disku na základě dostupné velikosti disku pro disky SSD úrovně Premium. V tomto příkladu je zmíněna velikost disku P1 4G.
$DiskSizeInGB = 4 $DiskName = "SBD-disk1"
Pomocí parametru -MaxSharesCount definujte maximální počet uzlů clusteru pro připojení sdíleného disku pro zařízení SBD.
$ShareNodes = 2
Pro zařízení SBD, které používá LRS pro sdílený disk Azure Premium, použijte následující SkuName úložiště:
$SkuName = "Premium_LRS"
Pro zařízení SBD, které používá ZRS pro sdílený disk Azure Premium, použijte následující SkuName úložiště:
$SkuName = "Premium_ZRS"
Nastavte sdílený disk Azure.
$diskConfig = New-AzDiskConfig -Location $Location -SkuName $SkuName -CreateOption Empty -DiskSizeGB $DiskSizeInGB -MaxSharesCount $ShareNodes $dataDisk = New-AzDisk -ResourceGroupName $ResourceGroup -DiskName $DiskName -Disk $diskConfig
Připojte disk k virtuálním počítačům clusteru.
$VM1 = "prod-cl1-0" $VM2 = "prod-cl1-1"
a. Přidejte sdílený disk Azure do uzlu clusteru 1.
$vm = Get-AzVM -ResourceGroupName $ResourceGroup -Name $VM1 $vm = Add-AzVMDataDisk -VM $vm -Name $DiskName -CreateOption Attach -ManagedDiskId $dataDisk.Id -Lun 0 Update-AzVm -VM $vm -ResourceGroupName $ResourceGroup -Verbose
b. Přidejte sdílený disk Azure do uzlu clusteru 2.
$vm = Get-AzVM -ResourceGroupName $ResourceGroup -Name $VM2 $vm = Add-AzVMDataDisk -VM $vm -Name $DiskName -CreateOption Attach -ManagedDiskId $dataDisk.Id -Lun 0 Update-AzVm -VM $vm -ResourceGroupName $ResourceGroup -Verbose
Pokud chcete nasadit prostředky pomocí Azure CLI nebo webu Azure Portal, můžete se také podívat na nasazení disku ZRS.
Nastavení zařízení SBD sdíleného disku Azure
[A] Povolte služby SBD.
sudo systemctl enable sbd
[A] Ujistěte se, že je připojený disk dostupný.
# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT fd0 2:0 1 4K 0 disk sda 8:0 0 30G 0 disk ├─sda1 8:1 0 2M 0 part ├─sda2 8:2 0 512M 0 part /boot/efi ├─sda3 8:3 0 1G 0 part /boot ├─sda4 8:4 0 28.5G 0 part / sdb 8:16 0 256G 0 disk ├─sdb1 8:17 0 256G 0 part /mnt sdc 8:32 0 4G 0 disk sr0 11:0 1 1024M 0 rom # lsscsi [1:0:0:0] cd/dvd Msft Virtual CD/ROM 1.0 /dev/sr0 [2:0:0:0] disk Msft Virtual Disk 1.0 /dev/sda [3:0:1:0] disk Msft Virtual Disk 1.0 /dev/sdb [5:0:0:0] disk Msft Virtual Disk 1.0 /dev/sdc
[A] Načtěte ID připojených disků.
# ls -l /dev/disk/by-id/scsi-* | grep sdc lrwxrwxrwx 1 root root 9 Nov 8 16:55 /dev/disk/by-id/scsi-14d534654202020204208a67da80744439b513b2a9728af19 -> ../../sdc lrwxrwxrwx 1 root root 9 Nov 8 16:55 /dev/disk/by-id/scsi-3600224804208a67da8073b2a9728af19 -> ../../sdc
Příkazy uvádějí ID zařízení pro zařízení SBD. Doporučujeme použít ID začínající rozhraním scsi-3. V předchozím příkladu je ID /dev/disk/by-id/scsi-3600224804208a67da8073b2a9728af19.
[1] Vytvořte zařízení SBD.
Pomocí ID zařízení z kroku 2 vytvořte nová zařízení SBD na prvním uzlu clusteru.
# sudo sbd -d /dev/disk/by-id/scsi-3600224804208a67da8073b2a9728af19 -1 60 -4 120 create
[A] Přizpůsobte konfiguraci SBD.
a. Otevřete konfigurační soubor SBD.
sudo vi /etc/sysconfig/sbd
b. Změňte vlastnost zařízení SBD, povolte integraci Pacemakeru a změňte režim spuštění zařízení SBD.
[...] SBD_DEVICE="/dev/disk/by-id/scsi-3600224804208a67da8073b2a9728af19" [...] SBD_PACEMAKER="yes" [...] SBD_STARTMODE="always" [...]
Poznámka:
Pokud je hodnota vlastnosti SBD_DELAY_START nastavená na "ne", změňte hodnotu na ano. Musíte také zkontrolovat soubor služby SBD, abyste měli jistotu, že hodnota TimeoutStartSec je větší než hodnota SBD_DELAY_START. Další informace najdete v tématu Konfigurace souboru SBD
softdog
Vytvořte konfigurační soubor.echo softdog | sudo tee /etc/modules-load.d/softdog.conf
Načtěte modul.
sudo modprobe -v softdog
Použití agenta azure plotu
Tato část platí jenom v případě, že chcete použít zařízení s plotovým agentem Azure.
Vytvoření zařízení agenta plotu Azure
Tato část platí jenom v případě, že používáte zařízení pro ohraničení, které je založené na agentovi plotu Azure. Zařízení k autorizaci v Microsoft Azure používá spravovanou identitu nebo instanční objekt.
Pokud chcete vytvořit spravovanou identitu (MSI), vytvořte spravovanou identitu přiřazenou systémem pro každý virtuální počítač v clusteru. Pokud už spravovaná identita přiřazená systémem existuje, použije se. Spravované identity přiřazené uživatelem by se v tuto chvíli neměly používat s Pacemakerem. Agent azure plotu založený na spravované identitě se podporuje pro SLES 12 SP5 a SLES 15 SP1 a vyšší.
[1] Vytvoření vlastní role pro agenta plotu
Ve výchozím nastavení nemá spravovaná identita ani instanční objekt oprávnění pro přístup k vašim prostředkům Azure. Musíte udělit spravované identitě nebo instančnímu objektu oprávnění ke spuštění a zastavení (zrušení přidělení) všech virtuálních počítačů v clusteru. Pokud jste vlastní roli ještě nevytvořili, můžete to udělat pomocí PowerShellu nebo Azure CLI.
Pro vstupní soubor použijte následující obsah. Obsah musíte přizpůsobit svým předplatným. To znamená, že nahraďte xxxxxxxx-xxxx-xxxx-xxxxxxxx a y-y-y-y-ya vlastní ID předplatného. Pokud máte jenom jedno předplatné, odeberte druhou položku v části AssignableScopes.
{
"Name": "Linux fence agent Role",
"description": "Allows to power-off and start virtual machines",
"assignableScopes": [
"/subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
"/subscriptions/yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy"
],
"actions": [
"Microsoft.Compute/*/read",
"Microsoft.Compute/virtualMachines/powerOff/action",
"Microsoft.Compute/virtualMachines/start/action"
],
"notActions": [],
"dataActions": [],
"notDataActions": []
}
[A] Přiřazení vlastní role
Použijte spravovanou identitu nebo instanční objekt.
Přiřaďte vlastní roli "Role agenta plotu Linuxu", která byla vytvořena v poslední kapitole, ke každé spravované identitě virtuálních počítačů clusteru. Každá spravovaná identita přiřazená systémem virtuálního počítače potřebuje přiřazenou roli pro každý prostředek virtuálního počítače clusteru. Podrobný postup najdete v tématu Přiřazení přístupu ke spravované identitě k prostředku pomocí webu Azure Portal. Ověřte, že přiřazení role spravované identity každého virtuálního počítače obsahuje všechny virtuální počítače clusteru.
Důležité
Mějte na paměti, že přiřazení a odebrání autorizace u spravovaných identit může být zpožděné až do účinnosti.
Instalace clusteru
Poznámka:
- [A]: Platí pro všechny uzly.
- [1]: Platí pouze pro uzel 1.
- [2]: Platí pouze pro uzel 2.
[A] Aktualizujte SLES.
sudo zypper update
Poznámka:
V případě SLES 15 SP4 ověřte verze
crmsh
balíčků apacemaker
ujistěte se, že splňují minimální požadavky na verzi:crmsh-4.4.0+20221028.3e41444-150400.3.9.1
nebo novějšípacemaker-2.1.2+20211124.ada5c3b36-150400.4.6.1
nebo novější
Důležité
- SLES 12 SP5: Pokud je nainstalovaný python-azure-core-1.23.1-2.12.8, agent plotu Azure se nemusí spustit v clusteru Pacemaker a v /var/log/messages se zobrazí chybová zpráva Azure Resource Manager Python SDK se nenašla nebo není dostupná. Další podrobnosti najdete v pokynech v SUSE KBA 21532 .
- SLES 15 SP4+: Po aktualizaci operačního systému můžou knihovny Azure pro Python používat interpret Pythonu 3.11, což způsobí selhání spuštění agenta plotu Azure v clusteru Pacemaker. V /var/log/messages se zobrazí chybová zpráva Azure Resource Manager Python SDK nebyla nalezena nebo není přístupná. Další podrobnosti najdete v pokynech v SUSE KBA 21504 .
[A] Nainstalujte komponentu, kterou potřebujete pro prostředky clusteru.
sudo zypper in socat
[A] Nainstalujte komponentu azure-lb, kterou potřebujete pro prostředky clusteru.
sudo zypper in resource-agents
Poznámka:
Zkontrolujte verzi balíčku agentů prostředků a ujistěte se, že jsou splněné minimální požadavky na verzi:
- SLES 12 SP4/SP5: Verze musí být resource-agents-4.3.018.a7fb5035-3.30.1 nebo novější.
- SLES 15/15 SP1: Verze musí být resource-agents-4.3.0184.6ee15eb2-4.13.1 nebo novější.
[A] Nakonfigurujte operační systém.
a. Pacemaker občas vytváří mnoho procesů, které mohou vyčerpat povolené číslo. Když k tomu dojde, prezenčních signálů mezi uzly clusteru může selhat a vést k převzetí služeb při selhání vašich prostředků. Doporučujeme zvýšit maximální počet povolených procesů nastavením následujícího parametru:
# Edit the configuration file sudo vi /etc/systemd/system.conf # Change the DefaultTasksMax #DefaultTasksMax=512 DefaultTasksMax=4096 # Activate this setting sudo systemctl daemon-reload # Test to ensure that the change was successful sudo systemctl --no-pager show | grep DefaultTasksMax
b. Zmenšete velikost zašpiněné mezipaměti. Další informace najdete v tématu Nízký výkon zápisu na serverech SLES 11/12 s velkou pamětí RAM.
sudo vi /etc/sysctl.conf # Change/set the following settings vm.dirty_bytes = 629145600 vm.dirty_background_bytes = 314572800
c. Ujistěte se, že je vm.swappiness nastavená na 10, aby se snížilo využití prohození a upřednostnění paměti.
sudo vi /etc/sysctl.conf # Change/set the following setting vm.swappiness = 10
[A] Zkontrolujte verzi balíčku cloud-netconfig-azure .
Spuštěním příkazu zypper info cloud-netconfig-azure zkontrolujte nainstalovanou verzi balíčku cloud-netconfig-azure. Pokud je verze starší než 1.3, doporučujeme aktualizovat balíček cloud-netconfig-azure na nejnovější dostupnou verzi.
Tip
Pokud je verze ve vašem prostředí 1.3 nebo novější, není už nutné potlačit správu síťových rozhraní modulem plug-in cloudové sítě.
Pouze pokud je verze cloud-netconfig-azure nižší než 1.3, změňte konfigurační soubor pro síťové rozhraní, jak je znázorněno v následujícím kódu, aby se zabránilo odebrání virtuální IP adresy cloudové sítě (Pacemaker musí řídit přiřazení). Další informace naleznete v tématu SUSE KB 7023633.
# Edit the configuration file sudo vi /etc/sysconfig/network/ifcfg-eth0 # Change CLOUD_NETCONFIG_MANAGE # CLOUD_NETCONFIG_MANAGE="yes" CLOUD_NETCONFIG_MANAGE="no"
[1] Povolte přístup SSH.
sudo ssh-keygen # Enter file in which to save the key (/root/.ssh/id_rsa), and then select Enter # Enter passphrase (empty for no passphrase), and then select Enter # Enter same passphrase again, and then select Enter # copy the public key sudo cat /root/.ssh/id_rsa.pub
[2] Povolte přístup SSH.
sudo ssh-keygen # Enter file in which to save the key (/root/.ssh/id_rsa), and then select Enter # Enter passphrase (empty for no passphrase), and then select Enter # Enter same passphrase again, and then select Enter # Insert the public key you copied in the last step into the authorized keys file on the second server sudo vi /root/.ssh/authorized_keys # copy the public key sudo cat /root/.ssh/id_rsa.pub
[1] Povolte přístup SSH.
# insert the public key you copied in the last step into the authorized keys file on the first server sudo vi /root/.ssh/authorized_keys
[A] Nainstalujte balíček plot-agents , pokud používáte zařízení pro ploty založené na agentovi plotu Azure.
sudo zypper install fence-agents
Důležité
Nainstalovaná verze balíčku plot-agents musí být 4.4.0 nebo novější, aby bylo možné využívat rychlejší doby převzetí služeb při selhání s agentem plotu Azure, když je uzel clusteru ohraničený. Pokud používáte starší verzi, doporučujeme balíček aktualizovat.
Důležité
Pokud používáte spravovanou identitu, nainstalovaná verze balíčku plot-agents musí být -
- SLES 12 SP5: plot-agents 4.9.0+git.1624456340.8d746be9-3.35.2 nebo novější
- SLES 15 SP1 a vyšší: plot-agents 4.5.2+git.1592573838.1eee0863 nebo novější.
Starší verze nebudou správně fungovat s konfigurací spravované identity.
[A] Nainstalujte balíček plot-agents-azure-arm.
Pokud používáte
fence-agents
verzi nebo novější verzi4.9.0+git.1624456340.8d746be9-3.41.3
SLES 12 SP5 a pro SLES 15 SP4 a novější, musíte balíček nainstalovatfence-agents-azure-arm
. Tento balíček bude obsahovat všechny požadované závislosti.# On SLES 12 SP5 with fence-agents version 4.9.0+git.1624456340.8d746be9-3.41.3 or higher. You might need to activate the public cloud extension first SUSEConnect -p sle-module-public-cloud/12/x86_64 sudo zypper install fence-agents-azure-arm # On SLES 15 SP4 and later. You might need to activate the public cloud extension first. In this example, the SUSEConnect SUSEConnect -p sle-module-public-cloud/15.4/x86_64 sudo zypper install fence-agents-azure-arm
[A] Nainstalujte sadu Azure Python SDK a modul Azure Identity Python.
Pro SLES 12 SP5, pokud je vaše
fence-agents
verze nižší než4.9.0+git.1624456340.8d746be9-3.41.3
a pro SLES 15 SP3 a níže, musíte nainstalovat pod další balíčky.# You might need to activate the public cloud extension first SUSEConnect -p sle-module-public-cloud/12/x86_64 sudo zypper install python-azure-mgmt-compute sudo zypper install python-azure-identity # You might need to activate the public cloud extension first. In this example, the SUSEConnect command is for SLES 15 SP1 SUSEConnect -p sle-module-public-cloud/15.1/x86_64 sudo zypper install python3-azure-mgmt-compute sudo zypper install python3-azure-identity
Důležité
V závislosti na vaší verzi a typu image možná budete muset před instalací sady Azure Python SDK aktivovat rozšíření veřejného cloudu pro vaši verzi operačního systému. Rozšíření můžete zkontrolovat spuštěním
SUSEConnect ---list-extensions
příkazu . Pokud chcete dosáhnout rychlejších dob převzetí služeb při selhání pomocí agenta azure plotu:[A] Nastavte rozlišení názvu hostitele.
Můžete použít server DNS nebo upravit soubor /etc/hosts na všech uzlech. Tento příklad ukazuje, jak používat soubor /etc/hosts .
V následujících příkazech nahraďte IP adresu a název hostitele.
Důležité
Pokud v konfiguraci clusteru používáte názvy hostitelů, je důležité mít spolehlivé rozlišení názvu hostitele. Komunikace clusteru selže, pokud jsou názvy nedostupné a které můžou vést ke zpoždění převzetí služeb při selhání clusteru.
Výhodou používání /etc/hosts je, že váš cluster je nezávislý na DNS, což může být také kritickým bodem selhání.
sudo vi /etc/hosts
Do /etc/hosts vložte následující řádky. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.
# IP address of the first cluster node 10.0.0.6 prod-cl1-0 # IP address of the second cluster node 10.0.0.7 prod-cl1-1
[1] Nainstalujte cluster.
Pokud používáte zařízení SBD pro ohraničení (pro cílový server iSCSI nebo sdílený disk Azure):
sudo crm cluster init # ! NTP is not configured to start at system boot. # Do you want to continue anyway (y/n)? y # /root/.ssh/id_rsa already exists - overwrite (y/n)? n # Address for ring0 [10.0.0.6] Select Enter # Port for ring0 [5405] Select Enter # SBD is already configured to use /dev/disk/by-id/scsi-36001405639245768818458b930abdf69;/dev/disk/by-id/scsi-36001405afb0ba8d3a3c413b8cc2cca03;/dev/disk/by-id/scsi-36001405f88f30e7c9684678bc87fe7bf - overwrite (y/n)? n # Do you wish to configure an administration IP (y/n)? n
Pokud nepoužíváte zařízení SBD pro ohraničení:
sudo crm cluster init # ! NTP is not configured to start at system boot. # Do you want to continue anyway (y/n)? y # /root/.ssh/id_rsa already exists - overwrite (y/n)? n # Address for ring0 [10.0.0.6] Select Enter # Port for ring0 [5405] Select Enter # Do you wish to use SBD (y/n)? n # WARNING: Not configuring SBD - STONITH will be disabled. # Do you wish to configure an administration IP (y/n)? n
[2] Přidejte uzel do clusteru.
sudo crm cluster join # ! NTP is not configured to start at system boot. # Do you want to continue anyway (y/n)? y # IP address or hostname of existing node (for example, 192.168.1.1) []10.0.0.6 # /root/.ssh/id_rsa already exists - overwrite (y/n)? n
[A] Změňte heslo hacluster na stejné heslo.
sudo passwd hacluster
[A] Upravte nastavení corosync.
sudo vi /etc/corosync/corosync.conf
a. Zkontrolujte v souboru následující část a upravte hodnoty, pokud tam nejsou nebo se liší. Nezapomeňte změnit token na 30000, aby se zachovala paměť. Další informace najdete v článku Údržba virtuálních počítačů v Azure pro Linux nebo Windows.
[...] token: 30000 token_retransmits_before_loss_const: 10 join: 60 consensus: 36000 max_messages: 20 interface { [...] } transport: udpu } nodelist { node { ring0_addr:10.0.0.6 } node { ring0_addr:10.0.0.7 } } logging { [...] } quorum { # Enable and configure quorum subsystem (default: off) # See also corosync.conf.5 and votequorum.5 provider: corosync_votequorum expected_votes: 2 two_node: 1 }
b. Restartujte službu corosync.
sudo service corosync restart
Vytvoření zařízení pro ohraničení v clusteru Pacemaker
Tip
- Abyste se vyhnuli plotovým závodům v clusteru pacemakeru se dvěma uzly, můžete nakonfigurovat další vlastnost clusteru priority-fencing-delay. Tato vlastnost představuje další zpoždění při ohraničení uzlu, který má vyšší celkovou prioritu zdroje, když dojde ke scénáři rozděleného mozku. Další podrobnosti najdete v průvodci správou rozšíření SUSE Linux Enterprise Server s vysokou dostupností.
- Pokyny k nastavení vlastnosti clusteru priority-fencing-delay najdete v příslušném dokumentu s vysokou dostupností SAP ASCS/ERS (platí jenom pro ENSA2) a SAP HANA.
[1] Pokud používáte zařízení SBD (cílový server iSCSI nebo sdílený disk Azure) jako zařízení pro ohraničení, spusťte následující příkazy. Povolte použití oplocení zařízení a nastavte zpoždění plotu.
sudo crm configure property stonith-timeout=144 sudo crm configure property stonith-enabled=true # List the resources to find the name of the SBD device sudo crm resource list sudo crm resource stop stonith-sbd sudo crm configure delete stonith-sbd sudo crm configure primitive stonith-sbd stonith:external/sbd \ params pcmk_delay_max="15" \ op monitor interval="600" timeout="15"
[1] Pokud k oplocení používáte agenta plotu Azure, spusťte následující příkazy. Po přiřazení rolí k oběma uzlům clusteru můžete nakonfigurovat zařízení pro ohraničení v clusteru.
sudo crm configure property stonith-enabled=true sudo crm configure property concurrent-fencing=true
Poznámka:
Možnost pcmk_host_map se v příkazu vyžaduje jenom v případě, že názvy hostitelů a názvy virtuálních počítačů Azure nejsou identické. Zadejte mapování ve formátu název hostitele:vm-name.
# Adjust the command with your subscription ID and resource group of the VM
sudo crm configure primitive rsc_st_azure stonith:fence_azure_arm \
params msi=true subscriptionId="subscription ID" resourceGroup="resource group" \
pcmk_monitor_retries=4 pcmk_action_limit=3 power_timeout=240 pcmk_reboot_timeout=900 pcmk_delay_max=15 pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
op monitor interval=3600 timeout=120
sudo crm configure property stonith-timeout=900
Pokud používáte zařízení pro ohraničení na základě konfigurace instančního objektu, přečtěte si článek Změna hlavního názvu služby (SPN) na MSI pro clustery Pacemaker pomocí fencingu Azure a zjistěte, jak převést na konfiguraci spravované identity.
Důležité
Operace monitorování a šermování jsou deserializovány. V důsledku toho platí, že pokud existuje dlouhotrvající operace monitorování a souběžná událost ohraničení, nedojde ke zpoždění převzetí služeb při selhání clusteru, protože operace monitorování je již spuštěná.
Tip
Agent plotu Azure vyžaduje odchozí připojení k veřejným koncovým bodům, jak je uvedeno v dokumentaci, společně s možnými řešeními připojení veřejných koncových bodů pro virtuální počítače pomocí standardního interního nástroje pro vyrovnávání zatížení.
Konfigurace Pacemakeru pro naplánované události Azure
Azure nabízí naplánované události. Plánované události jsou poskytovány prostřednictvím služby metadat a umožňují aplikaci připravit se na tyto události. Agent prostředků azure-events-az monitoruje naplánované události Azure. Pokud se zjistí události a agent prostředků určí, že je k dispozici jiný uzel clusteru, nastaví atribut stavu clusteru. Když je atribut stavu clusteru nastavený pro uzel, omezení umístění aktivuje a všechny prostředky, jejichž název nezačíná na stav, se migrují mimo uzel s naplánovanou událostí. Jakmile je ovlivněný uzel clusteru bez spuštěných prostředků clusteru, je potvrzena naplánovaná událost a může spustit její akci, jako je restartování.
Důležité
Tento dokument dříve popsal použití agenta prostředků azure-events. Nový agent prostředků azure-events-az plně podporuje prostředí Azure nasazená v různých zónách dostupnosti. Doporučujeme využít novějšího agenta azure-events-az pro všechny systémy s vysokou dostupností SAP s Pacemakerem.
[A] Ujistěte se, že je balíček pro agenta azure-events již nainstalovaný a aktuální.
sudo zypper info resource-agents
Minimální požadavky na verzi:
- SLES 12 SP5:
resource-agents-4.3.018.a7fb5035-3.98.1
- SLES 15 SP1:
resource-agents-4.3.0184.6ee15eb2-150100.4.72.1
- SLES 15 SP2:
resource-agents-4.4.0+git57.70549516-150200.3.56.1
- SLES 15 SP3:
resource-agents-4.8.0+git30.d0077df0-150300.8.31.1
- SLES 15 SP4 a novější:
resource-agents-4.10.0+git40.0f4de473-150400.3.19.1
- SLES 12 SP5:
[1] Nakonfigurujte prostředky v Pacemakeru.
#Place the cluster in maintenance mode sudo crm configure property maintenance-mode=true
[1] Nastavení strategie a omezení uzlů stavu clusteru pacemaker
sudo crm configure property node-health-strategy=custom sudo crm configure location loc_azure_health \ /'!health-.*'/ rule '#health-azure': defined '#uname'
Důležité
Nedefinujte žádné další prostředky v clusteru počínaje stavem – kromě prostředků popsaných v dalších krocích dokumentace.
[1] Nastavte počáteční hodnotu atributů clusteru. Spusťte pro každý uzel clusteru. Pro prostředí se škálováním na více instancí, včetně virtuálního počítače tvůrce většiny.
sudo crm_attribute --node prod-cl1-0 --name '#health-azure' --update 0 sudo crm_attribute --node prod-cl1-1 --name '#health-azure' --update 0
[1] Nakonfigurujte prostředky v Pacemakeru. Důležité: Prostředky musí začínat na health-azure.
sudo crm configure primitive health-azure-events ocf:heartbeat:azure-events-az \ meta allow-unhealthy-nodes=true failure-timeout=120s \ op start start-delay=60s \ op monitor interval=10s sudo crm configure clone health-azure-events-cln health-azure-events
Poznámka:
Při konfiguraci prostředku health-azure-events je možné následující upozornění ignorovat.
UPOZORNĚNÍ: health-azure-events: neznámý atribut allow-unhealthy-nodes.
Využít cluster Pacemaker z režimu údržby
sudo crm configure property maintenance-mode=false
Vymažte všechny chyby během povolování a ověřte, že se prostředky stavu azure-events úspěšně spustily na všech uzlech clusteru.
sudo crm resource cleanup
První spuštění dotazu pro naplánované události může trvat až 2 minuty. Testování Pacemakeru s plánovanými událostmi může pro virtuální počítače clusteru používat akce restartování nebo opětovného nasazení. Další informace najdete v dokumentaci k plánovaným událostem .
Poznámka:
Po nakonfigurování prostředků Pacemaker pro agenta událostí Azure, pokud umístíte cluster do režimu údržby nebo mimo režim údržby, můžou se zobrazit upozornění, jako například:
UPOZORNĚNÍ: cib-bootstrap-options: neznámý atribut "hostName_hostname"
UPOZORNĚNÍ: cib-bootstrap-options: neznámý atribut Azure-events_globalPullState
UPOZORNĚNÍ: cib-bootstrap-options: neznámý atribut "hostName_ název hostitele"
Tyto zprávy upozornění je možné ignorovat.
Další kroky
- Plánování a implementace virtuálních počítačů Azure pro SAP
- Nasazení virtuálních počítačů Azure pro SAP
- Nasazení DBMS pro Azure Virtual Machines pro SAP
- Vysoká dostupnost systému souborů NFS na virtuálních počítačích Azure na serveru SUSE Linux Enterprise Server
- Vysoká dostupnost SAP NetWeaver na virtuálních počítačích Azure v SUSE Linux Enterprise Serveru pro aplikace SAP
- Informace o vytvoření vysoké dostupnosti a plánování zotavení po havárii SAP HANA na virtuálních počítačích Azure najdete v tématu Vysoká dostupnost SAP HANA ve službě Azure Virtual Machines.