Hoge beschikbaarheid van SAP HANA omhoog SCHALEN met Azure NetApp Files in SUSE Enterprise Linux
In dit artikel wordt beschreven hoe u SAP HANA-systeemreplicatie configureert in de opschaalimplementatie wanneer de HANA-bestandssystemen worden gekoppeld via NFS met behulp van Azure NetApp Files. In de voorbeeldconfiguraties en installatieopdrachten worden exemplaarnummer 03 en HANA-systeem-id HN1 gebruikt. SAP HANA-replicatie bestaat uit één primair knooppunt en ten minste één secundair knooppunt.
Wanneer stappen in dit document zijn gemarkeerd met de volgende voorvoegsels, betekent dit:
- [A]: De stap is van toepassing op alle knooppunten.
- [1]: De stap is alleen van toepassing op node1.
- [2]: De stap is alleen van toepassing op node2.
Lees eerst de volgende SAP-notities en -documenten:
- SAP-notitie 1928533 heeft:
- De lijst met Azure VM-grootten die worden ondersteund voor de implementatie van SAP-software.
- Belangrijke capaciteitsinformatie voor grootten van virtuele Azure-machines (VM's).
- De ondersteunde combinaties van SAP-software en -besturingssystemen en -databases.
- De vereiste SAP-kernelversie voor Windows en Linux in Azure.
- SAP Note 2015553 bevat vereisten voor SAP-ondersteunde SAP-software-implementaties in Azure.
- SAP Note 405827 vermeldt het aanbevolen bestandssysteem voor de HANA-omgeving.
- SAP Note 2684254 heeft aanbevolen besturingssysteeminstellingen voor SUSE Linux Enterprise Server (SLES) 15/SLES voor SAP-toepassingen 15.
- SAP Note 1944799 heeft SAP HANA-richtlijnen voor de installatie van het SLES-besturingssysteem.
- SAP Note 2178632 bevat gedetailleerde informatie over alle metrische bewakingsgegevens die zijn gerapporteerd voor SAP in Azure.
- SAP-opmerking 2191498 beschikt over de vereiste VERSIE van de SAP Host Agent voor Linux in Azure.
- SAP Note 2243692 informatie heeft over SAP-licenties in Linux in Azure.
- SAP Note 1999351 meer informatie over probleemoplossing voor de Azure Enhanced Monitoring-extensie voor SAP heeft.
- SAP-opmerking 1900823 bevat informatie over sap HANA-opslagvereisten.
- Aanbevolen procedures voor SUSE SAP hoge beschikbaarheid (HA) bevatten alle vereiste informatie voor het instellen van on-premises Replicatie van NetWeaver HA- en SAP HANA-systeemreplicatie (te gebruiken als een algemene basislijn). Ze bieden veel gedetailleerdere informatie.
- Sap Community Wiki bevat alle vereiste SAP-notities voor Linux.
- Azure Virtual Machines plannen en implementeren voor SAP in Linux
- Azure Virtual Machines-implementatie voor SAP in Linux
- DBMS-implementatie van Azure Virtual Machines voor SAP in Linux
- Algemene SLES-documentatie:
- Een SAP HANA-cluster instellen
- Releaseopmerkingen voor SLES High Availability Extension 15 SP3
- Beveiligingshandleiding voor besturingssystemen voor SAP HANA voor SUSE Linux Enterprise Server 15
- SUSE Linux Enterprise Server for SAP Applications 15 SP3 Guide
- SUSE Linux Enterprise Server voor SAP Applications 15 SP3 SAP Automation
- SUSE Linux Enterprise Server voor SAP Applications 15 SP3 SAP Monitoring
- Azure-specifieke SLES-documentatie:
- NetApp SAP-toepassingen in Microsoft Azure met behulp van Azure NetApp Files
- NFS v4.1-volumes in Azure NetApp Files voor SAP HANA
- Azure Virtual Machines plannen en implementeren voor SAP in Linux
Notitie
Dit artikel bevat verwijzingen naar een term die microsoft niet meer gebruikt. Zodra de term uit de software wordt verwijderd, verwijderen we deze uit dit artikel.
Overzicht
Traditioneel worden in een opschaalomgeving alle bestandssystemen voor SAP HANA gekoppeld vanuit lokale opslag. Het instellen van hoge beschikbaarheid van SAP HANA-systeemreplicatie in SUSE Enterprise Linux wordt gepubliceerd in SAP HANA-systeemreplicatie instellen op SLES.
Om SAP HANA HA van een scale-upsysteem op Azure NetApp Files NFS-shares te bereiken, hebben we extra resourceconfiguratie in het cluster nodig. Deze configuratie is nodig, zodat HANA-resources kunnen worden hersteld wanneer één knooppunt geen toegang meer heeft tot de NFS-shares in Azure NetApp Files.
SAP HANA-bestandssystemen worden gekoppeld aan NFS-shares met behulp van Azure NetApp Files op elk knooppunt. De bestandssystemen /hana/data, /hana/log en /hana/shared zijn uniek voor elk knooppunt.
Gekoppeld op knooppunt1 (hanadb1):
- 10.3.1.4:/hanadb1-data-mnt00001 op /hana/data
- 10.3.1.4:/hanadb1-log-mnt00001 op /hana/log
- 10.3.1.4:/hanadb1-shared-mnt00001 op /hana/shared
Gekoppeld op node2 (hanadb2):
- 10.3.1.4:/hanadb2-data-mnt00001 op /hana/data
- 10.3.1.4:/hanadb2-log-mnt00001 op /hana/log
- 10.3.1.4:/hanadb2-shared-mnt0001 op /hana/shared
Notitie
De bestandssystemen /hana/shared, /hana/data en /hana/log worden niet gedeeld tussen de twee knooppunten. Elk clusterknooppunt heeft zijn eigen afzonderlijke bestandssystemen.
Sap HA HANA-systeemreplicatieconfiguratie maakt gebruik van een toegewezen virtuele hostnaam en virtuele IP-adressen. In Azure is een load balancer vereist voor het gebruik van een virtueel IP-adres. De gepresenteerde configuratie toont een load balancer met:
- IP-adres van front-endconfiguratie: 10.3.0.50 voor hn1-db
- Testpoort: 62503
De Azure NetApp Files-infrastructuur instellen
Voordat u doorgaat met de installatie voor de Infrastructuur van Azure NetApp Files, moet u vertrouwd raken met de documentatie van Azure NetApp Files.
Azure NetApp Files is beschikbaar in verschillende Azure-regio's. Controleer of uw geselecteerde Azure-regio Azure NetApp Files biedt.
Zie de beschikbaarheid van Azure NetApp Files per Azure-regio voor informatie over de beschikbaarheid van Azure NetApp Files per Azure-regio.
Belangrijke aandachtspunten
Wanneer u uw Azure NetApp Files voor SAP HANA-schaalsystemen maakt, moet u rekening houden met de belangrijke overwegingen die worden beschreven in NFS v4.1-volumes in Azure NetApp Files voor SAP HANA.
Grootte van HANA-database wijzigen in Azure NetApp Files
De doorvoer van een Azure NetApp Files-volume is een functie van de volumegrootte en het serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files.
Terwijl u de infrastructuur voor SAP HANA in Azure ontwerpt met Azure NetApp Files, moet u rekening houden met de aanbevelingen in NFS v4.1-volumes in Azure NetApp Files voor SAP HANA.
De configuratie in dit artikel bevat eenvoudige Azure NetApp Files-volumes.
Belangrijk
Voor productiesystemen, waarbij de prestaties essentieel zijn, raden we u aan om azure NetApp Files-toepassingsvolumegroep voor SAP HANA te evalueren en te gebruiken.
Alle opdrachten om /hana/gedeeld in dit artikel te koppelen, worden weergegeven voor NFSv4.1 /hana/gedeelde volumes. Als u de /hana/gedeelde volumes als NFSv3-volumes hebt geïmplementeerd, vergeet dan niet om de koppelingsopdrachten voor /hana/shared voor NFSv3 aan te passen.
Azure NetApp Files-resources implementeren
In de volgende instructies wordt ervan uitgegaan dat u uw virtuele Azure-netwerk al hebt geïmplementeerd. De Azure NetApp Files-resources en -VM's, waarbij de Azure NetApp Files-resources zijn gekoppeld, moeten worden geïmplementeerd in hetzelfde virtuele Azure-netwerk of in gekoppelde virtuele Azure-netwerken.
Maak een NetApp-account in uw geselecteerde Azure-regio door de instructies in Een NetApp-account maken te volgen.
Stel een Azure NetApp Files-capaciteitsgroep in door de instructies te volgen in Een Azure NetApp Files-capaciteitspool instellen.
De HANA-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik van één Azure NetApp Files-capaciteitspool op ultraserviceniveau. Voor HANA-workloads in Azure raden we u aan het serviceniveau Azure NetApp Files Ultra of Premium te gebruiken.
Een subnet delegeren naar Azure NetApp Files, zoals beschreven in de instructies in Een subnet delegeren aan Azure NetApp Files.
Implementeer Azure NetApp Files-volumes door de instructies te volgen in Een NFS-volume maken voor Azure NetApp Files.
Wanneer u de volumes implementeert, moet u de versie NFSv4.1 selecteren. Implementeer de volumes in het aangewezen Azure NetApp Files-subnet. De IP-adressen van de Azure NetApp Files-volumes worden automatisch toegewezen.
De Azure NetApp Files-resources en de Virtuele Azure-machines moeten zich in hetzelfde virtuele Azure-netwerk of in gekoppelde virtuele Azure-netwerken bevinden. Bijvoorbeeld hanadb1-data-mnt00001, hanadb1-log-mnt00001, enzovoort, zijn de volumenamen, en nfs://10.3.1.4/hanadb1-data-mnt00001, nfs://10.3.1.4/hanadb1-log-mnt00001, enzovoort de bestandspaden voor de Azure NetApp Files-volumes.
Op hanadb1:
- Volume hanadb1-data-mnt00001 (nfs://10.3.1.4:/hanadb1-data-mnt00001)
- Volume hanadb1-log-mnt00001 (nfs://10.3.1.4:/hanadb1-log-mnt00001)
- Volume hanadb1-shared-mnt00001 (nfs://10.3.1.4:/hanadb1-shared-mnt00001)
Op hanadb2:
- Volume hanadb2-data-mnt00001 (nfs://10.3.1.4:/hanadb2-data-mnt00001)
- Volume hanadb2-log-mnt00001 (nfs://10.3.1.4:/hanadb2-log-mnt00001)
- Volume hanadb2-shared-mnt00001 (nfs://10.3.1.4:/hanadb2-shared-mnt00001)
De infrastructuur voorbereiden
De resourceagent voor SAP HANA is opgenomen in SUSE Linux Enterprise Server voor SAP-toepassingen. Een installatiekopieën voor SUSE Linux Enterprise Server voor SAP-toepassingen 12 of 15 zijn beschikbaar in Azure Marketplace. U kunt de installatiekopieën gebruiken om nieuwe VM's te implementeren.
Virtuele Linux-machines handmatig implementeren via Azure Portal
In dit document wordt ervan uitgegaan dat u al een resourcegroep, Een virtueel Azure-netwerk en een subnet hebt geïmplementeerd.
Vm's implementeren voor SAP HANA. Kies een geschikte SLES-installatiekopieën die worden ondersteund voor het HANA-systeem. U kunt een VIRTUELE machine implementeren in een van de beschikbaarheidsopties: virtuele-machineschaalset, beschikbaarheidszone of beschikbaarheidsset.
Belangrijk
Zorg ervoor dat het besturingssysteem dat u selecteert SAP is gecertificeerd voor SAP HANA op de specifieke VM-typen die u in uw implementatie wilt gebruiken. U kunt sap HANA-gecertificeerde VM-typen en hun besturingssysteemreleases opzoeken in GECERTIFICEERDE IAAS-platformen van SAP HANA. Zorg ervoor dat u de details van het VM-type bekijkt om de volledige lijst met door SAP HANA ondersteunde besturingssysteemreleases voor het specifieke VM-type op te halen.
Azure Load Balancer configureren
Tijdens de VM-configuratie hebt u de mogelijkheid om de bestaande load balancer in de netwerksectie te maken of te selecteren. Volg de volgende stappen om een standaard load balancer in te stellen voor het instellen van hoge beschikbaarheid van de HANA-database.
Volg de stappen in Load Balancer maken om een standaard load balancer in te stellen voor een SAP-systeem met hoge beschikbaarheid met behulp van Azure Portal. Houd rekening met de volgende punten tijdens de installatie van de load balancer:
- Front-end-IP-configuratie: maak een front-end-IP-adres. Selecteer dezelfde virtuele netwerk- en subnetnaam als uw virtuele databasemachines.
- Back-endpool: maak een back-endpool en voeg database-VM's toe.
- Regels voor inkomend verkeer: maak een taakverdelingsregel. Volg dezelfde stappen voor beide taakverdelingsregels.
- Front-end-IP-adres: Selecteer een front-end-IP-adres.
- Back-endpool: Selecteer een back-endpool.
- Poorten voor hoge beschikbaarheid: selecteer deze optie.
- Protocol: selecteer TCP.
- Statustest: maak een statustest met de volgende details:
- Protocol: selecteer TCP.
- Poort: bijvoorbeeld 625<instance-no.>.
- Interval: Voer 5 in.
- Testdrempel: voer 2 in.
- Time-out voor inactiviteit (minuten): voer 30 in.
- Zwevend IP-adres inschakelen: selecteer deze optie.
Notitie
De configuratie-eigenschap numberOfProbes
van de statustest, ook wel bekend als drempelwaarde voor beschadigde status in de portal, wordt niet gerespecteerd. Als u het aantal geslaagde of mislukte opeenvolgende tests wilt bepalen, stelt u de eigenschap probeThreshold
in op 2
. Het is momenteel niet mogelijk om deze eigenschap in te stellen met behulp van Azure Portal, dus gebruik de Azure CLI of de PowerShell-opdracht.
Lees voor meer informatie over de vereiste poorten voor SAP HANA het hoofdstuk Verbindingen met tenantdatabases in de handleiding sap HANA-tenantdatabases of SAP Note 2388694.
Wanneer VM's zonder openbare IP-adressen worden geplaatst in de back-endpool van interne (geen openbaar IP-adres) Standard Azure Load Balancer, is er geen uitgaande internetverbinding, tenzij er meer configuratie wordt uitgevoerd om routering naar openbare eindpunten toe te staan. Zie Openbare eindpuntconnectiviteit voor VM's met behulp van Azure Standard Load Balancer in scenario's met hoge beschikbaarheid van SAP voor meer informatie over het bereiken van uitgaande connectiviteit.
Belangrijk
- Schakel TCP-tijdstempels niet in op Azure-VM's die achter Load Balancer worden geplaatst. Als u TCP-tijdstempels inschakelt, mislukken de statustests. Stel de parameter in
net.ipv4.tcp_timestamps
op0
. Zie Statustests van Load Balancer en SAP Note 2382421 voor meer informatie. - Werk de saptune-versie bij naar 3.1.1 of hoger om te voorkomen dat de handmatig ingestelde
net.ipv4.tcp_timestamps
waarde0
wordt gewijzigd1
. Zie saptune 3.1.1 – Moet ik bijwerken? voor meer informatie.
Het Azure NetApp Files-volume koppelen
[A] Koppelpunten maken voor de HANA-databasevolumes.
sudo mkdir -p /hana/data/HN1/mnt00001 sudo mkdir -p /hana/log/HN1/mnt00001 sudo mkdir -p /hana/shared/HN1
[A] Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein van Azure NetApp Files, dat wil weten defaultv4iddomain.com en dat de toewijzing is ingesteld op niemand.
sudo cat /etc/idmapd.conf
Voorbeelduitvoer:
[General] Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody
Belangrijk
Zorg ervoor dat u het NFS-domein instelt in /etc/idmapd.conf op de virtuele machine zodat deze overeenkomt met de standaarddomeinconfiguratie in Azure NetApp Files: defaultv4iddomain.com. Als er een onjuiste overeenkomst is tussen de domeinconfiguratie op de NFS-client (d.w.z. de VM) en de NFS-server (d.w.z. de Configuratie van Azure NetApp Files), worden de machtigingen voor bestanden op Azure NetApp Files-volumes die op de VM's zijn gekoppeld, weergegeven als niemand.
[A] Bewerk
/etc/fstab
op beide knooppunten om de volumes permanent te koppelen die relevant zijn voor elk knooppunt. In het volgende voorbeeld ziet u hoe u de volumes permanent koppelt.sudo vi /etc/fstab
Voeg de volgende vermeldingen toe op
/etc/fstab
beide knooppunten.Voorbeeld voor hanadb1:
10.3.1.4:/hanadb1-data-mnt00001 /hana/data/HN1/mnt00001 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0 10.3.1.4:/hanadb1-log-mnt00001 /hana/log/HN1/mnt00001 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0 10.3.1.4:/hanadb1-shared-mnt00001 /hana/shared/HN1 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0
Voorbeeld voor hanadb2:
10.3.1.4:/hanadb2-data-mnt00001 /hana/data/HN1/mnt00001 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0 10.3.1.4:/hanadb2-log-mnt00001 /hana/log/HN1/mnt00001 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0 10.3.1.4:/hanadb2-shared-mnt00001 /hana/shared/HN1 nfs rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys 0 0
Koppel alle volumes.
sudo mount -a
Voor workloads waarvoor een hogere doorvoer is vereist, kunt u overwegen de
nconnect
koppelingsoptie te gebruiken, zoals beschreven in NFS v4.1-volumes in Azure NetApp Files voor SAP HANA. Controleer ofnconnect
dit wordt ondersteund door Azure NetApp Files in uw Linux-release.[A] Controleer of alle HANA-volumes zijn gekoppeld aan NFS-protocolversie NFSv4.
sudo nfsstat -m
Controleer of de vlag
vers
is ingesteld op 4.1.Voorbeeld van hanadb1:
/hana/log/HN1/mnt00001 from 10.3.1.4:/hanadb1-log-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4 /hana/data/HN1/mnt00001 from 10.3.1.4:/hanadb1-data-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4 /hana/shared/HN1 from 10.3.1.4:/hanadb1-shared-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4
[A] Controleer nfs4_disable_idmapping. Deze moet worden ingesteld op Y. Voer de koppelingsopdracht uit om de mapstructuur te maken waarin nfs4_disable_idmapping zich bevindt. U kunt de map niet handmatig maken omdat
/sys/modules
de toegang is gereserveerd voor de kernel/stuurprogramma's.#Check nfs4_disable_idmapping sudo cat /sys/module/nfs/parameters/nfs4_disable_idmapping #If you need to set nfs4_disable_idmapping to Y sudo echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping #Make the configuration permanent sudo echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
SAP HANA-installatie
[A] Hostnaamomzetting instellen voor alle hosts.
U kunt een DNS-server gebruiken of het
/etc/hosts
bestand op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het/etc/hosts
bestand gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten:sudo vi /etc/hosts
Voeg de volgende regels in het
/etc/hosts
bestand in. Wijzig het IP-adres en de hostnaam zodat deze overeenkomt met uw omgeving.10.3.0.4 hanadb1 10.3.0.5 hanadb2
[A] Bereid het besturingssysteem voor op het uitvoeren van SAP HANA in Azure NetApp met NFS, zoals beschreven in SAP Note 3024346 - Linux-kernelinstellingen voor NetApp NFS. Maak het configuratiebestand
/etc/sysctl.d/91-NetApp-HANA.conf
voor de NetApp-configuratie-instellingen.sudo vi /etc/sysctl.d/91-NetApp-HANA.conf
Voeg de volgende vermeldingen toe in het configuratiebestand:
net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.ipv4.tcp_rmem = 4096 131072 16777216 net.ipv4.tcp_wmem = 4096 16384 16777216 net.core.netdev_max_backlog = 300000 net.ipv4.tcp_slow_start_after_idle=0 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_sack = 1
[A] Maak het configuratiebestand
/etc/sysctl.d/ms-az.conf
met meer optimalisatie-instellingen.sudo vi /etc/sysctl.d/ms-az.conf
Voeg de volgende vermeldingen toe in het configuratiebestand:
net.ipv6.conf.all.disable_ipv6 = 1 net.ipv4.tcp_max_syn_backlog = 16348 net.ipv4.conf.all.rp_filter = 0 sunrpc.tcp_slot_table_entries = 128 vm.swappiness=10
Tip
Vermijd het instellen
net.ipv4.ip_local_port_range
ennet.ipv4.ip_local_reserved_ports
expliciet in de sysctl-configuratiebestanden, zodat de SAP Host Agent de poortbereiken kan beheren. Zie SAP Note 2382421 voor meer informatie.[A] Pas de
sunrpc
instellingen aan, zoals aanbevolen in SAP Note 3024346 - Linux-kernelinstellingen voor NetApp NFS.sudo vi /etc/modprobe.d/sunrpc.conf
Voeg de volgende regel in:
options sunrpc tcp_max_slot_table_entries=128
[A] SLES configureren voor HANA.
Configureer SLES zoals beschreven in de volgende SAP Notes op basis van uw SLES-versie:
- 2684254 Aanbevolen besturingssysteeminstellingen voor SLES 15 /SLES voor SAP-toepassingen 15
- 2205917 Aanbevolen besturingssysteeminstellingen voor SLES 12 /SLES voor SAP-toepassingen 12
- 2455582 Linux: SAP-toepassingen uitvoeren die zijn gecompileerd met GCC 6.x
- 2593824 Linux: SAP-toepassingen uitvoeren die zijn gecompileerd met GCC 7.x
- 2886607 Linux: SAP-toepassingen uitvoeren die zijn gecompileerd met GCC 9.x
[A] Installeer sap HANA.
Vanaf HANA 2.0 SPS 01 is Multitenant Database Containers (MDC) de standaardoptie. Wanneer u het HANA-systeem installeert, worden SYSTEMDB en een tenant met dezelfde SID samen gemaakt. In sommige gevallen wilt u de standaardtenant niet. Als u niet de eerste tenant wilt maken, samen met de installatie, volgt u de instructies in SAP Note 2629711.
Start het
hdblcm
programma vanuit de installatiesoftwaremap van HANA../hdblcm
Voer bij de prompt de volgende waarden in:
- Voor Installatie kiezen: Voer 1 in (voor installatie).
- Voor Extra onderdelen selecteren voor installatie: Voer 1 in.
- Voor Enter-installatiepad [/hana/shared]: druk op Enter om de standaardwaarde te accepteren.
- Voor Enter Local Host Name [..]: Druk op Enter om de standaardwaarde te accepteren.
- Wilt u onder Wilt u extra hosts toevoegen aan het systeem? (y/n) [n]: Selecteer n.
- Voer voor Sap HANA-systeem-id in: Voer HN1 in.
- Voer het exemplaarnummer [00] in: Voer 03 in.
- Voor de modus Database selecteren/Index invoeren [1]: druk op Enter om de standaardwaarde te accepteren.
- Voor Systeemgebruik selecteren/Index invoeren [4]: Voer 4 in (voor aangepast).
- Voor Enter-locatie van gegevensvolumes [/hana/data]: druk op Enter om de standaardwaarde te accepteren.
- Voor Enter-locatie van logboekvolumes [/hana/log]: druk op Enter om de standaardwaarde te accepteren.
- Voor Maximale geheugentoewijzing beperken? [n]: Druk op Enter om de standaardwaarde te accepteren.
- Voer de naam van de certificaathost in voor host '...' [...]: Druk op Enter om de standaardwaarde te accepteren.
- Voer het gebruikerswachtwoord voor de SAP Host Agent-gebruiker (sapadm) in: voer het gebruikerswachtwoord van de hostagent in.
- Voer het gebruikerswachtwoord van de hostagent opnieuw in om het wachtwoord van de SAP Host Agent-gebruiker (sapadm) te bevestigen.
- Voer het wachtwoord voor systeembeheerder (hn1adm) in: voer het wachtwoord van de systeembeheerder in.
- Voer het wachtwoord van de systeembeheerder (hn1adm) opnieuw in om het wachtwoord van de systeembeheerder te bevestigen.
- Voor Enter System Administrator Home Directory [/usr/sap/HN1/home]: druk op Enter om de standaardwaarde te accepteren.
- Voor Enter System Administrator Login Shell [/bin/sh]: druk op Enter om de standaardwaarde te accepteren.
- Voor enter systeembeheerder gebruikers-id [1001]: druk op Enter om de standaardwaarde te accepteren.
- Voor Enter-id van gebruikersgroep (sapsys) [79]: druk op Enter om de standaardwaarde te accepteren.
- Voer het wachtwoord van de databasegebruiker (SYSTEM) in als u het wachtwoord van de databasegebruiker invoert.
- Voer het wachtwoord van de databasegebruiker (SYSTEM) opnieuw in om het wachtwoord van de databasegebruiker te bevestigen.
- Voor systeem opnieuw opstarten nadat de computer opnieuw is opgestart? [n]: Druk op Enter om de standaardwaarde te accepteren.
- Wilt u doorgaan? (y/n): Valideer de samenvatting. Voer y in om door te gaan.
[A] Werk de SAP-hostagent bij.
Download het meest recente SAP Host Agent-archief vanuit het SAP Software Center en voer de volgende opdracht uit om de agent bij te werken. Vervang het pad naar het archief om te verwijzen naar het bestand dat u hebt gedownload.
sudo /usr/sap/hostctrl/exe/saphostexec -upgrade -archive <path to SAP Host Agent SAR>
SAP HANA-systeemreplicatie configureren
Volg de stappen in SAP HANA-systeemreplicatie om SAP HANA-systeemreplicatie te configureren.
Clusterconfiguratie
In deze sectie worden de benodigde stappen beschreven die nodig zijn om het cluster naadloos te laten werken wanneer SAP HANA is geïnstalleerd op NFS-shares met behulp van Azure NetApp Files.
Een Pacemaker-cluster maken
Volg de stappen in Het instellen van Pacemaker in SUSE Enterprise Linux in Azure om een eenvoudig Pacemaker-cluster te maken voor deze HANA-server.
HANA-hooks SAPHanaSR en susChkSrv implementeren
Deze belangrijke stap optimaliseert de integratie met het cluster en verbetert de detectie wanneer een clusterfailover nodig is. We raden u ten zeerste aan om zowel SAPHanaSR- als susChkSrv Python-hooks te configureren. Volg de stappen in Implementeren van de Python-systeemreplicatie hooks SAPHanaSR/SAPHanaSR-angi en susChkSrv.
SAP HANA-clusterbronnen configureren
In deze sectie worden de benodigde stappen beschreven voor het configureren van de SAP HANA-clusterbronnen.
SAP HANA-clusterbronnen maken
Volg de stappen in SAP HANA-clusterbronnen maken om de clusterbronnen voor de HANA-server te maken. Nadat de resources zijn gemaakt, ziet u de status van het cluster met de volgende opdracht:
sudo crm_mon -r
Voorbeelduitvoer:
# Online: [ hn1-db-0 hn1-db-1 ]
# Full list of resources:
# stonith-sbd (stonith:external/sbd): Started hn1-db-0
# Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]
# Started: [ hn1-db-0 hn1-db-1 ]
# Master/Slave Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03]
# Masters: [ hn1-db-0 ]
# Slaves: [ hn1-db-1 ]
# Resource Group: g_ip_HN1_HDB03
# rsc_ip_HN1_HDB03 (ocf::heartbeat:IPaddr2): Started hn1-db-0
# rsc_nc_HN1_HDB03 (ocf::heartbeat:azure-lb): Started hn1-db-0
Bestandssysteembronnen maken
Bestandssysteem /hana/shared/SID is nodig voor zowel HANA-bewerking als voor pacemaker-bewakingsacties die de status van HANA bepalen. Implementeer resourceagents om fouten te bewaken en te handelen. De sectie bevat twee opties, een voor SAPHanaSR
en een voor.SAPHanaSR-angi
Maak een dummy-bestandssysteemclusterresource. Het bewaakt en rapporteert fouten als er een probleem is met het openen van het NFS-gekoppelde bestandssysteem /hana/shared. Hierdoor kan het cluster failover activeren als er een probleem is met het openen van /hana/gedeeld. Zie Verwerken van mislukte NFS-share in SUSE HA-cluster voor HANA-systeemreplicatie voor meer informatie.
[A] Maak de mapstructuur op beide knooppunten.
sudo mkdir -p /hana/shared/HN1/check sudo mkdir -p /hana/shared/check
[1] Configureer het cluster om de mapstructuur toe te voegen voor bewaking.
sudo crm configure primitive rsc_fs_check_HN1_HDB03 Filesystem params \ device="/hana/shared/HN1/check/" \ directory="/hana/shared/check/" fstype=nfs \ options="bind,defaults,rw,hard,rsize=262144,wsize=262144,proto=tcp,noatime,_netdev,nfsvers=4.1,lock,sec=sys" \ op monitor interval=120 timeout=120 on-fail=fence \ op_params OCF_CHECK_LEVEL=20 \ op start interval=0 timeout=120 \ op stop interval=0 timeout=120
[1] Kloon en controleer het zojuist geconfigureerde volume in het cluster.
sudo crm configure clone cln_fs_check_HN1_HDB03 rsc_fs_check_HN1_HDB03 meta clone-node-max=1 interleave=true
Voorbeelduitvoer:
sudo crm status # Cluster Summary: # Stack: corosync # Current DC: hanadb1 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum # Last updated: Tue Nov 2 17:57:39 2021 # Last change: Tue Nov 2 17:57:38 2021 by root via crm_attribute on hanadb1 # 2 nodes configured # 11 resource instances configured # Node List: # Online: [ hanadb1 hanadb2 ] # Full List of Resources: # Clone Set: cln_azure-events [rsc_azure-events]: # Started: [ hanadb1 hanadb2 ] # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]: # rsc_SAPHanaTopology_HN1_HDB03 (ocf::suse:SAPHanaTopology): Started hanadb1 (Monitoring) # rsc_SAPHanaTopology_HN1_HDB03 (ocf::suse:SAPHanaTopology): Started hanadb2 (Monitoring) # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable): # rsc_SAPHana_HN1_HDB03 (ocf::suse:SAPHana): Master hanadb1 (Monitoring) # Slaves: [ hanadb2 ] # Resource Group: g_ip_HN1_HDB03: # rsc_ip_HN1_HDB03 (ocf::heartbeat:IPaddr2): Started hanadb1 # rsc_nc_HN1_HDB03 (ocf::heartbeat:azure-lb): Started hanadb1 # rsc_st_azure (stonith:fence_azure_arm): Started hanadb2 # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ]
Het
OCF_CHECK_LEVEL=20
kenmerk wordt toegevoegd aan de bewakingsbewerking, zodat bewakingsbewerkingen een lees-/schrijftest uitvoeren op het bestandssysteem. Zonder dit kenmerk controleert de bewakingsbewerking alleen of het bestandssysteem is gekoppeld. Dit kan een probleem zijn omdat wanneer de verbinding is verbroken, het bestandssysteem mogelijk gekoppeld blijft, ondanks dat het niet toegankelijk is.Het
on-fail=fence
kenmerk wordt ook toegevoegd aan de bewakingsbewerking. Als met deze optie de monitorbewerking op een knooppunt mislukt, wordt dat knooppunt onmiddellijk omheining geplaatst.
Belangrijk
Time-outs in de voorgaande configuratie moeten mogelijk worden aangepast aan de specifieke HANA-installatie om onnodige omheiningsacties te voorkomen. Stel de time-outwaarden niet te laag in. Houd er rekening mee dat de bewaking van het bestandssysteem niet is gerelateerd aan de replicatie van het HANA-systeem. Zie de SUSE-documentatie voor meer informatie.
De clusterinstallatie testen
In deze sectie wordt beschreven hoe u uw installatie kunt testen.
Voordat u een test start, moet u ervoor zorgen dat Pacemaker geen mislukte actie heeft (via crm-status) en geen onverwachte locatiebeperkingen (bijvoorbeeld resten van een migratietest). Zorg er ook voor dat HANA-systeemreplicatie de synchronisatiestatus heeft, bijvoorbeeld met
systemReplicationStatus
.sudo su - hn1adm -c "python /usr/sap/HN1/HDB03/exe/python_support/systemReplicationStatus.py"
Controleer de status van de HANA-resources met behulp van deze opdracht:
SAPHanaSR-showAttr # You should see something like below # hanadb1:~ SAPHanaSR-showAttr # Global cib-time maintenance # -------------------------------------------- # global Mon Nov 8 22:50:30 2021 false # Sites srHook # ------------- # SITE1 PRIM # SITE2 SOK # Site2 SOK # Hosts clone_state lpa_hn1_lpt node_state op_mode remoteHost roles score site srmode sync_state version vhost # -------------------------------------------------------------------------------------------------------------------------------------------------------------- # hanadb1 PROMOTED 1636411810 online logreplay hanadb2 4:P:master1:master:worker:master 150 SITE1 sync PRIM 2.00.058.00.1634122452 hanadb1 # hanadb2 DEMOTED 30 online logreplay hanadb1 4:S:master1:master:worker:master 100 SITE2 sync SOK 2.00.058.00.1634122452 hanadb2
Controleer de clusterconfiguratie voor een foutscenario wanneer een knooppunt wordt afgesloten. In het volgende voorbeeld ziet u het afsluiten van knooppunt 1:
sudo crm status sudo crm resource move msl_SAPHana_HN1_HDB03 hanadb2 force sudo crm resource cleanup
Voorbeelduitvoer:
sudo crm status #Cluster Summary: # Stack: corosync # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum # Last updated: Mon Nov 8 23:25:36 2021 # Last change: Mon Nov 8 23:25:19 2021 by root via crm_attribute on hanadb2 # 2 nodes configured # 11 resource instances configured # Node List: # Online: [ hanadb1 hanadb2 ] # Full List of Resources: # Clone Set: cln_azure-events [rsc_azure-events]: # Started: [ hanadb1 hanadb2 ] # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ] # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable): # Masters: [ hanadb2 ] # Stopped: [ hanadb1 ] # Resource Group: g_ip_HN1_HDB03: # rsc_ip_HN1_HDB03 (ocf::heartbeat:IPaddr2): Started hanadb2 # rsc_nc_HN1_HDB03 (ocf::heartbeat:azure-lb): Started hanadb2 # rsc_st_azure (stonith:fence_azure_arm): Started hanadb2 # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ]
Stop de HANA op Node1:
sudo su - hn1adm sapcontrol -nr 03 -function StopWait 600 10
Registreer Node 1 als het secundaire knooppunt en controleer de status:
hdbnsutil -sr_register --remoteHost=hanadb2 --remoteInstance=03 --replicationMode=sync --name=SITE1 --operationMode=logreplay
Voorbeelduitvoer:
#adding site ... #nameserver hanadb1:30301 not responding. #collecting information ... #updating local ini files ... #done.
sudo crm status
sudo SAPHanaSR-showAttr
Controleer de clusterconfiguratie voor een foutscenario wanneer een knooppunt geen toegang meer heeft tot de NFS-share (/hana/gedeeld).
De SAP HANA-resourceagents zijn afhankelijk van binaire bestanden die zijn opgeslagen op /hana/gedeeld om bewerkingen uit te voeren tijdens een failover. Bestandssysteem /hana/shared wordt gekoppeld via NFS in het gepresenteerde scenario.
Het is moeilijk om een fout te simuleren, waarbij een van de servers geen toegang meer heeft tot de NFS-share. Als test kunt u het bestandssysteem opnieuw koppelen als alleen-lezen. Deze methode valideert dat het cluster een failover kan uitvoeren als de toegang tot /hana/shared verloren gaat op het actieve knooppunt.
Verwacht resultaat: bij het maken van /hana/gedeeld als een alleen-lezen bestandssysteem mislukt het
OCF_CHECK_LEVEL
kenmerk van de resourcehana_shared1
, dat lees-/schrijfbewerkingen uitvoert op het bestandssysteem. Dit mislukt omdat er niets kan worden geschreven op het bestandssysteem en een HANA-resourcefailover wordt uitgevoerd. Hetzelfde resultaat wordt verwacht wanneer uw HANA-knooppunt geen toegang meer heeft tot de NFS-shares.Resourcestatus voordat u de test start:
sudo crm status #Cluster Summary: # Stack: corosync # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum # Last updated: Mon Nov 8 23:01:27 2021 # Last change: Mon Nov 8 23:00:46 2021 by root via crm_attribute on hanadb1 # 2 nodes configured # 11 resource instances configured #Node List: # Online: [ hanadb1 hanadb2 ] #Full List of Resources: # Clone Set: cln_azure-events [rsc_azure-events]: # Started: [ hanadb1 hanadb2 ] # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ] # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable): # Masters: [ hanadb1 ] # Slaves: [ hanadb2 ] # Resource Group: g_ip_HN1_HDB03: # rsc_ip_HN1_HDB03 (ocf::heartbeat:IPaddr2): Started hanadb1 # rsc_nc_HN1_HDB03 (ocf::heartbeat:azure-lb): Started hanadb1 # rsc_st_azure (stonith:fence_azure_arm): Started hanadb2 # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ]
U kunt /hana/gedeeld in de modus Alleen-lezen op het actieve clusterknooppunt plaatsen met behulp van deze opdracht:
sudo mount -o ro 10.3.1.4:/hanadb1-shared-mnt00001 /hana/sharedb
De server
hanadb1
wordt opnieuw opgestart of wordt uitgeschakeld op basis van de actieset. Nadat de serverhanadb1
is uitgeschakeld, wordt de HANA-resource verplaatst naarhanadb2
. U kunt de status van het cluster controleren vanuithanadb2
.sudo crm status #Cluster Summary: # Stack: corosync # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum # Last updated: Wed Nov 10 22:00:27 2021 # Last change: Wed Nov 10 21:59:47 2021 by root via crm_attribute on hanadb2 # 2 nodes configured # 11 resource instances configured #Node List: # Online: [ hanadb1 hanadb2 ] #Full List of Resources: # Clone Set: cln_azure-events [rsc_azure-events]: # Started: [ hanadb1 hanadb2 ] # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ] # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable): # Masters: [ hanadb2 ] # Stopped: [ hanadb1 ] # Resource Group: g_ip_HN1_HDB03: # rsc_ip_HN1_HDB03 (ocf::heartbeat:IPaddr2): Started hanadb2 # rsc_nc_HN1_HDB03 (ocf::heartbeat:azure-lb): Started hanadb2 # rsc_st_azure (stonith:fence_azure_arm): Started hanadb2 # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]: # Started: [ hanadb1 hanadb2 ]
We raden u aan de configuratie van het SAP HANA-cluster grondig te testen door de tests uit te voeren die worden beschreven in sap HANA-systeemreplicatie.