Configurare un cluster Big Data di SQL Server - Versione precedente alla CU9
Si applica a: SQL Server 2019 (15.x)
Importante
Il componente aggiuntivo per i cluster Big Data di Microsoft SQL Server 2019 verrà ritirato. Il supporto per i cluster Big Data di SQL Server 2019 terminerà il 28 febbraio 2025. Tutti gli utenti esistenti di SQL Server 2019 con Software Assurance saranno completamente supportati nella piattaforma e fino a quel momento il software continuerà a ricevere aggiornamenti cumulativi di SQL Server. Per altre informazioni, vedere il post di blog relativo all'annuncio e Opzioni per i Big Data nella piattaforma Microsoft SQL Server.
Nelle versioni CU8 e precedenti dei cluster Big Data di SQL Server 2019 è possibile configurare le impostazioni dei cluster Big Data in fase di distribuzione tramite il file di distribuzione bdc.json
. L'istanza master SQL Server può essere configurata solo dopo la distribuzione usando mssql-conf.
Nota
Prima della versione CU9 e del supporto per i cluster abilitati per la configurazione, i cluster Big Data potevano essere configurati solo in fase di distribuzione, ad eccezione dell'istanza master SQL Server, che poteva essere configurata dopo la distribuzione solo usando mssql-conf. Per istruzioni su come configurare una versione CU9 e successiva, vedere Configurare un cluster Big Data di SQL Server.
Ambiti di configurazione
La configurazione di versioni di cluster Big Data precedenti alla versione CU9 prevede due livelli di ambito: service
e resource
. Anche la gerarchia delle impostazioni segue in questo ordine, dal più alto al più basso. I componenti BDC accetteranno il valore dell'impostazione definito nell'ambito più basso. Se l'impostazione non è definita in un ambito specificato, erediterà il valore dall'ambito padre superiore.
Ad esempio, è possibile definire il numero predefinito di core che il driver Spark userà nel pool di archiviazione e le risorse Sparkhead
. Questa operazione può essere eseguita in due modi:
- Specificare un valore di core predefinito nell'ambito del servizio
Spark
- Specificare un valore di core predefinito nell'ambito della risorsa
storage-0
esparkhead
Nel primo scenario tutte le risorse con ambito inferiore del servizio Spark (pool di archiviazione e Sparkhead
) ereditano il numero predefinito di core dal valore predefinito del servizio Spark.
Nel secondo scenario ogni risorsa userà il valore definito nel rispettivo ambito.
Se il numero predefinito di core viene configurato sia nell'ambito del servizio sia in quello delle risorse, il valore con ambito risorsa eseguirà l'override del valore con ambito servizio, poiché si tratta dell'ambito configurato dell'utente più basso per l'impostazione specificata.
Per informazioni specifiche sulla configurazione, vedere gli articoli appropriati:
Configurare l'istanza master di SQL Server
Configurare l'istanza master di cluster Big Data di SQL Server.
Non è possibile configurare le impostazioni di configurazione del server per l'istanza master di SQL Server in fase di distribuzione. Questo articolo descrive una soluzione alternativa temporanea per configurare impostazioni quali l'edizione di SQL Server, l'abilitazione o la disabilitazione di SQL Server Agent, l'abilitazione di flag di traccia specifici o l'abilitazione o la disabilitazione del feedback dei clienti.
Per cambiare una qualsiasi di queste impostazioni, eseguire la procedura seguente:
Creare un file
mssql-custom.conf
personalizzato che includa le impostazioni interessate. L'esempio seguente abilita SQL Server Agent e la telemetria, imposta un PID per l'edizione Enterprise e abilita il flag di traccia 1204.[sqlagent] enabled=true [telemetry] customerfeedback=true userRequestedLocalAuditDirectory = /tmp/audit [DEFAULT] pid = Enterprise [traceflag] traceflag0 = 1204
Copiare il file
mssql-custom.conf
in/var/opt/mssql
nel contenitoremssql-server
nel podmaster-0
. Sostituire<namespaceName>
con il nome del cluster Big Data.kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
Riavviare l'istanza di SQL Server. Sostituire
<namespaceName>
con il nome del cluster Big Data.kubectl exec -it master-0 -c mssql-server -n <namespaceName> -- /bin/bash supervisorctl restart mssql-server exit
Importante
Se l'istanza master di SQL Server si trova in una configurazione di gruppi di disponibilità, copiare il file di mssql-custom.conf
in tutti i pod master
. Si noti che ogni riavvio provocherà un failover. È quindi necessario assicurarsi di pianificare l'esecuzione di questa attività in periodi di inattività.
Limitazioni note
- La procedura precedente richiede autorizzazioni di amministratore del cluster Kubernetes
- Non è possibile modificare le regole di confronto del server per l'istanza master di SQL Server del cluster Big Data dopo la distribuzione.
Configurare Apache Spark e Apache Hadoop
Per configurare Apache Spark e Apache Hadoop nei cluster Big Data, è necessario modificare il profilo del cluster al momento della distribuzione.
Un cluster Big Data ha quattro categorie di configurazione:
sql
hdfs
spark
gateway
sql
, hdfs
, spark
, sql
sono servizi. Ogni servizio è mappato alla categoria di configurazione con lo stesso nome. Tutte le configurazioni del gateway sono associate alla categoria gateway
.
Ad esempio, tutte le configurazioni nel servizio hdfs
appartengono alla categoria hdfs
. Si noti che tutte le configurazioni di Hadoop (core-site), HDFS e Zookeeper appartengono alla categoria hdfs
. Tutte le configurazioni di Livy, Spark, Yarn, Hive e Metastore appartengono alla categoria spark
.
Configurazioni supportate elenca le proprietà di Apache Spark e Hadoop che è possibile configurare quando si distribuisce un cluster Big Data di SQL Server.
Le sezioni seguenti elencano le proprietà non è possibile modificare in un cluster:
- Configurazioni
spark
non supportate - Configurazioni
hdfs
non supportate - Configurazioni
gateway
non supportate