Ottimizzazione della configurazione del cluster per Apache Spark
Questo articolo illustra come ottimizzare la configurazione del cluster di Apache Spark per ottenere prestazioni ottimali in Azure HDInsight.
Panoramica
A seconda del carico di lavoro del cluster Spark, è possibile stabilire se una configurazione non predefinita per Spark darà origine a un'esecuzione del processo Spark maggiormente ottimizzata. Eseguire test di benchmark con carichi di lavoro di esempio per convalidare tutte le configurazioni cluster non predefinite.
Ecco alcuni parametri comuni che è possibile modificare:
Parametro | Descrizione |
---|---|
--num-executors | Imposta il numero appropriato di executor. |
--executor-cores | Imposta il numero di core per ogni executor. Di norma si useranno degli executor di dimensioni medie, giacché parte della memoria disponibile è già usata da altri processi. |
--executor-memory | Imposta le dimensioni della memoria per ogni executor, che controlla le dimensioni dell'heap in YARN. Lasciare una certa quantità di memoria per l'overhead di esecuzione. |
Selezionare le dimensioni corrette dell'executor
Quando si sceglie la configurazione dell'executor, prendere in considerazione l'overhead di Java Garbage Collection (GC).
Fattori che riducono le dimensioni dell'executor:
- Ridurre le dimensioni heap al di sotto di 32 GB per mantenere un overhead di GC < 10%.
- Ridurre il numero di core per mantenere un overhead di GC < 10%.
Fattori che aumentano le dimensioni dell'executor:
- Ridurre l'overhead di comunicazione tra executor.
- Ridurre il numero di connessioni aperte tra executor (N2) nei cluster di grandi dimensioni (>100 executor).
- Aumentare le dimensioni dell'heap per consentire un uso intensivo della memoria.
- Facoltativo: ridurre l'overhead della memoria per ogni executor.
- Facoltativo: aumentare la concorrenza e l'uso mediante sovrascrittura della CPU.
Come regola generale quando si selezionano le dimensioni dell'executor:
- Iniziare con 30 GB per executor e distribuire i core disponibili sul computer.
- Aumentare il numero di core per executor per i cluster di grandi dimensioni (> 100 executor).
- Modificare le dimensioni in base alle esecuzioni di prova e ai fattori precedenti, ad esempio l'overhead di Garbage Collection.
Durante l'esecuzione di query simultanee, considerare di:
- Iniziare con 30 GB per ogni executor e per tutti i core del computer.
- Creare più applicazioni Spark parallele sovrascrivendo la CPU (miglioramento della latenza di circa il 30%).
- Distribuire le query tra applicazioni parallele.
- Modificare le dimensioni in base alle esecuzioni di prova e ai fattori precedenti, ad esempio l'overhead di Garbage Collection.
Per altre informazioni sull'uso di Ambari per configurare gli Executor, vedere Impostazioni di Apache Spark - Executor Spark.
Monitorare le prestazioni della query per gli outlier o altri problemi di prestazioni osservando la visualizzazione della sequenza temporale, il grafico SQL, le statistiche dei processi e così via. Per informazioni sul debug di processi Spark con YARN e il server cronologia Spark, vedere Eseguire il debug di processi Apache Spark in esecuzione in Azure HDInsight. Per suggerimenti sull'uso del server di sequenza temporale YARN, vedere Accedere ai log applicazioni di Apache Hadoop YARN.
Attività più lente in alcuni executor o nodi
In alcuni casi, uno o più executor possono rivelarsi più lenti rispetto ad altri e richiedere molto più tempo per eseguire le attività. Questa lentezza si verifica spesso in cluster più grandi (> 30 nodi). In questo caso, suddividere il lavoro in un numero maggiore di attività, in modo che l'utilità di pianificazione riesca a compensare l'effetto di rallentamento delle attività. Ad esempio, prevedere almeno il doppio di attività rispetto al numero di core degli executor nell'applicazione. È anche possibile abilitare l'esecuzione speculativa delle attività con conf: spark.speculation = true
.