設定 SQL Server 巨量資料叢集 - CU9 之前的版本
適用於:SQL Server 2019 (15.x)
重要
Microsoft SQL Server 2019 巨量資料叢集附加元件將會淘汰。 SQL Server 2019 巨量資料叢集的支援將於 2025 年 2 月 28 日結束。 平台上將完全支援含軟體保證 SQL Server 2019 的所有現有使用者,而且軟體將會持續透過 SQL Server 累積更新來維護,直到該時間為止。 如需詳細資訊,請參閱公告部落格文章與 Microsoft SQL Server 平台上的巨量資料選項。
在 SQL Server 2019 巨量資料叢集 CU8 版和更早版本中,您可以在部署階段透過部署 bdc.json
檔案來設定巨量資料叢集設定。 SQL Server 主要執行個體只能使用 mssql-conf 在部署後設定。
注意
在 CU9 版之前和支援已啟用設定的叢集之前,巨量資料叢集只能在部署期間設定,但 SQL Server 主要執行個體除外 - 只能在部署後使用 mssql-conf 進行設定。 如需設定 CU9 和更新版本的指示,請參閱設定 SQL Server 巨量資料叢集。
設定範圍
CU9 之前的巨量資料叢集設定有兩個範圍層級:service
與 resource
。 設定的階層也會遵循這個從最高到最低的順序。 BDC 元件將會採用在最低範圍定義之設定的值。 如果未在指定範圍定義設定,其將繼承來自其較高父範圍的值。
例如,您可以定義 Spark 驅動程式將在存放集區與 Sparkhead
資源中使用的預設核心數目。 您可以使用兩種方式執行此動作:
- 於
Spark
服務範圍指定預設核心值 - 於
storage-0
與sparkhead
資源範圍指定預設核心值
在第一個案例中,Spark 服務 (存放集區與 Sparkhead
) 所有較低範圍的資源都將「繼承」來自 Spark 服務預設值的預設核心數目。
在第二個案例中,每個資源都將使用在其各自範圍中定義的值。
如果核心的預設數目已同時在服務與資源範圍中定義,則資源範圍值將會覆寫服務範圍值,因為這是指定設定的最低「使用者設定」範圍。
如需有關設定的特定資訊,請參閱適當的文章:
設定 SQL Server 主要執行個體
設定 SQL Server 巨量資料叢集的主要執行個體。
無法在部署階段為 SQL Server 主要執行個體設定伺服器組態設定。 本文描述如何設定 SQL Server edition、啟用或停用 SQL Server Agent、啟用特定追蹤旗標,或啟用/停用客戶意見反應等設定的暫時因應措施。
若要變更這些設定的任一個,請遵循下列步驟:
建立包含目標設定的自訂
mssql-custom.conf
檔案。 下列範例會啟用 SQL 代理程式、遙測、設定 Enterprise Edition 的 PID,並啟用追蹤旗標 1204:[sqlagent] enabled=true [telemetry] customerfeedback=true userRequestedLocalAuditDirectory = /tmp/audit [DEFAULT] pid = Enterprise [traceflag] traceflag0 = 1204
將
mssql-custom.conf
檔案複製到master-0
Pod 中mssql-server
容器的/var/opt/mssql
內。 將<namespaceName>
取代為巨量資料叢集名稱。kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
將 SQL Server 執行個體重新啟動。 將
<namespaceName>
取代為巨量資料叢集名稱。kubectl exec -it master-0 -c mssql-server -n <namespaceName> -- /bin/bash supervisorctl restart mssql-server exit
重要
如果 SQL Server 的主要執行個體位於可用性群組設定中,請複製所有 master
Pod 中的 mssql-custom.conf
檔案。 請注意,每次重新啟動都會導致容錯移轉,因此,請務必確定您將此活動的時間設定在停機期間。
已知限制
- 上述步驟需要 Kubernetes 叢集系統管理員權限
- 您無法在部署後變更巨量資料叢集 SQL Server 主要執行個體的伺服器定序。
設定 Apache Spark 和 Apache Hadoop
為了在巨量資料叢集中設定 Apache Spark 和 Apache Hadoop,您必須在部署階段修改叢集設定檔。
巨量資料叢集有四個組態類別:
sql
hdfs
spark
gateway
sql
、hdfs
、spark
、sql
為服務。 每項服務都會對應到同名的組態類別。 所有閘道組態都會分在 gateway
類別。
例如,服務 hdfs
中的所有組態都屬於 hdfs
類別。 請注意,所有 Hadoop (核心網站)、HDFS 和 Zookeeper 組態都屬於 hdfs
類別,而所有 Livy、Spark、Yarn、Hive 中繼存放區組態都屬於 spark
類別。
支援的設定會列出您可以在部署 SQL Server 巨量資料叢集時設定的 Apache Spark 與 Hadoop 屬性。
下列各節列出您在叢集中無法修改的屬性: