SynapseSparkJobDefinitionActivity interface
執行Spark作業活動。
- Extends
屬性
arguments | 使用者指定的 SynapseSparkJobDefinitionActivity 自變數。 |
class |
主要定義檔案中的完整標識碼或主要類別,其會覆寫您提供的spark作業定義的 『className』。 Type:string (或 expression with resultType string) 。 |
conf | Spark 組態屬性,將會覆寫您提供的 Spark 作業定義的 'conf'。 |
configuration |
Spark 組態的類型。 |
driver |
要用於指定 Spark 集區中針對作業配置之驅動程式的核心和記憶體數目,將用於覆寫您提供的 Spark 作業定義的 'driverCores' 和 'driverMemory'。 Type:string (或 expression with resultType string) 。 |
executor |
要用於指定 Spark 集區中針對作業配置之執行程式的核心和記憶體數目,將用於覆寫您提供的 Spark 作業定義的 'executorCores' 和 'executorMemory'。 Type:string (或 expression with resultType string) 。 |
file | 用於作業的主要檔案,這會覆寫您提供的Spark作業定義的 『file』。 Type:string (或 expression with resultType string) 。 |
files | (已被取代。請使用 pythonCodeReference 和 filesV2) 主要定義檔中用於參考的其他檔案,這會覆寫您提供的 Spark 作業定義的 'files'。 |
filesV2 | 用於主要定義檔案中參考的其他檔案,這會覆寫您提供的Spark作業定義的 'jars' 和 'files'。 |
num |
要針對此作業啟動的執行程式數目,這會覆寫您提供的Spark作業定義的 'numExecutors'。 類型:integer (或 expression with resultType integer) 。 |
python |
用於主要定義檔中參考的其他 Python 程式代碼檔案,這會覆寫您提供的 Spark 作業定義的 'pyFiles'。 |
scan |
從主要定義檔案的根資料夾掃描子資料夾,這些檔案將會新增為參考檔案。 系統會掃描名為 『jars』、'pyFiles'、'files' 或 'archive' 的資料夾,而且資料夾名稱會區分大小寫。 類型:布爾值(或 expression 含 resultType 布爾值的表達式)。 |
spark |
Spark 組態屬性。 |
spark |
Synapse spark 作業參考。 |
target |
巨量數據集區的名稱,將用來執行 Spark 批次作業,這會覆寫您提供的 Spark 作業定義的 'targetBigDataPool'。 |
target |
Spark 作業的Spark組態。 |
type | 多型歧視性,指定這個物件可以是的不同類型 |
繼承的屬性
depends |
活動取決於條件。 |
description | 活動描述。 |
linked |
鏈接的服務參考。 |
name | 活動名稱。 |
on |
當狀態設定為 [非使用中] 時,活動的狀態結果。 這是選擇性屬性,如果未在活動處於非使用中狀態時提供,則狀態預設會是 [成功]。 |
policy | 活動原則。 |
state | 活動狀態。 這是選擇性屬性,如果未提供,則狀態預設為 [作用中]。 |
user |
活動用戶屬性。 |
屬性詳細資料
arguments
使用者指定的 SynapseSparkJobDefinitionActivity 自變數。
arguments?: any[]
屬性值
any[]
className
主要定義檔案中的完整標識碼或主要類別,其會覆寫您提供的spark作業定義的 『className』。 Type:string (或 expression with resultType string) 。
className?: any
屬性值
any
conf
Spark 組態屬性,將會覆寫您提供的 Spark 作業定義的 'conf'。
conf?: any
屬性值
any
configurationType
Spark 組態的類型。
configurationType?: string
屬性值
string
driverSize
要用於指定 Spark 集區中針對作業配置之驅動程式的核心和記憶體數目,將用於覆寫您提供的 Spark 作業定義的 'driverCores' 和 'driverMemory'。 Type:string (或 expression with resultType string) 。
driverSize?: any
屬性值
any
executorSize
要用於指定 Spark 集區中針對作業配置之執行程式的核心和記憶體數目,將用於覆寫您提供的 Spark 作業定義的 'executorCores' 和 'executorMemory'。 Type:string (或 expression with resultType string) 。
executorSize?: any
屬性值
any
file
用於作業的主要檔案,這會覆寫您提供的Spark作業定義的 『file』。 Type:string (或 expression with resultType string) 。
file?: any
屬性值
any
files
(已被取代。請使用 pythonCodeReference 和 filesV2) 主要定義檔中用於參考的其他檔案,這會覆寫您提供的 Spark 作業定義的 'files'。
files?: any[]
屬性值
any[]
filesV2
用於主要定義檔案中參考的其他檔案,這會覆寫您提供的Spark作業定義的 'jars' 和 'files'。
filesV2?: any[]
屬性值
any[]
numExecutors
要針對此作業啟動的執行程式數目,這會覆寫您提供的Spark作業定義的 'numExecutors'。 類型:integer (或 expression with resultType integer) 。
numExecutors?: any
屬性值
any
pythonCodeReference
用於主要定義檔中參考的其他 Python 程式代碼檔案,這會覆寫您提供的 Spark 作業定義的 'pyFiles'。
pythonCodeReference?: any[]
屬性值
any[]
scanFolder
從主要定義檔案的根資料夾掃描子資料夾,這些檔案將會新增為參考檔案。 系統會掃描名為 『jars』、'pyFiles'、'files' 或 'archive' 的資料夾,而且資料夾名稱會區分大小寫。 類型:布爾值(或 expression 含 resultType 布爾值的表達式)。
scanFolder?: any
屬性值
any
sparkConfig
Spark 組態屬性。
sparkConfig?: {[propertyName: string]: any}
屬性值
{[propertyName: string]: any}
sparkJob
targetBigDataPool
巨量數據集區的名稱,將用來執行 Spark 批次作業,這會覆寫您提供的 Spark 作業定義的 'targetBigDataPool'。
targetBigDataPool?: BigDataPoolParametrizationReference
屬性值
targetSparkConfiguration
Spark 作業的Spark組態。
targetSparkConfiguration?: SparkConfigurationParametrizationReference
屬性值
type
多型歧視性,指定這個物件可以是的不同類型
type: "SparkJob"
屬性值
"SparkJob"
繼承的屬性詳細資料
dependsOn
description
linkedServiceName
鏈接的服務參考。
linkedServiceName?: LinkedServiceReference
屬性值
name
onInactiveMarkAs
當狀態設定為 [非使用中] 時,活動的狀態結果。 這是選擇性屬性,如果未在活動處於非使用中狀態時提供,則狀態預設會是 [成功]。
onInactiveMarkAs?: string
屬性值
string