Partilhar via


SynapseSparkJobDefinitionActivity Construtores

Definição

Sobrecargas

SynapseSparkJobDefinitionActivity()

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, IList<Object>, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

SynapseSparkJobDefinitionActivity()

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

public SynapseSparkJobDefinitionActivity ();
Public Sub New ()

Aplica-se a

SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

public SynapseSparkJobDefinitionActivity (string name, Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference sparkJob, System.Collections.Generic.IDictionary<string,object> additionalProperties, string description, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> dependsOn, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> userProperties, Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference linkedServiceName, Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy policy, System.Collections.Generic.IList<object> arguments, object file, object className, System.Collections.Generic.IList<object> files, Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference targetBigDataPool, object executorSize = default, object conf = default, object driverSize = default, int? numExecutors = default);
new Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity : string * Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference * System.Collections.Generic.IDictionary<string, obj> * string * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> * Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference * Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy * System.Collections.Generic.IList<obj> * obj * obj * System.Collections.Generic.IList<obj> * Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference * obj * obj * obj * Nullable<int> -> Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity
Public Sub New (name As String, sparkJob As SynapseSparkJobReference, additionalProperties As IDictionary(Of String, Object), description As String, dependsOn As IList(Of ActivityDependency), userProperties As IList(Of UserProperty), linkedServiceName As LinkedServiceReference, policy As ActivityPolicy, arguments As IList(Of Object), file As Object, className As Object, files As IList(Of Object), targetBigDataPool As BigDataPoolParametrizationReference, Optional executorSize As Object = Nothing, Optional conf As Object = Nothing, Optional driverSize As Object = Nothing, Optional numExecutors As Nullable(Of Integer) = Nothing)

Parâmetros

name
String

Nome da atividade.

sparkJob
SynapseSparkJobReference

Referência de trabalho do Spark do Synapse.

additionalProperties
IDictionary<String,Object>

As propriedades sem correspondência da mensagem são desserializadas nesta coleção

description
String

Descrição da atividade.

dependsOn
IList<ActivityDependency>

A atividade depende da condição.

userProperties
IList<UserProperty>

Propriedades do usuário de atividade.

linkedServiceName
LinkedServiceReference

Referência de serviço vinculado.

policy
ActivityPolicy

Política de atividade.

arguments
IList<Object>

Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity.

file
Object

O arquivo main usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

className
Object

O identificador totalmente qualificado ou a classe main que está no arquivo de definição main, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

files
IList<Object>

Arquivos adicionais usados para referência no arquivo de definição main, que substituirá os 'arquivos' da definição de trabalho do Spark que você fornecer.

targetBigDataPool
BigDataPoolParametrizationReference

O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá 'targetBigDataPool' da definição de trabalho do Spark fornecida.

executorSize
Object

Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

conf
Object

Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark fornecida.

driverSize
Object

Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

numExecutors
Nullable<Int32>

Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida.

Aplica-se a

SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, IList<Object>, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)

Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.

public SynapseSparkJobDefinitionActivity (string name, Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference sparkJob, System.Collections.Generic.IDictionary<string,object> additionalProperties = default, string description = default, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> dependsOn = default, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> userProperties = default, Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference linkedServiceName = default, Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy policy = default, System.Collections.Generic.IList<object> arguments = default, object file = default, object className = default, System.Collections.Generic.IList<object> files = default, System.Collections.Generic.IList<object> pythonCodeReference = default, System.Collections.Generic.IList<object> filesV2 = default, Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference targetBigDataPool = default, object executorSize = default, object conf = default, object driverSize = default, int? numExecutors = default);
new Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity : string * Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference * System.Collections.Generic.IDictionary<string, obj> * string * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> * Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference * Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy * System.Collections.Generic.IList<obj> * obj * obj * System.Collections.Generic.IList<obj> * System.Collections.Generic.IList<obj> * System.Collections.Generic.IList<obj> * Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference * obj * obj * obj * Nullable<int> -> Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity
Public Sub New (name As String, sparkJob As SynapseSparkJobReference, Optional additionalProperties As IDictionary(Of String, Object) = Nothing, Optional description As String = Nothing, Optional dependsOn As IList(Of ActivityDependency) = Nothing, Optional userProperties As IList(Of UserProperty) = Nothing, Optional linkedServiceName As LinkedServiceReference = Nothing, Optional policy As ActivityPolicy = Nothing, Optional arguments As IList(Of Object) = Nothing, Optional file As Object = Nothing, Optional className As Object = Nothing, Optional files As IList(Of Object) = Nothing, Optional pythonCodeReference As IList(Of Object) = Nothing, Optional filesV2 As IList(Of Object) = Nothing, Optional targetBigDataPool As BigDataPoolParametrizationReference = Nothing, Optional executorSize As Object = Nothing, Optional conf As Object = Nothing, Optional driverSize As Object = Nothing, Optional numExecutors As Nullable(Of Integer) = Nothing)

Parâmetros

name
String

Nome da atividade.

sparkJob
SynapseSparkJobReference

Referência de trabalho do Spark do Synapse.

additionalProperties
IDictionary<String,Object>

As propriedades sem correspondência da mensagem são desserializadas nesta coleção

description
String

Descrição da atividade.

dependsOn
IList<ActivityDependency>

A atividade depende da condição.

userProperties
IList<UserProperty>

Propriedades do usuário de atividade.

linkedServiceName
LinkedServiceReference

Referência de serviço vinculado.

policy
ActivityPolicy

Política de atividade.

arguments
IList<Object>

Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity.

file
Object

O arquivo main usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

className
Object

O identificador totalmente qualificado ou a classe main que está no arquivo de definição main, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

files
IList<Object>

(Preterido. Use pythonCodeReference e filesV2) Arquivos adicionais usados para referência no arquivo de definição main, que substituirá os 'arquivos' da definição de trabalho do Spark que você fornecer.

pythonCodeReference
IList<Object>

Arquivos de código python adicionais usados para referência no arquivo de definição main, que substituirá 'pyFiles' da definição de trabalho do Spark fornecida.

filesV2
IList<Object>

Arquivos adicionais usados para referência no arquivo de definição main, que substituirá 'jars' e 'files' da definição de trabalho do Spark que você fornecer.

targetBigDataPool
BigDataPoolParametrizationReference

O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá 'targetBigDataPool' da definição de trabalho do Spark fornecida.

executorSize
Object

Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

conf
Object

Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark fornecida.

driverSize
Object

Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).

numExecutors
Nullable<Int32>

Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida.

Aplica-se a