SynapseSparkJobDefinitionActivity Construtores
Definição
Importante
Algumas informações se referem a produtos de pré-lançamento que podem ser substancialmente modificados antes do lançamento. A Microsoft não oferece garantias, expressas ou implícitas, das informações aqui fornecidas.
Sobrecargas
SynapseSparkJobDefinitionActivity() |
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity. |
SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>) |
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity. |
SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, IList<Object>, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>) |
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity. |
SynapseSparkJobDefinitionActivity()
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.
public SynapseSparkJobDefinitionActivity ();
Public Sub New ()
Aplica-se a
SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.
public SynapseSparkJobDefinitionActivity (string name, Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference sparkJob, System.Collections.Generic.IDictionary<string,object> additionalProperties, string description, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> dependsOn, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> userProperties, Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference linkedServiceName, Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy policy, System.Collections.Generic.IList<object> arguments, object file, object className, System.Collections.Generic.IList<object> files, Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference targetBigDataPool, object executorSize = default, object conf = default, object driverSize = default, int? numExecutors = default);
new Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity : string * Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference * System.Collections.Generic.IDictionary<string, obj> * string * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> * Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference * Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy * System.Collections.Generic.IList<obj> * obj * obj * System.Collections.Generic.IList<obj> * Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference * obj * obj * obj * Nullable<int> -> Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity
Public Sub New (name As String, sparkJob As SynapseSparkJobReference, additionalProperties As IDictionary(Of String, Object), description As String, dependsOn As IList(Of ActivityDependency), userProperties As IList(Of UserProperty), linkedServiceName As LinkedServiceReference, policy As ActivityPolicy, arguments As IList(Of Object), file As Object, className As Object, files As IList(Of Object), targetBigDataPool As BigDataPoolParametrizationReference, Optional executorSize As Object = Nothing, Optional conf As Object = Nothing, Optional driverSize As Object = Nothing, Optional numExecutors As Nullable(Of Integer) = Nothing)
Parâmetros
- name
- String
Nome da atividade.
- sparkJob
- SynapseSparkJobReference
Referência de trabalho do Spark do Synapse.
- additionalProperties
- IDictionary<String,Object>
As propriedades sem correspondência da mensagem são desserializadas nesta coleção
- description
- String
Descrição da atividade.
- dependsOn
- IList<ActivityDependency>
A atividade depende da condição.
- userProperties
- IList<UserProperty>
Propriedades do usuário de atividade.
- linkedServiceName
- LinkedServiceReference
Referência de serviço vinculado.
- policy
- ActivityPolicy
Política de atividade.
Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity.
- file
- Object
O arquivo main usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
- className
- Object
O identificador totalmente qualificado ou a classe main que está no arquivo de definição main, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
Arquivos adicionais usados para referência no arquivo de definição main, que substituirá os 'arquivos' da definição de trabalho do Spark que você fornecer.
- targetBigDataPool
- BigDataPoolParametrizationReference
O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá 'targetBigDataPool' da definição de trabalho do Spark fornecida.
- executorSize
- Object
Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
- conf
- Object
Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark fornecida.
- driverSize
- Object
Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida.
Aplica-se a
SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference, IDictionary<String,Object>, String, IList<ActivityDependency>, IList<UserProperty>, LinkedServiceReference, ActivityPolicy, IList<Object>, Object, Object, IList<Object>, IList<Object>, IList<Object>, BigDataPoolParametrizationReference, Object, Object, Object, Nullable<Int32>)
Inicializa uma nova instância da classe SynapseSparkJobDefinitionActivity.
public SynapseSparkJobDefinitionActivity (string name, Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference sparkJob, System.Collections.Generic.IDictionary<string,object> additionalProperties = default, string description = default, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> dependsOn = default, System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> userProperties = default, Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference linkedServiceName = default, Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy policy = default, System.Collections.Generic.IList<object> arguments = default, object file = default, object className = default, System.Collections.Generic.IList<object> files = default, System.Collections.Generic.IList<object> pythonCodeReference = default, System.Collections.Generic.IList<object> filesV2 = default, Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference targetBigDataPool = default, object executorSize = default, object conf = default, object driverSize = default, int? numExecutors = default);
new Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity : string * Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobReference * System.Collections.Generic.IDictionary<string, obj> * string * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.ActivityDependency> * System.Collections.Generic.IList<Microsoft.Azure.Management.DataFactory.Models.UserProperty> * Microsoft.Azure.Management.DataFactory.Models.LinkedServiceReference * Microsoft.Azure.Management.DataFactory.Models.ActivityPolicy * System.Collections.Generic.IList<obj> * obj * obj * System.Collections.Generic.IList<obj> * System.Collections.Generic.IList<obj> * System.Collections.Generic.IList<obj> * Microsoft.Azure.Management.DataFactory.Models.BigDataPoolParametrizationReference * obj * obj * obj * Nullable<int> -> Microsoft.Azure.Management.DataFactory.Models.SynapseSparkJobDefinitionActivity
Public Sub New (name As String, sparkJob As SynapseSparkJobReference, Optional additionalProperties As IDictionary(Of String, Object) = Nothing, Optional description As String = Nothing, Optional dependsOn As IList(Of ActivityDependency) = Nothing, Optional userProperties As IList(Of UserProperty) = Nothing, Optional linkedServiceName As LinkedServiceReference = Nothing, Optional policy As ActivityPolicy = Nothing, Optional arguments As IList(Of Object) = Nothing, Optional file As Object = Nothing, Optional className As Object = Nothing, Optional files As IList(Of Object) = Nothing, Optional pythonCodeReference As IList(Of Object) = Nothing, Optional filesV2 As IList(Of Object) = Nothing, Optional targetBigDataPool As BigDataPoolParametrizationReference = Nothing, Optional executorSize As Object = Nothing, Optional conf As Object = Nothing, Optional driverSize As Object = Nothing, Optional numExecutors As Nullable(Of Integer) = Nothing)
Parâmetros
- name
- String
Nome da atividade.
- sparkJob
- SynapseSparkJobReference
Referência de trabalho do Spark do Synapse.
- additionalProperties
- IDictionary<String,Object>
As propriedades sem correspondência da mensagem são desserializadas nesta coleção
- description
- String
Descrição da atividade.
- dependsOn
- IList<ActivityDependency>
A atividade depende da condição.
- userProperties
- IList<UserProperty>
Propriedades do usuário de atividade.
- linkedServiceName
- LinkedServiceReference
Referência de serviço vinculado.
- policy
- ActivityPolicy
Política de atividade.
Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity.
- file
- Object
O arquivo main usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
- className
- Object
O identificador totalmente qualificado ou a classe main que está no arquivo de definição main, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
(Preterido. Use pythonCodeReference e filesV2) Arquivos adicionais usados para referência no arquivo de definição main, que substituirá os 'arquivos' da definição de trabalho do Spark que você fornecer.
Arquivos de código python adicionais usados para referência no arquivo de definição main, que substituirá 'pyFiles' da definição de trabalho do Spark fornecida.
Arquivos adicionais usados para referência no arquivo de definição main, que substituirá 'jars' e 'files' da definição de trabalho do Spark que você fornecer.
- targetBigDataPool
- BigDataPoolParametrizationReference
O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá 'targetBigDataPool' da definição de trabalho do Spark fornecida.
- executorSize
- Object
Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
- conf
- Object
Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark fornecida.
- driverSize
- Object
Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornecer. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida.
Aplica-se a
Azure SDK for .NET