Udostępnij za pośrednictwem


Spark Batch - Create Spark Batch Job

Utwórz nowe zadanie wsadowe platformy Spark.

POST {endpoint}/livyApi/versions/{livyApiVersion}/sparkPools/{sparkPoolName}/batches
POST {endpoint}/livyApi/versions/{livyApiVersion}/sparkPools/{sparkPoolName}/batches?detailed={detailed}

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
endpoint
path True

string

Punkt końcowy programowania obszaru roboczego, na przykład https://myworkspace.dev.azuresynapse.net.

livyApiVersion
path True

string

Prawidłowa wersja interfejsu API dla żądania.

sparkPoolName
path True

string

Nazwa puli spark.

detailed
query

boolean

Opcjonalny parametr zapytania określający, czy szczegółowa odpowiedź jest zwracana poza zwykłą usługę livy.

Treść żądania

Nazwa Wymagane Typ Opis
file True

string

name True

string

archives

string[]

args

string[]

artifactId

string

className

string

conf

object

driverCores

integer

driverMemory

string

executorCores

integer

executorMemory

string

files

string[]

jars

string[]

numExecutors

integer

pyFiles

string[]

tags

object

Odpowiedzi

Nazwa Typ Opis
200 OK

SparkBatchJob

Powodzenie

Przykłady

Create new spark batch job.

Przykładowe żądanie

POST myWorkspace.dev.azuresynapse.net/livyApi/versions/2019-11-01-preview/sparkPools/mySparkPool/batches?detailed=True

{
  "tags": null,
  "artifactId": "fill in here",
  "name": "jobname",
  "file": "abfss://",
  "className": "classname",
  "args": [],
  "jars": [],
  "files": [],
  "archives": [],
  "conf": null,
  "driverMemory": "4g",
  "driverCores": 4,
  "executorMemory": "2g",
  "executorCores": 4,
  "numExecutors": 2
}

Przykładowa odpowiedź

{
  "livyInfo": null,
  "name": "jobname",
  "workspaceName": "myWorkspace",
  "sparkPoolName": "mySparkPool",
  "submitterName": "thetime",
  "submitterId": "thesubmitterid",
  "artifactId": "fill in here",
  "jobType": "SparkBatch",
  "result": "Failed",
  "schedulerInfo": null,
  "pluginInfo": null,
  "errorInfo": [],
  "tags": null,
  "id": 1,
  "appId": "fill in here",
  "appInfo": null,
  "state": "the state",
  "log": []
}

Definicje

Nazwa Opis
LivyStates

Stan partii

PluginCurrentState
SchedulerCurrentState
SparkBatchJob
SparkBatchJobOptions
SparkBatchJobResultType

Wynik zadania wsadowego platformy Spark.

SparkBatchJobState
SparkErrorSource
SparkJobType

Typ zadania.

SparkRequest
SparkScheduler
SparkServiceError
SparkServicePlugin

LivyStates

Stan partii

Nazwa Typ Opis
busy

string

dead

string

error

string

idle

string

killed

string

not_started

string

recovering

string

running

string

shutting_down

string

starting

string

success

string

PluginCurrentState

Nazwa Typ Opis
Cleanup

string

Ended

string

Monitoring

string

Preparation

string

Queued

string

ResourceAcquisition

string

Submission

string

SchedulerCurrentState

Nazwa Typ Opis
Ended

string

Queued

string

Scheduled

string

SparkBatchJob

Nazwa Typ Opis
appId

string

Identyfikator aplikacji tej sesji

appInfo

object

Szczegółowe informacje o aplikacji.

artifactId

string

Identyfikator artefaktu.

errorInfo

SparkServiceError[]

Informacje o błędzie.

id

integer

Identyfikator sesji.

jobType

SparkJobType

Typ zadania.

livyInfo

SparkBatchJobState

log

string[]

Wiersze dziennika.

name

string

Nazwa partii.

pluginInfo

SparkServicePlugin

Informacje o wtyczki.

result

SparkBatchJobResultType

Wynik zadania wsadowego platformy Spark.

schedulerInfo

SparkScheduler

Informacje o harmonogramie.

sparkPoolName

string

Nazwa puli Spark.

state

LivyStates

Stan partii

submitterId

string

Identyfikator przesyłania.

submitterName

string

Nazwa osoby przesyłającej.

tags

object

Tagi.

workspaceName

string

Nazwa obszaru roboczego.

SparkBatchJobOptions

Nazwa Typ Opis
archives

string[]

args

string[]

artifactId

string

className

string

conf

object

driverCores

integer

driverMemory

string

executorCores

integer

executorMemory

string

file

string

files

string[]

jars

string[]

name

string

numExecutors

integer

pyFiles

string[]

tags

object

SparkBatchJobResultType

Wynik zadania wsadowego platformy Spark.

Nazwa Typ Opis
Cancelled

string

Failed

string

Succeeded

string

Uncertain

string

SparkBatchJobState

Nazwa Typ Opis
currentState

string

stan zadania platformy Spark.

deadAt

string

czas, w którym "martwy" stan livy był po raz pierwszy widziany.

jobCreationRequest

SparkRequest

killedAt

string

czas, w którym "zabił" stan livy był po raz pierwszy widziany.

notStartedAt

string

czas, w którym "not_started" stan livy był po raz pierwszy widziany.

recoveringAt

string

czas, w którym "odzyskanie" stanu livy po raz pierwszy było postrzegane.

runningAt

string

czas, w którym "działa" stan livy był po raz pierwszy widziany.

startingAt

string

czas, w którym "początek" stan livy był po raz pierwszy widziany.

successAt

string

czas, w którym "sukces" stan livy był po raz pierwszy widziany.

SparkErrorSource

Nazwa Typ Opis
Dependency

string

System

string

Unknown

string

User

string

SparkJobType

Typ zadania.

Nazwa Typ Opis
SparkBatch

string

SparkSession

string

SparkRequest

Nazwa Typ Opis
archives

string[]

args

string[]

className

string

conf

object

driverCores

integer

driverMemory

string

executorCores

integer

executorMemory

string

file

string

files

string[]

jars

string[]

name

string

numExecutors

integer

pyFiles

string[]

SparkScheduler

Nazwa Typ Opis
cancellationRequestedAt

string

currentState

SchedulerCurrentState

endedAt

string

scheduledAt

string

submittedAt

string

SparkServiceError

Nazwa Typ Opis
errorCode

string

message

string

source

SparkErrorSource

SparkServicePlugin

Nazwa Typ Opis
cleanupStartedAt

string

currentState

PluginCurrentState

monitoringStartedAt

string

preparationStartedAt

string

resourceAcquisitionStartedAt

string

submissionStartedAt

string