Compartir a través de


Monitoring - Get Spark Job List

Obtenga la lista de aplicaciones de Spark para el área de trabajo.

GET {endpoint}/monitoring/workloadTypes/spark/Applications?api-version=2020-12-01

Parámetros de identificador URI

Nombre En Requerido Tipo Description
endpoint
path True

string

Punto de conexión de desarrollo del área de trabajo, por ejemplo https://myworkspace.dev.azuresynapse.net.

api-version
query True

string

Encabezado de la solicitud

Nombre Requerido Tipo Description
x-ms-client-request-id

string

Puede proporcionar un guid, que es útil para la depuración y proporcionar un mejor soporte técnico al cliente.

Respuestas

Nombre Tipo Description
200 OK

SparkJobListViewResponse

Correcto

Ejemplos

Get list of spark application

Solicitud de ejemplo

GET myWorkspace.dev.azuresynapse.net/monitoring/workloadTypes/spark/Applications?api-version=2020-12-01

Respuesta de muestra

{
  "nJobs": 1,
  "sparkJobs": [
    {
      "state": "Failure",
      "name": "sparkjobname",
      "submitter": "submittername",
      "compute": "ComputeName",
      "sparkApplicationId": "sparkApplicationId",
      "livyId": "LivyIdValue",
      "timing": [
        "Ended || Submitting || In Progress",
        "553h 11m"
      ],
      "sparkJobDefinition": null,
      "pipeline": [],
      "jobType": "Spark session || Batch Job",
      "submitTime": "2019-11-11T15:08:52.9554438-08:00",
      "endTime": "2019-11-11T15:08:56.2314317-08:00",
      "queuedDuration": "1s",
      "runningDuration": "2s",
      "totalDuration": "3s"
    }
  ]
}

Definiciones

Nombre Description
SparkJob
SparkJobListViewResponse

SparkJob

Nombre Tipo Description
compute

string

endTime

string

jobType

string

livyId

string

name

string

pipeline

SparkJob[]

queuedDuration

string

runningDuration

string

sparkApplicationId

string

sparkJobDefinition

string

state

string

submitTime

string

submitter

string

timing

string[]

totalDuration

string

SparkJobListViewResponse

Nombre Tipo Description
nJobs

integer

sparkJobs

SparkJob[]