Condividi tramite


Jobs - List

List Jobs
Elenchi tutti i processi per la trasformazione.

GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs?api-version=2022-07-01
GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs?api-version=2022-07-01&$filter={$filter}&$orderby={$orderby}

Parametri dell'URI

Nome In Necessario Tipo Descrizione
accountName
path True

string

Nome dell'account di Servizi multimediali.

resourceGroupName
path True

string

Nome del gruppo di risorse all'interno della sottoscrizione di Azure.

subscriptionId
path True

string

Identificatore univoco per una sottoscrizione di Microsoft Azure.

transformName
path True

string

Nome trasformazione.

api-version
query True

string

Versione dell'API da usare con la richiesta client.

$filter
query

string

Limita il set di elementi restituiti.

$orderby
query

string

Specifica la chiave in base alla quale deve essere ordinata la raccolta dei risultati.

Risposte

Nome Tipo Descrizione
200 OK

JobCollection

OK

Other Status Codes

ErrorResponse

Informazioni dettagliate sull'errore.

Esempio

Lists all of the Jobs for the Transform.
Lists Jobs for the Transform filter by created.
Lists Jobs for the Transform filter by lastmodified.
Lists Jobs for the Transform filter by name and state.
Lists Jobs for the Transform filter by name.
Lists Jobs for the Transform filter by state equal.
Lists Jobs for the Transform filter by state not equal.

Lists all of the Jobs for the Transform.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01

Risposta di esempio

{
  "value": [
    {
      "name": "job1",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Queued",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job1-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Queued",
            "progress": 0,
            "label": "example-custom-label",
            "assetName": "job1-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {}
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    },
    {
      "name": "job2",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job2",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job2-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:32.2462651Z",
            "assetName": "job2-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:32.2462651Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    },
    {
      "name": "job3",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job3",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Finished",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job3-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Finished",
            "progress": 100,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:32.2462651Z",
            "endTime": "2022-10-17T23:14:32.2462651Z",
            "assetName": "job3-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:32.2462651Z",
        "endTime": "2022-10-17T23:14:32.2462651Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by created.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=properties/created ge 2021-06-01T00:00:10.0000000Z and properties/created le 2021-06-01T00:00:20.0000000Z&$orderby=properties/created

Risposta di esempio

{
  "value": [
    {
      "name": "job2",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job2",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:10Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job2-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:10Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.2334355Z",
            "assetName": "job2-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.2334355Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:10Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:10Z"
      }
    },
    {
      "name": "job3",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job3",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:20Z",
        "state": "Finished",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job3-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:20Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Finished",
            "progress": 100,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.2334355Z",
            "endTime": "2022-10-17T23:14:33.2334355Z",
            "assetName": "job3-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.2334355Z",
        "endTime": "2022-10-17T23:14:33.2334355Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:20Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:20Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by lastmodified.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=properties/lastmodified ge 2021-06-01T00:00:10.0000000Z and properties/lastmodified le 2021-06-01T00:00:20.0000000Z&$orderby=properties/lastmodified desc

Risposta di esempio

{
  "value": [
    {
      "name": "job3",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job3",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:20Z",
        "state": "Finished",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job3-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:20Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Finished",
            "progress": 100,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.3623605Z",
            "endTime": "2022-10-17T23:14:33.3623605Z",
            "assetName": "job3-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.3623605Z",
        "endTime": "2022-10-17T23:14:33.3623605Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:20Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:20Z"
      }
    },
    {
      "name": "job2",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job2",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:10Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job2-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:10Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.3623605Z",
            "assetName": "job2-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.3623605Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:10Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:10Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by name and state.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=name eq 'job3' and properties/state eq Microsoft.Media.JobState'finished'

Risposta di esempio

{
  "value": [
    {
      "name": "job3",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job3",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Finished",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job3-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Finished",
            "progress": 100,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.1104174Z",
            "endTime": "2022-10-17T23:14:33.1104174Z",
            "assetName": "job3-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.1104174Z",
        "endTime": "2022-10-17T23:14:33.1104174Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by name.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=name eq 'job1' or name eq 'job2'&$orderby=name

Risposta di esempio

{
  "value": [
    {
      "name": "job1",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Queued",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job1-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Queued",
            "progress": 0,
            "label": "example-custom-label",
            "assetName": "job1-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {}
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    },
    {
      "name": "job2",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job2",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job2-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:32.6894373Z",
            "assetName": "job2-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:32.6894373Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by state equal.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=properties/state eq Microsoft.Media.JobState'Processing'

Risposta di esempio

{
  "value": [
    {
      "name": "job2",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job2",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job2-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:32.8284289Z",
            "assetName": "job2-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:32.8284289Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    },
    {
      "name": "job3",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job3",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Processing",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job3-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Processing",
            "progress": 50,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:32.8284289Z",
            "assetName": "job3-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:32.8284289Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    }
  ]
}

Lists Jobs for the Transform filter by state not equal.

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs?api-version=2022-07-01&$filter=properties/state ne Microsoft.Media.JobState'processing'

Risposta di esempio

{
  "value": [
    {
      "name": "job1",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Queued",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job1-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Queued",
            "progress": 0,
            "label": "example-custom-label",
            "assetName": "job1-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {}
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    },
    {
      "name": "job4",
      "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job4",
      "type": "Microsoft.Media/mediaservices/transforms/jobs",
      "properties": {
        "created": "2021-06-01T00:00:00Z",
        "state": "Finished",
        "input": {
          "@odata.type": "#Microsoft.Media.JobInputs",
          "inputs": [
            {
              "@odata.type": "#Microsoft.Media.JobInputAsset",
              "files": [],
              "inputDefinitions": [],
              "assetName": "job4-InputAsset"
            }
          ]
        },
        "lastModified": "2021-06-01T00:00:00Z",
        "outputs": [
          {
            "@odata.type": "#Microsoft.Media.JobOutputAsset",
            "state": "Finished",
            "progress": 100,
            "label": "example-custom-label",
            "startTime": "2022-10-17T23:04:33.0097637Z",
            "endTime": "2022-10-17T23:14:33.0097637Z",
            "assetName": "job4-OutputAsset"
          }
        ],
        "priority": "Low",
        "correlationData": {},
        "startTime": "2022-10-17T23:04:33.0097637Z",
        "endTime": "2022-10-17T23:14:33.0097637Z"
      },
      "systemData": {
        "createdBy": "contoso@microsoft.com",
        "createdByType": "User",
        "createdAt": "2021-06-01T00:00:00Z",
        "lastModifiedBy": "contoso@microsoft.com",
        "lastModifiedByType": "User",
        "lastModifiedAt": "2021-06-01T00:00:00Z"
      }
    }
  ]
}

Definizioni

Nome Descrizione
AacAudio

Descrive le impostazioni di codifica audio AAC (Advanced Audio Codec).

AacAudioProfile

Profilo di codifica da usare per la codifica dell'audio con AAC.

AbsoluteClipTime

Specifica il tempo di clip come posizione temporale assoluta nel file multimediale. Il tempo assoluto può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari a zero o meno.

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale quando analizzato. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo il rapporto di aspetto appropriato. Verrà ridimensionato solo se il video è di una risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato su 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" riduce il tempo necessario per elaborare video a risoluzione elevata. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

Audio

Definisce le proprietà comuni per tutti i codec audio.

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode Standard.

AudioAnalyzerPreset

Il set di impostazioni di Audio Analyzer applica un set predefinito di operazioni di analisi basate sull'intelligenza artificiale, inclusa la trascrizione vocale. Attualmente il set di impostazioni supporta l'elaborazione del contenuto con una singola traccia audio.

AudioOverlay

Descrive le proprietà di una sovrimpressione audio.

AudioTrackDescriptor

TrackSelection per selezionare le tracce audio.

BlurType

Tipo di blur

BuiltInStandardEncoderPreset

Descrive un set di impostazioni predefinite per codificare il video di input con il codificatore Standard.

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come Velocità per una codifica più veloce, ma meno efficienza di compressione.

CopyAudio

Flag codec, che indica al codificatore di copiare il bitstream audio di input.

CopyVideo

Flag codec, che indica al codificatore di copiare il bitstream video di input senza codificare nuovamente.

createdByType

Tipo di identità che ha creato la risorsa.

DDAudio

Descrive le impostazioni di codifica audio Dolby Digital Audio Codec (AC3). L'implementazione corrente per il supporto di Dolby Digital Audio è: i numeri di canale audio a 1(mono), 2(stereo), 6(5.1side); Frequenza di campionamento audio a: 32K/44.1K/48K Hz; I valori di bitrate audio come specifica AC3 supportano: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 64000 bps.

Deinterlace

Descrive le impostazioni di de-interlacciamento.

DeinterlaceMode

Modalità di denterlacing. Il valore predefinito è AutoPixelAdaptive.

DeinterlaceParity

La parità dei campi per la de-interlacciatura, per impostazione predefinita è Auto.

EncoderNamedPreset

Set di impostazioni predefinite da usare per la codifica dei video.

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

ErrorAdditionalInfo

Informazioni aggiuntive sulla gestione delle risorse.

ErrorDetail

Dettagli dell'errore.

ErrorResponse

Risposta di errore

FaceDetectorPreset

Descrive tutte le impostazioni da usare durante l'analisi di un video per rilevare (e facoltativamente ridistribuire) tutti i visi presenti.

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna le apparenze dei visi nel video. Se possibile, le apparizioni della stessa persona vengono assegnate allo stesso ID. 2) Combinate - Inoltre, redacts(blurs) rilevate visi. 3) Redact: consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un subset di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un subset selezionato dall'utente di ID che richiedono la ridistribuzione.

Fade

Descrive le proprietà di un effetto Fade applicato al supporto di input.

Filters

Descrive tutte le operazioni di filtro, ad esempio de-interlacciamento, rotazione e così via, da applicare al supporto di input prima della codifica.

FromAllInputFile

InputDefinition che esamina tutti i file forniti per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per consentire la selezione di una singola traccia in un set di file di input.

FromEachInputFile

InputDefinition che esamina ogni file di input fornito per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per selezionare tracce da ogni file specificato.

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

H264Layer

Descrive le impostazioni da usare quando si codifica il video di input in un livello di velocità di bit di output desiderato con il codec video H.264.

H264RateControlMode

Modalità di controllo della frequenza video

H264Video

Descrive tutte le proprietà per la codifica di un video con il codec H.264.

H264VideoProfile

Attualmente sono supportati Baseline, Main, High, High422, High444. Il valore predefinito è Auto.

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempi di calcolo più lunghi. La velocità produrrà un file relativamente più grande, ma è più veloce ed economico. Il valore predefinito è Bilanciato.

H265Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.265.

H265Video

Descrive tutte le proprietà per la codifica di un video con il codec H.265.

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

Image

Descrive le proprietà di base per la generazione di anteprime dal video di input

ImageFormat

Descrive le proprietà per un file di immagine di output.

InputFile

InputDefinition per un singolo file. TrackSelections viene con ambito nel file specificato.

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera generare il servizio. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se questa opzione viene impostata su AllInsights e l'input è solo audio, vengono generate solo informazioni dettagliate audio. Analogamente, se l'input è solo video, vengono generate solo informazioni dettagliate video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni input siano solo video; oppure usare VideoInsightsOnly se si prevede che alcuni input siano solo audio. I processi in tali condizioni generano errori.

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e solo video in file MP4 separati.

Job

Tipo di risorsa Processo. Lo stato e lo stato di avanzamento possono essere ottenuti eseguendo il polling di un processo o una sottoscrizione agli eventi usando EventGrid.

JobCollection

Raccolta di elementi job.

JobError

Dettagli degli errori jobOutput.

JobErrorCategory

Consente di categorizzare gli errori.

JobErrorCode

Codice di errore che descrive l'errore.

JobErrorDetail

Dettagli degli errori jobOutput.

JobInputAsset

Rappresenta un asset per l'input in un processo.

JobInputClip

Rappresenta i file di input per un processo.

JobInputHttp

Rappresenta l'input del processo HTTPS.

JobInputs

Descrive un elenco di input in un processo.

JobInputSequence

Una sequenza contiene un elenco ordinato di Clip in cui ogni clip è un JobInput. La sequenza verrà considerata come un singolo input.

JobOutputAsset

Rappresenta un asset usato come JobOutput.

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se i tentativi non sono riusciti, contattare supporto tecnico di Azure tramite il portale di Azure.

JobState

Descrive lo stato di JobOutput.

JpgFormat

Descrive le impostazioni per la produzione di anteprime JPEG.

JpgImage

Descrive le proprietà per la produzione di una serie di immagini JPEG dal video di input.

JpgLayer

Descrive le impostazioni per produrre un'immagine JPEG dal video di input.

Mp4Format

Descrive le proprietà per un file ISO MP4 di output.

MultiBitrateFormat

Descrive le proprietà per la produzione di una raccolta di file con velocità a più bit allineati GOP. Il comportamento predefinito consiste nel produrre un file di output per ogni livello video che viene muxed insieme a tutti gli audio. I file di output esatti prodotti possono essere controllati specificando l'insieme outputFiles.

OutputFile

Rappresenta un file di output prodotto.

PngFormat

Descrive le impostazioni per la produzione di anteprime PNG.

PngImage

Descrive le proprietà per la produzione di una serie di immagini PNG dal video di input.

PngLayer

Descrive le impostazioni per produrre un'immagine PNG dal video di input.

PresetConfigurations

Oggetto delle impostazioni di configurazione facoltative per il codificatore.

Priority

Imposta la priorità relativa dei TransformOutputs all'interno di una trasformazione. In questo modo viene impostata la priorità usata dal servizio per l'elaborazione di TransformOutputs. La priorità predefinita è Normale.

Rectangle

Descrive le proprietà di una finestra rettangolare applicata ai supporti di input prima di elaborarla.

Rotation

La rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

SelectAudioTrackByAttribute

Selezionare tracce audio dall'input specificando un attributo e un filtro di attributo.

SelectAudioTrackById

Selezionare tracce audio dall'input specificando un identificatore di traccia.

SelectVideoTrackByAttribute

Selezionare tracce video dall'input specificando un attributo e un filtro di attributo.

SelectVideoTrackById

Selezionare tracce video dall'input specificando un identificatore di traccia.

StandardEncoderPreset

Descrive tutte le impostazioni da usare durante la codifica del video di input con il codificatore Standard.

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

systemData

Metadati relativi alla creazione e all'ultima modifica della risorsa.

TrackAttribute

TrackAttribute per filtrare le tracce.

TransportStreamFormat

Descrive le proprietà per la generazione di file video di output MPEG-2 Transport Stream (ISO/IEC 13818-1).

UtcClipTime

Specifica l'ora di clip come posizione ora UTC nel file multimediale. L'ora UTC può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari a zero o meno.

Video

Descrive le proprietà di base per la codifica del video di input.

VideoAnalyzerPreset

Set di impostazioni di analizzatore video che estrae informazioni dettagliate (metadati avanzati) sia dall'audio che dal video e restituisce un file di formato JSON.

VideoOverlay

Descrive le proprietà di una sovrimpressione video.

VideoSyncMode

Modalità di sincronizzazione video

VideoTrackDescriptor

TrackSelection per selezionare le tracce video.

AacAudio

Descrive le impostazioni di codifica audio AAC (Advanced Audio Codec).

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AacAudio

Discriminazione per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio codificato dall'output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

profile

AacAudioProfile

Profilo di codifica da usare durante la codifica audio con AAC.

samplingRate

integer

Frequenza di campionamento da usare per la codifica in hertz.

AacAudioProfile

Profilo di codifica da usare per la codifica dell'audio con AAC.

Nome Tipo Descrizione
AacLc

string

Specifica che l'audio di output deve essere codificato nel profilo AAC Low Complexity (AAC-LC).

HeAacV1

string

Specifica che l'audio di output deve essere codificato nel profilo HE-AAC v1.

HeAacV2

string

Specifica che l'audio di output deve essere codificato nel profilo HE-AAC v2.

AbsoluteClipTime

Specifica il tempo di clip come posizione temporale assoluta nel file multimediale. Il tempo assoluto può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari a zero o meno.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AbsoluteClipTime

Discriminazione per i tipi derivati.

time

string

Posizione temporale nella sequenza temporale del supporto di input. Viene in genere specificato come periodo di ISO8601. Ad esempio PT30S per 30 secondi.

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale quando analizzato. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo il rapporto di aspetto appropriato. Verrà ridimensionato solo se il video è di una risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato su 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" riduce il tempo necessario per elaborare video a risoluzione elevata. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

Nome Tipo Descrizione
SourceResolution

string

StandardDefinition

string

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

Nome Tipo Descrizione
All

string

Verranno incluse tutte le tracce.

Bottom

string

La prima traccia verrà inclusa quando l'attributo viene ordinato in ordine crescente. In genere usato per selezionare la velocità in bit più piccola.

Top

string

La prima traccia verrà inclusa quando l'attributo viene ordinato in ordine decrescente. In genere usato per selezionare la velocità in bit più grande.

ValueEquals

string

Verranno incluse tutte le tracce con un attributo uguale al valore specificato.

Audio

Definisce le proprietà comuni per tutti i codec audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Audio

Discriminazione per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio codificato dall'output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

samplingRate

integer

Frequenza di campionamento da usare per la codifica in hertz.

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode Standard.

Nome Tipo Descrizione
Basic

string

Questa modalità esegue la trascrizione vocale e la generazione di un file VTT sottotitolo/didascalia. L'output di questa modalità include un file JSON di Insights, inclusi solo le parole chiave, la trascrizione e le informazioni sulla tempistica. Il rilevamento automatico della lingua e la diarizzazione dell'altoparlante non sono inclusi in questa modalità.

Standard

string

Esegue tutte le operazioni incluse nella modalità Basic, eseguendo inoltre il rilevamento del linguaggio e la diarizzazione dell'altoparlante.

AudioAnalyzerPreset

Il set di impostazioni di Audio Analyzer applica un set predefinito di operazioni di analisi basate sull'intelligenza artificiale, inclusa la trascrizione vocale. Attualmente il set di impostazioni supporta l'elaborazione del contenuto con una singola traccia audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Discriminazione per i tipi derivati.

audioLanguage

string

Lingua per il payload audio nell'input usando il formato BCP-47 di 'language tag-region' (ad esempio"en-US"). Se si conosce la lingua del contenuto, è consigliabile specificarla. La lingua deve essere specificata in modo esplicito per AudioAnalysisMode::Basic, poiché il rilevamento automatico della lingua non è incluso in modalità di base. Se la lingua non è specificata o impostata su Null, il rilevamento automatico della lingua sceglierà la prima lingua rilevata e utilizzerà la lingua selezionata per la durata del file. Attualmente non supporta il passaggio dinamico tra lingue dopo il rilevamento della prima lingua. Il rilevamento automatico funziona meglio con registrazioni audio con voce chiaramente riconoscibile. Se il rilevamento automatico non riesce a trovare la lingua, la trascrizione avrà il fallback in "en-US". L'elenco delle lingue supportate è disponibile qui: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dizionario contenente coppie di valori chiave per i parametri non esposti nel set di impostazioni stesso

mode

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode Standard.

AudioOverlay

Descrive le proprietà di una sovrimpressione audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioOverlay

Il discriminatorio per i tipi derivati.

audioGainLevel

number

Livello di guadagno dell'audio nella sovrimpressione. Il valore deve essere compreso nell'intervallo [0, 1,0]. Il valore predefinito è 1.0.

end

string

Posizione finale, con riferimento al video di input, in corrispondenza del quale termina la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT30S per terminare la sovrimpressione a 30 secondi nel video di input. Se non specificato o il valore è maggiore della durata del video di input, la sovrimpressione verrà applicata fino alla fine del video di input se la durata del supporto di sovrimpressione è maggiore della durata del video di input, altrimenti la sovrimpressione durerà fino alla durata del supporto di sovrimpressione.

fadeInDuration

string

Durata in cui la sovrimpressione si dissolve nel video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, non deve avere dissolvenza in (uguale a PT0S).

fadeOutDuration

string

La durata in cui la sovrimpressione si dissolve dal video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, il comportamento predefinito è senza dissolvenza (uguale a PT0S).

inputLabel

string

Etichetta dell'input del processo da usare come sovrimpressione. L'input deve specificare esattamente un file. È possibile specificare un file di immagine in formato JPG, PNG, GIF o BMP o un file audio (ad esempio un file WAV, MP3, WMA o M4A) o un file video. Vedi https://aka.ms/mesformats per l'elenco completo dei formati di file audio e video supportati.

start

string

Posizione iniziale, con riferimento al video di input, in corrispondenza del quale inizia la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT05S per avviare la sovrimpressione a 5 secondi nel video di input. Se non è specificata, la sovrimpressione inizia dall'inizio del video di input.

AudioTrackDescriptor

TrackSelection per selezionare le tracce audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioTrackDescriptor

Il discriminatorio per i tipi derivati.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

BlurType

Tipo di blur

Nome Tipo Descrizione
Black

string

Nero: filtro nero

Box

string

Box: filtro di debug, casella di selezione solo

High

string

Alto: confondere il filtro di sfocatura

Low

string

Basso: filtro blur box-car

Med

string

Med: filtro blur di Gaussian

BuiltInStandardEncoderPreset

Descrive un set di impostazioni predefinite per codificare il video di input con il codificatore Standard.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Discriminazione per i tipi derivati.

configurations

PresetConfigurations

Impostazioni di configurazione facoltative per il codificatore. Le configurazioni sono supportate solo per ContentAwareEncoding e H265ContentAwareEncoding BuiltInStandardEncoderPreset.

presetName

EncoderNamedPreset

Set di impostazioni predefinite da usare per la codifica dei video.

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

Nome Tipo Descrizione
BackLeft

string

Canale indietro sinistro. A volte definito canale surround sinistro.

BackRight

string

Canale indietro a destra. A volte definito canale surround destro.

Center

string

Canale Centrale.

FrontLeft

string

Canale sinistro anteriore.

FrontRight

string

Canale anteriore destro.

LowFrequencyEffects

string

Canale effetti a bassa frequenza. A volte indicato come l'inno.

StereoLeft

string

Canale Stereo sinistro. A volte indicato come Down Mix Left.

StereoRight

string

Canale Stereo destro. A volte definito Down Mix Right.

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come Velocità per una codifica più veloce, ma meno efficienza di compressione.

Nome Tipo Descrizione
Balanced

string

Configura il codificatore per l'uso delle impostazioni che consentono di bilanciare la velocità e la qualità.

Quality

string

Configura il codificatore per l'uso delle impostazioni ottimizzate per produrre un output di qualità superiore a scapito del tempo di codifica complessivo più lento.

Speed

string

Configura il codificatore per l'uso delle impostazioni ottimizzate per una codifica più rapida. La qualità viene sacrificata per ridurre il tempo di codifica.

CopyAudio

Flag codec, che indica al codificatore di copiare il bitstream audio di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.CopyAudio

Discriminazione per i tipi derivati.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

CopyVideo

Flag codec, che indica al codificatore di copiare il bitstream video di input senza codificare nuovamente.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.CopyVideo

Discriminazione per i tipi derivati.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

createdByType

Tipo di identità che ha creato la risorsa.

Nome Tipo Descrizione
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Descrive le impostazioni di codifica audio Dolby Digital Audio Codec (AC3). L'implementazione corrente per il supporto di Dolby Digital Audio è: i numeri di canale audio a 1(mono), 2(stereo), 6(5.1side); Frequenza di campionamento audio a: 32K/44.1K/48K Hz; I valori di bitrate audio come specifica AC3 supportano: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 64000 bps.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.DDAudio

Discriminazione per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio codificato dall'output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

samplingRate

integer

Frequenza di campionamento da usare per la codifica in hertz.

Deinterlace

Descrive le impostazioni di de-interlacciamento.

Nome Tipo Descrizione
mode

DeinterlaceMode

Modalità di denterlacing. Impostazione predefinita su AutoPixelAdaptive.

parity

DeinterlaceParity

La parità dei campi per la de-interlacciatura, per impostazione predefinita è Auto.

DeinterlaceMode

Modalità di denterlacing. Il valore predefinito è AutoPixelAdaptive.

Nome Tipo Descrizione
AutoPixelAdaptive

string

Applicare l'interlacciamento adattivo automatico dei pixel su ogni fotogramma nel video di input.

Off

string

Disabilita il de-interlacciamento del video di origine.

DeinterlaceParity

La parità dei campi per la de-interlacciatura, per impostazione predefinita è Auto.

Nome Tipo Descrizione
Auto

string

Rilevare automaticamente l'ordine dei campi

BottomFieldFirst

string

Applicare la prima elaborazione del campo inferiore del video di input.

TopFieldFirst

string

Applicare il primo campo di elaborazione del video di input.

EncoderNamedPreset

Set di impostazioni predefinite da usare per la codifica dei video.

Nome Tipo Descrizione
AACGoodQualityAudio

string

Produce un singolo file MP4 contenente solo l'audio stereo AAC codificato a 192 kbps.

AdaptiveStreaming

string

Produce un set di file MP4 allineati a GOP con video H.264 e audio AAC stereo. Genera automaticamente una scala a velocità in bit in base alla risoluzione, alla velocità in bit e alla frequenza dei fotogrammi di input. Il set di impostazioni generato automaticamente non supererà mai la risoluzione di input. Ad esempio, se l'input è 720p, l'output rimarrà al massimo 720p.

ContentAwareEncoding

string

Produce un set di MP4 allineati a GOP usando la codifica compatibile con il contenuto. Dato qualsiasi contenuto di input, il servizio esegue un'analisi iniziale leggera del contenuto di input e usa i risultati per determinare il numero ottimale di livelli, le impostazioni di velocità in bit e risoluzione appropriate per il recapito tramite streaming adattivo. Questo set di impostazioni è particolarmente efficace per i video di bassa e media complessità, in cui i file di output saranno a velocità in bit inferiori, ma a una qualità che offre comunque un'esperienza ottimale agli spettatori. L'output conterrà file MP4 con interfoliazione video e audio.

ContentAwareEncodingExperimental

string

Espone un set di impostazioni sperimentale per la codifica compatibile con il contenuto. Dato qualsiasi contenuto di input, il servizio tenta di determinare automaticamente il numero ottimale di livelli, le impostazioni di velocità in bit e risoluzione appropriate per il recapito tramite streaming adattivo. Gli algoritmi sottostanti continueranno a evolversi nel tempo. L'output conterrà file MP4 con interfoliazione video e audio.

CopyAllBitrateNonInterleaved

string

Copiare tutti i flussi video e audio dall'asset di input come file di output audio e video non interleaved. Questo set di impostazioni può essere usato per ritagliare un asset esistente o convertire un gruppo di file MP4 allineati al fotogramma chiave (GOP) come asset che può essere trasmesso.

DDGoodQualityAudio

string

Produce un singolo file MP4 contenente solo audio stereo DD (Digital Dolby) codificato a 192 kbps.

H264MultipleBitrate1080p

string

Produce un set di 8 file MP4 allineati a GOP, compresi tra 6000 kbps e 400 kbps e audio AAC stereo. La risoluzione inizia a 1080p e scende a 180p.

H264MultipleBitrate720p

string

Produce un set di 6 file MP4 allineati a GOP, compresi tra 3400 kbps e 400 kbps e audio AAC stereo. La risoluzione inizia a 720p e scende a 180p.

H264MultipleBitrateSD

string

Produce un set di 5 file MP4 allineati a GOP, compresi tra 1900 kbps e 400 kbps e audio AAC stereo. La risoluzione inizia a 480p e scende a 240p.

H264SingleBitrate1080p

string

Produce un file MP4 in cui il video viene codificato con codec H.264 a 6750 kbps e un'altezza immagine di 1080 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H264SingleBitrate720p

string

Produce un file MP4 in cui il video viene codificato con codec H.264 a 4500 kbps e un'altezza immagine di 720 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H264SingleBitrateSD

string

Produce un file MP4 in cui il video è codificato con codec H.264 a 2200 kbps e un'altezza immagine di 480 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H265AdaptiveStreaming

string

Produce un set di file MP4 allineati a GOP con video H.265 e audio AAC stereo. Genera automaticamente una scala a velocità in bit in base alla risoluzione, alla velocità in bit e alla frequenza dei fotogrammi di input. Il set di impostazioni generato automaticamente non supererà mai la risoluzione di input. Ad esempio, se l'input è 720p, l'output rimarrà al massimo 720p.

H265ContentAwareEncoding

string

Produce un set di MP4 allineati a GOP usando la codifica compatibile con il contenuto. Dato qualsiasi contenuto di input, il servizio esegue un'analisi iniziale leggera del contenuto di input e usa i risultati per determinare il numero ottimale di livelli, le impostazioni di velocità in bit e risoluzione appropriate per il recapito tramite streaming adattivo. Questo set di impostazioni è particolarmente efficace per i video di bassa e media complessità, in cui i file di output saranno a velocità in bit inferiori, ma a una qualità che offre comunque un'esperienza ottimale agli spettatori. L'output conterrà file MP4 con interfoliazione video e audio.

H265SingleBitrate1080p

string

Produce un file MP4 in cui il video è codificato con codec H.265 a 3500 kbps e un'altezza dell'immagine di 1080 pixel e l'audio stereo è codificato con codec AAC-LC a 128 kbps.

H265SingleBitrate4K

string

Produce un file MP4 in cui il video è codificato con codec H.265 a 9500 kbps e un'altezza dell'immagine di 2160 pixel e l'audio stereo è codificato con codec AAC-LC a 128 kbps.

H265SingleBitrate720p

string

Produce un file MP4 in cui il video è codificato con codec H.265 a 1800 kbps e un'altezza dell'immagine di 720 pixel e l'audio stereo è codificato con codec AAC-LC a 128 kbps.

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

Nome Tipo Descrizione
Cabac

string

Codifica entropia aritmetica aritmetica del contesto adattiva.

Cavlc

string

Codifica entropia CAVLC (Context Adaptive Variable Length Coder).

ErrorAdditionalInfo

Informazioni aggiuntive sulla gestione delle risorse.

Nome Tipo Descrizione
info

object

Informazioni aggiuntive.

type

string

Tipo di informazioni aggiuntive.

ErrorDetail

Dettagli dell'errore.

Nome Tipo Descrizione
additionalInfo

ErrorAdditionalInfo[]

Informazioni aggiuntive sull'errore.

code

string

Codice di errore.

details

ErrorDetail[]

Dettagli dell'errore.

message

string

Messaggio di errore.

target

string

Destinazione dell'errore.

ErrorResponse

Risposta di errore

Nome Tipo Descrizione
error

ErrorDetail

Oggetto error.

FaceDetectorPreset

Descrive tutte le impostazioni da usare durante l'analisi di un video per rilevare (e facoltativamente ridistribuire) tutti i visi presenti.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Discriminazione per i tipi derivati.

blurType

BlurType

Tipo di blur

experimentalOptions

object

Dizionario contenente coppie di valori chiave per i parametri non esposti nel set di impostazioni stesso

mode

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna le apparenze dei visi nel video. Se possibile, le apparizioni della stessa persona vengono assegnate allo stesso ID. 2) Combinate - Inoltre, redacts(blurs) rilevate visi. 3) Redact: consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un subset di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un subset selezionato dall'utente di ID che richiedono la ridistribuzione.

resolution

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale quando analizzato. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo il rapporto di aspetto appropriato. Verrà ridimensionato solo se il video è di una risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato su 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" riduce il tempo necessario per elaborare video a risoluzione elevata. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna le apparenze dei visi nel video. Se possibile, le apparizioni della stessa persona vengono assegnate allo stesso ID. 2) Combinate - Inoltre, redacts(blurs) rilevate visi. 3) Redact: consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un subset di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un subset selezionato dall'utente di ID che richiedono la ridistribuzione.

Nome Tipo Descrizione
Analyze

string

La modalità di analisi rileva i visi e restituisce un file di metadati con i risultati. Consente la modifica del file di metadati prima che i visi vengano sfocati con la modalità Redact.

Combined

string

La modalità combinata esegue i passaggi Analizza e Redact in un passaggio quando si modificano i visi analizzati non è desiderato.

Redact

string

La modalità Redact usa il file di metadati dalla modalità Analizza e redatta i visi trovati.

Fade

Descrive le proprietà di un effetto Fade applicato al supporto di input.

Nome Tipo Descrizione
duration

string

Durata dell'effetto di dissolvenza nel video. Il valore può essere in formato ISO 8601 (ad esempio PT05S per sadere un colore in/Out durante 5 secondi) o un numero di fotogrammi (ad esempio 10 per sadere 10 fotogrammi dall'ora di inizio) o un valore relativo per la durata del flusso (ad esempio, 10% per sadere il 10% della durata del flusso)

fadeColor

string

Colore per la sade In/Out. può essere sui colori https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords CSS Level1 o un valore RGB/ex: ad esempio rgb(255,0,0), 0xFF0000 o #FF0000

start

string

Posizione nel video di input da cui iniziare la sade. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo per la durata del flusso (ad esempio, il 10% per iniziare al 10% della durata del flusso). Il valore predefinito è 0

Filters

Descrive tutte le operazioni di filtro, ad esempio de-interlacciamento, rotazione e così via, da applicare al supporto di input prima della codifica.

Nome Tipo Descrizione
crop

Rectangle

Parametri per la finestra rettangolare con cui ritagliare il video di input.

deinterlace

Deinterlace

Impostazioni di de-interlacciamento.

fadeIn

Fade

Descrive le proprietà di un effetto dissolvenza applicato al supporto di input.

fadeOut

Fade

Descrive le proprietà di un effetto dissolvenza applicato al supporto di input.

overlays Overlay[]:

Proprietà delle sovrimpressioni da applicare al video di input. Possono trattarsi di sovrimpressione audio, immagine o video.

rotation

Rotation

Rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

FromAllInputFile

InputDefinition che esamina tutti i file forniti per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per consentire la selezione di una singola traccia in un set di file di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FromAllInputFile

Discriminazione per i tipi derivati.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptors che definiscono i metadati e la selezione di tracce nell'input.

FromEachInputFile

InputDefinition che esamina ogni file di input fornito per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per selezionare tracce da ogni file specificato.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FromEachInputFile

Discriminazione per i tipi derivati.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptors che definiscono i metadati e la selezione di tracce nell'input.

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

Nome Tipo Descrizione
Balanced

string

Indica al codificatore di usare le impostazioni che consentono di ottenere un equilibrio tra velocità e qualità.

Quality

string

Indica al codificatore di usare le impostazioni ottimizzate per produrre un output di qualità superiore a spese del tempo di codifica complessivo più lento.

Speed

string

Indica al codificatore di usare le impostazioni ottimizzate per la codifica più veloce. La qualità viene sacrificata per ridurre il tempo di codifica.

H264Layer

Descrive le impostazioni da usare quando si codifica il video di input in un livello di velocità di bit di output desiderato con il codec video H.264.

Nome Tipo Descrizione
adaptiveBFrame

boolean

Indipendentemente dal fatto che i fotogrammi B adattivi vengano usati durante la codifica di questo livello. Se non specificato, il codificatore lo attiva ogni volta che il profilo video consente l'uso.

bFrames

integer

Numero di fotogrammi B da usare durante la codifica di questo livello. Se non specificato, il codificatore sceglie un numero appropriato in base al profilo video e al livello.

bitrate

integer

Velocità media in bit al secondo in cui codificare il video di input durante la generazione di questo livello. Questo campo è obbligatorio.

bufferWindow

string

Lunghezza della finestra del buffer VBV. Il valore deve essere in formato ISO 8601. Il valore deve trovarsi nell'intervallo [0,1-100] secondi. Il valore predefinito è 5 secondi,ad esempio PT5S.

crf

number

Valore di CRF da usare durante la codifica di questo livello. Questa impostazione ha effetto quando RateControlMode del codec video è impostato in modalità CRF. L'intervallo di valori CRF è compreso tra 0 e 51, dove i valori inferiori potrebbero comportare una migliore qualità, a spese delle dimensioni dei file superiori. I valori più elevati indicano una maggiore compressione, ma a un certo punto si noterà una riduzione della qualità. Il valore predefinito è 23.

entropyMode

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

frameRate

string

Frequenza dei fotogrammi (in fotogrammi al secondo) in corrispondenza della quale codificare questo livello. Il valore può essere sotto forma di M/N in cui M e N sono interi (ad esempio 30000/1001) o sotto forma di numero (ad esempio, 30 o 29,97). Il codificatore applica vincoli alle tariffe dei frame consentite in base al profilo e al livello. Se non è specificato, il codificatore userà la stessa frequenza di fotogrammi del video di input.

height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing diversi livelli video e audio o nella denominazione del file di output.

level

string

Attualmente supportiamo Level fino a 6.2. Il valore può essere Auto o un numero corrispondente al profilo H.264. Se non specificato, il valore predefinito è Auto, che consente al codificatore di scegliere il livello appropriato per questo livello.

maxBitrate

integer

Velocità massima di bit (in bit al secondo), in corrispondenza della quale deve essere assunto il riempimento del buffer VBV. Se non specificato, il valore predefinito viene impostato sullo stesso valore della velocità in bit.

profile

H264VideoProfile

Attualmente supportiamo Baseline, Main, High422, High444. Il valore predefinito è Auto.

referenceFrames

integer

Numero di frame di riferimento da usare durante la codifica di questo livello. Se non specificato, il codificatore determina un numero appropriato in base all'impostazione di complessità del codificatore.

slices

integer

Numero di sezioni da usare durante la codifica di questo livello. Se non specificato, il valore predefinito è zero, il che significa che il codificatore userà una singola sezione per ogni frame.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in larghezza dell'input.

H264RateControlMode

Modalità di controllo della frequenza video

Nome Tipo Descrizione
ABR

string

Modalità Bitrate media (ABR) che raggiunge il bitrate di destinazione: modalità predefinita.

CBR

string

Modalità CBR (Constant Bitrate) che stringe le variazioni di bitrate intorno alla velocità di bit di destinazione.

CRF

string

Modalità CRF (Constant Rate Factor) che punta alla qualità soggettiva costante.

H264Video

Descrive tutte le proprietà per la codifica di un video con il codec H.264.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.H264Video

Discriminazione per i tipi derivati.

complexity

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

layers

H264Layer[]

Raccolta di livelli H.264 di output da produrre dal codificatore.

rateControlMode

H264RateControlMode

Modalità di controllo della frequenza video

sceneChangeDetection

boolean

Indica se il codificatore deve inserire fotogrammi chiave in corrispondenza delle modifiche della scena. Se non specificato, il valore predefinito è false. Questo flag deve essere impostato su true solo quando il codificatore è configurato per produrre un singolo video di output.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

H264VideoProfile

Attualmente sono supportati Baseline, Main, High, High422, High444. Il valore predefinito è Auto.

Nome Tipo Descrizione
Auto

string

Indica al codificatore di determinare automaticamente il profilo H.264 appropriato.

Baseline

string

Profilo di base

High

string

Profilo elevato.

High422

string

Profilo alto 4:2:2.

High444

string

Profilo predittivo 4:4:4 elevato.

Main

string

Profilo principale

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempi di calcolo più lunghi. La velocità produrrà un file relativamente più grande, ma è più veloce ed economico. Il valore predefinito è Bilanciato.

Nome Tipo Descrizione
Balanced

string

Indica al codificatore di usare le impostazioni che consentono di ottenere un equilibrio tra velocità e qualità.

Quality

string

Indica al codificatore di usare le impostazioni ottimizzate per produrre un output di qualità superiore a scapito del tempo di codifica complessivo più lento.

Speed

string

Indica al codificatore di usare le impostazioni ottimizzate per una codifica più rapida. La qualità viene sacrificata per ridurre il tempo di codifica.

H265Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.265.

Nome Tipo Descrizione
adaptiveBFrame

boolean

Specifica se i fotogrammi B adattivi devono essere usati durante la codifica di questo livello. Se non specificato, il codificatore lo attiva ogni volta che il profilo video consente l'uso.

bFrames

integer

Numero di fotogrammi B da usare durante la codifica di questo livello. Se non specificato, il codificatore sceglie un numero appropriato in base al profilo video e al livello.

bitrate

integer

Velocità media in bit al secondo in cui codificare il video di input durante la generazione di questo livello. Ad esempio, una velocità di bit di destinazione di 3000 Kbps o 3 Mbps significa che questo valore deve essere 30000000 Questo è un campo obbligatorio.

bufferWindow

string

Lunghezza della finestra del buffer VBV. Il valore deve essere in formato ISO 8601. Il valore deve trovarsi nell'intervallo [0,1-100] secondi. Il valore predefinito è 5 secondi,ad esempio PT5S.

crf

number

Valore di CRF da usare durante la codifica di questo livello. Questa impostazione ha effetto quando RateControlMode del codec video è impostato in modalità CRF. L'intervallo di valori CRF è compreso tra 0 e 51, dove i valori inferiori potrebbero comportare una migliore qualità, a spese delle dimensioni dei file superiori. I valori più elevati indicano una maggiore compressione, ma a un certo punto si noterà una riduzione della qualità. Il valore predefinito è 28.

frameRate

string

Frequenza dei fotogrammi (in fotogrammi al secondo) in corrispondenza della quale codificare questo livello. Il valore può essere sotto forma di M/N in cui M e N sono interi (ad esempio 30000/1001) o sotto forma di numero (ad esempio, 30 o 29,97). Il codificatore applica vincoli alle tariffe dei frame consentite in base al profilo e al livello. Se non è specificato, il codificatore userà la stessa frequenza di fotogrammi del video di input.

height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing diversi livelli video e audio o nella denominazione del file di output.

level

string

Attualmente supportiamo Level fino a 6.2. Il valore può essere Auto o un numero corrispondente al profilo H.265. Se non specificato, il valore predefinito è Auto, che consente al codificatore di scegliere il livello appropriato per questo livello.

maxBitrate

integer

Velocità massima di bit (in bit al secondo), in corrispondenza della quale deve essere assunto il riempimento del buffer VBV. Se non specificato, il valore predefinito viene impostato sullo stesso valore della velocità in bit.

profile

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

referenceFrames

integer

Numero di frame di riferimento da usare durante la codifica di questo livello. Se non specificato, il codificatore determina un numero appropriato in base all'impostazione di complessità del codificatore.

slices

integer

Numero di sezioni da usare durante la codifica di questo livello. Se non specificato, il valore predefinito è zero, il che significa che il codificatore userà una singola sezione per ogni frame.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in larghezza dell'input.

H265Video

Descrive tutte le proprietà per la codifica di un video con il codec H.265.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.H265Video

Discriminazione per i tipi derivati.

complexity

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempo di calcolo più lungo. La velocità produrrà un file relativamente più grande, ma è più veloce e più economico. Il valore predefinito è Bilanciato.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

layers

H265Layer[]

Raccolta di livelli H.265 di output da produrre dal codificatore.

sceneChangeDetection

boolean

Specifica se il codificatore deve inserire fotogrammi chiave in fase di modifica della scena. Se non specificato, il valore predefinito è false. Questo flag deve essere impostato su true solo quando il codificatore è configurato per produrre un singolo video di output.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

Nome Tipo Descrizione
Auto

string

Indica al codificatore di determinare automaticamente il profilo H.265 appropriato.

Main

string

Profilo principale (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Profilo principale 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Descrive le proprietà di base per la generazione di anteprime dal video di input

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Image

Discriminazione per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestare a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 da arrestare al 300° fotogramma dall'ora di inizio). Se questo valore è 1, significa produrre solo un'anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi alla metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, ovvero arrestarsi alla fine del flusso.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo per la durata del flusso (ad esempio, il 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un conteggio dei fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo per la durata del flusso (ad esempio, il 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influisce sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio del set di impostazioni di trasformazione. Questo è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Passaggio se la prima anteprima è prevista vicino all'ora di inizio o impostare Il valore Intervallo a 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

ImageFormat

Descrive le proprietà per un file di immagine di output.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.ImageFormat

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

InputFile

InputDefinition per un singolo file. TrackSelections viene con ambito nel file specificato.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.InputFile

Discriminazione per i tipi derivati.

filename

string

Nome del file a cui si applica questa definizione di input.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptors che definiscono i metadati e la selezione di tracce nell'input.

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera generare il servizio. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se questa opzione viene impostata su AllInsights e l'input è solo audio, vengono generate solo informazioni dettagliate audio. Analogamente, se l'input è solo video, vengono generate solo informazioni dettagliate video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni input siano solo video; oppure usare VideoInsightsOnly se si prevede che alcuni input siano solo audio. I processi in tali condizioni generano errori.

Nome Tipo Descrizione
AllInsights

string

Generare informazioni dettagliate sia audio che video. Ha esito negativo se informazioni dettagliate audio o video hanno esito negativo.

AudioInsightsOnly

string

Generare informazioni dettagliate solo audio. Ignorare il video anche se presente. Ha esito negativo se non è presente alcun audio.

VideoInsightsOnly

string

Generare informazioni dettagliate solo video. Se presente, ignorare l'audio. Ha esito negativo se non è presente alcun video.

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e solo video in file MP4 separati.

Nome Tipo Descrizione
InterleavedOutput

string

L'output include sia audio che video.

NonInterleavedOutput

string

L'output è solo video o solo audio.

Job

Tipo di risorsa Processo. Lo stato e lo stato di avanzamento possono essere ottenuti eseguendo il polling di un processo o una sottoscrizione agli eventi usando EventGrid.

Nome Tipo Descrizione
id

string

ID di risorsa completo per la risorsa. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

nome della risorsa.

properties.correlationData

object

Chiave fornita dal cliente, coppie valore che verranno restituite negli eventi di stato Job e JobOutput.

properties.created

string

Data e ora UTC quando il cliente ha creato il processo, in formato 'AAAA-MM-DDThh:mm:ssZ'.

properties.description

string

Descrizione facoltativa del processo aggiunta dal cliente.

properties.endTime

string

Data e ora UTC in cui il processo ha completato l'elaborazione.

properties.input JobInput:

Gli input per il processo.

properties.lastModified

string

Data UTC e ora in cui il cliente ha aggiornato l'ultimo processo, in formato "AAAAA-MM-DDThh:mm:ssZ".

properties.outputs JobOutput[]:

JobOutputAsset[]

Output di Job.

properties.priority

Priority

Priorità con cui deve essere elaborato l'oggetto Job. Gli oggetti Job con priorità più alta vengono elaborati prima di quelli con priorità inferiore. Se questa proprietà non è impostata, il valore predefinito è quello normale.

properties.startTime

string

Data e ora UTC in cui il processo ha iniziato l'elaborazione.

properties.state

JobState

Stato corrente dell'oggetto Job.

systemData

systemData

Metadati di sistema relativi a questa risorsa.

type

string

Tipo di risorsa. Ad esempio, "Microsoft.Compute/virtualMachines" o "Microsoft.Storage/storageAccounts"

JobCollection

Raccolta di elementi job.

Nome Tipo Descrizione
@odata.nextLink

string

Collegamento alla pagina successiva della raccolta (quando l'insieme contiene troppi risultati da restituire in una risposta).

value

Job[]

Raccolta di elementi job.

JobError

Dettagli degli errori jobOutput.

Nome Tipo Descrizione
category

JobErrorCategory

Consente di categorizzare gli errori.

code

JobErrorCode

Codice di errore che descrive l'errore.

details

JobErrorDetail[]

Matrice di dettagli sugli errori specifici che hanno causato l'errore segnalato.

message

string

Rappresentazione dipendente dal linguaggio leggibile dell'errore.

retry

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se i tentativi non sono riusciti, contattare supporto tecnico di Azure tramite il portale di Azure.

JobErrorCategory

Consente di categorizzare gli errori.

Nome Tipo Descrizione
Account

string

L'errore è correlato alle informazioni sull'account.

Configuration

string

L'errore è correlato alla configurazione.

Content

string

L'errore è correlato ai dati nei file di input.

Download

string

L'errore è correlato al download.

Service

string

L'errore è correlato al servizio.

Upload

string

L'errore è correlato al caricamento.

JobErrorCode

Codice di errore che descrive l'errore.

Nome Tipo Descrizione
ConfigurationUnsupported

string

Si è verificato un problema con la combinazione di file di input e le impostazioni di configurazione applicate, correggere le impostazioni di configurazione e riprovare con lo stesso input o modificare l'input in base alla configurazione.

ContentMalformed

string

Si è verificato un problema con il contenuto di input (ad esempio: zero byte file o file danneggiati/non decodificabili), controllare i file di input.

ContentUnsupported

string

Si è verificato un problema con il formato dell'input (file multimediale non valido o un file/codec non supportato), verificare la validità dei file di input.

DownloadNotAccessible

string

Durante il tentativo di scaricare i file di input, i file non sono stati accessibili, verificare la disponibilità dell'origine.

DownloadTransientError

string

Durante il tentativo di scaricare i file di input, si è verificato un problema durante il trasferimento (servizio di archiviazione, errori di rete), vedere i dettagli e controllare l'origine.

IdentityUnsupported

string

Errore durante la verifica dell'identità dell'account. Controllare e correggere le configurazioni di identità e riprovare. In caso di esito negativo, contattare il supporto tecnico.

ServiceError

string

Errore irreversibile del servizio, contattare il supporto tecnico.

ServiceTransientError

string

Errore temporaneo, riprovare, se il tentativo non è riuscito, contattare il supporto tecnico.

UploadNotAccessible

string

Durante il tentativo di caricare i file di output, la destinazione non è raggiungibile, verificare la disponibilità della destinazione.

UploadTransientError

string

Durante il tentativo di caricare i file di output, si è verificato un problema durante il trasferimento (servizio di archiviazione, errori di rete), vedere i dettagli e controllare la destinazione.

JobErrorDetail

Dettagli degli errori jobOutput.

Nome Tipo Descrizione
code

string

Codice che descrive i dettagli dell'errore.

message

string

Rappresentazione leggibile dell'errore.

JobInputAsset

Rappresenta un asset per l'input in un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputAsset

Discriminazione per i tipi derivati.

assetName

string

Nome dell'asset di input.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. Impostazione predefinita alla fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per impedire l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di traccia e metadati correlati.

label

string

Etichetta assegnata a JobInputClip, usata per soddisfare un riferimento usato nella trasformazione. Ad esempio, una trasformazione può essere creata in modo da accettare un file di immagine con l'etichetta 'xyz' e applicarla come sovrapposizione nel video di input prima che venga codificata. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta 'xyz'.

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. Impostazione predefinita all'inizio del supporto di input.

JobInputClip

Rappresenta i file di input per un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputClip

Discriminazione per i tipi derivati.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. Impostazione predefinita alla fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per impedire l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di traccia e metadati correlati.

label

string

Etichetta assegnata a JobInputClip, usata per soddisfare un riferimento usato nella trasformazione. Ad esempio, una trasformazione può essere creata in modo da accettare un file di immagine con l'etichetta 'xyz' e applicarla come sovrapposizione nel video di input prima che venga codificata. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta 'xyz'.

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. Impostazione predefinita all'inizio del supporto di input.

JobInputHttp

Rappresenta l'input del processo HTTPS.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputHttp

Discriminazione per i tipi derivati.

baseUri

string

URI di base per l'input del processo HTTPS. Verrà concatenato con nomi di file specificati. Se non viene specificato alcun uri di base, si presuppone che l'elenco di file specificato sia completo. Lunghezza massima di 4000 caratteri. Le stringhe di query non verranno restituite nelle risposte del servizio per impedire l'esposizione dei dati sensibili.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. Impostazione predefinita alla fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per impedire l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di traccia e metadati correlati.

label

string

Etichetta assegnata a JobInputClip, usata per soddisfare un riferimento usato nella trasformazione. Ad esempio, una trasformazione può essere creata in modo da accettare un file di immagine con l'etichetta 'xyz' e applicarla come sovrapposizione nel video di input prima che venga codificata. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta 'xyz'.

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. Impostazione predefinita all'inizio del supporto di input.

JobInputs

Descrive un elenco di input in un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputs

Discriminazione per i tipi derivati.

inputs JobInput[]:

Elenco di input in un processo.

JobInputSequence

Una sequenza contiene un elenco ordinato di Clip in cui ogni clip è un JobInput. La sequenza verrà considerata come un singolo input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputSequence

Discriminazione per i tipi derivati.

inputs JobInputClip[]:

JobInputs che costituiscono la sequenza temporale.

JobOutputAsset

Rappresenta un asset usato come JobOutput.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobOutputAsset

Discriminazione per i tipi derivati.

assetName

string

Nome dell'asset di output.

endTime

string

Data e ora UTC in cui è stata completata l'elaborazione dell'output del processo.

error

JobError

Se jobOutput è nello stato Errore, contiene i dettagli dell'errore.

label

string

Etichetta assegnata a un JobOutput per facilitare l'identificazione univoca. Ciò è utile quando la trasformazione ha più di un TransformOutput, in cui il processo ha più di un jobOutput. In questi casi, quando si invia il processo, si aggiungeranno due o più JobOutputs, nello stesso ordine di TransformOutputs nella trasformazione. Successivamente, quando si recupera il processo, tramite eventi o in una richiesta GET, è possibile usare l'etichetta per identificare facilmente JobOutput. Se non viene specificata un'etichetta, verrà usato un valore predefinito '{presetName}_{outputIndex}', dove il nome del set di impostazioni è il nome del set di impostazioni nel corrispondente TransformOutput e l'indice di output è l'indice relativo di questo JobOutput all'interno del processo. Si noti che questo indice è uguale all'indice relativo dell'oggetto TransformOutput corrispondente all'interno della trasformazione.

presetOverride Preset:

Impostazione predefinita usata per eseguire l'override del set di impostazioni nell'output di trasformazione corrispondente.

progress

integer

Se jobOutput si trova in uno stato di elaborazione, contiene la percentuale di completamento del processo. Il valore è una stima e non deve essere usata per stimare i tempi di completamento del processo. Per determinare se JobOutput è stato completato, utilizzare la proprietà State.

startTime

string

Data e ora UTC in cui l'output del processo ha iniziato l'elaborazione.

state

JobState

Descrive lo stato di JobOutput.

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se i tentativi non sono riusciti, contattare supporto tecnico di Azure tramite il portale di Azure.

Nome Tipo Descrizione
DoNotRetry

string

Il problema deve essere analizzato e quindi il processo viene restituito con correzioni o ritrito una volta corretto il problema sottostante.

MayRetry

string

Il problema può essere risolto dopo l'attesa di un periodo di tempo e l'invio dello stesso processo.

JobState

Descrive lo stato di JobOutput.

Nome Tipo Descrizione
Canceled

string

Il processo è stato annullato. Questo è uno stato finale per il processo.

Canceling

string

Il processo è in corso di annullamento. Questo è uno stato temporaneo per il processo.

Error

string

Il processo ha rilevato un errore. Questo è uno stato finale per il processo.

Finished

string

Il processo viene completato. Questo è uno stato finale per il processo.

Processing

string

Il processo viene elaborato. Questo è uno stato temporaneo per il processo.

Queued

string

Il processo si trova in uno stato in coda, in attesa che le risorse diventino disponibili. Si tratta di uno stato transitorio.

Scheduled

string

Il processo viene pianificato per l'esecuzione in una risorsa disponibile. Si tratta di uno stato temporaneo, tra stati di elaborazione e accodamento.

JpgFormat

Descrive le impostazioni per la produzione di anteprime JPEG.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JpgFormat

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

JpgImage

Descrive le proprietà per la produzione di una serie di immagini JPEG dal video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JpgImage

Discriminazione per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

layers

JpgLayer[]

Raccolta di livelli di immagine JPEG di output da produrre dal codificatore.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestare a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 da arrestare al 300° fotogramma dall'ora di inizio). Se questo valore è 1, significa produrre solo un'anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi alla metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, ovvero arrestarsi alla fine del flusso.

spriteColumn

integer

Imposta il numero di colonne usate nell'immagine sprite di anteprima. Il numero di righe viene calcolato automaticamente e viene generato un file VTT con i mapping di coordinate per ogni anteprima nello sprite. Nota: questo valore deve essere un intero positivo e un valore appropriato è consigliato in modo che la risoluzione dell'immagine di output non superi il limite massimo di risoluzione dei pixel JPEG 65535x65535.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo per la durata del flusso (ad esempio, il 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un conteggio dei fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo per la durata del flusso (ad esempio, il 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influisce sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio del set di impostazioni di trasformazione. Questo è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Passaggio se la prima anteprima è prevista vicino all'ora di inizio o impostare Il valore Intervallo a 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

JpgLayer

Descrive le impostazioni per produrre un'immagine JPEG dal video di input.

Nome Tipo Descrizione
height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing diversi livelli video e audio o nella denominazione del file di output.

quality

integer

Qualità della compressione dell'output JPEG. L'intervallo è compreso tra 0 e 100 e il valore predefinito è 70.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in larghezza dell'input.

Mp4Format

Descrive le proprietà per un file ISO MP4 di output.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Mp4Format

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco di file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

MultiBitrateFormat

Descrive le proprietà per la produzione di una raccolta di file con velocità a più bit allineati GOP. Il comportamento predefinito consiste nel produrre un file di output per ogni livello video che viene muxed insieme a tutti gli audio. I file di output esatti prodotti possono essere controllati specificando l'insieme outputFiles.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco di file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

OutputFile

Rappresenta un file di output prodotto.

Nome Tipo Descrizione
labels

string[]

Elenco di etichette che descrivono come il codificatore deve eseguire il multiplex video e l'audio in un file di output. Ad esempio, se il codificatore produce due livelli video con etichette v1 e v2 e un livello audio con etichetta a1, una matrice come "[v1, a1]" indica al codificatore di produrre un file di output con la traccia video rappresentata da v1 e la traccia audio rappresentata da a1.

PngFormat

Descrive le impostazioni per la produzione di anteprime PNG.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.PngFormat

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

PngImage

Descrive le proprietà per la produzione di una serie di immagini PNG dal video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.PngImage

Discriminazione per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

layers

PngLayer[]

Raccolta di livelli di immagine PNG di output da produrre dal codificatore.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestare a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 da arrestare al 300° fotogramma dall'ora di inizio). Se questo valore è 1, significa produrre solo un'anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi alla metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, ovvero arrestarsi alla fine del flusso.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo per la durata del flusso (ad esempio, il 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un conteggio dei fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo per la durata del flusso (ad esempio, il 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influisce sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio del set di impostazioni di trasformazione. Questo è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Passaggio se la prima anteprima è prevista vicino all'ora di inizio o impostare Il valore Intervallo a 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

PngLayer

Descrive le impostazioni per produrre un'immagine PNG dal video di input.

Nome Tipo Descrizione
height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing di diversi livelli video e audio o per denominare il file di output.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha la metà del numero di pixel in larghezza dell'input.

PresetConfigurations

Oggetto delle impostazioni di configurazione facoltative per il codificatore.

Nome Tipo Descrizione
complexity

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come velocità per la codifica più veloce, ma meno efficienza di compressione.

interleaveOutput

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e video in file MP4 separati.

keyFrameIntervalInSeconds

number

Intervallo di fotogrammi chiave in secondi. Esempio: impostare KeyFrameIntervalInSeconds come 2 per ridurre il buffer di riproduzione per alcuni giocatori.

maxBitrateBps

integer

Velocità massima in bit al secondo (soglia per il livello video superiore). Esempio: impostare MaxBitrateBps come 60000000 per evitare di produrre output a bitrate molto elevati per il contenuto con complessità elevata.

maxHeight

integer

Altezza massima dei livelli video di output. Esempio: impostare MaxHeight come 720 per produrre livelli di output fino a 720P anche se l'input è 4K.

maxLayers

integer

Numero massimo di livelli video di output. Esempio: impostare MaxLayers come 4 per assicurarsi che al massimo 4 livelli di output vengano prodotti per controllare il costo complessivo del processo di codifica.

minBitrateBps

integer

Velocità minima in bit al secondo (soglia per il livello video inferiore). Esempio: impostare MinBitrateBps come 200000 per avere un livello inferiore che copre gli utenti con larghezza di banda di rete ridotta.

minHeight

integer

Altezza minima dei livelli video di output. Esempio: impostare MinHeight come 360 per evitare livelli di output di risoluzioni più piccole come 180P.

Priority

Imposta la priorità relativa dei TransformOutputs all'interno di una trasformazione. In questo modo viene impostata la priorità usata dal servizio per l'elaborazione di TransformOutputs. La priorità predefinita è Normale.

Nome Tipo Descrizione
High

string

Usato per TransformOutputs che deve avere la precedenza su altri.

Low

string

Usato per TransformOutputs che può essere generato dopo TransformOutputs normale e ad alta priorità.

Normal

string

Usato per TransformOutputs che può essere generato con priorità normale.

Rectangle

Descrive le proprietà di una finestra rettangolare applicata ai supporti di input prima di elaborarla.

Nome Tipo Descrizione
height

string

Altezza dell'area rettangolare in pixel. Questo può essere un valore di pixel assoluto (ad esempio 100) o rispetto alle dimensioni del video (ad esempio, 50%).

left

string

Numero di pixel dal margine sinistro. Questo può essere un valore di pixel assoluto (ad esempio 100) o rispetto alle dimensioni del video (ad esempio, 50%).

top

string

Numero di pixel dal margine superiore. Questo può essere un valore di pixel assoluto (ad esempio 100) o rispetto alle dimensioni del video (ad esempio, 50%).

width

string

Larghezza dell'area rettangolare in pixel. Questo può essere un valore di pixel assoluto (ad esempio 100) o rispetto alle dimensioni del video (ad esempio, 50%).

Rotation

La rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

Nome Tipo Descrizione
Auto

string

Rilevare e ruotare automaticamente in base alle esigenze.

None

string

Non ruotare il video. Se il formato di output lo supporta, tutti i metadati relativi alla rotazione vengono mantenuti intatti.

Rotate0

string

Non ruotare il video ma rimuovere i metadati relativi alla rotazione.

Rotate180

string

Ruotare a 180 gradi in senso orario.

Rotate270

string

Ruotare a 270 gradi in senso orario.

Rotate90

string

Ruotare a 90 gradi in senso orario.

SelectAudioTrackByAttribute

Selezionare tracce audio dall'input specificando un attributo e un filtro di attributo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectAudioTrackByAttribute

Il discriminatorio per i tipi derivati.

attribute

TrackAttribute

TrackAttribute per filtrare le tracce.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

filter

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

filterValue

string

Valore in base al quale filtrare le tracce. Utilizzato solo quando attributeFilter.ValueEquals viene specificato per la proprietà Filter.

SelectAudioTrackById

Selezionare tracce audio dall'input specificando un identificatore di traccia.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectAudioTrackById

Il discriminatorio per i tipi derivati.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

trackId

integer

Tenere traccia dell'identificatore da selezionare

SelectVideoTrackByAttribute

Selezionare tracce video dall'input specificando un attributo e un filtro di attributo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectVideoTrackByAttribute

Il discriminatorio per i tipi derivati.

attribute

TrackAttribute

TrackAttribute per filtrare le tracce.

filter

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

filterValue

string

Valore in base al quale filtrare le tracce. Utilizzato solo quando attributeFilter.ValueEquals viene specificato per la proprietà Filter. Per TrackAttribute.Bitrate, deve essere un valore intero in bit al secondo (ad esempio: '1500000'). TrackAttribute.Language non è supportato per le tracce video.

SelectVideoTrackById

Selezionare tracce video dall'input specificando un identificatore di traccia.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectVideoTrackById

Il discriminatorio per i tipi derivati.

trackId

integer

Tenere traccia dell'identificatore da selezionare

StandardEncoderPreset

Descrive tutte le impostazioni da usare durante la codifica del video di input con il codificatore Standard.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Discriminazione per i tipi derivati.

codecs Codec[]:

Elenco di codec da usare durante la codifica del video di input.

experimentalOptions

object

Dizionario contenente coppie di valori chiave per i parametri non esposti nel set di impostazioni stesso

filters

Filters

Una o più operazioni di filtro applicate al supporto di input prima della codifica.

formats Format[]:

Elenco di output da produrre dal codificatore.

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

Nome Tipo Descrizione
AutoFit

string

Aggiungere l'output (con la casella lettera o il pilastro) per rispettare la risoluzione dell'output, garantendo al tempo stesso che l'area video attiva nell'output abbia le stesse proporzioni dell'input. Ad esempio, se l'input è 1920x1080 e il set di impostazioni di codifica richiede 1280x1280, l'output sarà a 1280x1280, che contiene un rettangolo interno di 1280x720 a proporzioni di 16:9 e le aree della casella dei pilastri di 280 pixel a sinistra e destra.

AutoSize

string

Eseguire l'override della risoluzione di output e modificarla in modo che corrisponda alle proporzioni di visualizzazione dell'input, senza spaziatura interna. Ad esempio, se l'input è 1920x1080 e il set di impostazioni di codifica richiede 1280x1280, il valore nel set di impostazioni viene sottoposto a override e l'output sarà a 1280x720, che mantiene le proporzioni di input di 16:9.

None

string

Rispettare rigorosamente la risoluzione di output senza considerare le proporzioni dei pixel o le proporzioni dello schermo del video di input.

systemData

Metadati relativi alla creazione e all'ultima modifica della risorsa.

Nome Tipo Descrizione
createdAt

string

Timestamp della creazione di risorse (UTC).

createdBy

string

Identità che ha creato la risorsa.

createdByType

createdByType

Tipo di identità che ha creato la risorsa.

lastModifiedAt

string

Timestamp dell'ultima modifica della risorsa (UTC)

lastModifiedBy

string

Identità che ha modificato l'ultima risorsa.

lastModifiedByType

createdByType

Tipo di identità che ha modificato l'ultima risorsa.

TrackAttribute

TrackAttribute per filtrare le tracce.

Nome Tipo Descrizione
Bitrate

string

Velocità in bit della traccia.

Language

string

Lingua della traccia.

TransportStreamFormat

Descrive le proprietà per la generazione di file video di output MPEG-2 Transport Stream (ISO/IEC 13818-1).

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco di file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

UtcClipTime

Specifica l'ora di clip come posizione ora UTC nel file multimediale. L'ora UTC può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari a zero o meno.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.UtcClipTime

Discriminazione per i tipi derivati.

time

string

Posizione dell'ora nella sequenza temporale del supporto di input in base all'ora UTC.

Video

Descrive le proprietà di base per la codifica del video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Video

Discriminazione per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato in formato ISO 8601. Il valore predefinito è 2 secondi(PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Pass through, in cui il valore KeyFrameInterval seguirà l'impostazione di origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di muxing.

stretchMode

StretchMode

Modalità di ridimensionamento: come verrà ridimensionato il video di input per adattare le risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

VideoAnalyzerPreset

Set di impostazioni di analizzatore video che estrae informazioni dettagliate (metadati avanzati) sia dall'audio che dal video e restituisce un file di formato JSON.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Discriminazione per i tipi derivati.

audioLanguage

string

Lingua per il payload audio nell'input usando il formato BCP-47 di 'language tag-region' (ad esempio"en-US"). Se si conosce la lingua del contenuto, è consigliabile specificarla. La lingua deve essere specificata in modo esplicito per AudioAnalysisMode::Basic, poiché il rilevamento automatico della lingua non è incluso in modalità di base. Se la lingua non è specificata o impostata su Null, il rilevamento automatico della lingua sceglierà la prima lingua rilevata e utilizzerà la lingua selezionata per la durata del file. Attualmente non supporta il passaggio dinamico tra lingue dopo il rilevamento della prima lingua. Il rilevamento automatico funziona meglio con registrazioni audio con voce chiaramente riconoscibile. Se il rilevamento automatico non riesce a trovare la lingua, la trascrizione avrà il fallback in "en-US". L'elenco delle lingue supportate è disponibile qui: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dizionario contenente coppie di valori chiave per i parametri non esposti nel set di impostazioni stesso

insightsToExtract

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera che il servizio generi. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se si imposta questa opzione su AllInsights e l'input è solo audio, vengono generate solo informazioni audio. Analogamente, se l'input è solo video, vengono generate solo informazioni video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni degli input siano solo video; o usare VideoInsightsOnly se si prevede che alcuni degli input siano solo audio. I processi in tali condizioni potrebbero essere eseguiti errori.

mode

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode Standard.

VideoOverlay

Descrive le proprietà di una sovrimpressione video.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoOverlay

Il discriminatorio per i tipi derivati.

audioGainLevel

number

Livello di guadagno dell'audio nella sovrimpressione. Il valore deve essere compreso nell'intervallo [0, 1,0]. Il valore predefinito è 1.0.

cropRectangle

Rectangle

Finestra rettangolare facoltativa usata per ritagliare l'immagine o il video di sovrapposizione.

end

string

Posizione finale, con riferimento al video di input, in corrispondenza del quale termina la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT30S per terminare la sovrimpressione a 30 secondi nel video di input. Se non specificato o il valore è maggiore della durata del video di input, la sovrimpressione verrà applicata fino alla fine del video di input se la durata del supporto di sovrimpressione è maggiore della durata del video di input, altrimenti la sovrimpressione durerà fino alla durata del supporto di sovrimpressione.

fadeInDuration

string

Durata in cui la sovrimpressione si dissolve nel video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, non deve avere dissolvenza in (uguale a PT0S).

fadeOutDuration

string

La durata in cui la sovrimpressione si dissolve dal video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, il comportamento predefinito è senza dissolvenza (uguale a PT0S).

inputLabel

string

Etichetta dell'input del processo da usare come sovrimpressione. L'input deve specificare esattamente un file. È possibile specificare un file di immagine in formato JPG, PNG, GIF o BMP o un file audio (ad esempio un file WAV, MP3, WMA o M4A) o un file video. Vedi https://aka.ms/mesformats per l'elenco completo dei formati di file audio e video supportati.

opacity

number

Opacità della sovrimpressione. Si tratta di un valore nell'intervallo [0 - 1,0]. Il valore predefinito è 1.0, ovvero la sovrimpressione è opaca.

position

Rectangle

Posizione nel video di input in cui viene applicata la sovrimpressione.

start

string

Posizione iniziale, con riferimento al video di input, in corrispondenza del quale inizia la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT05S per avviare la sovrimpressione a 5 secondi nel video di input. Se non è specificata, la sovrimpressione inizia dall'inizio del video di input.

VideoSyncMode

Modalità di sincronizzazione video

Nome Tipo Descrizione
Auto

string

Si tratta del metodo predefinito. Sceglie tra Cfr e Vfr a seconda delle funzionalità del muxer. Per il formato di output MP4, la modalità predefinita è Cfr.

Cfr

string

I fotogrammi di input verranno ripetuti e/o eliminati in base alle esigenze per ottenere esattamente la frequenza dei fotogrammi costante richiesta. Consigliato quando la frequenza dei fotogrammi di output viene impostata in modo esplicito in corrispondenza di un valore specificato

Passthrough

string

I timestamp della presentazione nei frame vengono passati dal file di input al writer di file di output. Consigliato quando l'origine di input ha una frequenza dei fotogrammi variabile e tenta di produrre più livelli per lo streaming adattivo nell'output con limiti GOP allineati. Nota: se due o più fotogrammi nell'input hanno timestamp duplicati, anche l'output avrà lo stesso comportamento

Vfr

string

Analogamente alla modalità Passthrough, ma se l'input ha fotogrammi con timestamp duplicati, viene passato un solo fotogramma all'output e altri vengono eliminati. Consigliato quando si prevede che il numero di fotogrammi di output sia uguale al numero di fotogrammi di input. Ad esempio, l'output viene usato per calcolare una metrica di qualità come PSNR rispetto all'input

VideoTrackDescriptor

TrackSelection per selezionare le tracce video.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoTrackDescriptor

Il discriminatorio per i tipi derivati.