Metadati di input
Avviso
Servizi multimediali di Azure verrà ritirato il 30 giugno 2024. Per altre informazioni, vedere la Guida al ritiro di AMS.
Un processo di codifica è associato uno (o più) asset di input in cui si desidera eseguire alcune attività di codifica. Al termine di un'attività, viene generato un asset di output. L'asset di output contiene video, audio, anteprime, manifesto e altri file.
L'asset di output include anche un file contenente i metadati dell'asset di input. Il nome del file JSON di metadati ha un ID casuale, non usarlo per identificare l'asset di input a cui appartiene l'asset di output. Per identificare l'asset di input a cui appartiene, usare il Uri
campo . Per altre informazioni, vedere Altri elementi figlio.
Servizi multimediali non analizza in modo preliminare gli asset di input per generare metadati. I metadati di input vengono generati solo come artefatto quando un asset di input viene elaborato in un processo. Di conseguenza, questo artefatto viene scritto nell'asset di output. Vengono usati diversi strumenti per generare metadati per gli asset di input e gli asset di output. Di conseguenza, i metadati di input hanno uno schema leggermente diverso rispetto ai metadati di output.
Questo articolo illustra gli elementi e i tipi dello schema JSON in cui è basato il metada di input (<asset_id>_metadata.json ). Per informazioni sul file contenente i metadati relativi all'asset di output, vedere Metadati di output.
È possibile trovare l'esempio di schema JSON alla fine di questo articolo.
Nota
Tutto il tempo è basato sul formato ISO-8601. Per altre informazioni sulla formattazione della durata, vedere Tempi e durate nello stesso articolo.
AssetFile
Contiene una raccolta di elementi AssetFile per il processo di codifica.
Nota
I quattro elementi figlio seguenti devono comparire in una sequenza.
Nome | Descrizione |
---|---|
VideoTracks | Ogni file di asset fisico può contenere da zero a più tracce video con interfoliazione in un formato contenitore appropriato. Per altre informazioni, vedere VideoTracks. |
AudioTrack | Ogni file di asset fisico può contenere da zero a più tracce audio con interfoliazione in un formato contenitore appropriato. Per altre informazioni, vedere AudioTracks |
Metadata | Metadati del file di asset rappresentati come stringhe chiave-valore. ad esempio <Metadata key="language" value="eng" /> |
Altri elementi figlio
Nome | Descrizione |
---|---|
Nome Necessario |
Nome del file di asset Esempio: "Name": "Ignite-short.mp4" |
Uri Necessario |
URL in cui si trova l'asset di input. Per identificare l'asset di input a cui appartiene l'asset di output, usare il Uri campo anziché l'ID. |
Size Necessario |
Dimensioni del file di asset in byte. Esempio: "Size": 75739259 |
Duration Necessario |
Durata della riproduzione del contenuto. Esempio: "Duration": "PT1M10.304S" . |
NumberOfStreams Necessario |
Numero di flussi nel file di asset. Esempio: "NumberOfStreams": 2 |
FormatNames Necessario |
Nomi del formato. Esempio: "FormatNames": "mov,mp4,m4a,3gp,3g2,mj2" |
FormatVerboseName Necessario |
Nomi dettagliati del formato. Esempio: "FormatVerboseName": "QuickTime / MOV" |
StartTime | Ora di inizio del contenuto. Esempio: "StartTime": "PT0S" |
OverallBitRate | Velocità in bit media del file di asset in bit al secondo. Esempio: "OverallBitRate": 8618539 |
VideoTracks
Nome | Descrizione |
---|---|
FourCC Necessario |
Codec video Codice FourCC segnalato da ffmpeg. Esempio: "FourCC": "avc1" | "hev1" | "hvc1" |
Profilo | Profilo della traccia video. Esempio: "Profile": "Main" |
Level | Livello della traccia video. Esempio: "Level": "3.2" |
PixelFormat | Formato pixel della traccia video. Esempio: "PixelFormat": "yuv420p" |
Width Necessario |
Larghezza del video codificata in pixel. Esempio: "Width": "1280" |
Altezza Necessario |
Altezza del video codificata in pixel. Esempio: "Height": "720" |
DisplayAspectRatioNumerator Necessario |
Numeratore delle proporzioni della visualizzazione video. Esempio: "DisplayAspectRatioNumerator": 16.0 |
DisplayAspectRatioDenominator Necessario |
Denominatore delle proporzioni della visualizzazione video. Esempio: "DisplayAspectRatioDenominator": 9.0 |
SampleAspectRatioNumerator | Numeratore delle proporzioni del campione video. Esempio: "SampleAspectRatioNumerator": 1.0 |
SampleAspectRatioDenominator | Esempio: "SampleAspectRatioDenominator": 1.0 |
FrameRate Necessario |
Frequenza dei frame misurata in formato .3F. Esempio: "FrameRate": 29.970 |
Bitrate | Velocità media dei bit video in bit al secondo, calcolata dal file di asset. Viene contato solo il payload del flusso elementare, mentre l'overhead di creazione dei pacchetti è escluso. Esempio: "Bitrate": 8421583 |
HasBFrames | Numero di traccia video dei fotogrammi B. Esempio: "HasBFrames": 2 |
Metadata | Stringhe chiave-valore generiche che possono essere usate per contenere una varietà di informazioni. Vedere l'esempio completo alla fine dell'articolo. |
Id Necessario |
Indice in base zero della traccia audio o video. Questo Id non corrisponde necessariamente al TrackID usato in un file MP4. Esempio: "Id": 2 |
Codec | Stringa del codec della traccia video. Esempio: "Codec": "h264 | hev1" |
CodecLongName | Nome lungo del codec della traccia audio o video. Esempio: "CodecLongName": "H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10" |
Codec | Stringa del codec della traccia video. Esempio: "Codec": "h264 | hev1" |
TimeBase Necessario |
Tempo base. Esempio: "TimeBase": "1/30000" |
NumberOfFrames | Numero di frame (presenti per le tracce video). Esempio: "NumberOfFrames": 2107 |
StartTime | Ora di inizio della traccia. Esempio: "StartTime": "PT0.033S" |
Duration | Durata della traccia. Esempio: "Duration": "PT1M10.304S" |
AudioTrack
Nome | Descrizione |
---|---|
SampleFormat | Formato del campione. Esempio: "SampleFormat": "fltp" |
ChannelLayout | Layout del canale. Esempio: "ChannelLayout": "stereo" |
Canali Necessario |
Numero di canali audio (da 0 in su). Esempio: "Channels": 2 |
SamplingRate Necessario |
Frequenza di campionamento dell'audio in campioni/sec o Hz. Esempio: "SamplingRate": 48000 |
Bitrate | Velocità media in bit audio in bit al secondo, calcolata in base al file di asset. Viene contato solo il payload del flusso elementare, mentre l'overhead di creazione dei pacchetti è escluso dal conteggio. Esempio: "Bitrate": 192080 |
Metadata | Stringhe chiave-valore generiche che possono essere usate per contenere una varietà di informazioni. Vedere l'esempio completo alla fine dell'articolo. |
Id Necessario |
Indice in base zero della traccia audio o video. Non corrisponde necessariamente al TrackID usato in un file MP4. Esempio: "Id": 1 |
Codec | Stringa del codec della traccia video. Esempio: "Codec": "aac" |
CodecLongName | Nome lungo del codec della traccia audio o video. Esempio: "CodecLongName": "AAC (Advanced Audio Coding)" |
TimeBase Necessario |
Tempo base. Esempio: "TimeBase": "1/48000" |
NumberOfFrames | Numero di frame (presenti per le tracce video). Esempio: "NumberOfFrames": 3294 |
StartTime | Ora di inizio della traccia. Esempio: "StartTime": "PT0S" |
Duration | Durata della traccia. Esempio: "Duration": "PT1M10.272S" |
Metadati
Nome | Descrizione |
---|---|
key Necessario |
Chiave nella coppia chiave/valore. |
value Necessario |
Valore nella coppia chiave/valore. |
Esempio di schema
{
"AssetFile": [
{
"VideoTracks": [
{
"FourCC": "avc1",
"Profile": "Main",
"Level": "3.2",
"PixelFormat": "yuv420p",
"Width": "1280",
"Height": "720",
"DisplayAspectRatioNumerator": 16.0,
"DisplayAspectRatioDenominator": 9.0,
"SampleAspectRatioNumerator": 1.0,
"SampleAspectRatioNumeratorSpecified": true,
"SampleAspectRatioDenominator": 1.0,
"SampleAspectRatioDenominatorSpecified": true,
"FrameRate": 29.970,
"Bitrate": 8421583,
"BitrateSpecified": true,
"HasBFrames": 2,
"HasBFramesSpecified": true,
"Disposition": {
"Default": 1
},
"Metadata": [
{
"key": "creation_time",
"value": "2018-02-21T21:42:08.000000Z"
},
{
"key": "language",
"value": "eng"
},
{
"key": "handler_name",
"value": "Video Media Handler"
},
{
"key": "encoder",
"value": "AVC Coding"
}
],
"Id": 2,
"Codec": "h264",
"CodecLongName": "H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10",
"TimeBase": "1/30000",
"NumberOfFrames": 2107,
"NumberOfFramesSpecified": true,
"StartTime": "PT0.033S",
"Duration": "PT1M10.304S"
}
],
"AudioTracks": [
{
"SampleFormat": "fltp",
"ChannelLayout": "stereo",
"Channels": 2,
"SamplingRate": 48000,
"Bitrate": 192080,
"BitrateSpecified": true,
"BitsPerSampleSpecified": true,
"Disposition": {
"Default": 1
},
"Metadata": [
{
"key": "creation_time",
"value": "2018-02-21T21:42:08.000000Z"
},
{
"key": "language",
"value": "eng"
},
{
"key": "handler_name",
"value": "Sound Media Handler"
}
],
"Id": 1,
"Codec": "aac",
"CodecLongName": "AAC (Advanced Audio Coding)",
"TimeBase": "1/48000",
"NumberOfFrames": 3294,
"NumberOfFramesSpecified": true,
"StartTime": "PT0S",
"Duration": "PT1M10.272S"
}
],
"Metadata": [
{
"key": "major_brand",
"value": "mp42"
},
{
"key": "minor_version",
"value": "19529854"
},
{
"key": "compatible_brands",
"value": "mp42isom"
},
{
"key": "creation_time",
"value": "2018-02-21T21:42:08.000000Z"
}
],
"Name": "Ignite-short.mp4",
"Uri": "https://amsstorageacct.blob.core.windows.net/asset-00000000-0000-0000-000000000000/ignite.mp4",
"Size": 75739259,
"Duration": "PT1M10.304S",
"NumberOfStreams": 2,
"FormatNames": "mov,mp4,m4a,3gp,3g2,mj2",
"FormatVerboseName": "QuickTime / MOV",
"StartTime": "PT0S",
"OverallBitRate": 8618539,
"OverallBitRateSpecified": true
}
]
}
Guida e supporto tecnico
È possibile contattare Servizi multimediali con domande o seguire gli aggiornamenti tramite uno dei metodi seguenti:
- DOMANDE E RISPOSTE
-
Stack Overflow. Contrassegna le domande con
azure-media-services
. - @MSFTAzureMedia o usare @AzureSupport per richiedere supporto.
- Aprire un ticket di supporto tramite il portale di Azure.