Partager via


Azure.Media.VideoAnalyzer.Edge.Models Espace de noms

Classes

CertificateSource

Classe de base pour les sources de certificat.

CognitiveServicesVisionProcessor

Processeur qui permet à la topologie de pipeline d’envoyer des images vidéo à une extension Cognitive Services Vision. Les résultats de l’inférence sont relayés aux nœuds en aval.

CredentialsBase

Classe de base pour les objets d’informations d’identification.

DiscoveredOnvifDevice

Propriétés découvertes de l’appareil ONVIF retournées pendant la découverte.

DiscoveredOnvifDeviceCollection

Liste des appareils ONVIF qui ont été découverts dans le même sous-réseau que l’appareil IoT Edge.

EndpointBase

Classe de base pour les points de terminaison.

ExtensionProcessorBase

Classe de base pour les processeurs d’extension de pipeline. Les extensions de pipeline permettent de brancher l’analyse et le traitement des médias personnalisés au pipeline Video Analyzer.

FileSink

Le récepteur de fichiers permet d’enregistrer du contenu vidéo et audio sur le système de fichiers de l’appareil périphérique.

GrpcExtension

Le processeur d’extension GRPC permet aux plug-ins d’extension de pipeline d’être connectés au pipeline via un canal gRPC. Les plug-ins d’extension doivent faire office de serveur gRPC. https://aka.ms/ava-extension-grpc Consultez pour plus d’informations.

GrpcExtensionDataTransfer

Décrit comment le média est transféré vers le plug-in d’extension.

H264Configuration

Classe représentant la configuration H264.

HttpExtension

Le processeur d’extension HTTP permet aux plug-ins d’extension de pipeline d’être connectés au pipeline via le protocole HTTP. Les plug-ins d’extension doivent faire office de serveur HTTP. https://aka.ms/ava-extension-http Consultez pour plus d’informations.

HttpHeaderCredentials

Informations d’identification de l’en-tête HTTP.

ImageFormatBmp

Encodage d’image BMP.

ImageFormatJpeg

Encodage d’image JPEG.

ImageFormatPng

Encodage d’image PNG.

ImageFormatProperties

Classe de base pour les propriétés de mise en forme d’image.

ImageFormatRaw

Mise en forme d’images brutes.

ImageProperties

Transformations d’image et options de mise en forme à appliquer aux images vidéo.

ImageScale

Mode de mise à l’échelle des images.

IotHubDeviceConnection

Informations qui permettent la communication entre le IoT Hub et l’appareil IoT, ce qui permet à ce module de périphérie d’agir en tant que passerelle transparente entre les deux.

IotHubMessageSink

IoT Hub récepteur de messages permet de publier des messages de pipeline dans le hub IoT Edge. Les messages publiés peuvent ensuite être remis au cloud et à d’autres modules via des itinéraires déclarés dans le manifeste de déploiement IoT Edge.

IotHubMessageSource

IoT Hub source de message permet au pipeline de consommer des messages à partir du hub IoT Edge. Les messages peuvent être routés à partir d’autres modules IoT via des itinéraires déclarés dans le manifeste de déploiement IoT Edge.

LineCrossingProcessor

Le processeur de passage de ligne permet de détecter les objets suivis se déplaçant sur une ou plusieurs lignes prédéfinies. Il doit être en aval d’un suivi d’objets en aval sur un nœud d’extension IA qui génère sequenceId pour les objets qui sont suivis sur différentes images de la vidéo. Des événements d’inférence sont générés chaque fois que des objets passent d’un côté de la ligne à un autre.

LivePipeline

Live Pipeline représente une instance unique d’une topologie de pipeline utilisée pour l’ingestion et l’analyse de contenu en temps réel.

LivePipelineActivateRequest

Active un pipeline en direct existant.

LivePipelineCollection

Collection de pipelines en direct.

LivePipelineDeactivateRequest

Désactive un pipeline actif existant.

LivePipelineDeleteRequest

Supprime un pipeline actif existant.

LivePipelineGetRequest

Récupère un pipeline en direct existant.

LivePipelineListRequest

Répertorier tous les pipelines en direct existants.

LivePipelineProperties

Propriétés du pipeline en direct.

LivePipelineSetRequest

Crée un pipeline en direct ou met à jour un pipeline existant.

MediaProfile

Classe représentant les mediaProfiles ONVIF.

MediaUri

Objet représentant l’URI qui sera utilisé pour demander la diffusion multimédia en continu.

MethodRequest

Classe de base pour les appels de méthode directe.

MethodRequestEmptyBodyBase

The MethodRequestEmptyBodyBase.

MotionDetectionProcessor

Le processeur de détection de mouvement permet la détection de mouvement sur le flux vidéo. Il génère des événements de mouvement chaque fois que le mouvement est présent sur la vidéo.

Mpeg4Configuration

Classe représentant la configuration MPEG4.

NamedLineBase

Classe de base pour les lignes nommées.

NamedLineString

Décrit une configuration de ligne.

NamedPolygonBase

Décrit le polygone nommé.

NamedPolygonString

Décrit une configuration de polygones fermés.

NodeInput

Décrit un signal d’entrée à utiliser sur un nœud de pipeline.

ObjectTrackingProcessor

Le processeur de suivi d’objets permet le suivi continu d’un des autres objets sur une séquence finie d’images vidéo. Elle doit être utilisée en aval d’un nœud d’extension de détecteur d’objets, ce qui permet à l’extension d’être configurée pour effectuer des inférences sur des trames éparses via l’utilisation de la propriété d’échantillonnage « maximumSamplesPerSecond ». Le nœud de suivi d’objets effectue ensuite le suivi des objets détectés sur les images dans lesquelles le détecteur n’est pas appelé, ce qui entraîne un suivi étouffant des objets détectés dans le continuum d’images vidéo. Le suivi arrête le suivi des objets qui ne sont pas détectés par la suite par le détecteur de amont sur les détections suivantes.

OnvifDevice

Propriétés de l’appareil ONVIF.

OnvifDeviceDiscoverRequest

Répertorie tous les appareils ONVIF détectables sur le même sous-réseau que le module Edge.

OnvifDeviceGetRequest

Récupère les propriétés et les profils multimédias d’un appareil ONVIF.

OnvifDns

Propriétés DNS de l’appareil ONVIF.

OnvifHostName

Propriétés DNS de l’appareil ONVIF.

OnvifSystemDateTime

Propriétés DNS de l’appareil ONVIF.

OutputSelector

Permet la sélection de flux particuliers à partir d’un autre nœud.

ParameterDeclaration

Déclaration de paramètre de topologie unique. Les paramètres déclarés peuvent et doivent être référencés dans toute la topologie et peuvent éventuellement avoir des valeurs par défaut à utiliser lorsqu’ils ne sont pas définis dans les instances de pipeline.

ParameterDefinition

Définit la valeur de paramètre d’un paramètre de topologie de pipeline spécifique. Pour plus d’informations, consultez Paramètres de topologie de pipeline.

PemCertificateList

Liste des certificats au format PEM.

PipelineTopology

La topologie de pipeline décrit les étapes de traitement à appliquer lors du traitement d’un média pour un résultat particulier. La topologie doit être définie en fonction du scénario à atteindre et peut être réutilisée sur de nombreuses instances de pipeline qui partagent les mêmes caractéristiques de traitement. Par instance, une topologie de pipeline qui acquiert des données à partir d’une caméra RTSP, les traite avec un modèle IA spécifique et stocke les données dans le cloud peut être réutilisée sur de nombreuses caméras différentes, à condition que le même traitement soit appliqué sur toutes les caméras. Les propriétés de instance individuelles peuvent être définies à l’aide de paramètres définis par l’utilisateur, qui permettent de paramétrer une topologie, ce qui permet aux pipelines individuels de faire référence à différentes valeurs, telles que les points de terminaison rtSP et les informations d’identification des caméras individuelles. Dans l’ensemble, une topologie est composée des éléments suivants :

  • Paramètres : liste des paramètres définis par l’utilisateur qui peuvent être des références sur les nœuds de topologie.
  • Sources : liste d’un ou plusieurs nœuds de sources de données tels qu’une source RTSP qui permet d’ingérer des médias à partir de caméras.
  • Processeurs : liste des nœuds qui effectuent une analyse de données ou des transformations. -Récepteurs : liste d’un ou plusieurs récepteurs de données qui permettent de stocker ou d’exporter des données vers d’autres destinations.
PipelineTopologyCollection

Collection de topologies de pipeline.

PipelineTopologyDeleteRequest

Supprime une topologie de pipeline existante.

PipelineTopologyGetRequest

Récupère une topologie de pipeline existante.

PipelineTopologyListRequest

Répertorier toutes les topologies de pipeline existantes.

PipelineTopologyProperties

Propriétés de topologie de pipeline.

PipelineTopologySetRequest

Crée une topologie de pipeline ou met à jour une topologie existante.

ProcessorNodeBase

Classe de base pour les nœuds du processeur de topologie.

RateControl

Classe représentant le contrôle de débit de la vidéo.

RemoteDeviceAdapter

Le module de périphérie Video Analyzer peut agir en tant que passerelle transparente pour la vidéo, ce qui permet aux appareils IoT d’envoyer des vidéos vers le cloud à partir d’un pare-feu. Un adaptateur d’appareil distant doit être créé pour chaque appareil IoT. La communication entre le cloud et l’appareil IoT est ensuite transmis via le module de périphérie Video Analyzer.

RemoteDeviceAdapterCollection

Liste des adaptateurs de périphériques distants.

RemoteDeviceAdapterDeleteRequest

Supprime un adaptateur de périphérique distant existant.

RemoteDeviceAdapterGetRequest

Récupère un adaptateur de périphérique distant existant.

RemoteDeviceAdapterListRequest

Répertorier tous les adaptateurs d’appareil distant existants.

RemoteDeviceAdapterProperties

Propriétés de l’adaptateur de périphérique distant.

RemoteDeviceAdapterSetRequest

Crée un adaptateur de périphérique distant ou en met à jour un existant.

RemoteDeviceAdapterTarget

Propriétés de la cible de l’adaptateur de périphérique distant.

RtspSource

La source RTSP permet d’ingérer le contenu multimédia d’une caméra RTSP ou d’un serveur RTSP générique dans un pipeline en direct.

SamplingOptions

Définit la fréquence à laquelle le média est soumis au plug-in d’extension.

SignalGateProcessor

Une porte de signal détermine quand bloquer (gate) le média entrant et quand l’autoriser à passer. Il collecte les événements d’entrée sur activationEvaluationWindow et détermine s’il faut ouvrir ou fermer la porte. Consultez la rubrique https://aka.ms/ava-signalgate (éventuellement en anglais) pour plus d'informations.

SinkNodeBase

Classe de base pour les nœuds récepteurs de topologie.

SourceNodeBase

Classe de base pour les nœuds sources de topologie.

SpatialAnalysisCustomOperation

Définit une opération personnalisée d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer.

SpatialAnalysisOperationBase

Classe de base pour les opérations d’analyse spatiale Azure Cognitive Services.

SpatialAnalysisOperationEventBase

Définit la configuration des événements d’opération d’analyse spatiale Azure Cognitive Services.

SpatialAnalysisPersonCountEvent

Définit une configuration d’événement d’opération de nombre de personnes dans l’analyse spatiale.

SpatialAnalysisPersonCountOperation

Définit une opération de nombre de personnes d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer.

SpatialAnalysisPersonCountZoneEvents

The SpatialAnalysisPersonCountZoneEvents.

SpatialAnalysisPersonDistanceEvent

Définit une configuration d’événement d’opération de distance de personne d’analyse spatiale.

SpatialAnalysisPersonDistanceOperation

Définit une opération de distance de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer.

SpatialAnalysisPersonDistanceZoneEvents

The SpatialAnalysisPersonDistanceZoneEvents.

SpatialAnalysisPersonLineCrossingEvent

Définit une configuration d’événement d’opération de passage de ligne de personne d’analyse spatiale.

SpatialAnalysisPersonLineCrossingLineEvents

The SpatialAnalysisPersonLineCrossingLineEvents.

SpatialAnalysisPersonLineCrossingOperation

Définit une opération de croisement de ligne de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer.

SpatialAnalysisPersonZoneCrossingEvent

Définit une configuration d’événement événementielle d’une personne d’analyse spatiale qui traverse une zone.

SpatialAnalysisPersonZoneCrossingOperation

Définit une opération de croisement de zone de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer.

SpatialAnalysisPersonZoneCrossingZoneEvents

The SpatialAnalysisPersonZoneCrossingZoneEvents.

SpatialAnalysisTypedOperationBase

Classe de base pour les opérations typées Analyse spatiale Azure Cognitive Services.

SymmetricKeyCredentials

Informations d’identification de clé symétrique.

SystemData

Métadonnées système en lecture seule associées à une ressource.

TlsEndpoint

Le point de terminaison TLS décrit un point de terminaison auquel le pipeline peut se connecter via le transport TLS (les données sont chiffrées en transit).

TlsValidationOptions

Options permettant de contrôler la validation des points de terminaison TLS.

UnsecuredEndpoint

Point de terminaison non sécurisé décrit un point de terminaison auquel le pipeline peut se connecter via un transport en clair (aucun chiffrement en transit).

UsernamePasswordCredentials

Informations d’identification du nom d’utilisateur et du mot de passe.

VideoCreationProperties

Propriétés vidéo facultatives à utiliser au cas où une ressource vidéo doit être créée sur le service. Celles-ci ne prendront pas effet si la vidéo existe déjà.

VideoEncoderConfiguration

Classe représentant la configuration MPEG4.

VideoPublishingOptions

Options permettant de modifier le comportement de publication vidéo sur le récepteur vidéo et la vidéo de sortie.

VideoResolution

Résolution vidéo.

VideoSink

Le récepteur vidéo permet d’enregistrer la vidéo et l’audio dans le service Video Analyzer. La vidéo enregistrée peut être lue à partir de n’importe où et gérée à partir du cloud. Pour des raisons de sécurité, un module périphérique Video Analyzer donné instance peut uniquement enregistrer du contenu dans les nouvelles entrées vidéo ou les entrées vidéo existantes précédemment enregistrées par le même module. Toute tentative d’enregistrement de contenu dans une vidéo existante qui n’a pas été créée par le même module instance entraîne l’échec de l’enregistrement.

Structures

GrpcExtensionDataTransferMode

Mode de transfert de données : incorporé ou sharedMemory.

H264Profile

Profil H264.

ImageFormatRawPixelFormat

Format de pixel à appliquer à l’image brute.

ImageScaleMode

Décrit le mode de mise à l’échelle de l’image à appliquer. Le mode par défaut est « pad ».

LivePipelineState

État actuel du pipeline (lecture seule).

MotionDetectionSensitivity

Sensibilité de détection de mouvement : faible, moyenne, élevée.

Mpeg4Profile

Profil MPEG4.

ObjectTrackingAccuracy

Précision du suivi d’objet : faible, moyen, élevé. Une plus grande précision entraîne une consommation de processeur plus élevée en moyenne.

OnvifSystemDateTimeType

Valeur d’énumération déterminant si la date et l’heure ont été configurées à l’aide de NTP ou manuelle.

OutputSelectorOperator

Opérateur par laquelle comparer les propriétés.

OutputSelectorProperty

Propriété du flux de données à utiliser comme critère de sélection.

ParameterType

Type du paramètre.

RtspTransport

Transport réseau utilisé par l’échange RTSP et RTP : TCP ou HTTP. Lors de l’utilisation de TCP, les paquets RTP sont entrelacés sur la connexion TCP RTSP. Lors de l’utilisation de HTTP, les messages RTSP sont échangés via des connexions HTTP de longue durée, et les packages RTP sont entrelacés dans les connexions HTTP aux côtés des messages RTSP.

SpatialAnalysisOperationFocus

Type de focus d’opération.

SpatialAnalysisPersonCountEventTrigger

Type de déclencheur d’événement.

SpatialAnalysisPersonDistanceEventTrigger

Type de déclencheur d’événement.

SpatialAnalysisPersonZoneCrossingEventType

Le type d'événement.

VideoEncoding

Codec vidéo utilisé par le profil multimédia.