Azure.Media.VideoAnalyzer.Edge.Models Espace de noms
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Classes
CertificateSource |
Classe de base pour les sources de certificat. |
CognitiveServicesVisionProcessor |
Processeur qui permet à la topologie de pipeline d’envoyer des images vidéo à une extension Cognitive Services Vision. Les résultats de l’inférence sont relayés aux nœuds en aval. |
CredentialsBase |
Classe de base pour les objets d’informations d’identification. |
DiscoveredOnvifDevice |
Propriétés découvertes de l’appareil ONVIF retournées pendant la découverte. |
DiscoveredOnvifDeviceCollection |
Liste des appareils ONVIF qui ont été découverts dans le même sous-réseau que l’appareil IoT Edge. |
EndpointBase |
Classe de base pour les points de terminaison. |
ExtensionProcessorBase |
Classe de base pour les processeurs d’extension de pipeline. Les extensions de pipeline permettent de brancher l’analyse et le traitement des médias personnalisés au pipeline Video Analyzer. |
FileSink |
Le récepteur de fichiers permet d’enregistrer du contenu vidéo et audio sur le système de fichiers de l’appareil périphérique. |
GrpcExtension |
Le processeur d’extension GRPC permet aux plug-ins d’extension de pipeline d’être connectés au pipeline via un canal gRPC. Les plug-ins d’extension doivent faire office de serveur gRPC. https://aka.ms/ava-extension-grpc Consultez pour plus d’informations. |
GrpcExtensionDataTransfer |
Décrit comment le média est transféré vers le plug-in d’extension. |
H264Configuration |
Classe représentant la configuration H264. |
HttpExtension |
Le processeur d’extension HTTP permet aux plug-ins d’extension de pipeline d’être connectés au pipeline via le protocole HTTP. Les plug-ins d’extension doivent faire office de serveur HTTP. https://aka.ms/ava-extension-http Consultez pour plus d’informations. |
HttpHeaderCredentials |
Informations d’identification de l’en-tête HTTP. |
ImageFormatBmp |
Encodage d’image BMP. |
ImageFormatJpeg |
Encodage d’image JPEG. |
ImageFormatPng |
Encodage d’image PNG. |
ImageFormatProperties |
Classe de base pour les propriétés de mise en forme d’image. |
ImageFormatRaw |
Mise en forme d’images brutes. |
ImageProperties |
Transformations d’image et options de mise en forme à appliquer aux images vidéo. |
ImageScale |
Mode de mise à l’échelle des images. |
IotHubDeviceConnection |
Informations qui permettent la communication entre le IoT Hub et l’appareil IoT, ce qui permet à ce module de périphérie d’agir en tant que passerelle transparente entre les deux. |
IotHubMessageSink |
IoT Hub récepteur de messages permet de publier des messages de pipeline dans le hub IoT Edge. Les messages publiés peuvent ensuite être remis au cloud et à d’autres modules via des itinéraires déclarés dans le manifeste de déploiement IoT Edge. |
IotHubMessageSource |
IoT Hub source de message permet au pipeline de consommer des messages à partir du hub IoT Edge. Les messages peuvent être routés à partir d’autres modules IoT via des itinéraires déclarés dans le manifeste de déploiement IoT Edge. |
LineCrossingProcessor |
Le processeur de passage de ligne permet de détecter les objets suivis se déplaçant sur une ou plusieurs lignes prédéfinies. Il doit être en aval d’un suivi d’objets en aval sur un nœud d’extension IA qui génère sequenceId pour les objets qui sont suivis sur différentes images de la vidéo. Des événements d’inférence sont générés chaque fois que des objets passent d’un côté de la ligne à un autre. |
LivePipeline |
Live Pipeline représente une instance unique d’une topologie de pipeline utilisée pour l’ingestion et l’analyse de contenu en temps réel. |
LivePipelineActivateRequest |
Active un pipeline en direct existant. |
LivePipelineCollection |
Collection de pipelines en direct. |
LivePipelineDeactivateRequest |
Désactive un pipeline actif existant. |
LivePipelineDeleteRequest |
Supprime un pipeline actif existant. |
LivePipelineGetRequest |
Récupère un pipeline en direct existant. |
LivePipelineListRequest |
Répertorier tous les pipelines en direct existants. |
LivePipelineProperties |
Propriétés du pipeline en direct. |
LivePipelineSetRequest |
Crée un pipeline en direct ou met à jour un pipeline existant. |
MediaProfile |
Classe représentant les mediaProfiles ONVIF. |
MediaUri |
Objet représentant l’URI qui sera utilisé pour demander la diffusion multimédia en continu. |
MethodRequest |
Classe de base pour les appels de méthode directe. |
MethodRequestEmptyBodyBase |
The MethodRequestEmptyBodyBase. |
MotionDetectionProcessor |
Le processeur de détection de mouvement permet la détection de mouvement sur le flux vidéo. Il génère des événements de mouvement chaque fois que le mouvement est présent sur la vidéo. |
Mpeg4Configuration |
Classe représentant la configuration MPEG4. |
NamedLineBase |
Classe de base pour les lignes nommées. |
NamedLineString |
Décrit une configuration de ligne. |
NamedPolygonBase |
Décrit le polygone nommé. |
NamedPolygonString |
Décrit une configuration de polygones fermés. |
NodeInput |
Décrit un signal d’entrée à utiliser sur un nœud de pipeline. |
ObjectTrackingProcessor |
Le processeur de suivi d’objets permet le suivi continu d’un des autres objets sur une séquence finie d’images vidéo. Elle doit être utilisée en aval d’un nœud d’extension de détecteur d’objets, ce qui permet à l’extension d’être configurée pour effectuer des inférences sur des trames éparses via l’utilisation de la propriété d’échantillonnage « maximumSamplesPerSecond ». Le nœud de suivi d’objets effectue ensuite le suivi des objets détectés sur les images dans lesquelles le détecteur n’est pas appelé, ce qui entraîne un suivi étouffant des objets détectés dans le continuum d’images vidéo. Le suivi arrête le suivi des objets qui ne sont pas détectés par la suite par le détecteur de amont sur les détections suivantes. |
OnvifDevice |
Propriétés de l’appareil ONVIF. |
OnvifDeviceDiscoverRequest |
Répertorie tous les appareils ONVIF détectables sur le même sous-réseau que le module Edge. |
OnvifDeviceGetRequest |
Récupère les propriétés et les profils multimédias d’un appareil ONVIF. |
OnvifDns |
Propriétés DNS de l’appareil ONVIF. |
OnvifHostName |
Propriétés DNS de l’appareil ONVIF. |
OnvifSystemDateTime |
Propriétés DNS de l’appareil ONVIF. |
OutputSelector |
Permet la sélection de flux particuliers à partir d’un autre nœud. |
ParameterDeclaration |
Déclaration de paramètre de topologie unique. Les paramètres déclarés peuvent et doivent être référencés dans toute la topologie et peuvent éventuellement avoir des valeurs par défaut à utiliser lorsqu’ils ne sont pas définis dans les instances de pipeline. |
ParameterDefinition |
Définit la valeur de paramètre d’un paramètre de topologie de pipeline spécifique. Pour plus d’informations, consultez Paramètres de topologie de pipeline. |
PemCertificateList |
Liste des certificats au format PEM. |
PipelineTopology |
La topologie de pipeline décrit les étapes de traitement à appliquer lors du traitement d’un média pour un résultat particulier. La topologie doit être définie en fonction du scénario à atteindre et peut être réutilisée sur de nombreuses instances de pipeline qui partagent les mêmes caractéristiques de traitement. Par instance, une topologie de pipeline qui acquiert des données à partir d’une caméra RTSP, les traite avec un modèle IA spécifique et stocke les données dans le cloud peut être réutilisée sur de nombreuses caméras différentes, à condition que le même traitement soit appliqué sur toutes les caméras. Les propriétés de instance individuelles peuvent être définies à l’aide de paramètres définis par l’utilisateur, qui permettent de paramétrer une topologie, ce qui permet aux pipelines individuels de faire référence à différentes valeurs, telles que les points de terminaison rtSP et les informations d’identification des caméras individuelles. Dans l’ensemble, une topologie est composée des éléments suivants :
|
PipelineTopologyCollection |
Collection de topologies de pipeline. |
PipelineTopologyDeleteRequest |
Supprime une topologie de pipeline existante. |
PipelineTopologyGetRequest |
Récupère une topologie de pipeline existante. |
PipelineTopologyListRequest |
Répertorier toutes les topologies de pipeline existantes. |
PipelineTopologyProperties |
Propriétés de topologie de pipeline. |
PipelineTopologySetRequest |
Crée une topologie de pipeline ou met à jour une topologie existante. |
ProcessorNodeBase |
Classe de base pour les nœuds du processeur de topologie. |
RateControl |
Classe représentant le contrôle de débit de la vidéo. |
RemoteDeviceAdapter |
Le module de périphérie Video Analyzer peut agir en tant que passerelle transparente pour la vidéo, ce qui permet aux appareils IoT d’envoyer des vidéos vers le cloud à partir d’un pare-feu. Un adaptateur d’appareil distant doit être créé pour chaque appareil IoT. La communication entre le cloud et l’appareil IoT est ensuite transmis via le module de périphérie Video Analyzer. |
RemoteDeviceAdapterCollection |
Liste des adaptateurs de périphériques distants. |
RemoteDeviceAdapterDeleteRequest |
Supprime un adaptateur de périphérique distant existant. |
RemoteDeviceAdapterGetRequest |
Récupère un adaptateur de périphérique distant existant. |
RemoteDeviceAdapterListRequest |
Répertorier tous les adaptateurs d’appareil distant existants. |
RemoteDeviceAdapterProperties |
Propriétés de l’adaptateur de périphérique distant. |
RemoteDeviceAdapterSetRequest |
Crée un adaptateur de périphérique distant ou en met à jour un existant. |
RemoteDeviceAdapterTarget |
Propriétés de la cible de l’adaptateur de périphérique distant. |
RtspSource |
La source RTSP permet d’ingérer le contenu multimédia d’une caméra RTSP ou d’un serveur RTSP générique dans un pipeline en direct. |
SamplingOptions |
Définit la fréquence à laquelle le média est soumis au plug-in d’extension. |
SignalGateProcessor |
Une porte de signal détermine quand bloquer (gate) le média entrant et quand l’autoriser à passer. Il collecte les événements d’entrée sur activationEvaluationWindow et détermine s’il faut ouvrir ou fermer la porte. Consultez la rubrique https://aka.ms/ava-signalgate (éventuellement en anglais) pour plus d'informations. |
SinkNodeBase |
Classe de base pour les nœuds récepteurs de topologie. |
SourceNodeBase |
Classe de base pour les nœuds sources de topologie. |
SpatialAnalysisCustomOperation |
Définit une opération personnalisée d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer. |
SpatialAnalysisOperationBase |
Classe de base pour les opérations d’analyse spatiale Azure Cognitive Services. |
SpatialAnalysisOperationEventBase |
Définit la configuration des événements d’opération d’analyse spatiale Azure Cognitive Services. |
SpatialAnalysisPersonCountEvent |
Définit une configuration d’événement d’opération de nombre de personnes dans l’analyse spatiale. |
SpatialAnalysisPersonCountOperation |
Définit une opération de nombre de personnes d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer. |
SpatialAnalysisPersonCountZoneEvents |
The SpatialAnalysisPersonCountZoneEvents. |
SpatialAnalysisPersonDistanceEvent |
Définit une configuration d’événement d’opération de distance de personne d’analyse spatiale. |
SpatialAnalysisPersonDistanceOperation |
Définit une opération de distance de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer. |
SpatialAnalysisPersonDistanceZoneEvents |
The SpatialAnalysisPersonDistanceZoneEvents. |
SpatialAnalysisPersonLineCrossingEvent |
Définit une configuration d’événement d’opération de passage de ligne de personne d’analyse spatiale. |
SpatialAnalysisPersonLineCrossingLineEvents |
The SpatialAnalysisPersonLineCrossingLineEvents. |
SpatialAnalysisPersonLineCrossingOperation |
Définit une opération de croisement de ligne de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer. |
SpatialAnalysisPersonZoneCrossingEvent |
Définit une configuration d’événement événementielle d’une personne d’analyse spatiale qui traverse une zone. |
SpatialAnalysisPersonZoneCrossingOperation |
Définit une opération de croisement de zone de personne d’analyse spatiale. Pour plus d’informations, https://aka.ms/ava-spatial-analysis vous devez déployer le module Analyse spatiale Azure Cognitive Services en même temps que le module Video Analyzer. |
SpatialAnalysisPersonZoneCrossingZoneEvents |
The SpatialAnalysisPersonZoneCrossingZoneEvents. |
SpatialAnalysisTypedOperationBase |
Classe de base pour les opérations typées Analyse spatiale Azure Cognitive Services. |
SymmetricKeyCredentials |
Informations d’identification de clé symétrique. |
SystemData |
Métadonnées système en lecture seule associées à une ressource. |
TlsEndpoint |
Le point de terminaison TLS décrit un point de terminaison auquel le pipeline peut se connecter via le transport TLS (les données sont chiffrées en transit). |
TlsValidationOptions |
Options permettant de contrôler la validation des points de terminaison TLS. |
UnsecuredEndpoint |
Point de terminaison non sécurisé décrit un point de terminaison auquel le pipeline peut se connecter via un transport en clair (aucun chiffrement en transit). |
UsernamePasswordCredentials |
Informations d’identification du nom d’utilisateur et du mot de passe. |
VideoCreationProperties |
Propriétés vidéo facultatives à utiliser au cas où une ressource vidéo doit être créée sur le service. Celles-ci ne prendront pas effet si la vidéo existe déjà. |
VideoEncoderConfiguration |
Classe représentant la configuration MPEG4. |
VideoPublishingOptions |
Options permettant de modifier le comportement de publication vidéo sur le récepteur vidéo et la vidéo de sortie. |
VideoResolution |
Résolution vidéo. |
VideoSink |
Le récepteur vidéo permet d’enregistrer la vidéo et l’audio dans le service Video Analyzer. La vidéo enregistrée peut être lue à partir de n’importe où et gérée à partir du cloud. Pour des raisons de sécurité, un module périphérique Video Analyzer donné instance peut uniquement enregistrer du contenu dans les nouvelles entrées vidéo ou les entrées vidéo existantes précédemment enregistrées par le même module. Toute tentative d’enregistrement de contenu dans une vidéo existante qui n’a pas été créée par le même module instance entraîne l’échec de l’enregistrement. |
Structures
GrpcExtensionDataTransferMode |
Mode de transfert de données : incorporé ou sharedMemory. |
H264Profile |
Profil H264. |
ImageFormatRawPixelFormat |
Format de pixel à appliquer à l’image brute. |
ImageScaleMode |
Décrit le mode de mise à l’échelle de l’image à appliquer. Le mode par défaut est « pad ». |
LivePipelineState |
État actuel du pipeline (lecture seule). |
MotionDetectionSensitivity |
Sensibilité de détection de mouvement : faible, moyenne, élevée. |
Mpeg4Profile |
Profil MPEG4. |
ObjectTrackingAccuracy |
Précision du suivi d’objet : faible, moyen, élevé. Une plus grande précision entraîne une consommation de processeur plus élevée en moyenne. |
OnvifSystemDateTimeType |
Valeur d’énumération déterminant si la date et l’heure ont été configurées à l’aide de NTP ou manuelle. |
OutputSelectorOperator |
Opérateur par laquelle comparer les propriétés. |
OutputSelectorProperty |
Propriété du flux de données à utiliser comme critère de sélection. |
ParameterType |
Type du paramètre. |
RtspTransport |
Transport réseau utilisé par l’échange RTSP et RTP : TCP ou HTTP. Lors de l’utilisation de TCP, les paquets RTP sont entrelacés sur la connexion TCP RTSP. Lors de l’utilisation de HTTP, les messages RTSP sont échangés via des connexions HTTP de longue durée, et les packages RTP sont entrelacés dans les connexions HTTP aux côtés des messages RTSP. |
SpatialAnalysisOperationFocus |
Type de focus d’opération. |
SpatialAnalysisPersonCountEventTrigger |
Type de déclencheur d’événement. |
SpatialAnalysisPersonDistanceEventTrigger |
Type de déclencheur d’événement. |
SpatialAnalysisPersonZoneCrossingEventType |
Le type d'événement. |
VideoEncoding |
Codec vidéo utilisé par le profil multimédia. |
Azure SDK for .NET