Freigeben über


Versionshinweise zu Azure AI Video Indexer

Überarbeiten Sie diese Seite, um die neuesten Updates anzuzeigen.

Um mit den neuesten Entwicklungen von Azure AI Video Indexer auf dem neuesten Stand zu bleiben, erhalten Sie in diesem Artikel Informationen zu folgenden Themen:

  • Neueste Versionen
  • Bekannte Probleme
  • Behebung von Programmfehlern
  • Veraltete Funktionen

November 2024

Multimodale Videozusammenfassung – Cloud und Edge

Wir freuen uns, eine multimodale Videozusammenfassung einzuführen, die unsere Textvideozusammenfassung verbessert, indem Keyframes zusammen mit Audio- und Videoeinblicken analysiert werden. Dieses Feature ist sowohl in der Cloud verfügbar, unterstützt von Azure OpenAI als auch im Edge als Teil von VI, der von ARC aktiviert ist. Es verwendet das neueste visuelle Phi3.5-Modell, das für die Ausführung mit GPUs konfiguriert werden kann, um die Leistung zu verbessern.

Erweiterte Aufforderungsinhalts-API

Unsere Video-zu-Text-API, auch bekannt als Prompt Content API, unterstützt jetzt weitere Modelle: Llama2, Phi3, Phi3, Phi3.5, GPT-4O und GPT-4O Mini. Diese Erweiterung bietet Ihnen eine größere Flexibilität beim Konvertieren von Videoinhalten in Text und eröffnet Ihnen bei verwendung von Azure Video Indexer weitere Möglichkeiten. Sie können Informationen aus Azure Video Indexer in einem Eingabeaufforderungsformat sammeln, das angepasst werden kann, indem Sie den Modellnamen auswählen und den Eingabeaufforderungsstil anpassen. Die Formatvorlage "Zusammengefasst" eignet sich ideal für Aufgaben wie Videozusammenfassungen, Benennen von Videos und Beschreiben von Hauptereignissen, während die Formatvorlage "Vollständig" für F&A, RAG und Suchanwendungsfälle besser geeignet ist. Weitere Informationen zu dieser API finden Sie unter Azure Video Indexer Operations and Prompt Content.

Oktober 2024

Neuer Beispielcode

Es gibt neuen Beispielcode zum Exportieren von Azure AI Video Indexer-Daten in Azure Data Explorer mit Logik-Apps.

August 2024

Verbesserte Sicherheit für textbezogene Videozusammenfassungen

Wir freuen uns, ihnen mitzuteilen, dass textual Video Summaryzation jetzt Unterstützung für die Verhinderung von Jailbreak-Angriffsrisiken enthält. Dieser neue Sicherheitsfilter muss Ihrem AOAI hinzugefügt werden, um vom Sprachmodell basierenden Textual Video Summaryzation zu profitieren. Weitere Informationen finden Sie in der Textvideozusammenfassung mit Azure OpenAI.

Textbezogene Videozusammenfassung auf einem Edgegerät

Wir haben den Blogbeitrag Azure AI Video Indexer & Phi-3 eingeführt Textual Video Summary on Edge: Better Together Story

Juli 2024

Textzusammenfassung zu VI aktiviert von Arc

Die Textzusammenfassungsfunktion ist jetzt mit dem neuesten Phi 3-Modell auf dem von Arc-Erweiterung aktivierten VI verfügbar. Sie können von der gleichen Funktionalität wie in der Cloud profitieren, einschließlich der Anpassung der Zusammenfassung mit mehreren Einstellungen: Formal, Casual, Short und Long.

Spracherkennungs-Improvments

  • Umsatzzeit und Qualität der Sprachidentifikation wurde verbessert.
  • Wenn in der Datei mehrere Sprachen vorhanden sind (und Sie nach einer einzelnen Sprachidentifikation gefragt haben):
    • Die dominanteste Sprache, die für die längste Dauer angezeigt wurde, wird zurückgegeben.
    • Das Artefakt enthält alle Sprachen, die im originalen Video durch Sprache identifiziert wurden.
  • Das Transkript enthält nur die Zeilen der dominantesten Sprache und schließt Zeilen aus, die unterschiedliche Sprachen enthalten.

Verbesserungen bei Spieler und Barrierefreiheit

Der Website-Player wurde auf die neueste Version der Shaka-Basis aktualisiert. Der Spieler ist auch in den Widgets enthalten.

Barrierefreiheits-Improvments wurden für die Website implementiert.

Juni 2024

Codebeispiele

  • Verwenden Sie den Azure AI Video-Indexer mit Azure Open AI, um die Suche nach relevanten Videoinhalten für Lernende und Trainer zu vereinfachen. Lesen Sie den Blogbeitrag Zur Verbesserung der Schulungssucherfahrung mit Azure AI Video Indexer und dem Quellcode.
  • Verwenden Sie Azure LogicApps, um autos zu klassifizieren, die in einem Video erkannt wurden. Im Beispiel wird die Bring Your Own-Funktion von Video Indexer verwendet, um Objekte und die GPT-4 von Azure OpenAI zur erweiterten Klassifizierung zu erkennen. Sehen Sie sich die YouTube-Demo und den Beispielcode an.

Erhöhung des Grenzwerts für die Dateidauer

Alle Voreinstellungen unterstützen jetzt die Indizierung von Dateien bis zu 6 Stunden (der vorherige Grenzwert war 4 Stunden) und die Standardaudiovoreinstellung unterstützt die Indizierung von Dateien bis zu 12 Stunden Länge.

Mai 2024

Textzusammenfassung

Azure AI Video Indexer bietet jetzt eine kurze Zusammenfassung darüber, worum es bei einem Video geht, ohne das gesamte Video ansehen zu müssen. Es ist so konzipiert, dass Sie Zeit sparen, indem Sie lange Videos verdauen und Ihnen den Gist in einem kürzeren Format geben. Es destilliert langwierige Videos in präzise, verdauliche Zusammenfassungen.

Es verwendet Zusammenfassungsalgorithmen, um die relevantesten Erkenntnisse für das Video zu identifizieren. Es umfasst das Bewerten von Erkenntnissen basierend auf ihrer Wichtigkeit und Relevanz für das Gesamtthema. Mit einer benutzerfreundlichen Benutzeroberfläche können Sie Videos eingeben und den benötigten Zusammenfassungstyp anpassen.

Sie können die Zusammenfassung anpassen, indem Sie "Short", "Longer", "Formal" oder "Casual" auswählen sowie die spezifische Modellbereitstellung angeben.

Weitere Informationen zur Textzusammenfassung finden Sie unter "Übersicht über textbezogene Zusammenfassungen".

Azure OpenAI-Integration

Azure AI Video Indexer bietet jetzt eine Integration in Azure OpenAI. Sie können Ihre Azure OpenAI-Ressource verbinden, wenn Sie ein neues Azure Video Indexer-Konto erstellen oder es Ihrem vorhandenen Azure Video Indexer-Konto hinzufügen. Wenn Sie VI mit Azure OpenAI verbinden, können Sie die Textzusammenfassungsfunktion verwenden, die über die API und über das Portal verfügbar ist.

Weitere Informationen zum Verbinden von Azure OpenAI mit Ihrem VI-Konto finden Sie unter Erstellen oder Aktualisieren eines Azure AI Video Indexer-Kontos mit einer Azure OpenAI-Verbindung.

Erweiterung der Aufforderungsinhalts-API

Die Aufforderungs-Inhalts-API von Azure AI Video Indexer unterstützt jetzt weitere Sprachmodelle: Phi 2, Llama und GPT 4V. Die Verwendung der Eingabeaufforderungsinhalts-API mit GPT 4V gibt die Keyframes aus, die vom Sprachmodell zusammen mit den anderen Erkenntnissen analysiert werden können.

April 2024

Ausschließen von Modellen

Sie können jetzt Modelle ausschließen, wenn Sie sowohl über die VI-Website als auch über die API indiziert werden. Wenn Sie ein Video in einen Index hochladen, wählen Sie "Erweiterte Einstellungen>Indizierungsvoreinstellungen" aus, und wählen Sie dann die KI-Modelle aus, die aus den Indizierungsergebnissen ausgeschlossen werden sollen. Dies kann eine effizientere Indizierung und VI-Ergebnisse ermöglichen, die nur die Einblicke enthalten, an denen Sie interessiert sind.

Neue Verfügbarkeitsregion

Azure AI Video Indexer ist jetzt in Der Region Deutschland West Central verfügbar.

Februar 2024

AMS-lose Konten und Migrationsleitfaden

  • Alle neuen VI-Konto-Videoverpackungen, Streaming und -Codierung werden von VI durchgeführt, und Sie können keine AMS-basierten VI-Konten mehr erstellen. Weitere Informationen finden Sie im Leitfaden zum Erstellen eines neuen Kontos.
  • VI-Codierung/Verpackung wird mit einer Pauschalrate von 1 Cent pro Minute mit kostenlosem Streaming abgerechnet.
  • Sie können Ihre VI-Konten von AMS-basiert auf dem neuen AMS-less-Kontotyp aktualisieren.
  • Sie können sich dafür entscheiden, dass Ihre AMS VI-Ressourcen neu verarbeitet und von VI migriert werden, damit Sie weiterhin auf Ihre Videos und Einblicke zugreifen können. Die Migration beginnt Ende März.
  • Videoindexer-Webapp und Widgets verwenden einen neuen Media Player, der hochgradig leistungsfähig ist und Azure Medienwiedergabe nicht mehr verwendet.

Die folgende Dokumentation führt Sie durch den Prozess der Konto- und Ressourcenmigration:

TLS1.3-Unterstützung

Wir unterstützen TLS 1.3, die neueste Version des TLS-Protokolls (Transport Layer Security), das Daten verschlüsselt, um einen sicheren Kommunikationskanal zwischen zwei Endpunkten bereitzustellen.

Azure AI Video Indexer in Schweden Zentral und USA West3

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweden Central und US West3 erstellen.

Januar 2024

Neuer LLM-Eingabeaufforderungsinhalt

Sie können jetzt Ihre Videoeinblicke mit den LLMs (Large Language Model) für Aufgaben wie Zusammenfassung und Fragebeantwortung verbinden. Die API konvertiert Ihre Videoerkenntnisse in ein "prompt-ready"-Textformat für die Verwendung mit LLMs. Weitere Informationen finden Sie unter Azure AI Video Indexer mit LLM-Eingabeaufforderungen.

Dezember 2023

Neue voreingestellte Option – Standardvideo

VideoIndexer hat eine neue Indizierungsvoreinstellungsoption , Basic Video, hinzugefügt. Es ist auch auf dem vi aktiviert durch Arc Erweiterung verfügbar. Es handelt sich um eine kostengünstige Indizierungsoption, die viele nützliche KI-Erkenntnisse enthält, darunter OCR, Objekterkennung und visuelle Bezeichnungen. Einfaches Video kann verwendet werden, um Einblicke zusammen mit Basic Audio (Basic Audio and Video) oder eigenständig (nur Standardvideo) zu generieren. Weitere Informationen zu Ihren Indizierungsoptionen finden Sie im Konfigurationshandbuch für die Indizierung.

Frames-API abrufen

Sie können jetzt Frames aus einem indizierten Video für einen ausgewählten Videoabschnitt extrahieren, indem Sie eine FramesSasUrls Anfrage stellen. Weitere Informationen finden Sie unter FrameSelection.

Eigenes Modell mitbringen (Vorschau)

  • Unterstützung der Benutzeroberfläche für benutzerdefinierte Einblicke hinzugefügt.
  • Suchunterstützung für benutzerdefinierte Einblicke hinzugefügt.

Weitere Informationen finden Sie unter Bring Your Own AI Model.

Suchen nach Objekt auf der Azure AI Video Indexer-Website und API

Sie können jetzt mithilfe der Suchfunktion nach Videos mit bestimmten Objekten (z. B. Autos, Motorrädern und mehr) auf der Azure AI Video Indexer-Website oder mithilfe einer Suchanfrage suchen.

November 2023

Der Videoindexer hat im November die folgenden Dinge veröffentlicht:

Azure AI Video Indexer aktiviert von Arc (Vorschau)

Sie können Videoindexer für Ihre Hybridszenarien verwenden, indem Sie sie lokal in einem Kubernetes-Cluster hosten. Weitere Informationen finden Sie im Azure AI Video Indexer, der von Arc aktiviert ist. Sie können die Erweiterung auch ausprobieren, indem Sie das Lernprogramm ausführen.

Eigenes Modell mitbringen (Vorschau)

Sie können Ihr eigenes angepasstes KI-Modell verwenden und die Daten in VideoIndexer-Modelle integrieren. Weitere Informationen finden Sie unter Bring Your Own AI model.

Benutzerdefinierte Tags und Kostenloser Text pro Video (Vorschau)

Sie können benutzerdefinierte Tags und Freitext als Videometadaten zu jedem Video in Ihrem Videoindexer-Konto hinzufügen. Auf diese Weise können Sie Ihre Videos mit allen informationen kategorisieren und kommentieren, die für Sie und Ihr Unternehmen relevant sind. Sie können z. B. Tags wie "Produktdemo", "Kundenzeugnisse" oder "interne Schulung" oder Freitext wie "Dieses Video zeigt, wie sie unser neues Feature X verwenden" oder "Dieses Video wurde auf unserer Jährlichen Konferenz in Y aufgezeichnet" hinzufügen. Sie können dem Bereich unterhalb des Videos hinzugefügt werden, nachdem das Video indiziert wurde.

Suche basierend auf benutzerdefinierten Tags und Freitext (Vorschau)

Sie können basierend auf ihren benutzerdefinierten Tags und Freitext nach Videos suchen. Auf diese Weise können Sie die Videos finden, die Ihren Kriterien leichter und schneller entsprechen. Sie können basierend auf benutzerdefinierten Tags und Freitext in allen unterstützten Sprachen suchen und sie mit anderen Suchfiltern wie Schlüsselwörtern, Gesichtern, Bezeichnungen, Emotionen usw. kombinieren. Sie können auch die erweiterte Suchsyntax verwenden, um komplexere Abfragen auszuführen. Sie können z. B. nach Videos suchen, die das Tag "Produktdemo" und den kostenlosen Text "Feature X" enthalten.

Wir haben dem angepassten Personenmodell eine Reihe von Verbesserungen hinzugefügt, die die Gesamterfahrung sowie die Genauigkeit verbessern. Personenmodelle sind gated KI-Modelle, mit denen Sie Ihr eigenes Modell trainieren können, um bestimmte Personen in Ihren Videos zu erkennen. Die neuen Ergänzungen sind:

Hinweis auf die Qualität des Personenmodells (Vorschau)

Sie erhalten einen Hinweis auf die Qualität Ihres angepassten People-Modells (schlecht, fair, gut). Die Qualität wird durch die Anzahl der Bilder bestimmt, die zum Bezeichnen mit den mehr Bildern verwendet werden, die Sie zum Bezeichnen einer Person verwenden, desto höher ist die Wahrscheinlichkeit, die Person richtig zu identifizieren. Beispielsweise ist die Wahrscheinlichkeit, eine Person mit 24 beschrifteten Bildern zu identifizieren, höher als die Wahrscheinlichkeit, eine Person mit 2 beschrifteten Bildern zu identifizieren. Sie können die Anzahl der Bilder sehen, die zum Bezeichnen der einzelnen Personen auf der angepassten Personenmodellseite verwendet werden.

Auswählen eines benutzerdefinierten Personenmodells als Standard (Vorschau)

Sie können jetzt ein angepasstes Personenmodell als Standard auf der Vi-Kontobenutzerebene auswählen, sodass Sie nicht den Modellnamen für jeden Videoupload auswählen müssen. Dadurch sparen Sie Zeit und Mühe, wenn Sie Videos hochladen, die von Ihrem angepassten Personenmodell analysiert werden müssen.

Gruppieren unbekannter Personen im Video (Vorschau)

Sie können die unbekannten Personen in Ihren Videos nach ihrer Ähnlichkeit gruppiert sehen. Auf diese Weise können Sie die unbekannten Personen einfacher und schneller bezeichnen und die Genauigkeit Ihres angepassten Personenmodells verbessern. Auf ihrer Anpassungsseite > können Sie die Gruppierung unbekannter Personen anzeigen und dann zur Registerkarte "Unbekannte Personen" navigieren. Dies könnte Ihnen beispielsweise helfen, einen lokalen Prominenten oder einen Lokalen Politiker zu bezeichnen.

Suchergebnisse mit maximaler Konfidenzbewertung für den namen der identifizierten Person (Vorschau)

Sie können nach dem Namen einer identifizierten Person suchen und erhalten, wenn die Person im Video mit der maximalen Konfidenzbewertung angezeigt wird. Auf diese Weise können Sie entscheiden, was die relevantesten Videos sind, die Sie erkunden möchten. Beispielsweise können Sie nach "John Smith" suchen und die Videos abrufen, in denen John Smith von Ihrem angepassten People-Modell erkannt wird, sowie die Konfidenzbewertung für jedes Video.

Vermeiden doppelter Indizierungsuploads

Gelegentlich übermitteln Sie versehentlich denselben Indizierungsauftrag mehrmals. Um dies zu vermeiden, wurde ein neuer optionaler Abfrageparameter hinzugefügt. preventDuplicates Wenn dieser wert festgelegt ist true, lehnt der Dienst einen Dateiupload ab und gibt einen Konflikt zurück, wenn er bereits indiziert wurde.

Die Upload-URL MD5-Duplikatprüfungen basieren auf dem Serverantwort-Content-md5-Header , sofern RFC 1864 vorhanden: Das Content-MD5-Headerfeld , wie es häufig von Speicheranbietern verwendet wird.

Wenn Sie dasselbe Video wiederholt hochladen möchten, können Sie den Parameter auf false.

Oktober 2023

Neuer Einblick – Objekterkennung

Der Videoindexer hat sowohl der Standard- als auch der erweiterten Videovoreinstellung einen neuen Einblick, die Objekterkennung hinzugefügt. Es kann verwendet werden, um eine breite Palette von Objekten zu identifizieren und nachzuverfolgen, die in Ihren Videos angezeigt werden. Weitere Informationen finden Sie in der Übersicht über die Objekterkennung von Azure AI Video Indexer.To learn more, see Azure AI Video Indexer object detection overview.

September 2023

Aufgrund der Einstellung von Azure Media Services (AMS) vom 30. Juni 2024 hat Video Indexer eine Reihe verwandter Ausfälle angekündigt. Sie umfassen die Deaktivierung von klassischen Videoindexer-Konten, API-Änderungen und die Unterstützung der adaptiven Bitrate vom 30. Juni 2024. Ausführliche Informationen finden Sie unterÄnderungen im Zusammenhang mit der Einstellung des Azure Media Service (AMS).

Juli 2023

Redact-Gesichter mit der Azure AI Video Indexer-API

Sie können jetzt Gesichter mit der Azure AI Video Indexer-API rotieren. Weitere Informationen finden Sie unter Redact-Gesichter mit der Azure AI Video Indexer-API.

Erhöhung des API-Anforderungsgrenzwerts

Der Videoindexer hat die API-Anforderungsgrenze von 60 Anforderungen pro Minute auf 120 erhöht.

Juni 2023

Die Einstellung von Azure Media Services wurde angekündigt.

Mai 2023

API-Updates

Wir führen eine Änderung des Verhaltens ein, die möglicherweise eine Änderung ihrer vorhandenen Abfragelogik erfordert. Die Änderung befindet sich in den Listen- und Such-APIs , finden Sie eine detaillierte Änderung zwischen dem aktuellen und dem neuen Verhalten in einer folgenden Tabelle. Möglicherweise müssen Sie Ihren Code aktualisieren, um die neuen APIs zu verwenden.

API Aktuell Neue Das Update
Videos auflisten • Alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase' auflisten. Wenn "IsBase" nicht definiert ist, führen Sie beide auf.
• Gibt Videos in allen Zuständen zurück (In Bearbeitung/Proccessed/Failed).
• Die Videos-API gibt nur Videos (mit Paging) in allen Zuständen zurück.
• Die Api "Projekte auflisten" gibt nur Projekte (mit Paging) zurück.
• Die Listenvideo-API wurde in zwei neue Listenvideos und Listenprojekte der API unterteilt.
• Der Parameter 'IsBase' hat keine Bedeutung mehr.
Videos durchsuchen • Durchsuchen Sie alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase'. Wenn "IsBase" nicht definiert ist, suchen Sie beide.
• Videos in allen Zuständen durchsuchen (In Bearbeitung/Proccessed/Failed).
Suchen Sie nur verarbeitete Videos. • Suchvideo-API sucht nur Videos und nicht Projekte.
• Der Parameter 'IsBase' hat keine Bedeutung mehr.
• Suchvideos-API durchsucht nur verarbeitete Videos (und nicht fehlgeschlagen/InProgress-Videos).)

Unterstützung für HTTP/2

Unterstützung für HTTP/2 für unsere Data Plane-API hinzugefügt. HTTP/2 bietet mehrere Vorteile gegenüber HTTP/1.1, die weiterhin aus Gründen der Abwärtskompatibilität unterstützt werden. Einer der Hauptvorteile von HTTP/2 ist eine höhere Leistung, bessere Zuverlässigkeit und reduzierte Systemressourcenanforderungen über HTTP/1.1. Mit dieser Änderung unterstützen wir jetzt HTTP/2 sowohl für das Videoindexer-Portal als auch für unsere Data Plane-API. Wir empfehlen Ihnen, Ihren Code zu aktualisieren, um diese Änderung nutzen zu können.

Verbesserungen der Themenerblicke

Wir unterstützen jetzt alle fünf Ebenen der IPTC-Ontologie.

April 2023

Ressourcenintegritätsunterstützung

Azure AI Video Indexer ist jetzt in Azure Resource Health integriert, sodass Sie die Integrität und Verfügbarkeit jeder Ihrer Azure AI Video Indexer-Ressourcen sehen können. Azure Resource Health hilft auch bei der Diagnose und Lösung von Problemen, und Sie können Warnungen so festlegen, dass sie benachrichtigt werden, wenn Ihre Ressourcen betroffen sind. Weitere Informationen finden Sie in der Übersicht über Azure Resource Health.

Das Animationszeichenerkennungsmodell wurde eingestellt.

Das Animationszeichenerkennungsmodell wurde am 1. März 2023 eingestellt. Öffnen Sie bei verwandten Problemen ein Supportticket über das Azure-Portal.

Ausschließen vertraulicher KI-Modelle

Nach der Agenda von Microsoft Responsible AI können Sie mit Azure AI Video Indexer jetzt bestimmte KI-Modelle beim Indizieren von Mediendateien ausschließen. Die Liste der vertraulichen KI-Modelle umfasst: Gesichtserkennung, beobachtete Personen, Emotionen, Kennzeichnungen.

Dieses Feature ist derzeit über die API verfügbar und steht in allen Voreinstellungen außer der Voreinstellung "Erweitert" zur Verfügung.

Verbesserungen bei der Erkennung beobachteter Personen

Weitere Informationen finden Sie unter Überlegungen und Einschränkungen bei der Auswahl eines Anwendungsfalles.

März 2023

Unterstützung für Speicher hinter der Firewall

Es empfiehlt sich, Speicherkonten zu sperren und den öffentlichen Zugriff zu deaktivieren, um die Unternehmenssicherheitsrichtlinie zu verbessern oder einzuhalten. Videoindexer kann jetzt mithilfe der Azure Trusted Service-Ausnahme mithilfe von verwalteten Identitäten auf nicht öffentliche Speicherkonten zugreifen. Weitere Informationen zum Einrichten finden Sie in unserem Vorgehensweisen.

Neue benutzerdefinierte Sprach- und Ausspracheschulung

Azure AI Video Indexer hat eine neue benutzerdefinierte Sprachmodelloberfläche hinzugefügt. Die Erfahrung umfasst die Möglichkeit, benutzerdefinierte Aussprache-Datasets zu verwenden, um die Erkennung falsch wiedergegebener Wörter, Ausdrücke oder Namen zu verbessern. Die benutzerdefinierten Modelle können verwendet werden, um die Transkriptionsqualität von Inhalten mit branchenspezifischer Terminologie zu verbessern. Weitere Informationen finden Sie unter "Anpassen der Sprachmodellübersicht".

Beobachtete Verbesserungen der Qualität von Personen

Beobachtete Menschen unterstützen jetzt Menschen, die sitzen. Dies ist neben der bestehenden Unterstützung von Menschen, die stehen oder gehen. Diese Verbesserung macht beobachtetes Personenmodell vielseitiger und eignet sich für eine breitere Palette von Anwendungsfällen. Außerdem haben wir die Modell-Reidentifizierung und Gruppierungsalgorithmen um 50 % verbessert. Das Modell kann jetzt personen in mehreren Kameraansichten genauer nachverfolgen und gruppieren.

Optimierung der Indizierungsdauer beobachteter Personen

Wir haben die Speicherauslastung des beobachteten Personenmodells optimiert, was zu einer Verringerung der Indizierungsdauer bei Verwendung der voreingestellten erweiterten Videoanalyse um 60 % führt. Sie können Ihr Videomaterial jetzt effizienter verarbeiten und schneller Ergebnisse erzielen.

Februar 2023

Preise

Am 01. Januar 2023 haben wir die Erweiterte Audio- und Video-SKU für erweiterte Voreinstellungen eingeführt. Dies wurde durchgeführt, um die Verwendung der einzelnen voreingestellten, Basic, Standard & Advanced, mit einem eigenen Zähler in der Azure Billing-Anweisung zu melden. Dies kann auch in Azure Cost Analysis-Berichten angezeigt werden.

Ab dem 1. Februar freuen wir uns, eine Preissenkung von 40 % für die SKUs für die Grundlegende Audioanalyse, Audioanalyse und Videoanalyse bekanntzugeben. Wir haben Feedback unserer Kunden und Markttrends berücksichtigt, um Änderungen vorzunehmen, die ihnen zugute kommen. Durch die Reduzierung der Preise und die Einführung einer neuen erweiterten SKU bieten wir wettbewerbsfähige Preise und mehr Optionen für Kunden, um Kosten und Features auszugleichen. Darüber hinaus können Kunden, da wir weiterhin mehr KI-Funktionen verbessern und hinzufügen, diese Kosteneinsparungen nutzen, wenn neue oder neu indizierende Vorgänge ausgeführt werden.

Diese Änderung wird automatisch implementiert, und Kunden, die bereits über Azure-Rabatte verfügen, erhalten sie weiterhin zusätzlich zu den neuen Preisen.

Gebühr Grundlegende Audioanalyse Standardaudioanalyse Erweiterte Audioanalyse Standardvideoanalyse Erweiterte Videoanalyse
Pro Eingabeminute $0,0126 $0,024 0,04 USD $0,09 $0.15

Netzwerkdiensttag

Videoindexer unterstützt die Verwendung des Netzwerksicherheitstags, um Netzwerkdatenverkehr von Videoindexer-IPs in Ihr Netzwerk zuzulassen. Ab dem 22. Januar haben wir unser Network Security Service-Tag von AzureVideoAnalyzerForMedia zu VideoIndexer" umbenannt. Diese Änderung erfordert, dass Sie Ihre Bereitstellungsskripts und/oder vorhandene Konfiguration aktualisieren. Weitere Informationen finden Sie in unserer Netzwerksicherheitsdokumentation .

Januar 2023

Benachrichtigungserfahrung

Die Azure AI Video Indexer-Website verfügt jetzt über einen Benachrichtigungsbereich, in dem Sie über wichtige Produktupdates informiert bleiben können, wie z. B. Dienstauswirkungen, neue Versionen und vieles mehr.

Erkennung von Textlogos

Mit der Erkennung von Textlogos können Sie Textlogos anpassen, die in Videos erkannt werden. Weitere Informationen finden Sie unter Erkennen eines Textlogos.

Wechseln von Verzeichnissen

Sie können jetzt entra-ID-Verzeichnisse wechseln und Azure AI Video Indexer-Konten über Mandanten hinweg verwalten, indem Sie die Azure AI Video Indexer-Website verwenden.

Sprachunterstützung

  • Neue Sprachen werden jetzt unterstützt: Irisch, Bulgarisch, Katalanisch, Griechisch, Estnisch, Kroatisch, Lettisch, Rumänisch, Slowakisch, Slowenisch, Slowenisch, Slowenisch, Kannada, Isländisch, Armenisch, Gujarati, Malaiisch und Tamilisch.
  • Verwenden Sie eine API, um alle unterstützten Sprachen abzurufen: Unterstützte Sprachen abrufen.

Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.

Gesichtsgruppierung

Die Anzahl der Vorkommen der Gesichtserkennung in niedriger Qualität in der Benutzeroberfläche und insights.json erheblich reduziert. Verbesserung der Qualität und Benutzerfreundlichkeit durch verbesserten Gruppierungsalgorithmus.

November 2022

Die Namen der Referenten können jetzt von der Azure AI Video Indexer-Website bearbeitet werden.

Sie können jetzt neue Lautsprecher hinzufügen, identifizierte Lautsprecher umbenennen und lautsprecher ändern, die einer bestimmten Transkriptzeile zugewiesen sind, mithilfe der Azure AI Video Indexer-Website. Ausführliche Informationen zum Bearbeiten von Sprechern aus dem Zeitachsenbereich finden Sie unter Bearbeiten von Sprechern mit der Azure AI Video Indexer-Website.

Die gleichen Funktionen sind über die Azure AI Video Indexer Upload-Videoindex-API verfügbar.

Oktober 2022

Eine neue integrierte Rolle: „Eingeschränkter Video Indexer-Betrachter“

Die Eingeschränkte Zugriffsrolle "VideoIndexer Restricted Viewer " ist für benutzer der Azure AI Video Indexer-Website vorgesehen. Die zulässigen Aktionen der Rolle beziehen sich auf die Azure AI Video Indexer-Websiteoberfläche .

Weitere Informationen finden Sie unter Verwalten des Zugriffs mit der Video Indexer-Rolle „Eingeschränkter Betrachter“.

Einblicke zur Erkennung von Slate (Vorschau)

Die folgenden Slate-Erkennungseinblicke (ein Film nach der Produktion) werden automatisch identifiziert, wenn ein Video mithilfe der erweiterten Indizierungsoption indiziert wird:

  • Clapperboard-Erkennung mit Metadatenextraktion.
  • Erkennung digitaler Muster, einschließlich Farbbalken.
  • Textlose Slate-Erkennung, einschließlich Szenenabgleich.

Einzelheiten finden Sie unter Slate-Erkennung.

Unterstützt nun Quellsprachen für STT (Spracherkennung), Übersetzung und Suche auf Ukrainisch und Vietnamesisch. Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website , Widgets und APIs unterstützt werden.

Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.

Bearbeiten des Namens eines Sprechers in der Transkription über die API

Sie können nun den Namen der Lautsprecher in der Transkription mithilfe der Azure AI Video Indexer-API bearbeiten.

Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung

Unterstützung der Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung.

Eine Anmerkung ist eine beliebige Art zusätzlicher Informationen, die einem bereits vorhandenen Text hinzugefügt werden, sei es eine Transkription einer Audiodatei oder einer ursprünglichen Textdatei.

Weitere Informationen finden Sie unter Untersuchen von Transkriptionsinformationen auf Wortebene.

Azure Monitor-Integration zum Aktivieren von Indizierungsprotokollen

Die neue Gruppe von Protokollen, die unten beschrieben werden, ermöglicht es Ihnen, Ihre Indizierungspipeline besser zu überwachen.

Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Indizierungsereignisse. Sie können jetzt Protokollüberwachungsuploads exportieren und Mediendateien über Diagnoseeinstellungen in Azure Log Analytics, Speicher, Event Hubs oder eine Drittanbieterlösung neu indizieren.

Erweiterte unterstützte Sprachen in LID und MLID über die Azure AI Video Indexer-API

Erweiterte Sprachen, die in LID (Sprachidentifikation) und MLID (Multi language Identification) mit der Azure AI Video Indexer-API unterstützt werden.

Folgende Sprachen werden jetzt über die API unterstützt: Arabisch (Vereinigte Arabische Emirate), Arabisch (modernes Hocharabisch), Arabisch (Ägypten), Arabisch (Irak), Arabisch (Jordanien), Arabisch (Kuwait), Arabisch (Oman), Arabisch (Katar), Arabisch (Saudi-Arabien), Arabisch (Arabische Republik Syrien), Tschechisch, Dänisch, Deutsch, Englisch (Australien), Englisch (Vereinigtes Königreich), Englisch (USA), Spanisch, Spanisch (Mexiko), Finnisch, Französisch (Kanada), Französisch, Hebräisch, Hindi, Italienisch, Japanisch, Koreanisch, Norwegisch, Niederländisch, Polnisch, Portugiesisch, Portugiesisch (Portugal), Russisch, Schwedisch, Thailändisch, Türkisch, Ukrainisch, Vietnamesisch, Chinesisch (vereinfacht), Chinesisch (Kantonesisch, traditionell).

Um die Liste der Sprachen anzugeben, die bei der automatischen Erkennung von LID oder MLID identifiziert werden sollen, können Sie die API zum Hochladen eines Videos aufrufen und den Parameter customLanguages mit bis zu zehn der unterstützten Sprachen festlegen. Beachten Sie, dass die im Parameter customLanguages angegebenen Sprachen auf Sprachebene verglichen werden und daher nur ein einzelnes Gebietsschema pro Sprache enthalten sollten.

Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.

Konfigurieren des Konfidenzniveaus in einem Personenmodell mit einer API

Verwenden Sie die API Patch-Personenmodell, um das Konfidenzniveau für die Gesichtserkennung innerhalb eines Personenmodells zu konfigurieren.

Anzeigen von Sprechern in Untertiteln

Sie können jetzt Lautsprecher in Untertiteln des Azure AI Video Indexer Media Players anzeigen. Weitere Informationen finden Sie unter Anzeigen von Untertiteln auf der Azure AI Video Indexer-Website.

Steuern von Begrenzungsrahmen für Gesichter und Personen mithilfe von Parametern

Der neue URL-Parameter boundingBoxes steuert die Option zum Aktivieren bzw. Deaktivieren von Begrenzungsrahmen beim Einbetten eines Players. Weitere Informationen zum Einbetten von Widgets finden Sie hier.

Steuern der automatischen Wiedergabe über die Kontoeinstellungen

Steuern Sie über die Benutzereinstellungen, ob eine Mediendatei automatisch wiedergegeben wird, wenn sie mithilfe der Web-App geöffnet wird. Navigieren Sie zur Azure AI Video Indexer-Website –> dem Zahnradsymbol (die obere rechte Ecke) –> Benutzereinstellungen –> Mediendateien automatisch wiedergeben.

Kopieren der Video-ID aus der Playeransicht

Die Video-ID kopieren ist verfügbar, wenn Sie das Video auf der Azure AI Video Indexer-Website auswählen.

Neues dunkles Design in nativen Azure-Farben

Wählen Sie das gewünschte Design auf der Azure AI Video Indexer-Website aus. Wählen Sie das Zahnradsymbol (rechts oben) und anschließend > aus.

Durchsuchen oder Filtern der Kontoliste

Sie können die Kontoliste anhand des Kontonamens oder der Region durchsuchen oder filtern. Wählen Sie Benutzerkonten in der oberen rechten Ecke der Azure AI Video Indexer-Website aus.

September 2022

Allgemeine Verfügbarkeit ARM-basierter Konten

Mit einem auf Azure Resource Management (ARM) basierenden kostenpflichtigen (unbegrenzten) Konten können Sie Folgendes verwenden:

Informationen zum Erstellen eines ARM-basierten Kontos finden Sie unter Tutorial: Erstellen eines ARM-basierten Kontos mit Azure-Portal.

August 2022

Aktualisiertes Themenrückschlussmodell

Azure AI Video Indexer Thema Inferencing-Modell wurde aktualisiert und jetzt extrahieren wir mehr als 6,5 Millionen Themen (z. B. Themen wie Covid-Virus). Um von den neuesten Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.

Themenrückschlussmodell jetzt für Azure Government verfügbar

Sie können jetzt das Modell zur Ableitung von Themen in Ihrem kostenpflichtigen Azure AI Video Indexer-Konto in Azure Government in Virginia und Arizona nutzen. Mit diesem Release wurde KI-Parität zwischen der globalen Azure-Lösung und Azure Government hergestellt. Um von den Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.

Die Sitzungslänge beträgt jetzt 30 Tage auf der Azure AI Video Indexer-Website

Die Sitzungsdauer der Azure AI Video Indexer-Website wurde auf 30 Tage verlängert. Sie können Ihre Sitzung beibehalten, ohne sich alle 1 Stunde erneut anmelden zu müssen.

Juli 2022

Erkenntnisse zu ausgewählten Kleidungsstücken ermöglichen eine gezieltere Anzeigenschaltung.

Die Erkenntnisse geben Auskunft über die wichtigsten Kleidungsstücke, die von den Personen in einem Video getragen werden, sowie über den Zeitstempel, zu dem die Kleidung zu sehen ist. Dies ermöglicht qualitativ hochwertige kontextbezogene Werbung in Video, bei der relevante Kleidungsanzeigen mit der spezifischen Zeit innerhalb des Videos abgeglichen werden, in dem sie angezeigt werden.

Um die empfohlene Kleidung einer beobachteten Person anzuzeigen, müssen Sie das Video mithilfe der erweiterten Videoeinstellungen von Azure AI Video Indexer indizieren. Einzelheiten dazu, wie die Bilder für ausgewählte Kleidungsstücke eingeordnet werden und wie diese Erkenntnisse angezeigt werden können, finden Sie unter Ausgewählte Kleidung von Personen (Vorschau).

Juni 2022

Verbesserungen am Blatt „Video Indexer erstellen“ im Azure-Portal

Azure AI Video Indexer unterstützt jetzt die Erstellung neuer Ressourcen mithilfe der vom System zugewiesenen verwalteten Identität oder des Systems und der vom Benutzer zugewiesenen verwalteten Identität für dieselbe Ressource.

Sie können die primäre verwaltete Identität darüber hinaus mithilfe der Registerkarte Identität im Azure-Portal ändern.

Eingeschränkter Zugriff auf Features zur Erkennung von Prominenten und Gesichtsidentifikation

Als Teil des Engagements von Microsoft für verantwortungsvolle KI entwickeln und veröffentlichen wir Azure AI Video Indexer – Identifikations- und Prominentenerkennungsfeatures. Diese Features sollen die Rechte von Einzelpersonen und der Gesellschaft schützen und die transparente Mensch-Computerinteraktion fördern. Daher gibt es einen eingeschränkten Zugriff und die Verwendung von Azure AI Video Indexer – Identifikations- und Prominentenerkennungsfeatures.

Für die Identifikations- und Prominenten-Erkennungsfeatures ist Registrierung erforderlich, und sie sind nur für von Microsoft verwaltete Kunden und Partner verfügbar. Kunden, die dieses Feature verwenden möchten, müssen sich bewerben und ein Aufnahmeformular einreichen. Weitere Informationen finden Sie unter Azure AI Video Indexer mit eingeschränktem Zugriff.

Beachten Sie bitte auch den Ankündigungsblogbeitrag sowie Investitionen und Schutzvorrichtungen für die Gesichtserkennung.

Mai 2022

Zeilenumbruch in Transkripts

Verbesserte Zeilenumbruchlogik, um das Transkript besser in Sätze zu teilen. Neue Bearbeitungsfunktionen sind jetzt über die Azure AI Video Indexer-Website verfügbar, z. B. hinzufügen einer neuen Zeile und Bearbeiten des Zeitstempels der Zeile. Weitere Informationen finden Sie unter Einfügen oder Entfernen von Transkriptzeilen.

Azure Monitor-Integration

Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Überwachungsereignisse. Protokolle von Überwachungsereignissen können jetzt über Diagnoseeinstellungen in Azure Log Analytics, Storage, Event Hubs oder eine Drittanbieterlösung exportiert werden.

Die Ergänzungen ermöglichen einen einfacheren Zugriff, um die Daten zu analysieren, den Ressourcenvorgang zu überwachen und automatisch Flows zu erstellen, um auf ein Ereignis zu reagieren. Weitere Informationen finden Sie unter Monitor Azure AI Video Indexer.

Verbesserungen bei Erkenntnissen aus Videos

Object Character Reader (OCR) wurde um 60 % verbessert. Die Gesichtserkennung wurde um 20 % verbessert. Die Beschriftungsgenauigkeit wurde bei einer Vielzahl von Videos um 30 % verbessert. Diese Verbesserungen sind sofort in allen Regionen verfügbar und erfordern keine Änderungen des Kunden.

Diensttag

Azure AI Video Indexer ist jetzt Teil von Network Service Tags. Video Indexer muss häufig auf andere Azure-Ressourcen zugreifen (z. B. Storage). Wenn Sie Ihren eingehenden Datenverkehr zu Ihren Ressourcen mit einer Netzwerksicherheitsgruppe sichern, können Sie jetzt Video Indexer als Teil der integrierten Diensttags auswählen. Dadurch wird das Sicherheitsmanagement vereinfacht, da wir das Diensttag mit unseren öffentlichen IP-Adressen auffüllen.

Umschalter für Prominentenerkennung

Sie können jetzt das Prominentenerkennungsmodell auf Kontoebene (nur auf klassischem Konto) aktivieren oder deaktivieren. Um das Modell ein- oder auszuschalten, wechseln Sie zur Modellanpassung>und schalten Sie das Modell ein oder aus. Nachdem Sie das Modell deaktiviert haben, enthält Videoindexer-Insights nicht mehr die Ausgabe des Prominentenmodells und führt die Pipeline des Prominentenmodells nicht aus.

Name des Azure AI Video Indexer-Repositorys

Ab dem 1. Mai wurde unser neues aktualisiertes Repository des Azure AI Video Indexer-Widgets umbenannt. Verwenden Sie stattdessen https://www.npmjs.com/package/@azure/video-indexer-widgets.

April 2022

Azure Video Analyzer für Medien wieder in Azure AI Video Indexer umbenannt

Ab heute ist der Azure Video Analyzer für Medienproduktname Azure AI Video Indexer und alle produktbezogenen Objekte (Webportal, Marketingmaterialien). Es ist eine abwärtskompatible Änderung, die keine Auswirkung auf APIs und Links hat. Neues Logo des Azure AI Video Indexers:

Neues Logo

März 2022

Untertiteldateien unterstützen jetzt Attribute von Sprechern

Mit dem Azure AI Video Indexer können Sie die Merkmale von Lautsprechern basierend auf einer Datei mit Untertiteln einschließen, die Sie herunterladen möchten. Um Sprecherattribute einzuschließen, wählen Sie „Downloads“ > „Untertitel“ > das Format der Untertiteldatei für den Download (SRT, VTT, TTML, TXT oder CSV) aus und aktivieren dann das Kontrollkästchen Lautsprecher enthalten.

Verbesserungen beim Widgetangebot

Die folgenden Verbesserungen wurden vorgenommen:

  • Azure AI Video Indexer Widgets unterstützen mehr als 1 Gebietsschema im Parameter eines Widgets.
  • Die Erkenntnis-Widgets unterstützen anfängliche Suchparameter und mehrere Sortieroptionen.
  • Die Erkenntnis-Widgets enthalten auch einen Bestätigungsschritt vor dem Löschen eines Gesichts, um Fehler zu vermeiden.
  • Die Widgetanpassung unterstützt jetzt die Breite als Zeichenfolgen (z. B. 100 %, 100vw).

Februar 2022

Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM in der Government-Cloud

Die Azure AI Video Indexer-Website unterstützt jetzt die Kontoverwaltung basierend auf ARM in der öffentlichen Vorschau (siehe Versionshinweise vom November 2021).

Nutzen von Open-Source-Code zum Erstellen eines ARM-basierten Kontos

Es wurden neue Codebeispiele hinzugefügt, einschließlich HTTP-Aufrufen zur Verwendung der Azure AI Video Indexer-API zum Erstellen, Lesen, Aktualisieren und Löschen (CRUD) ARM-API für Lösungsentwickler.

Januar 2022

Verbesserte Erkennung von Audioeffekten

Die Erkennungsfunktion für Audioeffekte wurde verbessert und erzielt jetzt eine bessere Erkennungsrate gegenüber den folgenden Klassen:

  • Reaktionen einer Menschenmenge (Jubeln, Klatschen und Buhrufe)
  • Schüsse oder Explosionen
  • Gelächter

Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.

Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche auf der Website

Azure AI Video Indexer führt Quellsprachenunterstützung für STT (Sprach-zu-Text), Übersetzung und Suche in Hebräisch (he-IL), Portugiesisch (pt-PT) und Persisch (fa-IR) auf der Azure AI Video Indexer-Website ein. Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website und -Widgets unterstützt werden.

Dezember 2021

Das Projektfeature ist jetzt allgemein verfügbar

Das Projektfeature ist jetzt allgemein verfügbar und kann produktiv verwendet werden. Es gibt keine Auswirkungen auf die Preise im Zusammenhang mit dem Übergang "Vorschau auf GA". Informationen hierzu finden Sie unter Hinzufügen von Videoclips zu Ihren Projekten.

Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche auf API-Ebene

Azure AI Video Indexer führt Quellsprachenunterstützung für STT (Sprache zu Text), Übersetzung und Suche in Hebräisch (he-IL), Portugiesisch (pt-PT) und Persisch (fa-IR) auf API-Ebene ein.

Erkennungsfunktion für übereinstimmende Personen

Beim Indizieren eines Videos mit erweiterten Azure AI Video Indexer-Videoeinstellungen können Sie die neue Erkennungsfunktion für übereinstimmende Personen anzeigen. Wenn in Ihrer Mediendatei Personen ermittelt werden, können Sie jetzt über den Media Player diejenige Person anzeigen, die eine Übereinstimmung erzielt.

November 2021

Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM

Azure AI Video Indexer führt eine öffentliche Vorschau der azure Resource Manager (ARM)-basierten Kontoverwaltung ein. Sie können ARM-basierte Azure AI Video Indexer-APIs nutzen, um ein Konto aus dem Azure-Portal zu erstellen, zu bearbeiten und zu löschen.

Hinweis

Die Government-Cloud umfasst Unterstützung für CRUD ARM-basierte Konten aus der Azure AI Video Indexer-API und aus dem Azure-Portal.

Derzeit gibt es keine Unterstützung von der Azure AI Video Indexer-Website.

Weitere Informationen zum Erstellen eines Azure AI Video Indexer-Kontos.

Erkennung der Bekleidung von Personen

Beim Indizieren eines Videos mit erweiterten Azure AI Video Indexer-Videoeinstellungen können Sie die Erkennungsfunktion der neuen Personen anzeigen. Wenn personen in Ihrer Mediendatei erkannt werden, können Sie nun den Kleidungstyp anzeigen, den sie über den Media Player tragen.

Gesichtsbegrenzungsrahmen (Vorschau)

Bei der Indizierung von Mediendateien können Sie jetzt einen Begrenzungsrahmen für die erkannten Gesichter aktivieren. Diese Funktion ist verfügbar, wenn Sie für die Indizierung Ihrer Datei die standardäßige, einfache oder erweiterte Indizierungsvoreinstellung verwenden.

Sie können die Begrenzungsrahmen über den Player aktivieren.

Oktober 2021

Einbetten von Widgets in Ihre App mithilfe des Azure AI Video Indexer-Pakets

Verwenden Sie das neue NPM-Paket (Azure AI Video Indexer), @azure/video-analyzer-for-media-widgets um Ihrer App Widgets hinzuzufügen insights und entsprechend Ihren Anforderungen anzupassen.

Mit dem neuen AVAM-Paket können Sie ganz einfach unsere Widgets und Ihre App einbetten und kommunizieren, anstatt ein iframe-Element zum Einbetten des Erkenntniswidgets hinzuzufügen. Weitere Informationen finden Sie unter Einbetten und Anpassen von Azure AI Video Indexer Widgets in Ihrer App

August 2021

Erneutes Indizieren von Video- oder Audiodateien

Es gibt jetzt eine Option zum Erneuten Indizieren von Video- oder Audiodateien, die während des Indizierungsprozesses fehlgeschlagen sind.

Verbesserte Unterstützung für Barrierefreiheit

Fehler im Zusammenhang mit CSS, Designs und Barrierefreiheit wurden behoben:

  • Hoher Kontrast
  • Kontoeinstellungen und Ansichten zu Erkenntnissen im Portal.

Juli 2021

Automatische Skalierung reservierter Einheiten für Medien

Ab dem 1. August 2021 hat Azure AI Video Indexer die automatische Skalierung von Media Reserved Units (MRUs) durch Azure Media Services aktiviert, daher müssen Sie sie nicht über Azure AI Video Indexer verwalten. Dies ermöglicht eine Preisoptimierung, z. B. in vielen Fällen eine Preissenkung, die sich an den Anforderungen Ihres Unternehmens orientiert, während es automatisch skaliert wird.

Juni 2021

Azure AI Video Indexer in sechs neuen Regionen bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in Den Regionen Frankreich Central, Central US, Brasilien Süd, West Central US, Korea Central und Japan West erstellen.

Mai 2021

Azure AI Video Indexer unterstützt jetzt STT, Übersetzung, und suchen Sie in Chinesisch (Kantonesisch) ('zh-HK'), Niederländisch (Niederlande) ('Nl-NL'), Tschechisch ('Cs-CZ'), Polnisch ('Pl-PL'), Schwedisch ('Sv-SE'), Norwegisch('nb-). NO'), Finnisch('fi-FI'), Kanadisches Französisch ('fr-CA'), Thai('th-TH'), Arabisch: (Vereinigte Arabische Emirate) ('ar-AE', 'ar-EG'), (Irak) ('ar) ('ar) -IQ'), (Jordanien) ('ar-JO'), (Kuwait) ('ar-KW'), (Libanon) ('ar-LB'), (Oman) ('ar-OM'), (Katar) ('ar-QA'), (Palästinensische Behörde) ('ar-PS'), (Syrien) ('ar-SY'), und Türkisch('tr-TR').

Diese Sprachen sind sowohl in der API als auch auf der Azure AI Video Indexer-Website verfügbar. Wählen Sie im Kombinationsfeld unter Ausgangssprache des Videos die Sprache aus.

Neues Design für Azure AI Video Indexer

Es ist ein neues Design verfügbar: „Azure“ zusammen mit den Designs „hell“ und „dunkel“. Um ein Design auszuwählen, wählen Sie auf dem Zahnradsymbol in der oberen rechten Ecke der Website Designs unter "Benutzereinstellungen" aus.

Neuer Open-Source-Code, den Sie nutzen können

Drei neue GitHub-Projekte sind in unserem GitHub-Repository verfügbar:

  • Code, der Ihnen hilft, die neu hinzugefügte Widget-Anpassung zu nutzen.

  • Lösung, mit der Sie Ihren Videobibliotheken eine Deduplizierung hinzufügen können.

Neue Option zum Umschalten von Begrenzungsrahmen (für beobachtete Personen) für den Player

Wenn Sie ein Video über unsere erweiterten Videoeinstellungen indizieren, werden unsere neuen Funktionen für beobachtete Personen angezeigt. Wenn in Ihrer Mediendatei Personen erkannt werden, können Sie über den Media Player einen Begrenzungsrahmen für die erkannte Person aktivieren.

April 2021

Der Videoindexer-Dienst wurde in Azure AI Video Indexer umbenannt.

Verbesserte Uploadfunktionalität im Portal

Azure AI Video Indexer verfügt über eine neue Upload-Erfahrung auf der Website. Um Ihre Mediendatei hochzuladen, klicken Sie auf der Registerkarte Mediendateien auf die Schaltfläche Hochladen.

Neues Entwicklerportal in gov-cloud verfügbar

Das Azure AI Video Indexer API-Entwicklerportal ist jetzt auch in Azure für US Government verfügbar.

Erkennung beobachteter Personen (Vorschau)

Azure AI Video Indexer erkennt jetzt beobachtete Personen in Videos und stellt Informationen bereit, z. B. den Ort der Person im Videoframe und den genauen Zeitstempel (Start, Ende), wenn eine Person angezeigt wird. Die API gibt die Begrenzungsfeldkoordinaten (in Pixel) für jede erkannte Personeninstanz einschließlich Konfidenz zurück.

Wenn ein Video beispielsweise eine Person enthält, listet der Erkennungsvorgang das Erscheinen dieser Person zusammen mit ihren Koordinaten in den Videoframes auf. Sie können diese Funktion verwenden, um den Weg der Person in einem Video zu bestimmen. Sie können außerdem ermitteln, ob mehrere Instanzen derselben Person einem Video enthalten sind.

Das neu hinzugefügte Feature zur Erkennung beobachteter Personen ist beim Indizieren Ihrer Datei verfügbar, indem Sie die > "Erweitertes Video" oder "Erweitertes Video + Audiovoreinstellung" (unter "Video + Audioindizierung") auswählen. Standard- und grundlegende Indizierungsvoreinstellungen enthalten dieses neue erweiterte Modell nicht.

Wenn Sie Insights Ihres Videos auf der Azure AI Video Indexer-Website anzeigen möchten, wird die Erkennung beobachteter Personen auf der Seite mit allen erkannten Personenminiaturansichten angezeigt. Sie können eine Miniaturansicht einer Person auswählen und sehen, wo die Person im Videoplayer erscheint.

Das Feature ist auch in der JSON-Datei verfügbar, die von Azure AI Video Indexer generiert wird. Weitere Informationen finden Sie unter "Beobachtete Personen" in einem Video.

Mit Audioeffekterkennung erkannte Akustikereignisse (Vorschau)

Sie können jetzt die erkannten Akustikereignisse in der Untertiteldatei sehen. Die Datei kann von der Azure AI Video Indexer-Website heruntergeladen werden und ist als Artefakt in der GetArtifact-API verfügbar.

Die Komponente Erkennung von Audioeffekten (Vorschau) erkennt verschiedene Akustikereignisse und klassifiziert sie in verschiedene Akustikkategorien (z. B. Schüsse, Schreie, Reaktionen einer Menschenmenge usw.). Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.

März 2021

Audioanalyse

Die Audioanalyse ist jetzt in einem zusätzlichen neuen Paket mit Audiofeatures zu einem anderen Preis verfügbar. Die neue Analysevoreinstellung Grundlegende Audiofunktionen bietet eine kostengünstige Option zum reinen Extrahieren von Transkriptionen für gesprochenen Text sowie zum Übersetzen und Formatieren von Beschriftungstext und Untertiteln. Durch die Voreinstellung Grundlegende Audiofunktionen werden auf Ihrer Rechnung zwei separate Verbrauchseinheiten generiert. Diese umfassen eine Zeile für die Transkription und eine separate Zeile für die Formatierung von Beschriftungstext und Untertiteln. Weitere Preisinformationen finden Sie auf der Seite mit Media Services-Preisen.

Das neu hinzugefügte Paket ist verfügbar, wenn Sie beim Indizieren oder Neuindizieren Ihrer Datei die Voreinstellung Erweiterte Option ->Grundlegende Audiofunktionen (im Dropdownfeld Video- und Audioindizierung) auswählen.

Neues Entwicklerportal

Azure AI Video Indexer verfügt über ein neues Entwicklerportal. Probieren Sie die neuen Azure AI Video Indexer-APIs aus, und suchen Sie alle relevanten Ressourcen an einer zentralen Stelle: GitHub-Repository, Stack Overflow, Azure AI Video Indexer Tech Community mit relevanten Blogbeiträgen, Azure AI Video Indexer FAQs, User Voice, um Ihr Feedback und Vorschläge Features bereitzustellen, und den Link "CodePen" mit Widgets-Codebeispielen.

Erweiterte Anpassungsmöglichkeiten für das Erkenntnis-Widget

DAS SDK ist jetzt verfügbar, um das Insights-Widget von Azure AI Video Indexer in Ihren eigenen Dienst einzubetten und seinen Stil und seine Daten anzupassen. Das SDK unterstützt das standardmäßige Azure AI Video Indexer Insights Widget und ein vollständig anpassbares Insights-Widget. Codebeispiel ist im GitHub-Repository von Azure AI Video Indexer verfügbar. Mit diesen erweiterten Anpassungsfunktionen kann Lösungsentwickler benutzerdefinierte Formatierungen anwenden und die eigenen KI-Daten des Kunden bereitstellen und diese im Einblicks-Widget (mit oder ohne Azure AI Video Indexer Insights) präsentieren.

Azure AI Video Indexer in den USA North Central, USA West und Kanada Central bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen North Central, USA West und Kanada erstellen.

Unterstützung neuer Quellsprachen für Sprache-in-Text (STT), Übersetzung und Suche

Azure AI Video Indexer unterstützt jetzt STT, Übersetzung und Suche in Dänisch ('da-DK'), Norwegisch('nb-NO'), Schwedisch('sv-SE'), Finnisch('fi-FI'), Kanadisches Französisch ('fr-CA'), Thai('th-TH'), Arabisch ('ar-BH', 'ar-EG', 'ar-IQ', 'ar-JO', 'ar-KW', 'ar-LB', 'ar-OM', 'ar-QA', 'ar-S' und 'ar-SY') und Türkisch('tr-TR'). Diese Sprachen sind sowohl in der API als auch auf der Azure AI Video Indexer-Website verfügbar.

Suchen nach Thema auf der Azure AI-Videoindexer-Website

Sie können jetzt die Suchfunktion oben auf der Azure AI Video Indexer-Websiteseite verwenden, um nach Videos mit bestimmten Themen zu suchen.

Februar 2021

Mehrere Kontobesitzer

Die Kontobesitzerrolle wurde azure AI Video Indexer hinzugefügt. Sie können Benutzer hinzufügen, ändern und entfernen sowie deren Rolle ändern. Ausführliche Informationen zum Teilen eines Kontos finden Sie unter Schnellstart: Einladen von Benutzern zu Video Indexer.

Audioereigniserkennung (Public Preview)

Hinweis

Dieses Feature steht nur in Testkonten zur Verfügung.

Azure AI Video Indexer erkennt jetzt die folgenden Audioeffekte in den Nicht-Sprachsegmenten des Inhalts: Schuss, Glasschattierung, Alarm, Sirenen, Explosion, Hunderinde, Schreien, Lachen, Massenreaktionen (Jubeln, Klatschen und Booing) und Stille.

Das neu hinzugefügte Feature für Audioeffekte ist verfügbar, wenn Sie Ihre Datei mit der Voreinstellung Erweiterte Option ->Erweiterte Audiodaten (unter „Video- und Audioindizierung“) indizieren. Die Standardindizierung umfasst nur Stille und Reaktionen einer Menschenmenge.

Der Ereignistyp Applaus aus dem vorherigen Modell für Audioeffekte wird nun im Rahmen des Ereignistyps Reaktionen einer Menschenmenge extrahiert.

Wenn Sie Insights Ihres Videos auf der Azure AI Video Indexer-Website anzeigen möchten, werden die Audioeffekte auf der Seite angezeigt.

Erweiterung benannter Entitäten

Die extrahierte Personen- und Ortsliste wurde allgemein erweitert und aktualisiert.

Darüber hinaus umfasst das Modell jetzt Personen und Orte im Kontext, die nicht berühmt sind, wie ein "Sam" oder "Home" im Video.

Januar 2021

Azure AI Video Indexer wird in der US Government-Cloud bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der US-Regierungscloud in Virginia und Arizona erstellen. Das Azure AI Video Indexer-Testangebot ist in der genannten Region nicht verfügbar. Weitere Informationen hierzu sind in der Dokumentation zur Azure AI-Videoindexer-Dokumentation zu erfahren.For more information go to Azure AI Video Indexer Documentation.

Azure AI Video Indexer in der Region Indien Zentral bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Indien Zentral erstellen.

Neuer dunkler Modus für die Azure AI Video Indexer-Websiteoberfläche

Die Azure AI Video Indexer-Websiteoberfläche ist jetzt im dunklen Modus verfügbar. Um den dunklen Modus zu aktivieren, öffnen Sie den Einstellungsbereich und aktivieren die Option Dunkler Modus.

Dezember 2020

Azure AI Video Indexer in der Schweiz West und Der Schweiz Nord bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweiz West und Schweiz Nord erstellen.

Oktober 2020

Geplante Änderungen der Azure AI Video Indexer-Website zur Authentifizierung

Ab dem 1. März 2021 können Sie sich nicht mehr mit Facebook oder LinkedIn beim Entwicklerportal der Azure AI Video Indexer-Websiteregistrieren und anmelden.

Sie können sich mit einem der folgenden Anbieter anmelden und sich anmelden: Entra ID, Microsoft und Google.

Hinweis

Auf die Mit LinkedIn und Facebook verbundenen Azure AI Video Indexer-Konten kann nach dem 1. März 2021 nicht mehr zugegriffen werden.

Sie sollten eine Entra-ID, Microsoft oder Google-E-Mail an das Azure AI Video Indexer-Konto einladen , damit Sie weiterhin Zugriff haben. Sie können einen zusätzlichen Besitzer von unterstützten Anbietern hinzufügen, wie unter Einladen beschrieben.
Alternativ dazu können Sie ein kostenpflichtiges Konto erstellen und die Daten migrieren.

August 2020

Mobiles Design für die Azure AI Video Indexer-Website

Die Azure AI Video Indexer-Websiteumgebung unterstützt jetzt mobile Geräte. Die Benutzeroberfläche passt sich als responsive Design an die Bildschirmgröße Ihres mobilen Geräts an (ausgenommen angepasste Benutzeroberflächen).

Verbesserte Barrierefreiheit und Fehlerbehebungen

Im Rahmen der WCAG-Richtlinien (Web Content Accessibility Guidelines) wird die Azure AI Video Indexer-Websiteerfahrung im Rahmen der Microsoft Accessibility-Standards mit der Klasse C abgestimmt. Mehrere Fehler im Zusammenhang mit Tastaturnavigation, programmgesteuertem Zugriff und Sprachausgabe wurden gelöst und Verbesserungen eingeführt.

Juli 2020

Allgemeine Verfügbarkeit für die Erkennung mehrerer Sprachen

Die Erkennung mehrerer Sprachen geht von der Vorschau in die allgemeine Verfügbarkeit über und ist für den Einsatz in Produktionsumgebungen bereit.

Es gibt keine Auswirkungen auf die Preise im Zusammenhang mit dem Übergang "Vorschau auf GA".

Verbesserungen der Azure AI Video Indexer-Website

Es wurde eine neue Suchleiste für die Suche nach detaillierten Erkenntnissen mit zusätzlichen Filterfunktionen hinzugefügt. Die Suchergebnisse wurden ebenfalls verbessert.

Es gibt eine neue Listenansicht mit der Möglichkeit zum Sortieren und Verwalten eines Videoarchivs mit vielen Dateien.

Neues Panel zur einfachen Auswahl und Konfiguration

Es wurde ein seitliches Panel für die einfache Auswahl und Benutzerkonfiguration hinzugefügt, über das Sie schnell und einfach ein Konto erstellen und freigeben sowie Einstellungen konfigurieren können.

In diesem Panel können Sie auch Benutzereinstellungen verwalten und Hilfe erhalten.

Juni 2020

Suchen nach Themen

Sie können jetzt die Such-API verwenden, um nach Videos mit bestimmten Themen zu suchen (nur API).

Themen werden als Teil von textScope hinzugefügt (optionaler Parameter). Ausführliche Informationen finden Sie unter API.

Bezeichnungserweiterung

Der Bezeichnungs-Tagger wurde aktualisiert und enthält jetzt mehr visuelle Bezeichnungen, die identifiziert werden können.

Mai 2020

Azure AI Video Indexer in den USA bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Ost-USA erstellen.

Azure AI Video Indexer-URL

Regionale Azure AI Video Indexer-Endpunkte waren alle vereinheitlicht, um nur mit www zu beginnen. Keine Aktion erforderlich.

Von nun an erreichen Sie www.videoindexer.ai , ob es sich um das Einbetten von Widgets oder die Anmeldung in die Azure AI Video Indexer-Website handelt.

Beim Aufruf von wus.videoindexer.ai erfolgt eine Umleitung zur www-Adresse. Weitere Informationen finden Sie unter Einbetten von Azure AI Video Indexer Widgets in Ihren Apps.

April 2020

Neue Funktionen für Widgetparameter

Das Widget Insights weist neue Parameter auf: language und control.

Das Widget Player weist den neuen Parameter locale auf. Die Parameter locale und language steuern die Sprache des Players.

Weitere Informationen finden Sie im Abschnitt Widgettypen.

Neue Playerskin

Eine neue Playerskin mit aktualisiertem Design wurde herausgegeben.

Vorbereitung auf bevorstehende Änderungen

  • Heute geben die folgenden APIs ein Kontoobjekt zurück:

    Das Account-Objekt weist ein Url Feld auf die Position der Azure AI Video Indexer-Website hin. Für kostenpflichtige Konten verweist das Feld Url zurzeit auf eine interne URL anstelle der öffentlichen Website. In den kommenden Wochen ändern wir sie und geben die URL der Azure AI Video Indexer-Website für alle Konten (Testversion und Bezahlt) zurück.

    verwenden Sie nicht die internen URLs, sie sollten die öffentlichen Azure AI Video Indexer-APIs verwenden.

  • Wenn Sie Azure AI Video Indexer-URLs in Ihre Anwendungen einbetten und die URLs nicht auf die Azure AI Video Indexer-Website oder den Azure AI Video Indexer-API-Endpunkt verweisen (https://api.videoindexer.ai), sondern auf einen regionalen Endpunkt (z https://wus2.videoindexer.ai. B. ), generieren Sie die URLs neu.

    Dies kann auf einer der folgenden Weisen erfolgen:

    • Ersetzen der URL durch eine URL, die auf die Azure AI Video Indexer-Widget-APIs verweist (z. B. das Insights-Widget)

    • Verwenden der Azure AI Video Indexer-Website zum Generieren einer neuen eingebetteten URL:

      Drücken Sie "Wiedergabe", um zur Seite Ihres Videos zu gelangen –> wählen Sie die< Schaltfläche "/>Einbetten" aus,> und kopieren Sie die URL in Ihre Anwendung:

    Die regionalen URLs werden nicht unterstützt und werden in den kommenden Wochen blockiert.

Januar 2020

Benutzerdefinierte Sprachunterstützung für weitere Sprachen

Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle für ar-SY , en-UKund en-AU (nur API).

Aktualisierung des Zeitrahmens der Aktion „Konto löschen“

Beim Ausführen der Aktion „Konto löschen“ wird das Konto jetzt innerhalb von 90 Tagen und nicht innerhalb von 48 Stunden gelöscht.

Neues Azure AI Video Indexer GitHub-Repository

Ein neues Azure AI Video Indexer GitHub mit verschiedenen Projekten, Erste Schritte Anleitungen und Codebeispiele sind jetzt verfügbar: https://github.com/Azure-Samples/media-services-video-indexer

Swagger-Update

Azure AI Video Indexer unified authentications and operations into a single Azure AI Video Indexer OpenAPI Specification (swagger). Entwickler finden die APIs im Azure AI Video Indexer-Entwicklerportal.

Dezember 2019

Aktualisieren des Transkripts mit der neuen API

Aktualisieren Sie einen bestimmten Abschnitt im Transkript mit der Update-Video-Index-API.

Beheben der Kontokonfiguration von der Azure AI Video Indexer-Website

Sie können jetzt die Konfiguration der Media Services-Verbindung aktualisieren, um sich selbst zu helfen bei Problemen wie:

  • Falsche Azure Media Services-Ressource
  • Kennwortänderungen
  • Verschieben von Media Services-Ressourcen zwischen Abonnements

Um die Kontokonfiguration zu beheben, navigieren Sie auf der Azure AI Video Indexer-Website zur Registerkarte "Kontoeinstellungen" > (als Besitzer).

Konfigurieren des Custom Vision-Kontos

Konfigurieren Sie das benutzerdefinierte Vision-Konto für kostenpflichtige Konten mithilfe der Azure AI Video Indexer-Website (zuvor wurde dies nur von der API unterstützt). Melden Sie sich hierzu auf der Azure AI Video Indexer-Website an, und wählen Sie "Modellanpassungsmodell ><>>konfigurieren" aus.

Szenen, Aufnahmen und Keyframes – jetzt in einem Erkenntnisbereich

Szenen, Aufnahmen und Keyframes werden jetzt zu einer Erkenntnis zusammengeführt, um Nutzung und Navigation zu erleichtern. Wenn Sie die gewünschte Szene auswählen, können Sie sehen, aus welchen Aufnahmen und Keyframes sie besteht.

Benachrichtigung über einen langen Videonamen

Wenn ein Videoname länger als 80 Zeichen ist, zeigt Azure AI Video Indexer einen beschreibenden Fehler beim Upload an.

Benachrichtigung über deaktivierten Streamingendpunkt

Wenn der Streamingendpunkt deaktiviert ist, zeigt azure AI Video Indexer auf der Playerseite einen beschreibenden Fehler an.

Verbesserung der Fehlerbehandlung

Statuscode 409 wird jetzt von Re-Index Video and Update Video Index APIs zurückgegeben, falls ein Video aktiv indiziert wird, um zu verhindern, dass die aktuellen Änderungen versehentlich neu indiziert werden.

November 2019

  • Unterstützung benutzerdefinierte koreanische Sprachmodelle

    Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle in Koreanisch (ko-KR) sowohl in der API als auch im Portal.

  • Neue unterstützte Sprachen für die Spracherkennung (STT)

    Azure AI Video Indexer-APIs unterstützen jetzt STT in Arabisch Levantine (ar-SY), Englisch UK Regionalsprache (en-GB) und Englisch Australische Regionalsprache (en-AU).

    Für den Video Upload haben wir zh-HANS durch zh-CN ersetzt, zwar werden beide unterstützt, zh-CN wird jedoch empfohlen und ist genauer.

Oktober 2019

  • Suchen nach animierten Figuren im Katalog

    Wenn Sie animierte Figuren indizieren, können Sie sie jetzt im Videokatalog des Kontos danach suchen.

September 2019

Auf der IBC 2019 wurden mehrere Verbesserungen angekündigt:

  • Erkennung animierter Figuren (öffentliche Vorschauversion)

    Die Fähigkeit zum Auffinden, Gruppieren und Erkennen von Figuren in animierten Inhalten mithilfe der Integration in Custom Vision.

  • Mehrsprachige Identifikation (öffentliche Vorschauversion)

    Erkennen von Segmenten in mehreren Sprachen in der Audiospur und Erstellen eines mehrsprachigen Transkripts auf ihrer Grundlage. Erste Unterstützung: Englisch, Spanisch, Deutsch und Französisch. Weitere Informationen finden Sie unter Transcribe multi-language content.

  • Extraktion benannter Entitäten für Personen und Ort

    Extrahiert mithilfe der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) Marken, Standorte und Personen aus Sprache und visuellem Text.

  • Redaktionelle Typklassifizierung für Aufnahmen

    Kategorisieren von Aufnahmen mit redaktionellen Typen wie Nahaufnahme, Mittlerer Schuss, zwei Schuss, Innenbereich, Außen usw. Weitere Informationen finden Sie unter "Editorial shot type detection".

  • Verbesserte Themendeduktion – jetzt mit Abdeckung von Stufe 2

    Das Themendeduktionsmodell unterstützt jetzt mehr Detailebenen der IPTC-Taxonomie. Sämtliche Details finden Sie unter Azure Media Services new AI-powered innovation (Neue, KI-gestützte Innovationen in Azure Media Services).

Updates vom August 2019

Azure AI Video Indexer bereitgestellt in Uk South

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Südregion Großbritannien erstellen.

Neue redaktionelle Aufnahmearten verfügbar

Neue Tags, die Videoaufnahmen hinzugefügt werden, bieten redaktionelle „Aufnahmearten“, um sie mit gängigen redaktionellen Phrasen zu kennzeichnen, die im Workflow der Inhaltserstellung verwendet werden, z.B.: extreme Nahaufnahme (extreme closeup), Nahaufnahme (closeup), Weitwinkel (wide), Medium, Zwei-Personen-Aufnahme (two shot), Outdoor, Indoor, linkes Gesicht (left face) und rechtes Gesicht (right face) (verfügbar im JSON).

Neue Extraktion von Personen- und Standortentitäten verfügbar

Azure AI Video Indexer identifiziert benannte Orte und Personen über die Verarbeitung natürlicher Sprachen (NLP) aus der OCR und Transkription des Videos. Der Azure AI Video Indexer verwendet den Maschinellen Lernalgorithmus, um zu erkennen, wann bestimmte Orte (z. B. der Tower des Tower) oder Personen (z. B. John Doe) in einem Video aufgerufen werden.

Extraktion von Keyframes in nativer Auflösung

Keyframes, die von Azure AI Video Indexer extrahiert wurden, sind in der ursprünglichen Auflösung des Videos verfügbar.

Allgemeine Verfügbarkeit für Trainieren von benutzerdefinierten Gesichtern aus Bildern

Das Trainieren von Gesichtern aus Bildern wurde vom Vorschaumodus in die allgemeine Verfügbarkeit überführt (verfügbar über eine API und im Portal).

Hinweis

Der Übergang von „Vorschauversion in allgemeine Verfügbarkeit“ hat keine Auswirkungen auf die Preisgestaltung.

Sie können nun die Registerkarte „Katalog“ im Portal ausblenden (ähnlich dem Ausblenden der Registerkarte „Beispiele“).

Maximale URL-Größe erhöht

Unterstützung für URL-Abfragezeichenfolgen von 4096 (anstelle von 2048) bei der Indizierung eines Videos.

Unterstützung für mehrsprachige Projekte

Projekte können nun auf Basis von Videos erstellt werden, die in verschiedenen Sprachen indiziert sind (nur API).

Juli 2019

Editor als Widget

Der Ki-Indexer-KI-Editor von Azure AI ist jetzt als Widget verfügbar, das in Kundenanwendungen eingebettet werden kann.

Aktualisieren des benutzerdefinierten Sprachmodells aus der Untertiteldatei über das Portal

Kunden können im Portal auf der Seite zur Anpassung als Eingabe für Sprachmodelle die Dateiformate VTT, SRT und TTML angeben.

Juni 2019

Azure AI Video Indexer in Japan East bereitgestellt

Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Japan Ost erstellen.

Erstellen und Reparieren der Konto-API (Vorschau)

Eine neue API wurde hinzugefügt, die es Ihnen ermöglicht, den Azure Media Services-Verbindungsendpunkt oder -Schlüssel zu aktualisieren.

Verbesserung der Fehlerbehandlung beim Hochladen

Eine beschreibende Meldung wird im Falle einer Fehlkonfiguration des zugrunde liegenden Azure Media Services-Kontos zurückgegeben.

Vorschau der Keyframes in der Player-Zeitachse

Sie können jetzt eine Bildvorschau für jeden Zeitpunkt auf der Zeitachse des Players anzeigen.

Editor-Teilauswahl

Sie können jetzt eine Vorschau aller Erkenntnisse anzeigen, die als Ergebnis der Auswahl eines bestimmten Erkenntniszeitraums im Editor ausgewählt sind.

Mai 2019

Aktualisieren des benutzerdefinierte Sprachmodells aus der Untertiteldatei

Die APIs Benutzerdefiniertes Sprachmodell erstellen und Benutzerdefiniertes Sprachmodell aktualisieren unterstützen jetzt VTT-, SRT-, und TTML-Dateiformate als Eingabe für Sprachmodelle.

Beim Aufrufen der API „Video-Transkript aktualisieren“ wird die Transkription automatisch hinzugefügt. Das dem Video zugeordnete Trainingsmodell wird ebenfalls automatisch aktualisiert. Informationen zum Anpassen und Trainieren Ihrer Sprachmodelle finden Sie unter Anpassen eines Sprachmodells mit Azure AI Video Indexer.

Neue Transkriptformate zum Herunterladen – TXT und CSV

Zusätzlich zum bereits unterstützten Untertitelformat (SRT, VTT und TTML) unterstützt Azure AI Video Indexer jetzt das Herunterladen des Transkripts in TXT- und CSV-Formaten.