Versionshinweise zu Azure AI Video Indexer
Überarbeiten Sie diese Seite, um die neuesten Updates anzuzeigen.
Um mit den neuesten Entwicklungen von Azure AI Video Indexer auf dem neuesten Stand zu bleiben, erhalten Sie in diesem Artikel Informationen zu folgenden Themen:
- Neueste Versionen
- Bekannte Probleme
- Behebung von Programmfehlern
- Veraltete Funktionen
November 2024
Multimodale Videozusammenfassung – Cloud und Edge
Wir freuen uns, eine multimodale Videozusammenfassung einzuführen, die unsere Textvideozusammenfassung verbessert, indem Keyframes zusammen mit Audio- und Videoeinblicken analysiert werden. Dieses Feature ist sowohl in der Cloud verfügbar, unterstützt von Azure OpenAI als auch im Edge als Teil von VI, der von ARC aktiviert ist. Es verwendet das neueste visuelle Phi3.5-Modell, das für die Ausführung mit GPUs konfiguriert werden kann, um die Leistung zu verbessern.
Erweiterte Aufforderungsinhalts-API
Unsere Video-zu-Text-API, auch bekannt als Prompt Content API, unterstützt jetzt weitere Modelle: Llama2, Phi3, Phi3, Phi3.5, GPT-4O und GPT-4O Mini. Diese Erweiterung bietet Ihnen eine größere Flexibilität beim Konvertieren von Videoinhalten in Text und eröffnet Ihnen bei verwendung von Azure Video Indexer weitere Möglichkeiten. Sie können Informationen aus Azure Video Indexer in einem Eingabeaufforderungsformat sammeln, das angepasst werden kann, indem Sie den Modellnamen auswählen und den Eingabeaufforderungsstil anpassen. Die Formatvorlage "Zusammengefasst" eignet sich ideal für Aufgaben wie Videozusammenfassungen, Benennen von Videos und Beschreiben von Hauptereignissen, während die Formatvorlage "Vollständig" für F&A, RAG und Suchanwendungsfälle besser geeignet ist. Weitere Informationen zu dieser API finden Sie unter Azure Video Indexer Operations and Prompt Content.
Oktober 2024
Neuer Beispielcode
Es gibt neuen Beispielcode zum Exportieren von Azure AI Video Indexer-Daten in Azure Data Explorer mit Logik-Apps.
August 2024
Verbesserte Sicherheit für textbezogene Videozusammenfassungen
Wir freuen uns, ihnen mitzuteilen, dass textual Video Summaryzation jetzt Unterstützung für die Verhinderung von Jailbreak-Angriffsrisiken enthält. Dieser neue Sicherheitsfilter muss Ihrem AOAI hinzugefügt werden, um vom Sprachmodell basierenden Textual Video Summaryzation zu profitieren. Weitere Informationen finden Sie in der Textvideozusammenfassung mit Azure OpenAI.
Textbezogene Videozusammenfassung auf einem Edgegerät
Wir haben den Blogbeitrag Azure AI Video Indexer & Phi-3 eingeführt Textual Video Summary on Edge: Better Together Story
Juli 2024
Textzusammenfassung zu VI aktiviert von Arc
Die Textzusammenfassungsfunktion ist jetzt mit dem neuesten Phi 3-Modell auf dem von Arc-Erweiterung aktivierten VI verfügbar. Sie können von der gleichen Funktionalität wie in der Cloud profitieren, einschließlich der Anpassung der Zusammenfassung mit mehreren Einstellungen: Formal, Casual, Short und Long.
Spracherkennungs-Improvments
- Umsatzzeit und Qualität der Sprachidentifikation wurde verbessert.
- Wenn in der Datei mehrere Sprachen vorhanden sind (und Sie nach einer einzelnen Sprachidentifikation gefragt haben):
- Die dominanteste Sprache, die für die längste Dauer angezeigt wurde, wird zurückgegeben.
- Das Artefakt enthält alle Sprachen, die im originalen Video durch Sprache identifiziert wurden.
- Das Transkript enthält nur die Zeilen der dominantesten Sprache und schließt Zeilen aus, die unterschiedliche Sprachen enthalten.
Verbesserungen bei Spieler und Barrierefreiheit
Der Website-Player wurde auf die neueste Version der Shaka-Basis aktualisiert. Der Spieler ist auch in den Widgets enthalten.
Barrierefreiheits-Improvments wurden für die Website implementiert.
Juni 2024
Codebeispiele
- Verwenden Sie den Azure AI Video-Indexer mit Azure Open AI, um die Suche nach relevanten Videoinhalten für Lernende und Trainer zu vereinfachen. Lesen Sie den Blogbeitrag Zur Verbesserung der Schulungssucherfahrung mit Azure AI Video Indexer und dem Quellcode.
- Verwenden Sie Azure LogicApps, um autos zu klassifizieren, die in einem Video erkannt wurden. Im Beispiel wird die Bring Your Own-Funktion von Video Indexer verwendet, um Objekte und die GPT-4 von Azure OpenAI zur erweiterten Klassifizierung zu erkennen. Sehen Sie sich die YouTube-Demo und den Beispielcode an.
Erhöhung des Grenzwerts für die Dateidauer
Alle Voreinstellungen unterstützen jetzt die Indizierung von Dateien bis zu 6 Stunden (der vorherige Grenzwert war 4 Stunden) und die Standardaudiovoreinstellung unterstützt die Indizierung von Dateien bis zu 12 Stunden Länge.
Mai 2024
Textzusammenfassung
Azure AI Video Indexer bietet jetzt eine kurze Zusammenfassung darüber, worum es bei einem Video geht, ohne das gesamte Video ansehen zu müssen. Es ist so konzipiert, dass Sie Zeit sparen, indem Sie lange Videos verdauen und Ihnen den Gist in einem kürzeren Format geben. Es destilliert langwierige Videos in präzise, verdauliche Zusammenfassungen.
Es verwendet Zusammenfassungsalgorithmen, um die relevantesten Erkenntnisse für das Video zu identifizieren. Es umfasst das Bewerten von Erkenntnissen basierend auf ihrer Wichtigkeit und Relevanz für das Gesamtthema. Mit einer benutzerfreundlichen Benutzeroberfläche können Sie Videos eingeben und den benötigten Zusammenfassungstyp anpassen.
Sie können die Zusammenfassung anpassen, indem Sie "Short", "Longer", "Formal" oder "Casual" auswählen sowie die spezifische Modellbereitstellung angeben.
Weitere Informationen zur Textzusammenfassung finden Sie unter "Übersicht über textbezogene Zusammenfassungen".
Azure OpenAI-Integration
Azure AI Video Indexer bietet jetzt eine Integration in Azure OpenAI. Sie können Ihre Azure OpenAI-Ressource verbinden, wenn Sie ein neues Azure Video Indexer-Konto erstellen oder es Ihrem vorhandenen Azure Video Indexer-Konto hinzufügen. Wenn Sie VI mit Azure OpenAI verbinden, können Sie die Textzusammenfassungsfunktion verwenden, die über die API und über das Portal verfügbar ist.
Weitere Informationen zum Verbinden von Azure OpenAI mit Ihrem VI-Konto finden Sie unter Erstellen oder Aktualisieren eines Azure AI Video Indexer-Kontos mit einer Azure OpenAI-Verbindung.
Erweiterung der Aufforderungsinhalts-API
Die Aufforderungs-Inhalts-API von Azure AI Video Indexer unterstützt jetzt weitere Sprachmodelle: Phi 2, Llama und GPT 4V. Die Verwendung der Eingabeaufforderungsinhalts-API mit GPT 4V gibt die Keyframes aus, die vom Sprachmodell zusammen mit den anderen Erkenntnissen analysiert werden können.
April 2024
Ausschließen von Modellen
Sie können jetzt Modelle ausschließen, wenn Sie sowohl über die VI-Website als auch über die API indiziert werden. Wenn Sie ein Video in einen Index hochladen, wählen Sie "Erweiterte Einstellungen>Indizierungsvoreinstellungen" aus, und wählen Sie dann die KI-Modelle aus, die aus den Indizierungsergebnissen ausgeschlossen werden sollen. Dies kann eine effizientere Indizierung und VI-Ergebnisse ermöglichen, die nur die Einblicke enthalten, an denen Sie interessiert sind.
Neue Verfügbarkeitsregion
Azure AI Video Indexer ist jetzt in Der Region Deutschland West Central verfügbar.
Februar 2024
AMS-lose Konten und Migrationsleitfaden
- Alle neuen VI-Konto-Videoverpackungen, Streaming und -Codierung werden von VI durchgeführt, und Sie können keine AMS-basierten VI-Konten mehr erstellen. Weitere Informationen finden Sie im Leitfaden zum Erstellen eines neuen Kontos.
- VI-Codierung/Verpackung wird mit einer Pauschalrate von 1 Cent pro Minute mit kostenlosem Streaming abgerechnet.
- Sie können Ihre VI-Konten von AMS-basiert auf dem neuen AMS-less-Kontotyp aktualisieren.
- Sie können sich dafür entscheiden, dass Ihre AMS VI-Ressourcen neu verarbeitet und von VI migriert werden, damit Sie weiterhin auf Ihre Videos und Einblicke zugreifen können. Die Migration beginnt Ende März.
- Videoindexer-Webapp und Widgets verwenden einen neuen Media Player, der hochgradig leistungsfähig ist und Azure Medienwiedergabe nicht mehr verwendet.
Die folgende Dokumentation führt Sie durch den Prozess der Konto- und Ressourcenmigration:
- Weitere Informationen finden Sie im Leitfaden zur Vorbereitung der AMS-Einstellung: VI-Migration und -Aktualisierung.
- Sehen Sie sich das Aktualisieren Ihres Azure AI Video Indexer-Kontos an und migrieren Sie Ressourcen.
- Siehe die neue API-Version.
TLS1.3-Unterstützung
Wir unterstützen TLS 1.3, die neueste Version des TLS-Protokolls (Transport Layer Security), das Daten verschlüsselt, um einen sicheren Kommunikationskanal zwischen zwei Endpunkten bereitzustellen.
Azure AI Video Indexer in Schweden Zentral und USA West3
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweden Central und US West3 erstellen.
Januar 2024
Neuer LLM-Eingabeaufforderungsinhalt
Sie können jetzt Ihre Videoeinblicke mit den LLMs (Large Language Model) für Aufgaben wie Zusammenfassung und Fragebeantwortung verbinden. Die API konvertiert Ihre Videoerkenntnisse in ein "prompt-ready"-Textformat für die Verwendung mit LLMs. Weitere Informationen finden Sie unter Azure AI Video Indexer mit LLM-Eingabeaufforderungen.
Dezember 2023
Neue voreingestellte Option – Standardvideo
VideoIndexer hat eine neue Indizierungsvoreinstellungsoption , Basic Video, hinzugefügt. Es ist auch auf dem vi aktiviert durch Arc Erweiterung verfügbar. Es handelt sich um eine kostengünstige Indizierungsoption, die viele nützliche KI-Erkenntnisse enthält, darunter OCR, Objekterkennung und visuelle Bezeichnungen. Einfaches Video kann verwendet werden, um Einblicke zusammen mit Basic Audio (Basic Audio and Video) oder eigenständig (nur Standardvideo) zu generieren. Weitere Informationen zu Ihren Indizierungsoptionen finden Sie im Konfigurationshandbuch für die Indizierung.
Frames-API abrufen
Sie können jetzt Frames aus einem indizierten Video für einen ausgewählten Videoabschnitt extrahieren, indem Sie eine FramesSasUrls
Anfrage stellen. Weitere Informationen finden Sie unter FrameSelection.
Eigenes Modell mitbringen (Vorschau)
- Unterstützung der Benutzeroberfläche für benutzerdefinierte Einblicke hinzugefügt.
- Suchunterstützung für benutzerdefinierte Einblicke hinzugefügt.
Weitere Informationen finden Sie unter Bring Your Own AI Model.
Suchen nach Objekt auf der Azure AI Video Indexer-Website und API
Sie können jetzt mithilfe der Suchfunktion nach Videos mit bestimmten Objekten (z. B. Autos, Motorrädern und mehr) auf der Azure AI Video Indexer-Website oder mithilfe einer Suchanfrage suchen.
November 2023
Der Videoindexer hat im November die folgenden Dinge veröffentlicht:
Azure AI Video Indexer aktiviert von Arc (Vorschau)
Sie können Videoindexer für Ihre Hybridszenarien verwenden, indem Sie sie lokal in einem Kubernetes-Cluster hosten. Weitere Informationen finden Sie im Azure AI Video Indexer, der von Arc aktiviert ist. Sie können die Erweiterung auch ausprobieren, indem Sie das Lernprogramm ausführen.
Eigenes Modell mitbringen (Vorschau)
Sie können Ihr eigenes angepasstes KI-Modell verwenden und die Daten in VideoIndexer-Modelle integrieren. Weitere Informationen finden Sie unter Bring Your Own AI model.
Benutzerdefinierte Tags und Kostenloser Text pro Video (Vorschau)
Sie können benutzerdefinierte Tags und Freitext als Videometadaten zu jedem Video in Ihrem Videoindexer-Konto hinzufügen. Auf diese Weise können Sie Ihre Videos mit allen informationen kategorisieren und kommentieren, die für Sie und Ihr Unternehmen relevant sind. Sie können z. B. Tags wie "Produktdemo", "Kundenzeugnisse" oder "interne Schulung" oder Freitext wie "Dieses Video zeigt, wie sie unser neues Feature X verwenden" oder "Dieses Video wurde auf unserer Jährlichen Konferenz in Y aufgezeichnet" hinzufügen. Sie können dem Bereich unterhalb des Videos hinzugefügt werden, nachdem das Video indiziert wurde.
Suche basierend auf benutzerdefinierten Tags und Freitext (Vorschau)
Sie können basierend auf ihren benutzerdefinierten Tags und Freitext nach Videos suchen. Auf diese Weise können Sie die Videos finden, die Ihren Kriterien leichter und schneller entsprechen. Sie können basierend auf benutzerdefinierten Tags und Freitext in allen unterstützten Sprachen suchen und sie mit anderen Suchfiltern wie Schlüsselwörtern, Gesichtern, Bezeichnungen, Emotionen usw. kombinieren. Sie können auch die erweiterte Suchsyntax verwenden, um komplexere Abfragen auszuführen. Sie können z. B. nach Videos suchen, die das Tag "Produktdemo" und den kostenlosen Text "Feature X" enthalten.
Wir haben dem angepassten Personenmodell eine Reihe von Verbesserungen hinzugefügt, die die Gesamterfahrung sowie die Genauigkeit verbessern. Personenmodelle sind gated KI-Modelle, mit denen Sie Ihr eigenes Modell trainieren können, um bestimmte Personen in Ihren Videos zu erkennen. Die neuen Ergänzungen sind:
Hinweis auf die Qualität des Personenmodells (Vorschau)
Sie erhalten einen Hinweis auf die Qualität Ihres angepassten People-Modells (schlecht, fair, gut). Die Qualität wird durch die Anzahl der Bilder bestimmt, die zum Bezeichnen mit den mehr Bildern verwendet werden, die Sie zum Bezeichnen einer Person verwenden, desto höher ist die Wahrscheinlichkeit, die Person richtig zu identifizieren. Beispielsweise ist die Wahrscheinlichkeit, eine Person mit 24 beschrifteten Bildern zu identifizieren, höher als die Wahrscheinlichkeit, eine Person mit 2 beschrifteten Bildern zu identifizieren. Sie können die Anzahl der Bilder sehen, die zum Bezeichnen der einzelnen Personen auf der angepassten Personenmodellseite verwendet werden.
Auswählen eines benutzerdefinierten Personenmodells als Standard (Vorschau)
Sie können jetzt ein angepasstes Personenmodell als Standard auf der Vi-Kontobenutzerebene auswählen, sodass Sie nicht den Modellnamen für jeden Videoupload auswählen müssen. Dadurch sparen Sie Zeit und Mühe, wenn Sie Videos hochladen, die von Ihrem angepassten Personenmodell analysiert werden müssen.
Gruppieren unbekannter Personen im Video (Vorschau)
Sie können die unbekannten Personen in Ihren Videos nach ihrer Ähnlichkeit gruppiert sehen. Auf diese Weise können Sie die unbekannten Personen einfacher und schneller bezeichnen und die Genauigkeit Ihres angepassten Personenmodells verbessern. Auf ihrer Anpassungsseite > können Sie die Gruppierung unbekannter Personen anzeigen und dann zur Registerkarte "Unbekannte Personen" navigieren. Dies könnte Ihnen beispielsweise helfen, einen lokalen Prominenten oder einen Lokalen Politiker zu bezeichnen.
Suchergebnisse mit maximaler Konfidenzbewertung für den namen der identifizierten Person (Vorschau)
Sie können nach dem Namen einer identifizierten Person suchen und erhalten, wenn die Person im Video mit der maximalen Konfidenzbewertung angezeigt wird. Auf diese Weise können Sie entscheiden, was die relevantesten Videos sind, die Sie erkunden möchten. Beispielsweise können Sie nach "John Smith" suchen und die Videos abrufen, in denen John Smith von Ihrem angepassten People-Modell erkannt wird, sowie die Konfidenzbewertung für jedes Video.
Vermeiden doppelter Indizierungsuploads
Gelegentlich übermitteln Sie versehentlich denselben Indizierungsauftrag mehrmals. Um dies zu vermeiden, wurde ein neuer optionaler Abfrageparameter hinzugefügt. preventDuplicates
Wenn dieser wert festgelegt ist true
, lehnt der Dienst einen Dateiupload ab und gibt einen Konflikt zurück, wenn er bereits indiziert wurde.
Die Upload-URL MD5-Duplikatprüfungen basieren auf dem Serverantwort-Content-md5-Header , sofern RFC 1864 vorhanden: Das Content-MD5-Headerfeld , wie es häufig von Speicheranbietern verwendet wird.
Wenn Sie dasselbe Video wiederholt hochladen möchten, können Sie den Parameter auf false
.
Oktober 2023
Neuer Einblick – Objekterkennung
Der Videoindexer hat sowohl der Standard- als auch der erweiterten Videovoreinstellung einen neuen Einblick, die Objekterkennung hinzugefügt. Es kann verwendet werden, um eine breite Palette von Objekten zu identifizieren und nachzuverfolgen, die in Ihren Videos angezeigt werden. Weitere Informationen finden Sie in der Übersicht über die Objekterkennung von Azure AI Video Indexer.To learn more, see Azure AI Video Indexer object detection overview.
September 2023
Änderungen im Zusammenhang mit der Einstellung von AMS
Aufgrund der Einstellung von Azure Media Services (AMS) vom 30. Juni 2024 hat Video Indexer eine Reihe verwandter Ausfälle angekündigt. Sie umfassen die Deaktivierung von klassischen Videoindexer-Konten, API-Änderungen und die Unterstützung der adaptiven Bitrate vom 30. Juni 2024. Ausführliche Informationen finden Sie unterÄnderungen im Zusammenhang mit der Einstellung des Azure Media Service (AMS).
Juli 2023
Redact-Gesichter mit der Azure AI Video Indexer-API
Sie können jetzt Gesichter mit der Azure AI Video Indexer-API rotieren. Weitere Informationen finden Sie unter Redact-Gesichter mit der Azure AI Video Indexer-API.
Erhöhung des API-Anforderungsgrenzwerts
Der Videoindexer hat die API-Anforderungsgrenze von 60 Anforderungen pro Minute auf 120 erhöht.
Juni 2023
Die Einstellung von Azure Media Services wurde angekündigt.
Mai 2023
API-Updates
Wir führen eine Änderung des Verhaltens ein, die möglicherweise eine Änderung ihrer vorhandenen Abfragelogik erfordert. Die Änderung befindet sich in den Listen- und Such-APIs , finden Sie eine detaillierte Änderung zwischen dem aktuellen und dem neuen Verhalten in einer folgenden Tabelle. Möglicherweise müssen Sie Ihren Code aktualisieren, um die neuen APIs zu verwenden.
API | Aktuell | Neue | Das Update |
---|---|---|---|
Videos auflisten | • Alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase' auflisten. Wenn "IsBase" nicht definiert ist, führen Sie beide auf. • Gibt Videos in allen Zuständen zurück (In Bearbeitung/Proccessed/Failed). |
• Die Videos-API gibt nur Videos (mit Paging) in allen Zuständen zurück. • Die Api "Projekte auflisten" gibt nur Projekte (mit Paging) zurück. |
• Die Listenvideo-API wurde in zwei neue Listenvideos und Listenprojekte der API unterteilt. • Der Parameter 'IsBase' hat keine Bedeutung mehr. |
Videos durchsuchen | • Durchsuchen Sie alle Videos/Projekte gemäß dem booleschen Parameter 'IsBase'. Wenn "IsBase" nicht definiert ist, suchen Sie beide. • Videos in allen Zuständen durchsuchen (In Bearbeitung/Proccessed/Failed). |
Suchen Sie nur verarbeitete Videos. | • Suchvideo-API sucht nur Videos und nicht Projekte. • Der Parameter 'IsBase' hat keine Bedeutung mehr. • Suchvideos-API durchsucht nur verarbeitete Videos (und nicht fehlgeschlagen/InProgress-Videos).) |
Unterstützung für HTTP/2
Unterstützung für HTTP/2 für unsere Data Plane-API hinzugefügt. HTTP/2 bietet mehrere Vorteile gegenüber HTTP/1.1, die weiterhin aus Gründen der Abwärtskompatibilität unterstützt werden. Einer der Hauptvorteile von HTTP/2 ist eine höhere Leistung, bessere Zuverlässigkeit und reduzierte Systemressourcenanforderungen über HTTP/1.1. Mit dieser Änderung unterstützen wir jetzt HTTP/2 sowohl für das Videoindexer-Portal als auch für unsere Data Plane-API. Wir empfehlen Ihnen, Ihren Code zu aktualisieren, um diese Änderung nutzen zu können.
Verbesserungen der Themenerblicke
Wir unterstützen jetzt alle fünf Ebenen der IPTC-Ontologie.
April 2023
Ressourcenintegritätsunterstützung
Azure AI Video Indexer ist jetzt in Azure Resource Health integriert, sodass Sie die Integrität und Verfügbarkeit jeder Ihrer Azure AI Video Indexer-Ressourcen sehen können. Azure Resource Health hilft auch bei der Diagnose und Lösung von Problemen, und Sie können Warnungen so festlegen, dass sie benachrichtigt werden, wenn Ihre Ressourcen betroffen sind. Weitere Informationen finden Sie in der Übersicht über Azure Resource Health.
Das Animationszeichenerkennungsmodell wurde eingestellt.
Das Animationszeichenerkennungsmodell wurde am 1. März 2023 eingestellt. Öffnen Sie bei verwandten Problemen ein Supportticket über das Azure-Portal.
Ausschließen vertraulicher KI-Modelle
Nach der Agenda von Microsoft Responsible AI können Sie mit Azure AI Video Indexer jetzt bestimmte KI-Modelle beim Indizieren von Mediendateien ausschließen. Die Liste der vertraulichen KI-Modelle umfasst: Gesichtserkennung, beobachtete Personen, Emotionen, Kennzeichnungen.
Dieses Feature ist derzeit über die API verfügbar und steht in allen Voreinstellungen außer der Voreinstellung "Erweitert" zur Verfügung.
Verbesserungen bei der Erkennung beobachteter Personen
Weitere Informationen finden Sie unter Überlegungen und Einschränkungen bei der Auswahl eines Anwendungsfalles.
März 2023
Unterstützung für Speicher hinter der Firewall
Es empfiehlt sich, Speicherkonten zu sperren und den öffentlichen Zugriff zu deaktivieren, um die Unternehmenssicherheitsrichtlinie zu verbessern oder einzuhalten. Videoindexer kann jetzt mithilfe der Azure Trusted Service-Ausnahme mithilfe von verwalteten Identitäten auf nicht öffentliche Speicherkonten zugreifen. Weitere Informationen zum Einrichten finden Sie in unserem Vorgehensweisen.
Neue benutzerdefinierte Sprach- und Ausspracheschulung
Azure AI Video Indexer hat eine neue benutzerdefinierte Sprachmodelloberfläche hinzugefügt. Die Erfahrung umfasst die Möglichkeit, benutzerdefinierte Aussprache-Datasets zu verwenden, um die Erkennung falsch wiedergegebener Wörter, Ausdrücke oder Namen zu verbessern. Die benutzerdefinierten Modelle können verwendet werden, um die Transkriptionsqualität von Inhalten mit branchenspezifischer Terminologie zu verbessern. Weitere Informationen finden Sie unter "Anpassen der Sprachmodellübersicht".
Beobachtete Verbesserungen der Qualität von Personen
Beobachtete Menschen unterstützen jetzt Menschen, die sitzen. Dies ist neben der bestehenden Unterstützung von Menschen, die stehen oder gehen. Diese Verbesserung macht beobachtetes Personenmodell vielseitiger und eignet sich für eine breitere Palette von Anwendungsfällen. Außerdem haben wir die Modell-Reidentifizierung und Gruppierungsalgorithmen um 50 % verbessert. Das Modell kann jetzt personen in mehreren Kameraansichten genauer nachverfolgen und gruppieren.
Optimierung der Indizierungsdauer beobachteter Personen
Wir haben die Speicherauslastung des beobachteten Personenmodells optimiert, was zu einer Verringerung der Indizierungsdauer bei Verwendung der voreingestellten erweiterten Videoanalyse um 60 % führt. Sie können Ihr Videomaterial jetzt effizienter verarbeiten und schneller Ergebnisse erzielen.
Februar 2023
Preise
Am 01. Januar 2023 haben wir die Erweiterte Audio- und Video-SKU für erweiterte Voreinstellungen eingeführt. Dies wurde durchgeführt, um die Verwendung der einzelnen voreingestellten, Basic, Standard & Advanced, mit einem eigenen Zähler in der Azure Billing-Anweisung zu melden. Dies kann auch in Azure Cost Analysis-Berichten angezeigt werden.
Ab dem 1. Februar freuen wir uns, eine Preissenkung von 40 % für die SKUs für die Grundlegende Audioanalyse, Audioanalyse und Videoanalyse bekanntzugeben. Wir haben Feedback unserer Kunden und Markttrends berücksichtigt, um Änderungen vorzunehmen, die ihnen zugute kommen. Durch die Reduzierung der Preise und die Einführung einer neuen erweiterten SKU bieten wir wettbewerbsfähige Preise und mehr Optionen für Kunden, um Kosten und Features auszugleichen. Darüber hinaus können Kunden, da wir weiterhin mehr KI-Funktionen verbessern und hinzufügen, diese Kosteneinsparungen nutzen, wenn neue oder neu indizierende Vorgänge ausgeführt werden.
Diese Änderung wird automatisch implementiert, und Kunden, die bereits über Azure-Rabatte verfügen, erhalten sie weiterhin zusätzlich zu den neuen Preisen.
Gebühr | Grundlegende Audioanalyse | Standardaudioanalyse | Erweiterte Audioanalyse | Standardvideoanalyse | Erweiterte Videoanalyse |
---|---|---|---|---|---|
Pro Eingabeminute | $0,0126 | $0,024 | 0,04 USD | $0,09 | $0.15 |
Netzwerkdiensttag
Videoindexer unterstützt die Verwendung des Netzwerksicherheitstags, um Netzwerkdatenverkehr von Videoindexer-IPs in Ihr Netzwerk zuzulassen. Ab dem 22. Januar haben wir unser Network Security Service-Tag von AzureVideoAnalyzerForMedia
zu VideoIndexer
" umbenannt. Diese Änderung erfordert, dass Sie Ihre Bereitstellungsskripts und/oder vorhandene Konfiguration aktualisieren. Weitere Informationen finden Sie in unserer Netzwerksicherheitsdokumentation .
Januar 2023
Benachrichtigungserfahrung
Die Azure AI Video Indexer-Website verfügt jetzt über einen Benachrichtigungsbereich, in dem Sie über wichtige Produktupdates informiert bleiben können, wie z. B. Dienstauswirkungen, neue Versionen und vieles mehr.
Erkennung von Textlogos
Mit der Erkennung von Textlogos können Sie Textlogos anpassen, die in Videos erkannt werden. Weitere Informationen finden Sie unter Erkennen eines Textlogos.
Wechseln von Verzeichnissen
Sie können jetzt entra-ID-Verzeichnisse wechseln und Azure AI Video Indexer-Konten über Mandanten hinweg verwalten, indem Sie die Azure AI Video Indexer-Website verwenden.
Sprachunterstützung
- Neue Sprachen werden jetzt unterstützt: Irisch, Bulgarisch, Katalanisch, Griechisch, Estnisch, Kroatisch, Lettisch, Rumänisch, Slowakisch, Slowenisch, Slowenisch, Slowenisch, Kannada, Isländisch, Armenisch, Gujarati, Malaiisch und Tamilisch.
- Verwenden Sie eine API, um alle unterstützten Sprachen abzurufen: Unterstützte Sprachen abrufen.
Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.
Gesichtsgruppierung
Die Anzahl der Vorkommen der Gesichtserkennung in niedriger Qualität in der Benutzeroberfläche und insights.json erheblich reduziert. Verbesserung der Qualität und Benutzerfreundlichkeit durch verbesserten Gruppierungsalgorithmus.
November 2022
Die Namen der Referenten können jetzt von der Azure AI Video Indexer-Website bearbeitet werden.
Sie können jetzt neue Lautsprecher hinzufügen, identifizierte Lautsprecher umbenennen und lautsprecher ändern, die einer bestimmten Transkriptzeile zugewiesen sind, mithilfe der Azure AI Video Indexer-Website. Ausführliche Informationen zum Bearbeiten von Sprechern aus dem Zeitachsenbereich finden Sie unter Bearbeiten von Sprechern mit der Azure AI Video Indexer-Website.
Die gleichen Funktionen sind über die Azure AI Video Indexer Upload-Videoindex-API verfügbar.
Oktober 2022
Eine neue integrierte Rolle: „Eingeschränkter Video Indexer-Betrachter“
Die Eingeschränkte Zugriffsrolle "VideoIndexer Restricted Viewer " ist für benutzer der Azure AI Video Indexer-Website vorgesehen. Die zulässigen Aktionen der Rolle beziehen sich auf die Azure AI Video Indexer-Websiteoberfläche .
Weitere Informationen finden Sie unter Verwalten des Zugriffs mit der Video Indexer-Rolle „Eingeschränkter Betrachter“.
Einblicke zur Erkennung von Slate (Vorschau)
Die folgenden Slate-Erkennungseinblicke (ein Film nach der Produktion) werden automatisch identifiziert, wenn ein Video mithilfe der erweiterten Indizierungsoption indiziert wird:
- Clapperboard-Erkennung mit Metadatenextraktion.
- Erkennung digitaler Muster, einschließlich Farbbalken.
- Textlose Slate-Erkennung, einschließlich Szenenabgleich.
Einzelheiten finden Sie unter Slate-Erkennung.
Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche
Unterstützt nun Quellsprachen für STT (Spracherkennung), Übersetzung und Suche auf Ukrainisch und Vietnamesisch. Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website , Widgets und APIs unterstützt werden.
Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.
Bearbeiten des Namens eines Sprechers in der Transkription über die API
Sie können nun den Namen der Lautsprecher in der Transkription mithilfe der Azure AI Video Indexer-API bearbeiten.
Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung
Unterstützung der Zeitanmerkung auf Word-Ebene mit Konfidenzbewertung.
Eine Anmerkung ist eine beliebige Art zusätzlicher Informationen, die einem bereits vorhandenen Text hinzugefügt werden, sei es eine Transkription einer Audiodatei oder einer ursprünglichen Textdatei.
Weitere Informationen finden Sie unter Untersuchen von Transkriptionsinformationen auf Wortebene.
Azure Monitor-Integration zum Aktivieren von Indizierungsprotokollen
Die neue Gruppe von Protokollen, die unten beschrieben werden, ermöglicht es Ihnen, Ihre Indizierungspipeline besser zu überwachen.
Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Indizierungsereignisse. Sie können jetzt Protokollüberwachungsuploads exportieren und Mediendateien über Diagnoseeinstellungen in Azure Log Analytics, Speicher, Event Hubs oder eine Drittanbieterlösung neu indizieren.
Erweiterte unterstützte Sprachen in LID und MLID über die Azure AI Video Indexer-API
Erweiterte Sprachen, die in LID (Sprachidentifikation) und MLID (Multi language Identification) mit der Azure AI Video Indexer-API unterstützt werden.
Folgende Sprachen werden jetzt über die API unterstützt: Arabisch (Vereinigte Arabische Emirate), Arabisch (modernes Hocharabisch), Arabisch (Ägypten), Arabisch (Irak), Arabisch (Jordanien), Arabisch (Kuwait), Arabisch (Oman), Arabisch (Katar), Arabisch (Saudi-Arabien), Arabisch (Arabische Republik Syrien), Tschechisch, Dänisch, Deutsch, Englisch (Australien), Englisch (Vereinigtes Königreich), Englisch (USA), Spanisch, Spanisch (Mexiko), Finnisch, Französisch (Kanada), Französisch, Hebräisch, Hindi, Italienisch, Japanisch, Koreanisch, Norwegisch, Niederländisch, Polnisch, Portugiesisch, Portugiesisch (Portugal), Russisch, Schwedisch, Thailändisch, Türkisch, Ukrainisch, Vietnamesisch, Chinesisch (vereinfacht), Chinesisch (Kantonesisch, traditionell).
Um die Liste der Sprachen anzugeben, die bei der automatischen Erkennung von LID oder MLID identifiziert werden sollen, können Sie die API zum Hochladen eines Videos aufrufen und den Parameter customLanguages
mit bis zu zehn der unterstützten Sprachen festlegen. Beachten Sie, dass die im Parameter customLanguages
angegebenen Sprachen auf Sprachebene verglichen werden und daher nur ein einzelnes Gebietsschema pro Sprache enthalten sollten.
Weitere Informationen finden Sie unter Sprach- und Regionsunterstützung für die Textanalyse-API.
Konfigurieren des Konfidenzniveaus in einem Personenmodell mit einer API
Verwenden Sie die API Patch-Personenmodell, um das Konfidenzniveau für die Gesichtserkennung innerhalb eines Personenmodells zu konfigurieren.
Anzeigen von Sprechern in Untertiteln
Sie können jetzt Lautsprecher in Untertiteln des Azure AI Video Indexer Media Players anzeigen. Weitere Informationen finden Sie unter Anzeigen von Untertiteln auf der Azure AI Video Indexer-Website.
Steuern von Begrenzungsrahmen für Gesichter und Personen mithilfe von Parametern
Der neue URL-Parameter boundingBoxes
steuert die Option zum Aktivieren bzw. Deaktivieren von Begrenzungsrahmen beim Einbetten eines Players. Weitere Informationen zum Einbetten von Widgets finden Sie hier.
Steuern der automatischen Wiedergabe über die Kontoeinstellungen
Steuern Sie über die Benutzereinstellungen, ob eine Mediendatei automatisch wiedergegeben wird, wenn sie mithilfe der Web-App geöffnet wird. Navigieren Sie zur Azure AI Video Indexer-Website –> dem Zahnradsymbol (die obere rechte Ecke) –> Benutzereinstellungen –> Mediendateien automatisch wiedergeben.
Kopieren der Video-ID aus der Playeransicht
Die Video-ID kopieren ist verfügbar, wenn Sie das Video auf der Azure AI Video Indexer-Website auswählen.
Neues dunkles Design in nativen Azure-Farben
Wählen Sie das gewünschte Design auf der Azure AI Video Indexer-Website aus. Wählen Sie das Zahnradsymbol (rechts oben) und anschließend > aus.
Durchsuchen oder Filtern der Kontoliste
Sie können die Kontoliste anhand des Kontonamens oder der Region durchsuchen oder filtern. Wählen Sie Benutzerkonten in der oberen rechten Ecke der Azure AI Video Indexer-Website aus.
September 2022
Allgemeine Verfügbarkeit ARM-basierter Konten
Mit einem auf Azure Resource Management (ARM) basierenden kostenpflichtigen (unbegrenzten) Konten können Sie Folgendes verwenden:
- Rollenbasierte Azure-Zugriffssteuerung (RBAC)
- Verwaltete Identität, um die Kommunikation zwischen Ihrem Azure Media Services- und Azure AI Video Indexer-Konto, Netzwerkdiensttags und nativer Integration in Azure Monitor zu schützen, um Ihr Konto zu überwachen (Überwachungs- und Indizierungsprotokolle).
- Skalieren und Automatisieren der Bereitstellung mit ARM-Vorlage, Bicep oder Terraform
- Erstellen Sie einen Logik-Apps-Connector für ARM-basierte Konten.
Informationen zum Erstellen eines ARM-basierten Kontos finden Sie unter Tutorial: Erstellen eines ARM-basierten Kontos mit Azure-Portal.
August 2022
Aktualisiertes Themenrückschlussmodell
Azure AI Video Indexer Thema Inferencing-Modell wurde aktualisiert und jetzt extrahieren wir mehr als 6,5 Millionen Themen (z. B. Themen wie Covid-Virus). Um von den neuesten Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.
Themenrückschlussmodell jetzt für Azure Government verfügbar
Sie können jetzt das Modell zur Ableitung von Themen in Ihrem kostenpflichtigen Azure AI Video Indexer-Konto in Azure Government in Virginia und Arizona nutzen. Mit diesem Release wurde KI-Parität zwischen der globalen Azure-Lösung und Azure Government hergestellt. Um von den Modellupdates zu profitieren, müssen Sie Ihre Videodateien neu indizieren.
Die Sitzungslänge beträgt jetzt 30 Tage auf der Azure AI Video Indexer-Website
Die Sitzungsdauer der Azure AI Video Indexer-Website wurde auf 30 Tage verlängert. Sie können Ihre Sitzung beibehalten, ohne sich alle 1 Stunde erneut anmelden zu müssen.
Juli 2022
Erkenntnisse zu ausgewählten Kleidungsstücken (Vorschau)
Erkenntnisse zu ausgewählten Kleidungsstücken ermöglichen eine gezieltere Anzeigenschaltung.
Die Erkenntnisse geben Auskunft über die wichtigsten Kleidungsstücke, die von den Personen in einem Video getragen werden, sowie über den Zeitstempel, zu dem die Kleidung zu sehen ist. Dies ermöglicht qualitativ hochwertige kontextbezogene Werbung in Video, bei der relevante Kleidungsanzeigen mit der spezifischen Zeit innerhalb des Videos abgeglichen werden, in dem sie angezeigt werden.
Um die empfohlene Kleidung einer beobachteten Person anzuzeigen, müssen Sie das Video mithilfe der erweiterten Videoeinstellungen von Azure AI Video Indexer indizieren. Einzelheiten dazu, wie die Bilder für ausgewählte Kleidungsstücke eingeordnet werden und wie diese Erkenntnisse angezeigt werden können, finden Sie unter Ausgewählte Kleidung von Personen (Vorschau).
Juni 2022
Verbesserungen am Blatt „Video Indexer erstellen“ im Azure-Portal
Azure AI Video Indexer unterstützt jetzt die Erstellung neuer Ressourcen mithilfe der vom System zugewiesenen verwalteten Identität oder des Systems und der vom Benutzer zugewiesenen verwalteten Identität für dieselbe Ressource.
Sie können die primäre verwaltete Identität darüber hinaus mithilfe der Registerkarte Identität im Azure-Portal ändern.
Eingeschränkter Zugriff auf Features zur Erkennung von Prominenten und Gesichtsidentifikation
Als Teil des Engagements von Microsoft für verantwortungsvolle KI entwickeln und veröffentlichen wir Azure AI Video Indexer – Identifikations- und Prominentenerkennungsfeatures. Diese Features sollen die Rechte von Einzelpersonen und der Gesellschaft schützen und die transparente Mensch-Computerinteraktion fördern. Daher gibt es einen eingeschränkten Zugriff und die Verwendung von Azure AI Video Indexer – Identifikations- und Prominentenerkennungsfeatures.
Für die Identifikations- und Prominenten-Erkennungsfeatures ist Registrierung erforderlich, und sie sind nur für von Microsoft verwaltete Kunden und Partner verfügbar. Kunden, die dieses Feature verwenden möchten, müssen sich bewerben und ein Aufnahmeformular einreichen. Weitere Informationen finden Sie unter Azure AI Video Indexer mit eingeschränktem Zugriff.
Beachten Sie bitte auch den Ankündigungsblogbeitrag sowie Investitionen und Schutzvorrichtungen für die Gesichtserkennung.
Mai 2022
Zeilenumbruch in Transkripts
Verbesserte Zeilenumbruchlogik, um das Transkript besser in Sätze zu teilen. Neue Bearbeitungsfunktionen sind jetzt über die Azure AI Video Indexer-Website verfügbar, z. B. hinzufügen einer neuen Zeile und Bearbeiten des Zeitstempels der Zeile. Weitere Informationen finden Sie unter Einfügen oder Entfernen von Transkriptzeilen.
Azure Monitor-Integration
Azure AI Video Indexer unterstützt jetzt Diagnoseeinstellungen für Überwachungsereignisse. Protokolle von Überwachungsereignissen können jetzt über Diagnoseeinstellungen in Azure Log Analytics, Storage, Event Hubs oder eine Drittanbieterlösung exportiert werden.
Die Ergänzungen ermöglichen einen einfacheren Zugriff, um die Daten zu analysieren, den Ressourcenvorgang zu überwachen und automatisch Flows zu erstellen, um auf ein Ereignis zu reagieren. Weitere Informationen finden Sie unter Monitor Azure AI Video Indexer.
Verbesserungen bei Erkenntnissen aus Videos
Object Character Reader (OCR) wurde um 60 % verbessert. Die Gesichtserkennung wurde um 20 % verbessert. Die Beschriftungsgenauigkeit wurde bei einer Vielzahl von Videos um 30 % verbessert. Diese Verbesserungen sind sofort in allen Regionen verfügbar und erfordern keine Änderungen des Kunden.
Diensttag
Azure AI Video Indexer ist jetzt Teil von Network Service Tags. Video Indexer muss häufig auf andere Azure-Ressourcen zugreifen (z. B. Storage). Wenn Sie Ihren eingehenden Datenverkehr zu Ihren Ressourcen mit einer Netzwerksicherheitsgruppe sichern, können Sie jetzt Video Indexer als Teil der integrierten Diensttags auswählen. Dadurch wird das Sicherheitsmanagement vereinfacht, da wir das Diensttag mit unseren öffentlichen IP-Adressen auffüllen.
Umschalter für Prominentenerkennung
Sie können jetzt das Prominentenerkennungsmodell auf Kontoebene (nur auf klassischem Konto) aktivieren oder deaktivieren. Um das Modell ein- oder auszuschalten, wechseln Sie zur Modellanpassung>und schalten Sie das Modell ein oder aus. Nachdem Sie das Modell deaktiviert haben, enthält Videoindexer-Insights nicht mehr die Ausgabe des Prominentenmodells und führt die Pipeline des Prominentenmodells nicht aus.
Name des Azure AI Video Indexer-Repositorys
Ab dem 1. Mai wurde unser neues aktualisiertes Repository des Azure AI Video Indexer-Widgets umbenannt. Verwenden Sie stattdessen https://www.npmjs.com/package/@azure/video-indexer-widgets.
April 2022
Azure Video Analyzer für Medien wieder in Azure AI Video Indexer umbenannt
Ab heute ist der Azure Video Analyzer für Medienproduktname Azure AI Video Indexer und alle produktbezogenen Objekte (Webportal, Marketingmaterialien). Es ist eine abwärtskompatible Änderung, die keine Auswirkung auf APIs und Links hat. Neues Logo des Azure AI Video Indexers:
März 2022
Untertiteldateien unterstützen jetzt Attribute von Sprechern
Mit dem Azure AI Video Indexer können Sie die Merkmale von Lautsprechern basierend auf einer Datei mit Untertiteln einschließen, die Sie herunterladen möchten. Um Sprecherattribute einzuschließen, wählen Sie „Downloads“ > „Untertitel“ > das Format der Untertiteldatei für den Download (SRT, VTT, TTML, TXT oder CSV) aus und aktivieren dann das Kontrollkästchen Lautsprecher enthalten.
Verbesserungen beim Widgetangebot
Die folgenden Verbesserungen wurden vorgenommen:
- Azure AI Video Indexer Widgets unterstützen mehr als 1 Gebietsschema im Parameter eines Widgets.
- Die Erkenntnis-Widgets unterstützen anfängliche Suchparameter und mehrere Sortieroptionen.
- Die Erkenntnis-Widgets enthalten auch einen Bestätigungsschritt vor dem Löschen eines Gesichts, um Fehler zu vermeiden.
- Die Widgetanpassung unterstützt jetzt die Breite als Zeichenfolgen (z. B. 100 %, 100vw).
Februar 2022
Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM in der Government-Cloud
Die Azure AI Video Indexer-Website unterstützt jetzt die Kontoverwaltung basierend auf ARM in der öffentlichen Vorschau (siehe Versionshinweise vom November 2021).
Nutzen von Open-Source-Code zum Erstellen eines ARM-basierten Kontos
Es wurden neue Codebeispiele hinzugefügt, einschließlich HTTP-Aufrufen zur Verwendung der Azure AI Video Indexer-API zum Erstellen, Lesen, Aktualisieren und Löschen (CRUD) ARM-API für Lösungsentwickler.
Januar 2022
Verbesserte Erkennung von Audioeffekten
Die Erkennungsfunktion für Audioeffekte wurde verbessert und erzielt jetzt eine bessere Erkennungsrate gegenüber den folgenden Klassen:
- Reaktionen einer Menschenmenge (Jubeln, Klatschen und Buhrufe)
- Schüsse oder Explosionen
- Gelächter
Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.
Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche auf der Website
Azure AI Video Indexer führt Quellsprachenunterstützung für STT (Sprach-zu-Text), Übersetzung und Suche in Hebräisch (he-IL), Portugiesisch (pt-PT) und Persisch (fa-IR) auf der Azure AI Video Indexer-Website ein. Dies bedeutet, dass Transkription, Übersetzung und Suchfunktionen auch für diese Sprachen auf der Azure AI Video Indexer-Website und -Widgets unterstützt werden.
Dezember 2021
Das Projektfeature ist jetzt allgemein verfügbar
Das Projektfeature ist jetzt allgemein verfügbar und kann produktiv verwendet werden. Es gibt keine Auswirkungen auf die Preise im Zusammenhang mit dem Übergang "Vorschau auf GA". Informationen hierzu finden Sie unter Hinzufügen von Videoclips zu Ihren Projekten.
Unterstützung neuer Quellsprachen für Spracherkennung, Übersetzung und Suche auf API-Ebene
Azure AI Video Indexer führt Quellsprachenunterstützung für STT (Sprache zu Text), Übersetzung und Suche in Hebräisch (he-IL), Portugiesisch (pt-PT) und Persisch (fa-IR) auf API-Ebene ein.
Erkennungsfunktion für übereinstimmende Personen
Beim Indizieren eines Videos mit erweiterten Azure AI Video Indexer-Videoeinstellungen können Sie die neue Erkennungsfunktion für übereinstimmende Personen anzeigen. Wenn in Ihrer Mediendatei Personen ermittelt werden, können Sie jetzt über den Media Player diejenige Person anzeigen, die eine Übereinstimmung erzielt.
November 2021
Öffentliche Vorschau der Azure AI Video Indexer-Kontoverwaltung basierend auf ARM
Azure AI Video Indexer führt eine öffentliche Vorschau der azure Resource Manager (ARM)-basierten Kontoverwaltung ein. Sie können ARM-basierte Azure AI Video Indexer-APIs nutzen, um ein Konto aus dem Azure-Portal zu erstellen, zu bearbeiten und zu löschen.
Hinweis
Die Government-Cloud umfasst Unterstützung für CRUD ARM-basierte Konten aus der Azure AI Video Indexer-API und aus dem Azure-Portal.
Derzeit gibt es keine Unterstützung von der Azure AI Video Indexer-Website.
Weitere Informationen zum Erstellen eines Azure AI Video Indexer-Kontos.
Erkennung der Bekleidung von Personen
Beim Indizieren eines Videos mit erweiterten Azure AI Video Indexer-Videoeinstellungen können Sie die Erkennungsfunktion der neuen Personen anzeigen. Wenn personen in Ihrer Mediendatei erkannt werden, können Sie nun den Kleidungstyp anzeigen, den sie über den Media Player tragen.
Gesichtsbegrenzungsrahmen (Vorschau)
Bei der Indizierung von Mediendateien können Sie jetzt einen Begrenzungsrahmen für die erkannten Gesichter aktivieren. Diese Funktion ist verfügbar, wenn Sie für die Indizierung Ihrer Datei die standardäßige, einfache oder erweiterte Indizierungsvoreinstellung verwenden.
Sie können die Begrenzungsrahmen über den Player aktivieren.
Oktober 2021
Einbetten von Widgets in Ihre App mithilfe des Azure AI Video Indexer-Pakets
Verwenden Sie das neue NPM-Paket (Azure AI Video Indexer), @azure/video-analyzer-for-media-widgets
um Ihrer App Widgets hinzuzufügen insights
und entsprechend Ihren Anforderungen anzupassen.
Mit dem neuen AVAM-Paket können Sie ganz einfach unsere Widgets und Ihre App einbetten und kommunizieren, anstatt ein iframe
-Element zum Einbetten des Erkenntniswidgets hinzuzufügen. Weitere Informationen finden Sie unter Einbetten und Anpassen von Azure AI Video Indexer Widgets in Ihrer App.
August 2021
Erneutes Indizieren von Video- oder Audiodateien
Es gibt jetzt eine Option zum Erneuten Indizieren von Video- oder Audiodateien, die während des Indizierungsprozesses fehlgeschlagen sind.
Verbesserte Unterstützung für Barrierefreiheit
Fehler im Zusammenhang mit CSS, Designs und Barrierefreiheit wurden behoben:
- Hoher Kontrast
- Kontoeinstellungen und Ansichten zu Erkenntnissen im Portal.
Juli 2021
Automatische Skalierung reservierter Einheiten für Medien
Ab dem 1. August 2021 hat Azure AI Video Indexer die automatische Skalierung von Media Reserved Units (MRUs) durch Azure Media Services aktiviert, daher müssen Sie sie nicht über Azure AI Video Indexer verwalten. Dies ermöglicht eine Preisoptimierung, z. B. in vielen Fällen eine Preissenkung, die sich an den Anforderungen Ihres Unternehmens orientiert, während es automatisch skaliert wird.
Juni 2021
Azure AI Video Indexer in sechs neuen Regionen bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in Den Regionen Frankreich Central, Central US, Brasilien Süd, West Central US, Korea Central und Japan West erstellen.
Mai 2021
Unterstützung neuer Quellsprachen für Sprache-in-Text (STT), Übersetzung und Suche
Azure AI Video Indexer unterstützt jetzt STT, Übersetzung, und suchen Sie in Chinesisch (Kantonesisch) ('zh-HK'), Niederländisch (Niederlande) ('Nl-NL'), Tschechisch ('Cs-CZ'), Polnisch ('Pl-PL'), Schwedisch ('Sv-SE'), Norwegisch('nb-). NO'), Finnisch('fi-FI'), Kanadisches Französisch ('fr-CA'), Thai('th-TH'), Arabisch: (Vereinigte Arabische Emirate) ('ar-AE', 'ar-EG'), (Irak) ('ar) ('ar) -IQ'), (Jordanien) ('ar-JO'), (Kuwait) ('ar-KW'), (Libanon) ('ar-LB'), (Oman) ('ar-OM'), (Katar) ('ar-QA'), (Palästinensische Behörde) ('ar-PS'), (Syrien) ('ar-SY'), und Türkisch('tr-TR').
Diese Sprachen sind sowohl in der API als auch auf der Azure AI Video Indexer-Website verfügbar. Wählen Sie im Kombinationsfeld unter Ausgangssprache des Videos die Sprache aus.
Neues Design für Azure AI Video Indexer
Es ist ein neues Design verfügbar: „Azure“ zusammen mit den Designs „hell“ und „dunkel“. Um ein Design auszuwählen, wählen Sie auf dem Zahnradsymbol in der oberen rechten Ecke der Website Designs unter "Benutzereinstellungen" aus.
Neuer Open-Source-Code, den Sie nutzen können
Drei neue GitHub-Projekte sind in unserem GitHub-Repository verfügbar:
Code, der Ihnen hilft, die neu hinzugefügte Widget-Anpassung zu nutzen.
Lösung, mit der Sie Ihren Videobibliotheken eine Deduplizierung hinzufügen können.
Neue Option zum Umschalten von Begrenzungsrahmen (für beobachtete Personen) für den Player
Wenn Sie ein Video über unsere erweiterten Videoeinstellungen indizieren, werden unsere neuen Funktionen für beobachtete Personen angezeigt. Wenn in Ihrer Mediendatei Personen erkannt werden, können Sie über den Media Player einen Begrenzungsrahmen für die erkannte Person aktivieren.
April 2021
Der Videoindexer-Dienst wurde in Azure AI Video Indexer umbenannt.
Verbesserte Uploadfunktionalität im Portal
Azure AI Video Indexer verfügt über eine neue Upload-Erfahrung auf der Website. Um Ihre Mediendatei hochzuladen, klicken Sie auf der Registerkarte Mediendateien auf die Schaltfläche Hochladen.
Neues Entwicklerportal in gov-cloud verfügbar
Das Azure AI Video Indexer API-Entwicklerportal ist jetzt auch in Azure für US Government verfügbar.
Erkennung beobachteter Personen (Vorschau)
Azure AI Video Indexer erkennt jetzt beobachtete Personen in Videos und stellt Informationen bereit, z. B. den Ort der Person im Videoframe und den genauen Zeitstempel (Start, Ende), wenn eine Person angezeigt wird. Die API gibt die Begrenzungsfeldkoordinaten (in Pixel) für jede erkannte Personeninstanz einschließlich Konfidenz zurück.
Wenn ein Video beispielsweise eine Person enthält, listet der Erkennungsvorgang das Erscheinen dieser Person zusammen mit ihren Koordinaten in den Videoframes auf. Sie können diese Funktion verwenden, um den Weg der Person in einem Video zu bestimmen. Sie können außerdem ermitteln, ob mehrere Instanzen derselben Person einem Video enthalten sind.
Das neu hinzugefügte Feature zur Erkennung beobachteter Personen ist beim Indizieren Ihrer Datei verfügbar, indem Sie die > "Erweitertes Video" oder "Erweitertes Video + Audiovoreinstellung" (unter "Video + Audioindizierung") auswählen. Standard- und grundlegende Indizierungsvoreinstellungen enthalten dieses neue erweiterte Modell nicht.
Wenn Sie Insights Ihres Videos auf der Azure AI Video Indexer-Website anzeigen möchten, wird die Erkennung beobachteter Personen auf der Seite mit allen erkannten Personenminiaturansichten angezeigt. Sie können eine Miniaturansicht einer Person auswählen und sehen, wo die Person im Videoplayer erscheint.
Das Feature ist auch in der JSON-Datei verfügbar, die von Azure AI Video Indexer generiert wird. Weitere Informationen finden Sie unter "Beobachtete Personen" in einem Video.
Mit Audioeffekterkennung erkannte Akustikereignisse (Vorschau)
Sie können jetzt die erkannten Akustikereignisse in der Untertiteldatei sehen. Die Datei kann von der Azure AI Video Indexer-Website heruntergeladen werden und ist als Artefakt in der GetArtifact-API verfügbar.
Die Komponente Erkennung von Audioeffekten (Vorschau) erkennt verschiedene Akustikereignisse und klassifiziert sie in verschiedene Akustikkategorien (z. B. Schüsse, Schreie, Reaktionen einer Menschenmenge usw.). Weitere Informationen finden Sie im Artikel zum Erkennen von Audioeffekten.
März 2021
Audioanalyse
Die Audioanalyse ist jetzt in einem zusätzlichen neuen Paket mit Audiofeatures zu einem anderen Preis verfügbar. Die neue Analysevoreinstellung Grundlegende Audiofunktionen bietet eine kostengünstige Option zum reinen Extrahieren von Transkriptionen für gesprochenen Text sowie zum Übersetzen und Formatieren von Beschriftungstext und Untertiteln. Durch die Voreinstellung Grundlegende Audiofunktionen werden auf Ihrer Rechnung zwei separate Verbrauchseinheiten generiert. Diese umfassen eine Zeile für die Transkription und eine separate Zeile für die Formatierung von Beschriftungstext und Untertiteln. Weitere Preisinformationen finden Sie auf der Seite mit Media Services-Preisen.
Das neu hinzugefügte Paket ist verfügbar, wenn Sie beim Indizieren oder Neuindizieren Ihrer Datei die Voreinstellung Erweiterte Option ->Grundlegende Audiofunktionen (im Dropdownfeld Video- und Audioindizierung) auswählen.
Neues Entwicklerportal
Azure AI Video Indexer verfügt über ein neues Entwicklerportal. Probieren Sie die neuen Azure AI Video Indexer-APIs aus, und suchen Sie alle relevanten Ressourcen an einer zentralen Stelle: GitHub-Repository, Stack Overflow, Azure AI Video Indexer Tech Community mit relevanten Blogbeiträgen, Azure AI Video Indexer FAQs, User Voice, um Ihr Feedback und Vorschläge Features bereitzustellen, und den Link "CodePen" mit Widgets-Codebeispielen.
Erweiterte Anpassungsmöglichkeiten für das Erkenntnis-Widget
DAS SDK ist jetzt verfügbar, um das Insights-Widget von Azure AI Video Indexer in Ihren eigenen Dienst einzubetten und seinen Stil und seine Daten anzupassen. Das SDK unterstützt das standardmäßige Azure AI Video Indexer Insights Widget und ein vollständig anpassbares Insights-Widget. Codebeispiel ist im GitHub-Repository von Azure AI Video Indexer verfügbar. Mit diesen erweiterten Anpassungsfunktionen kann Lösungsentwickler benutzerdefinierte Formatierungen anwenden und die eigenen KI-Daten des Kunden bereitstellen und diese im Einblicks-Widget (mit oder ohne Azure AI Video Indexer Insights) präsentieren.
Azure AI Video Indexer in den USA North Central, USA West und Kanada Central bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen North Central, USA West und Kanada erstellen.
Unterstützung neuer Quellsprachen für Sprache-in-Text (STT), Übersetzung und Suche
Azure AI Video Indexer unterstützt jetzt STT, Übersetzung und Suche in Dänisch ('da-DK'), Norwegisch('nb-NO'), Schwedisch('sv-SE'), Finnisch('fi-FI'), Kanadisches Französisch ('fr-CA'), Thai('th-TH'), Arabisch ('ar-BH', 'ar-EG', 'ar-IQ', 'ar-JO', 'ar-KW', 'ar-LB', 'ar-OM', 'ar-QA', 'ar-S' und 'ar-SY') und Türkisch('tr-TR'). Diese Sprachen sind sowohl in der API als auch auf der Azure AI Video Indexer-Website verfügbar.
Suchen nach Thema auf der Azure AI-Videoindexer-Website
Sie können jetzt die Suchfunktion oben auf der Azure AI Video Indexer-Websiteseite verwenden, um nach Videos mit bestimmten Themen zu suchen.
Februar 2021
Mehrere Kontobesitzer
Die Kontobesitzerrolle wurde azure AI Video Indexer hinzugefügt. Sie können Benutzer hinzufügen, ändern und entfernen sowie deren Rolle ändern. Ausführliche Informationen zum Teilen eines Kontos finden Sie unter Schnellstart: Einladen von Benutzern zu Video Indexer.
Audioereigniserkennung (Public Preview)
Hinweis
Dieses Feature steht nur in Testkonten zur Verfügung.
Azure AI Video Indexer erkennt jetzt die folgenden Audioeffekte in den Nicht-Sprachsegmenten des Inhalts: Schuss, Glasschattierung, Alarm, Sirenen, Explosion, Hunderinde, Schreien, Lachen, Massenreaktionen (Jubeln, Klatschen und Booing) und Stille.
Das neu hinzugefügte Feature für Audioeffekte ist verfügbar, wenn Sie Ihre Datei mit der Voreinstellung Erweiterte Option ->Erweiterte Audiodaten (unter „Video- und Audioindizierung“) indizieren. Die Standardindizierung umfasst nur Stille und Reaktionen einer Menschenmenge.
Der Ereignistyp Applaus aus dem vorherigen Modell für Audioeffekte wird nun im Rahmen des Ereignistyps Reaktionen einer Menschenmenge extrahiert.
Wenn Sie Insights Ihres Videos auf der Azure AI Video Indexer-Website anzeigen möchten, werden die Audioeffekte auf der Seite angezeigt.
Erweiterung benannter Entitäten
Die extrahierte Personen- und Ortsliste wurde allgemein erweitert und aktualisiert.
Darüber hinaus umfasst das Modell jetzt Personen und Orte im Kontext, die nicht berühmt sind, wie ein "Sam" oder "Home" im Video.
Januar 2021
Azure AI Video Indexer wird in der US Government-Cloud bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der US-Regierungscloud in Virginia und Arizona erstellen. Das Azure AI Video Indexer-Testangebot ist in der genannten Region nicht verfügbar. Weitere Informationen hierzu sind in der Dokumentation zur Azure AI-Videoindexer-Dokumentation zu erfahren.For more information go to Azure AI Video Indexer Documentation.
Azure AI Video Indexer in der Region Indien Zentral bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Indien Zentral erstellen.
Neuer dunkler Modus für die Azure AI Video Indexer-Websiteoberfläche
Die Azure AI Video Indexer-Websiteoberfläche ist jetzt im dunklen Modus verfügbar. Um den dunklen Modus zu aktivieren, öffnen Sie den Einstellungsbereich und aktivieren die Option Dunkler Modus.
Dezember 2020
Azure AI Video Indexer in der Schweiz West und Der Schweiz Nord bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in den Regionen Schweiz West und Schweiz Nord erstellen.
Oktober 2020
Geplante Änderungen der Azure AI Video Indexer-Website zur Authentifizierung
Ab dem 1. März 2021 können Sie sich nicht mehr mit Facebook oder LinkedIn beim Entwicklerportal der Azure AI Video Indexer-Websiteregistrieren und anmelden.
Sie können sich mit einem der folgenden Anbieter anmelden und sich anmelden: Entra ID, Microsoft und Google.
Hinweis
Auf die Mit LinkedIn und Facebook verbundenen Azure AI Video Indexer-Konten kann nach dem 1. März 2021 nicht mehr zugegriffen werden.
Sie sollten eine Entra-ID, Microsoft oder Google-E-Mail an das Azure AI Video Indexer-Konto einladen , damit Sie weiterhin Zugriff haben. Sie können einen zusätzlichen Besitzer von unterstützten Anbietern hinzufügen, wie unter Einladen beschrieben.
Alternativ dazu können Sie ein kostenpflichtiges Konto erstellen und die Daten migrieren.
August 2020
Mobiles Design für die Azure AI Video Indexer-Website
Die Azure AI Video Indexer-Websiteumgebung unterstützt jetzt mobile Geräte. Die Benutzeroberfläche passt sich als responsive Design an die Bildschirmgröße Ihres mobilen Geräts an (ausgenommen angepasste Benutzeroberflächen).
Verbesserte Barrierefreiheit und Fehlerbehebungen
Im Rahmen der WCAG-Richtlinien (Web Content Accessibility Guidelines) wird die Azure AI Video Indexer-Websiteerfahrung im Rahmen der Microsoft Accessibility-Standards mit der Klasse C abgestimmt. Mehrere Fehler im Zusammenhang mit Tastaturnavigation, programmgesteuertem Zugriff und Sprachausgabe wurden gelöst und Verbesserungen eingeführt.
Juli 2020
Allgemeine Verfügbarkeit für die Erkennung mehrerer Sprachen
Die Erkennung mehrerer Sprachen geht von der Vorschau in die allgemeine Verfügbarkeit über und ist für den Einsatz in Produktionsumgebungen bereit.
Es gibt keine Auswirkungen auf die Preise im Zusammenhang mit dem Übergang "Vorschau auf GA".
Verbesserungen der Azure AI Video Indexer-Website
Anpassungen im Videokatalog
Es wurde eine neue Suchleiste für die Suche nach detaillierten Erkenntnissen mit zusätzlichen Filterfunktionen hinzugefügt. Die Suchergebnisse wurden ebenfalls verbessert.
Es gibt eine neue Listenansicht mit der Möglichkeit zum Sortieren und Verwalten eines Videoarchivs mit vielen Dateien.
Neues Panel zur einfachen Auswahl und Konfiguration
Es wurde ein seitliches Panel für die einfache Auswahl und Benutzerkonfiguration hinzugefügt, über das Sie schnell und einfach ein Konto erstellen und freigeben sowie Einstellungen konfigurieren können.
In diesem Panel können Sie auch Benutzereinstellungen verwalten und Hilfe erhalten.
Juni 2020
Suchen nach Themen
Sie können jetzt die Such-API verwenden, um nach Videos mit bestimmten Themen zu suchen (nur API).
Themen werden als Teil von textScope
hinzugefügt (optionaler Parameter). Ausführliche Informationen finden Sie unter API.
Bezeichnungserweiterung
Der Bezeichnungs-Tagger wurde aktualisiert und enthält jetzt mehr visuelle Bezeichnungen, die identifiziert werden können.
Mai 2020
Azure AI Video Indexer in den USA bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Ost-USA erstellen.
Azure AI Video Indexer-URL
Regionale Azure AI Video Indexer-Endpunkte waren alle vereinheitlicht, um nur mit www zu beginnen. Keine Aktion erforderlich.
Von nun an erreichen Sie www.videoindexer.ai , ob es sich um das Einbetten von Widgets oder die Anmeldung in die Azure AI Video Indexer-Website handelt.
Beim Aufruf von wus.videoindexer.ai erfolgt eine Umleitung zur www-Adresse. Weitere Informationen finden Sie unter Einbetten von Azure AI Video Indexer Widgets in Ihren Apps.
April 2020
Neue Funktionen für Widgetparameter
Das Widget Insights weist neue Parameter auf: language
und control
.
Das Widget Player weist den neuen Parameter locale
auf. Die Parameter locale
und language
steuern die Sprache des Players.
Weitere Informationen finden Sie im Abschnitt Widgettypen.
Neue Playerskin
Eine neue Playerskin mit aktualisiertem Design wurde herausgegeben.
Vorbereitung auf bevorstehende Änderungen
Heute geben die folgenden APIs ein Kontoobjekt zurück:
Das Account-Objekt weist ein
Url
Feld auf die Position der Azure AI Video Indexer-Website hin. Für kostenpflichtige Konten verweist das FeldUrl
zurzeit auf eine interne URL anstelle der öffentlichen Website. In den kommenden Wochen ändern wir sie und geben die URL der Azure AI Video Indexer-Website für alle Konten (Testversion und Bezahlt) zurück.verwenden Sie nicht die internen URLs, sie sollten die öffentlichen Azure AI Video Indexer-APIs verwenden.
Wenn Sie Azure AI Video Indexer-URLs in Ihre Anwendungen einbetten und die URLs nicht auf die Azure AI Video Indexer-Website oder den Azure AI Video Indexer-API-Endpunkt verweisen (
https://api.videoindexer.ai
), sondern auf einen regionalen Endpunkt (zhttps://wus2.videoindexer.ai
. B. ), generieren Sie die URLs neu.Dies kann auf einer der folgenden Weisen erfolgen:
Ersetzen der URL durch eine URL, die auf die Azure AI Video Indexer-Widget-APIs verweist (z. B. das Insights-Widget)
Verwenden der Azure AI Video Indexer-Website zum Generieren einer neuen eingebetteten URL:
Drücken Sie "Wiedergabe", um zur Seite Ihres Videos zu gelangen –> wählen Sie die< Schaltfläche "/>Einbetten" aus,> und kopieren Sie die URL in Ihre Anwendung:
Die regionalen URLs werden nicht unterstützt und werden in den kommenden Wochen blockiert.
Januar 2020
Benutzerdefinierte Sprachunterstützung für weitere Sprachen
Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle für ar-SY
, en-UK
und en-AU
(nur API).
Aktualisierung des Zeitrahmens der Aktion „Konto löschen“
Beim Ausführen der Aktion „Konto löschen“ wird das Konto jetzt innerhalb von 90 Tagen und nicht innerhalb von 48 Stunden gelöscht.
Neues Azure AI Video Indexer GitHub-Repository
Ein neues Azure AI Video Indexer GitHub mit verschiedenen Projekten, Erste Schritte Anleitungen und Codebeispiele sind jetzt verfügbar: https://github.com/Azure-Samples/media-services-video-indexer
Swagger-Update
Azure AI Video Indexer unified authentications and operations into a single Azure AI Video Indexer OpenAPI Specification (swagger). Entwickler finden die APIs im Azure AI Video Indexer-Entwicklerportal.
Dezember 2019
Aktualisieren des Transkripts mit der neuen API
Aktualisieren Sie einen bestimmten Abschnitt im Transkript mit der Update-Video-Index-API.
Beheben der Kontokonfiguration von der Azure AI Video Indexer-Website
Sie können jetzt die Konfiguration der Media Services-Verbindung aktualisieren, um sich selbst zu helfen bei Problemen wie:
- Falsche Azure Media Services-Ressource
- Kennwortänderungen
- Verschieben von Media Services-Ressourcen zwischen Abonnements
Um die Kontokonfiguration zu beheben, navigieren Sie auf der Azure AI Video Indexer-Website zur Registerkarte "Kontoeinstellungen" > (als Besitzer).
Konfigurieren des Custom Vision-Kontos
Konfigurieren Sie das benutzerdefinierte Vision-Konto für kostenpflichtige Konten mithilfe der Azure AI Video Indexer-Website (zuvor wurde dies nur von der API unterstützt). Melden Sie sich hierzu auf der Azure AI Video Indexer-Website an, und wählen Sie "Modellanpassungsmodell ><>>konfigurieren" aus.
Szenen, Aufnahmen und Keyframes – jetzt in einem Erkenntnisbereich
Szenen, Aufnahmen und Keyframes werden jetzt zu einer Erkenntnis zusammengeführt, um Nutzung und Navigation zu erleichtern. Wenn Sie die gewünschte Szene auswählen, können Sie sehen, aus welchen Aufnahmen und Keyframes sie besteht.
Benachrichtigung über einen langen Videonamen
Wenn ein Videoname länger als 80 Zeichen ist, zeigt Azure AI Video Indexer einen beschreibenden Fehler beim Upload an.
Benachrichtigung über deaktivierten Streamingendpunkt
Wenn der Streamingendpunkt deaktiviert ist, zeigt azure AI Video Indexer auf der Playerseite einen beschreibenden Fehler an.
Verbesserung der Fehlerbehandlung
Statuscode 409 wird jetzt von Re-Index Video and Update Video Index APIs zurückgegeben, falls ein Video aktiv indiziert wird, um zu verhindern, dass die aktuellen Änderungen versehentlich neu indiziert werden.
November 2019
Unterstützung benutzerdefinierte koreanische Sprachmodelle
Azure AI Video Indexer unterstützt jetzt benutzerdefinierte Sprachmodelle in Koreanisch (
ko-KR
) sowohl in der API als auch im Portal.Neue unterstützte Sprachen für die Spracherkennung (STT)
Azure AI Video Indexer-APIs unterstützen jetzt STT in Arabisch Levantine (ar-SY), Englisch UK Regionalsprache (en-GB) und Englisch Australische Regionalsprache (en-AU).
Für den Video Upload haben wir zh-HANS durch zh-CN ersetzt, zwar werden beide unterstützt, zh-CN wird jedoch empfohlen und ist genauer.
Oktober 2019
Suchen nach animierten Figuren im Katalog
Wenn Sie animierte Figuren indizieren, können Sie sie jetzt im Videokatalog des Kontos danach suchen.
September 2019
Auf der IBC 2019 wurden mehrere Verbesserungen angekündigt:
Erkennung animierter Figuren (öffentliche Vorschauversion)
Die Fähigkeit zum Auffinden, Gruppieren und Erkennen von Figuren in animierten Inhalten mithilfe der Integration in Custom Vision.
Mehrsprachige Identifikation (öffentliche Vorschauversion)
Erkennen von Segmenten in mehreren Sprachen in der Audiospur und Erstellen eines mehrsprachigen Transkripts auf ihrer Grundlage. Erste Unterstützung: Englisch, Spanisch, Deutsch und Französisch. Weitere Informationen finden Sie unter Transcribe multi-language content.
Extraktion benannter Entitäten für Personen und Ort
Extrahiert mithilfe der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) Marken, Standorte und Personen aus Sprache und visuellem Text.
Redaktionelle Typklassifizierung für Aufnahmen
Kategorisieren von Aufnahmen mit redaktionellen Typen wie Nahaufnahme, Mittlerer Schuss, zwei Schuss, Innenbereich, Außen usw. Weitere Informationen finden Sie unter "Editorial shot type detection".
Verbesserte Themendeduktion – jetzt mit Abdeckung von Stufe 2
Das Themendeduktionsmodell unterstützt jetzt mehr Detailebenen der IPTC-Taxonomie. Sämtliche Details finden Sie unter Azure Media Services new AI-powered innovation (Neue, KI-gestützte Innovationen in Azure Media Services).
Updates vom August 2019
Azure AI Video Indexer bereitgestellt in Uk South
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Südregion Großbritannien erstellen.
Neue redaktionelle Aufnahmearten verfügbar
Neue Tags, die Videoaufnahmen hinzugefügt werden, bieten redaktionelle „Aufnahmearten“, um sie mit gängigen redaktionellen Phrasen zu kennzeichnen, die im Workflow der Inhaltserstellung verwendet werden, z.B.: extreme Nahaufnahme (extreme closeup), Nahaufnahme (closeup), Weitwinkel (wide), Medium, Zwei-Personen-Aufnahme (two shot), Outdoor, Indoor, linkes Gesicht (left face) und rechtes Gesicht (right face) (verfügbar im JSON).
Neue Extraktion von Personen- und Standortentitäten verfügbar
Azure AI Video Indexer identifiziert benannte Orte und Personen über die Verarbeitung natürlicher Sprachen (NLP) aus der OCR und Transkription des Videos. Der Azure AI Video Indexer verwendet den Maschinellen Lernalgorithmus, um zu erkennen, wann bestimmte Orte (z. B. der Tower des Tower) oder Personen (z. B. John Doe) in einem Video aufgerufen werden.
Extraktion von Keyframes in nativer Auflösung
Keyframes, die von Azure AI Video Indexer extrahiert wurden, sind in der ursprünglichen Auflösung des Videos verfügbar.
Allgemeine Verfügbarkeit für Trainieren von benutzerdefinierten Gesichtern aus Bildern
Das Trainieren von Gesichtern aus Bildern wurde vom Vorschaumodus in die allgemeine Verfügbarkeit überführt (verfügbar über eine API und im Portal).
Hinweis
Der Übergang von „Vorschauversion in allgemeine Verfügbarkeit“ hat keine Auswirkungen auf die Preisgestaltung.
Option zum Ausblenden von „Katalog“
Sie können nun die Registerkarte „Katalog“ im Portal ausblenden (ähnlich dem Ausblenden der Registerkarte „Beispiele“).
Maximale URL-Größe erhöht
Unterstützung für URL-Abfragezeichenfolgen von 4096 (anstelle von 2048) bei der Indizierung eines Videos.
Unterstützung für mehrsprachige Projekte
Projekte können nun auf Basis von Videos erstellt werden, die in verschiedenen Sprachen indiziert sind (nur API).
Juli 2019
Editor als Widget
Der Ki-Indexer-KI-Editor von Azure AI ist jetzt als Widget verfügbar, das in Kundenanwendungen eingebettet werden kann.
Aktualisieren des benutzerdefinierten Sprachmodells aus der Untertiteldatei über das Portal
Kunden können im Portal auf der Seite zur Anpassung als Eingabe für Sprachmodelle die Dateiformate VTT, SRT und TTML angeben.
Juni 2019
Azure AI Video Indexer in Japan East bereitgestellt
Sie können jetzt ein kostenpflichtiges Azure AI Video Indexer-Konto in der Region Japan Ost erstellen.
Erstellen und Reparieren der Konto-API (Vorschau)
Eine neue API wurde hinzugefügt, die es Ihnen ermöglicht, den Azure Media Services-Verbindungsendpunkt oder -Schlüssel zu aktualisieren.
Verbesserung der Fehlerbehandlung beim Hochladen
Eine beschreibende Meldung wird im Falle einer Fehlkonfiguration des zugrunde liegenden Azure Media Services-Kontos zurückgegeben.
Vorschau der Keyframes in der Player-Zeitachse
Sie können jetzt eine Bildvorschau für jeden Zeitpunkt auf der Zeitachse des Players anzeigen.
Editor-Teilauswahl
Sie können jetzt eine Vorschau aller Erkenntnisse anzeigen, die als Ergebnis der Auswahl eines bestimmten Erkenntniszeitraums im Editor ausgewählt sind.
Mai 2019
Aktualisieren des benutzerdefinierte Sprachmodells aus der Untertiteldatei
Die APIs Benutzerdefiniertes Sprachmodell erstellen und Benutzerdefiniertes Sprachmodell aktualisieren unterstützen jetzt VTT-, SRT-, und TTML-Dateiformate als Eingabe für Sprachmodelle.
Beim Aufrufen der API „Video-Transkript aktualisieren“ wird die Transkription automatisch hinzugefügt. Das dem Video zugeordnete Trainingsmodell wird ebenfalls automatisch aktualisiert. Informationen zum Anpassen und Trainieren Ihrer Sprachmodelle finden Sie unter Anpassen eines Sprachmodells mit Azure AI Video Indexer.
Neue Transkriptformate zum Herunterladen – TXT und CSV
Zusätzlich zum bereits unterstützten Untertitelformat (SRT, VTT und TTML) unterstützt Azure AI Video Indexer jetzt das Herunterladen des Transkripts in TXT- und CSV-Formaten.