Schnellstart: die Bildanalyse
In diesem Artikel wird erläutert, wie Sie mithilfe der Image Analysis REST-API oder Clientbibliotheken ein einfaches Skript zum Taggen von Bildern einrichten. Der Dienst für Bild-Analyse stellt KI-Algorithmen für die Bildverarbeitung und die Rückgabe von Informationen zu visuellen Merkmalen bereit. Führen Sie die nachfolgenden Schritte zum Installieren eines Pakets in Ihrer Anwendung aus, und testen Sie den Beispielcode.
Verwenden Sie die Bildanalyse-Clientbibliothek für C#, um ein Bild auf Inhaltskennzeichen zu analysieren. In dieser Schnellstartanleitung wird die Methode AnalyzeImageUrl
definiert, die das Clientobjekt verwendet, um ein Remotebild zu analysieren und die Ergebnisse auszugeben.
Referenzdokumentation | Quellcode der Bibliothek | Paket (NuGet) | Beispiele
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVisionClient-Methoden an, etwa AnalyzeImageInStreamAsync. Alternativ finden Sie im Beispielcode auf GitHub Szenarien zu lokalen Bildern.
Tipp
Die Analyse Image-API kann viele andere Vorgänge erledigen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Voraussetzungen
- Ein Azure-Abonnement. Sie können ein kostenloses Konto erstellen.
- Die Visual Studio-IDE oder die aktuelle Version von .NET Core.
- Sobald Sie über Ihr Azure-Abonnement verfügen, können Sie im Azure-Portal eine Ressource für maschinelles Sehen erstellen , um Ihren Schlüssel und Endpunkt zu erhalten. Wählen Sie nach Abschluss der Bereitstellung Zu Ressource wechseln aus.
- Sie benötigen den Schlüssel und den Endpunkt der von Ihnen erstellten Ressource, um Ihre Anwendung mit dem Azure KI Vision-Dienst zu verbinden.
- Sie können den kostenlosen Tarif (
F0
) verwenden, um den Dienst zu testen, und später für die Produktion auf einen kostenpflichtigen Tarif upgraden.
Erstellen von Umgebungsvariablen
In diesem Beispiel schreiben Sie Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Öffnen Sie das Azure-Portal. Wenn die Ressource, die Sie im Abschnitt Voraussetzungen erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter Nächste Schritte die Option Zu Ressource wechseln aus. Schlüssel und Endpunkt finden Sie unter Ressourcenverwaltung auf der Seite Schlüssel und Endpunkte. Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Ressourcenschlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster und befolgen Sie die Anweisungen für Ihr Betriebssystem und Ihre Entwicklungsumgebung.
- Zum Festlegen der Umgebungsvariablen
VISION_KEY
ersetzen Sie<your_key>
durch einen der Schlüssel für Ihre Ressource. - Zum Festlegen der Umgebungsvariablen
VISION_ENDPOINT
ersetzen Sie<your_endpoint>
durch den Endpunkt für Ihre Ressource.
Wichtig
Wenn Sie einen API-Schlüssel verwenden, speichern Sie ihn an einer anderen Stelle sicher, z. B. in Azure Key Vault. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und machen Sie ihn nicht öffentlich zugänglich.
Weitere Informationen zur Sicherheit von KI Services finden Sie unter Authentifizieren von Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariable hinzugefügt haben, müssen Sie unter Umständen alle ausgeführten Programme neu starten, von denen die Umgebungsvariablen gelesen werden, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen einer neuen C#-Anwendung
Erstellen Sie mit Visual Studio eine neue .NET Core-Anwendung.
Installieren der Clientbibliothek
Installieren Sie nach der Erstellung eines neuen Projekts die Clientbibliothek, indem Sie im Projektmappen-Explorer mit der rechten Maustaste auf die Projektmappe klicken und NuGet-Pakete verwalten auswählen. Wählen Sie im daraufhin geöffneten Paket-Manager die Option Durchsuchen aus, aktivieren Sie das Kontrollkästchen Vorabversion einbeziehen, und suchen Sie nach
Microsoft.Azure.CognitiveServices.Vision.ComputerVision
. Wählen Sie die Version7.0.0
und anschließend Installieren aus.Öffnen Sie aus dem Projektverzeichnis die Datei Program.cs in Ihrem bevorzugten Editor oder Ihrer bevorzugten IDE. Fügen Sie den folgenden Code ein:
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); // URL image used for analyzing an image (image of puppy) private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); // Create a client ComputerVisionClient client = Authenticate(endpoint, key); // Analyze an image to get features and other properties. AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait(); } /* * AUTHENTICATE * Creates a Computer Vision client used by each example. */ public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("ANALYZE IMAGE - URL"); Console.WriteLine(); // Creating a list that defines the features to be extracted from the image. List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>() { VisualFeatureTypes.Tags }; Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}..."); Console.WriteLine(); // Analyze the URL image ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features); // Image tags and their confidence score Console.WriteLine("Tags:"); foreach (var tag in results.Tags) { Console.WriteLine($"{tag.Name} {tag.Confidence}"); } Console.WriteLine(); } } }
Wichtig
Denken Sie daran, den Schlüssel aus Ihrem Code zu entfernen, wenn Sie fertig sind, und ihn niemals zu veröffentlichen. Verwenden Sie für die Produktion eine sichere Art der Speicherung und des Zugriffs auf Ihre Anmeldeinformationen wie Azure Key Vault. Weitere Informationen finden Sie unter Azure KI Services-Sicherheit.
Ausführen der Anwendung
Führen Sie die Anwendung aus, indem Sie oben im IDE-Fenster auf die Schaltfläche Debuggen klicken.
Output
Die Ausgabe Ihres Vorgangs sollte wie im folgenden Beispiel aussehen.
----------------------------------------------------------
ANALYZE IMAGE - URL
Analyzing the image sample16.png...
Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165
Bereinigen von Ressourcen
Wenn Sie ein Azure KI Services-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder die Ressourcengruppe löschen. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind.
Zugehöriger Inhalt
In dieser Schnellstartanleitung haben Sie gelernt, wie Sie die Bildanalyse-Clientbibliothek installieren und grundlegende Bildanalyseaufrufe durchführen. Erfahren Sie als Nächstes mehr über die Features der Image Analysis-API.
Verwenden Sie die Bildanalyse-Clientbibliothek für Python, um ein Remotebild auf Inhaltskennzeichen zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVisionClientOperationsMixin-Methoden an, etwa analyze_image_in_stream
. Alternativ finden Sie im Beispielcode auf GitHub Szenarien zu lokalen Bildern.
Tipp
Die Analyse Image-API kann viele andere Vorgänge erledigen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Referenzdokumentation | Quellcode der Bibliothek | Paket (PiPy) | Beispiele
Voraussetzungen
- Ein Azure-Abonnement. Sie können ein kostenloses Konto erstellen.
- Python 3.x.
- Ihre Python-Installation sollte pip enthalten. Sie können überprüfen, ob pip installiert ist, indem Sie
pip --version
in der Befehlszeile ausführen. Installieren Sie die aktuelle Python-Version, um pip zu erhalten.
- Ihre Python-Installation sollte pip enthalten. Sie können überprüfen, ob pip installiert ist, indem Sie
- Sobald Sie über Ihr Azure-Abonnement verfügen, können Sie im Azure-Portal eine Ressource für maschinelles Sehen erstellen, um Ihren Schlüssel und Endpunkt zu erhalten. Wählen Sie nach Abschluss der Bereitstellung Zu Ressource wechseln aus.
- Sie benötigen den Schlüssel und den Endpunkt der von Ihnen erstellten Ressource, um Ihre Anwendung mit dem Azure KI Vision-Dienst zu verbinden.
- Sie können den kostenlosen Tarif (
F0
) verwenden, um den Dienst zu testen, und später für die Produktion auf einen kostenpflichtigen Tarif upgraden.
Erstellen von Umgebungsvariablen
In diesem Beispiel schreiben Sie Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Öffnen Sie das Azure-Portal. Wenn die Ressource, die Sie im Abschnitt Voraussetzungen erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter Nächste Schritte die Option Zu Ressource wechseln aus. Schlüssel und Endpunkt finden Sie unter Ressourcenverwaltung auf der Seite Schlüssel und Endpunkte. Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Ressourcenschlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster und befolgen Sie die Anweisungen für Ihr Betriebssystem und Ihre Entwicklungsumgebung.
- Zum Festlegen der Umgebungsvariablen
VISION_KEY
ersetzen Sie<your_key>
durch einen der Schlüssel für Ihre Ressource. - Zum Festlegen der Umgebungsvariablen
VISION_ENDPOINT
ersetzen Sie<your_endpoint>
durch den Endpunkt für Ihre Ressource.
Wichtig
Wenn Sie einen API-Schlüssel verwenden, speichern Sie ihn an einer anderen Stelle sicher, z. B. in Azure Key Vault. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und machen Sie ihn nicht öffentlich zugänglich.
Weitere Informationen zur Sicherheit von KI Services finden Sie unter Authentifizieren von Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariable hinzugefügt haben, müssen Sie unter Umständen alle ausgeführten Programme neu starten, von denen die Umgebungsvariablen gelesen werden, einschließlich des Konsolenfensters.
Bild analysieren
Installieren der Clientbibliothek
Sie können die Clientbibliothek wie folgt installieren:
pip install --upgrade azure-cognitiveservices-vision-computervision
Installieren Sie außerdem die Pillow-Bibliothek.
pip install pillow
Erstellen Sie eine neue Python-Anwendung.
Erstellen einer neuen Python-Datei. Sie können sie z. B. quickstart-file.py benennen.
Öffnen Sie quickstart-file.py in einem Text-Editor oder einer IDE, und fügen Sie den folgenden Code ein.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' Quickstart variables These variables are shared by several examples ''' # Images used for the examples: Describe an image, Categorize an image, Tag an image, # Detect faces, Detect adult or racy content, Detect the color scheme, # Detect domain-specific content, Detect image types, Detect objects images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images") remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg" ''' END - Quickstart variables ''' ''' Tag an Image - remote This example returns a tag (key word) for each thing in the image. ''' print("===== Tag an image - remote =====") # Call API with remote image tags_result_remote = computervision_client.tag_image(remote_image_url ) # Print results with confidence score print("Tags in the remote image: ") if (len(tags_result_remote.tags) == 0): print("No tags detected.") else: for tag in tags_result_remote.tags: print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100)) print() ''' END - Tag an Image - remote ''' print("End of Computer Vision quickstart.")
Führen Sie die Anwendung mithilfe des Befehls
python
für die Schnellstartdatei aus.python quickstart-file.py
Output
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%
End of Azure AI Vision quickstart.
Bereinigen von Ressourcen
Wenn Sie ein Azure KI Services-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder die Ressourcengruppe löschen. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie gelernt, wie Sie die Bildanalyse-Clientbibliothek installieren und grundlegende Bildanalyseaufrufe durchführen. Als Nächstes erfahren Sie mehr über die Funktionen der Bildanalyse-API.
Verwenden Sie die Image Analysis-Clientbibliothek für Java, um ein Remotebild auf Tags, Textbeschreibungen, Gesichter, nicht jugendfreie Inhalte und vieles mehr zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVision-Methoden an, z.B. AnalyzeImage
. Alternativ finden Sie im Beispielcode auf GitHub Szenarien zu lokalen Bildern.
Tipp
Die Analyse Image-API kann viele andere Vorgänge erledigen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Referenzdokumentation | Quellcode der Bibliothek |Artefakt (Maven) | Beispiele
Voraussetzungen
- Ein Azure-Abonnement. Sie können ein kostenloses Konto erstellen.
- Aktuelle Version des Java Development Kit (JDK)
- Gradle-Buildtool oder einen anderen Abhängigkeit-Manager
- Sobald Sie über Ihr Azure-Abonnement verfügen, können Sie im Azure-Portal eine Ressource für maschinelles Sehen erstellen , um Ihren Schlüssel und Endpunkt zu erhalten. Wählen Sie nach Abschluss der Bereitstellung Zu Ressource wechseln aus.
- Sie benötigen den Schlüssel und den Endpunkt der von Ihnen erstellten Ressource, um Ihre Anwendung mit dem Azure KI Vision-Dienst zu verbinden.
- Sie können den kostenlosen Tarif (
F0
) verwenden, um den Dienst zu testen, und später für die Produktion auf einen kostenpflichtigen Tarif upgraden.
Erstellen von Umgebungsvariablen
In diesem Beispiel schreiben Sie Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Öffnen Sie das Azure-Portal. Wenn die Ressource, die Sie im Abschnitt Voraussetzungen erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter Nächste Schritte die Option Zu Ressource wechseln aus. Schlüssel und Endpunkt finden Sie unter Ressourcenverwaltung auf der Seite Schlüssel und Endpunkte. Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Ressourcenschlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster und befolgen Sie die Anweisungen für Ihr Betriebssystem und Ihre Entwicklungsumgebung.
- Zum Festlegen der Umgebungsvariablen
VISION_KEY
ersetzen Sie<your_key>
durch einen der Schlüssel für Ihre Ressource. - Zum Festlegen der Umgebungsvariablen
VISION_ENDPOINT
ersetzen Sie<your_endpoint>
durch den Endpunkt für Ihre Ressource.
Wichtig
Wenn Sie einen API-Schlüssel verwenden, speichern Sie ihn an einer anderen Stelle sicher, z. B. in Azure Key Vault. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und machen Sie ihn nicht öffentlich zugänglich.
Weitere Informationen zur Sicherheit von KI Services finden Sie unter Authentifizieren von Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariable hinzugefügt haben, müssen Sie unter Umständen alle ausgeführten Programme neu starten, von denen die Umgebungsvariablen gelesen werden, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen eines neuen Gradle-Projekts
Erstellen Sie in einem Konsolenfenster (etwa cmd, PowerShell oder Bash) ein neues Verzeichnis für Ihre App, und rufen Sie es auf.
mkdir myapp && cd myapp
Führen Sie den Befehl
gradle init
in Ihrem Arbeitsverzeichnis aus. Mit diesem Befehl werden grundlegende Builddateien für Gradle erstellt, u. a. die Datei build.gradle.kts. Diese Datei wird zur Laufzeit zum Erstellen und Konfigurieren Ihrer Anwendung verwendet.gradle init --type basic
Wenn Sie zur Auswahl einer DSL aufgefordert werden, wählen Sie Kotlin aus.
Installieren der Clientbibliothek
In dieser Schnellstartanleitung wird der Gradle-Abhängigkeits-Manager verwendet. Die Clientbibliothek und Informationen zu anderen Abhängigkeits-Managern finden Sie im zentralen Maven-Repository.
Navigieren Sie zur Datei build.gradle.kts, und öffnen Sie sie in Ihrer bevorzugten IDE bzw. Ihrem bevorzugten Text-Editor. Kopieren Sie dann die folgende Buildkonfiguration, und fügen Sie sie in die Datei ein. Diese Konfiguration definiert das Projekt als Java-Anwendung, deren Einstiegspunkt die Klasse
ImageAnalysisQuickstart
ist. Dies importiert die Azure KI Vision-Bibliothek.plugins { java application } application { mainClass.set("ImageAnalysisQuickstart") } repositories { mavenCentral() } dependencies { implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta") }
Erstellen einer Java-Datei
Führen Sie in Ihrem Arbeitsverzeichnis den folgenden Befehl aus, um einen Projektquellordner zu erstellen:
mkdir -p src/main/java
Navigieren Sie zu dem neuen Ordner, und erstellen Sie eine Datei namens ImageAnalysisQuickstart.java.
Öffnen Sie ImageAnalysisQuickstart.java in Ihrem bevorzugten Editor oder ihrer IDE, und fügen Sie den folgenden Code ein.
import com.microsoft.azure.cognitiveservices.vision.computervision.*; import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl; import com.microsoft.azure.cognitiveservices.vision.computervision.models.*; import java.io.*; import java.nio.file.Files; import java.util.ArrayList; import java.util.List; import java.util.UUID; public class ImageAnalysisQuickstart { // Use environment variables static String key = System.getenv("VISION_KEY"); static String endpoint = System.getenv("VISION_ENDPOINT"); public static void main(String[] args) { System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample"); // Create an authenticated Computer Vision client. ComputerVisionClient compVisClient = Authenticate(key, endpoint); // Analyze local and remote images AnalyzeRemoteImage(compVisClient); } public static ComputerVisionClient Authenticate(String key, String endpoint){ return ComputerVisionManager.authenticate(key).withEndpoint(endpoint); } public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) { /* * Analyze an image from a URL: * * Set a string variable equal to the path of a remote image. */ String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg"; // This list defines the features to be extracted from the image. List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>(); featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS); System.out.println("\n\nAnalyzing an image from a URL ..."); try { // Call the Computer Vision service and tell it to analyze the loaded image. ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage) .withVisualFeatures(featuresToExtractFromRemoteImage).execute(); // Display image tags and confidence values. System.out.println("\nTags: "); for (ImageTag tag : analysis.tags()) { System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence()); } } catch (Exception e) { System.out.println(e.getMessage()); e.printStackTrace(); } } // END - Analyze an image from a URL. }
Navigieren Sie zurück zum Projektstammordner, und erstellen Sie die App dann mit:
gradle build
Führen Sie dazu folgenden Befehl aus:
gradle run
Output
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
Azure AI Vision - Java Quickstart Sample
Analyzing an image from a URL ...
Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169
Bereinigen von Ressourcen
Wenn Sie ein Azure KI Services-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder die Ressourcengruppe löschen. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie gelernt, wie Sie die Bildanalyse-Clientbibliothek installieren und grundlegende Bildanalyseaufrufe durchführen. Als Nächstes erfahren Sie mehr über die Funktionen der Bildanalyse-API.
Verwenden Sie die Bildanalyse-Clientbibliothek für JavaScript, um ein Remotebild auf Inhaltskennzeichen zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVisionClient-Methoden an, z.B. describeImageInStream
. Alternativ finden Sie im Beispielcode auf GitHub Szenarien zu lokalen Bildern.
Tipp
Die Analyse Image-API kann viele andere Vorgänge erledigen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Referenzdokumentation | Paket (npm) | Beispiele
Voraussetzungen
- Ein Azure-Abonnement. Sie können ein kostenloses Konto erstellen.
- Die aktuelle Version von Node.js.
- Sobald Sie über Ihr Azure-Abonnement verfügen, können Sie im Azure-Portal eine Ressource für maschinelles Sehen erstellen , um Ihren Schlüssel und Endpunkt zu erhalten. Wählen Sie nach Abschluss der Bereitstellung Zu Ressource wechseln aus.
- Sie benötigen den Schlüssel und den Endpunkt der von Ihnen erstellten Ressource, um Ihre Anwendung mit dem Azure KI Vision-Dienst zu verbinden.
- Sie können den kostenlosen Tarif (
F0
) verwenden, um den Dienst zu testen, und später für die Produktion auf einen kostenpflichtigen Tarif upgraden.
Erstellen von Umgebungsvariablen
In diesem Beispiel schreiben Sie Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Öffnen Sie das Azure-Portal. Wenn die Ressource, die Sie im Abschnitt Voraussetzungen erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter Nächste Schritte die Option Zu Ressource wechseln aus. Schlüssel und Endpunkt finden Sie unter Ressourcenverwaltung auf der Seite Schlüssel und Endpunkte. Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Ressourcenschlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster und befolgen Sie die Anweisungen für Ihr Betriebssystem und Ihre Entwicklungsumgebung.
- Zum Festlegen der Umgebungsvariablen
VISION_KEY
ersetzen Sie<your_key>
durch einen der Schlüssel für Ihre Ressource. - Zum Festlegen der Umgebungsvariablen
VISION_ENDPOINT
ersetzen Sie<your_endpoint>
durch den Endpunkt für Ihre Ressource.
Wichtig
Wenn Sie einen API-Schlüssel verwenden, speichern Sie ihn an einer anderen Stelle sicher, z. B. in Azure Key Vault. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und machen Sie ihn nicht öffentlich zugänglich.
Weitere Informationen zur Sicherheit von KI Services finden Sie unter Authentifizieren von Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariable hinzugefügt haben, müssen Sie unter Umständen alle ausgeführten Programme neu starten, von denen die Umgebungsvariablen gelesen werden, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen einer neuen Node.js-Anwendung
Erstellen Sie in einem Konsolenfenster (etwa cmd, PowerShell oder Bash) ein neues Verzeichnis für Ihre App, und rufen Sie es auf.
mkdir myapp && cd myapp
Führen Sie den Befehl
npm init
aus, um eine Knotenanwendung mit einer package.json-Datei zu erstellen.npm init
Installieren der Clientbibliothek
Installieren Sie die npm-Pakete
ms-rest-azure
und@azure/cognitiveservices-computervision
:npm install @azure/cognitiveservices-computervision
Installieren Sie außerdem das asynchrone Modul:
npm install async
Die Datei
package.json
Ihrer App wird mit den Abhängigkeiten aktualisiert.Erstellen Sie eine neue Datei index.js.
Öffnen Sie index.js in einem Text-Editor, und fügen Sie folgenden Code ein:
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * DETECT TAGS * Detects tags for an image, which returns: * all objects in image and confidence score. */ console.log('-------------------------------------------------'); console.log('DETECT TAGS'); console.log(); // Image of different kind of dog. const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg'; // Analyze URL image console.log('Analyzing tags in image...', tagsURL.split('/').pop()); const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags; console.log(`Tags: ${formatTags(tags)}`); // Format tags for display function formatTags(tags) { return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', '); } /** * END - Detect Tags */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();
Führen Sie die Anwendung mit dem Befehl
node
für die Schnellstartdatei aus.node index.js
Output
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
-------------------------------------------------
DETECT TAGS
Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)
-------------------------------------------------
End of quickstart.
Bereinigen von Ressourcen
Wenn Sie ein Azure KI Services-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder die Ressourcengruppe löschen. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie gelernt, wie Sie die Bildanalyse-Clientbibliothek installieren und grundlegende Bildanalyseaufrufe durchführen. Als Nächstes erfahren Sie mehr über die Funktionen der Bildanalyse-API.
Verwenden Sie die Bildanalyse-REST-API, um ein Bild im Hinblick auf Tags zu analysieren.
Tipp
Die Analyse Image-API kann viele andere Vorgänge erledigen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Hinweis
In dieser Schnellstartanleitung wird die REST-API mithilfe von cURL-Befehlen aufgerufen. Die REST-API kann aber auch mit einer Programmiersprache aufgerufen werden. Auf GitHub stehen Beispiele für C#, Python, Java und JavaScript zur Verfügung.
Voraussetzungen
- Ein Azure-Abonnement. Sie können ein kostenloses Konto erstellen.
- Sobald Sie über Ihr Azure-Abonnement verfügen, können Sie im Azure-Portal eine Ressource für maschinelles Sehen erstellen , um Ihren Schlüssel und Endpunkt zu erhalten. Wählen Sie nach Abschluss der Bereitstellung Zu Ressource wechseln aus.
- Sie benötigen den Schlüssel und den Endpunkt der von Ihnen erstellten Ressource, um Ihre Anwendung mit dem Azure KI Vision-Dienst zu verbinden.
- Sie können den kostenlosen Tarif (
F0
) verwenden, um den Dienst zu testen, und später für die Produktion auf einen kostenpflichtigen Tarif upgraden.
- cURL muss installiert sein.
Analysieren von Bildern
Gehen Sie wie folgt vor, um verschiedene visuelle Features eines Bilds zu analysieren:
Kopieren Sie den folgenden Befehl, und fügen Sie ihn in einen Text-Editor ein.
curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Nehmen Sie die folgenden Änderungen im Befehl vor, falls dies erforderlich ist:
- Ersetzen Sie den Wert von
<yourKey>
durch den Schlüssel Ihrer Ressource für maschinelles Sehen. - Ersetzen Sie den ersten Teil der Anforderungs-URL (
westcentralus.api.cognitive.microsoft.com
) durch Ihre Endpunkt-URL.Hinweis
Neue Ressourcen, die nach dem 1. Juli 2019 erstellt wurden, verwenden benutzerdefinierte Unterdomänennamen. Weitere Informationen und eine vollständige Liste mit regionalen Endpunkten finden Sie unter Benutzerdefinierte Unterdomänennamen für Azure KI Services.
- Ändern Sie optional die Bild-URL im Anforderungstext (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png
) in die URL eines anderen Bilds, das analysiert werden soll.
- Ersetzen Sie den Wert von
Öffnen Sie ein Eingabeaufforderungsfenster.
Fügen Sie den von Ihnen bearbeiteten
curl
-Befehl aus dem Text-Editor in das Eingabeaufforderungsfenster ein, und führen Sie den Befehl aus.
Untersuchen der Antwort
Eine erfolgreiche Antwort wird im JSON-Format zurückgegeben. Die Beispielanwendung analysiert eine Antwort und zeigt diese bei erfolgreicher Ausführung im Eingabeaufforderungsfenster an. Dies wird im folgenden Beispiel veranschaulicht:
{
"tags":[
{
"name":"text",
"confidence":0.9992657899856567
},
{
"name":"post-it note",
"confidence":0.9879657626152039
},
{
"name":"handwriting",
"confidence":0.9730165004730225
},
{
"name":"rectangle",
"confidence":0.8658561706542969
},
{
"name":"paper product",
"confidence":0.8561884760856628
},
{
"name":"purple",
"confidence":0.5961999297142029
}
],
"requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
"metadata":{
"height":945,
"width":1000,
"format":"Jpeg"
},
"modelVersion":"2021-05-01"
}
Nächster Schritt
In dieser Schnellstartanleitung haben Sie gelernt, wie Sie mithilfe der REST-API grundlegende Bildanalyseaufrufe durchführen. Als Nächstes erfahren Sie mehr über die Funktionen der Bildanalyse-API.