Udostępnij za pośrednictwem


Szybki start: analizowanie zawartości tekstowej

Rozpocznij pracę z programem Content Safety Studio, interfejsem API REST lub zestawami SDK klienta, aby wykonać podstawowe moderowanie tekstu. Usługa Azure AI Content Safety service udostępnia algorytmy sztucznej inteligencji służące do flagowania niepożądanej zawartości. Wykonaj następujące kroki, aby to wypróbować.

Aby uzyskać więcej informacji na temat moderowania tekstu, zobacz stronę pojęć dotyczących kategorii szkód. Aby uzyskać informacje o limitach danych wejściowych interfejsu API, zobacz sekcję Wymagania dotyczące danych wejściowych w sekcji Przegląd.

Uwaga

Przykładowe dane i kod mogą zawierać obraźliwą zawartość. Zaleca się ostrożność.

Wymagania wstępne

  • Subskrypcja platformy Azure — utwórz bezpłatnie
  • Po utworzeniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwo zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
    • Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i jeden z kluczy są używane do wywoływania interfejsów API.
  • Zainstalowano bibliotekę cURL

Analizowanie zawartości tekstowej

W poniższej sekcji pokazano przykładowe żądanie z cURL. Wklej poniższe polecenie do edytora tekstów i wprowadź następujące zmiany.

  1. Zastąp ciąg <endpoint> adresem URL punktu końcowego skojarzonym z zasobem.
  2. Zastąp <your_subscription_key> jednym z kluczy dostarczanych z twoim zasobem.
  3. Opcjonalnie zastąp "text" pole w treści własnym tekstem, który chcesz przeanalizować.

    Napiwek

    Rozmiar tekstu i stopień szczegółowości

    Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.

curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["string"],
  "haltOnBlocklistHit": true,
  "outputType": "FourSeverityLevels"
}'

Poniższe pola muszą być uwzględnione w adresie URL:

Nazwisko Wymagane opis Typ
Wersja interfejsu API Wymagane Jest to wersja interfejsu API do sprawdzenia. Bieżąca wersja to: api-version=2024-09-01. Przykład: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 String

Parametry w treści żądania są zdefiniowane w tej tabeli:

Nazwisko Wymagane opis Typ
text Wymagane Jest to nieprzetworzony tekst do sprawdzenia. Można uwzględnić inne znaki inne niż ascii. String
Kategorie Opcjonalnie Przyjmuje się, że jest to tablica nazw kategorii. Zobacz przewodnik po kategoriach szkody, aby uzyskać listę dostępnych nazw kategorii. Jeśli nie określono żadnych kategorii, zostaną użyte wszystkie cztery kategorie. Używamy wielu kategorii do uzyskiwania wyników w jednym żądaniu. String
blocklistNames Opcjonalnie Nazwa listy bloków tekstu. Obsługują tylko następujące znaki: 0-9 A-Z a-z - . _ ~. Tutaj można dołączyć wiele nazw list. Tablica
haltOnBlocklistHit Opcjonalnie Gdy ustawiono wartość true, dalsze analizy szkodliwej zawartości nie będą przeprowadzane w przypadkach trafienia na listy blokujące. Po ustawieniu wartości false wszystkie analizy szkodliwej zawartości zostaną wykonane, niezależnie od tego, czy dotyczy to list zablokowanych. Wartość logiczna
outputType Opcjonalnie "FourSeverityLevels" lub "EightSeverityLevels". Poziomy ważności wyjściowej na czterech lub ośmiu poziomach, wartość może być 0,2,4,6 lub 0,1,2,3,4,5,6,7. String

Zobacz następującą przykładową treść żądania:

{
  "text": "I hate you",
  "categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
  "blocklistNames": ["array"],
  "haltOnBlocklistHit": false,
  "outputType": "FourSeverityLevels"
}

Otwórz okno wiersza polecenia, wklej edytowane polecenie cURL i uruchom je.

Wyjście

Wyniki moderowania tekstu powinny być wyświetlane jako dane JSON w danych wyjściowych konsoli. Na przykład:

{
  "blocklistsMatch": [
    {
      "blocklistName": "string",
      "blocklistItemId": "string",
      "blocklistItemText": "string"
    }
  ],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 2
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

Pola JSON w danych wyjściowych są zdefiniowane tutaj:

Nazwisko opis Typ
categoriesAnalysis Każda klasa wyjściowa przewidywana przez API. Klasyfikacja może być oznaczona wieloma etykietami. Na przykład gdy przykładowy tekst jest uruchamiany przez model moderowania tekstu, może zostać sklasyfikowany jako zawartość seksualna i przemoc. Kategorie szkód String
Ważność Im większy jest stopień ciężkości zawartości wejściowej, tym większa jest ta wartość. Integer

Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (NuGet) | Przykłady

Wymagania wstępne

  • Subskrypcja platformy Azure — utwórz bezpłatnie
  • Środowisko IDE programu Visual Studio z włączonym tworzeniem aplikacji .NET dla pulpitu. Jeśli nie planujesz używania środowiska IDE programu Visual Studio, potrzebujesz bieżącej wersji platformy .NET Core.
  • Po utworzeniu subskrypcji platformy Azure, w portalu Azure utwórz zasób Content Safety, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
    • Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z kluczy są używane do wywoływania API.

Konfigurowanie aplikacji

Utwórz nową aplikację w języku C#.

Otwórz program Visual Studio i w obszarze Rozpocznij wybierz pozycję Utwórz nowy projekt. Ustaw filtry szablonu na C#/Wszystkie platformy/konsolę. Wybierz pozycję Aplikacja konsolowa (aplikacja wiersza polecenia, która może działać na platformie .NET w systemach Windows, Linux i macOS), a następnie wybierz pozycję Dalej. Zaktualizuj nazwę projektu na ContentSafetyQuickstart i wybierz pozycję Dalej. Wybierz pozycję .NET 6.0 lub nowszą, a następnie wybierz pozycję Utwórz , aby utworzyć projekt.

Instalowanie zestawu SDK klienta

Po utworzeniu nowego projektu zainstaluj zestaw SDK klienta, klikając prawym przyciskiem myszy rozwiązanie projektu w Eksplorator rozwiązań i wybierając polecenie Zarządzaj pakietami NuGet. W menedżerze pakietów, który zostanie otwarty, wybierz pozycję Przeglądaj i wyszukaj ciąg Azure.AI.ContentSafety. Wybierz Zainstaluj.

Tworzenie zmiennych środowiskowych

W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na komputerze lokalnym, na którym działa aplikacja.

Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.

  • Aby ustawić zmienną środowiskową CONTENT_SAFETY_KEY, zastąp YOUR_CONTENT_SAFETY_KEY jednym z kluczy twojego zasobu.
  • Aby ustawić zmienną środowiska CONTENT_SAFETY_ENDPOINT, zastąp YOUR_CONTENT_SAFETY_ENDPOINT punktem końcowym zasobu.

Ważne

Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.

Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.

Analizowanie zawartości tekstowej

W katalogu projektu otwórz utworzony wcześniej plik Program.cs . Wklej następujący kod:

using System;
using Azure.AI.ContentSafety;

namespace Azure.AI.ContentSafety.Dotnet.Sample
{
  class ContentSafetySampleAnalyzeText
  {
    public static void AnalyzeText()
    {
      // retrieve the endpoint and key from the environment variables created earlier
      string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
      string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");

      ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));

      string text = "Your input text";

      var request = new AnalyzeTextOptions(text);

      Response<AnalyzeTextResult> response;
      try
      {
          response = client.AnalyzeText(request);
      }
      catch (RequestFailedException ex)
      {
          Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
          throw;
      }

      Console.WriteLine("\nAnalyze text succeeded:");
      Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
      Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
      Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
      Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);

    }
    static void Main()
    {
        AnalyzeText();
    }
  }
}

Zastąp "Your input text" treścią, której chcesz użyć.

Napiwek

Rozmiar tekstu i stopień szczegółowości

Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.

Skompiluj i uruchom aplikację, wybierając pozycję Rozpocznij debugowanie w menu Debuguj w górnej części okna ŚRODOWISKA IDE (lub naciśnij F5).

Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (PyPI) | Przykłady |

Wymagania wstępne

  • Subskrypcja platformy Azure — utwórz bezpłatnie
  • Po uzyskaniu subskrypcji platformy Azure utwórz zasób Bezpieczeństwa zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
    • Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z dwóch kluczy są używane do wywoływania API.
  • Python 3.x
    • Twoja instalacja Pythona powinna zawierać pip. Możesz sprawdzić, czy masz zainstalowany pip, wpisując pip --version w wierszu poleceń. Aby pobrać pip, zainstaluj najnowszą wersję języka Python.

Tworzenie zmiennych środowiskowych

W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na komputerze lokalnym, z którego uruchomiona jest aplikacja.

Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.

  • Aby ustawić zmienną środowiskową CONTENT_SAFETY_KEY, zastąp YOUR_CONTENT_SAFETY_KEY jednym z kluczy zasobu.
  • Aby ustawić zmienną CONTENT_SAFETY_ENDPOINT środowiskową, zastąp YOUR_CONTENT_SAFETY_ENDPOINT punktem końcowym zasobu.

Ważne

Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.

Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.

Analizowanie zawartości tekstowej

W poniższej sekcji przedstawiono przykładowe żądanie z zestawem SDK języka Python.

  1. Otwórz wiersz polecenia, przejdź do folderu projektu i utwórz nowy plik o nazwie quickstart.py.

  2. Uruchom to polecenie, aby zainstalować bibliotekę zabezpieczeń zawartości usługi Azure AI:

    pip install azure-ai-contentsafety
    
  3. Skopiuj następujący kod do quickstart.py:

    import os
    from azure.ai.contentsafety import ContentSafetyClient
    from azure.core.credentials import AzureKeyCredential
    from azure.core.exceptions import HttpResponseError
    from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory
    
    def analyze_text():
        # analyze text
        key = os.environ["CONTENT_SAFETY_KEY"]
        endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"]
    
        # Create an Azure AI Content Safety client
        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))
    
        # Contruct request
        request = AnalyzeTextOptions(text="Your input text")
    
        # Analyze text
        try:
            response = client.analyze_text(request)
        except HttpResponseError as e:
            print("Analyze text failed.")
            if e.error:
                print(f"Error code: {e.error.code}")
                print(f"Error message: {e.error.message}")
                raise
            print(e)
            raise
    
        hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE)
        self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM)
        sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL)
        violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE)
    
        if hate_result:
            print(f"Hate severity: {hate_result.severity}")
        if self_harm_result:
            print(f"SelfHarm severity: {self_harm_result.severity}")
        if sexual_result:
            print(f"Sexual severity: {sexual_result.severity}")
        if violence_result:
            print(f"Violence severity: {violence_result.severity}")
    
    if __name__ == "__main__":
        analyze_text()
    
  4. Zamień "Your input text" na treść, której chcesz użyć.

    Napiwek

    Rozmiar tekstu i stopień szczegółowości

    Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.

  5. Następnie uruchom aplikację poleceniem python na swoim pliku quickstart.

    python quickstart.py
    

Dokumentacja referencyjna | Kod źródłowy biblioteki | Artefakt (Maven) | Przykłady

Wymagania wstępne

  • Subskrypcja platformy Azure — utwórz bezpłatnie
  • Bieżąca wersja zestawu Java Development Kit (JDK)
  • Narzędzie Gradle, albo inny menedżer zależności.
  • Po posiadaniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwo zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
    • Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z kluczy są używane do wywoływania API.

Konfigurowanie aplikacji

Utwórz nowy projekt Gradle.

W oknie konsoli (na przykład cmd, PowerShell lub Bash) utwórz nowy katalog dla aplikacji i przejdź do niego.

mkdir myapp && cd myapp

Uruchom polecenie gradle init z katalogu roboczego. To polecenie spowoduje utworzenie podstawowych plików kompilacji dla narzędzia Gradle, w tym pliku build.gradle.kts, który jest używany w czasie wykonywania do tworzenia i konfigurowania aplikacji.

gradle init --type basic

Po wyświetleniu monitu wybierz DSL, a następnie Kotlin.

W katalogu roboczym uruchom następujące polecenie, aby utworzyć folder źródłowy projektu:

mkdir -p src/main/java

Przejdź do nowego folderu i utwórz plik o nazwie ContentSafetyQuickstart.java.

Instalowanie zestawu SDK klienta

W tym przewodniku szybkiego startu używany jest menedżer zależności Gradle. Bibliotekę klienta i informacje dotyczące innych menedżerów zależności można znaleźć w repozytorium centralnym programu Maven.

Znajdź plik build.gradle.kts i otwórz go przy użyciu preferowanego środowiska IDE lub edytora tekstów. Następnie skopiuj poniższą konfigurację kompilacji. Ta konfiguracja definiuje projekt jako aplikację Java, której punktem wejścia jest klasa ContentSafetyQuickstart. Importuje bibliotekę usługi Azure AI Vision.

plugins {
    java
    application
}
application { 
    mainClass.set("ContentSafetyQuickstart")
}
repositories {
    mavenCentral()
}
dependencies {
    implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}

Tworzenie zmiennych środowiskowych

W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na lokalnym komputerze, na którym działa aplikacja.

Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.

  • Aby ustawić zmienną CONTENT_SAFETY_KEY środowiskową, zastąp YOUR_CONTENT_SAFETY_KEY jednym z kluczy zasobu.
  • Aby ustawić zmienną środowiskową CONTENT_SAFETY_ENDPOINT, zastąp YOUR_CONTENT_SAFETY_ENDPOINT punktem końcowym dla swojego zasobu.

Ważne

Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.

Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.

Analizowanie zawartości tekstowej

Otwórz ContentSafetyQuickstart.java w preferowanym edytorze lub środowisku IDE i wklej następujący kod. Zastąp <your text sample> tekstem zawartości, której chcesz użyć.

Napiwek

Rozmiar tekstu i stopień szczegółowości

Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.

import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;


public class ContentSafetyQuickstart {
    public static void main(String[] args) {

        // get endpoint and key from environment variables
        String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
        String key = System.getenv("CONTENT_SAFETY_KEY");
        
        ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
            .credential(new KeyCredential(key))
            .endpoint(endpoint).buildClient();

        AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));

        for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
            System.out.println(result.getCategory() + " severity: " + result.getSeverity());
        }
    }
}

Wróć do folderu głównego projektu i skompiluj aplikację za pomocą polecenia:

gradle build

Następnie uruchom go za pomocą gradle run polecenia :

gradle run

Wyjście

Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0

Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (npm) | Przykłady |

Wymagania wstępne

  • Subskrypcja platformy Azure — utwórz bezpłatnie
  • Bieżąca wersja Node.js
  • Po utworzeniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwa zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
    • Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i jeden z kluczy są używane do wywoływania interfejsów API.

Konfigurowanie aplikacji

Tworzenie nowej aplikacji Node.js. W oknie konsoli (na przykład cmd, PowerShell lub Bash) utwórz nowy katalog dla aplikacji i przejdź do niego.

mkdir myapp && cd myapp

Uruchom polecenie npm init, aby utworzyć aplikację Node przy użyciu pliku package.json.

npm init

Instalowanie zestawu SDK klienta

@azure-rest/ai-content-safety Zainstaluj pakiet npm:

npm install @azure-rest/ai-content-safety

Zainstaluj również moduł, dotenv aby używać zmiennych środowiskowych:

npm install dotenv

Plik package.json aplikacji zostanie zaktualizowany przy użyciu zależności.

Tworzenie zmiennych środowiskowych

W tym przykładzie umieścisz poświadczenia w zmiennych środowiskowych na lokalnym komputerze, na którym jest uruchomiona aplikacja.

Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.

  • Aby ustawić zmienną CONTENT_SAFETY_KEY środowiskową, zastąp YOUR_CONTENT_SAFETY_KEY jednym z kluczy zasobu.
  • Aby ustawić zmienną CONTENT_SAFETY_ENDPOINT środowiskową, zamień YOUR_CONTENT_SAFETY_ENDPOINT na adres końcowy zasobu.

Ważne

Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.

Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.

setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.

Analizowanie zawartości tekstowej

Utwórz nowy plik w katalogu index.js. Otwórz go w preferowanym edytorze lub środowisku IDE i wklej następujący kod. Zastąp <your text sample> treścią, której chcesz użyć.

Napiwek

Rozmiar tekstu i stopień szczegółowości

Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.

const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
  { isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");

// Load the .env file if it exists
require("dotenv").config();

async function main() {
    // get endpoint and key from environment variables
    const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
    const key = process.env["CONTENT_SAFETY_KEY"];
    
    const credential = new AzureKeyCredential(key);
    const client = ContentSafetyClient(endpoint, credential);
    
    // replace with your own sample text string 
    const text = "<your sample text>";
    const analyzeTextOption = { text: text };
    const analyzeTextParameters = { body: analyzeTextOption };
    
    const result = await client.path("/text:analyze").post(analyzeTextParameters);
    
    if (isUnexpected(result)) {
        throw result;
    }
    
    for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
    const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
    console.log(
      textCategoriesAnalysisOutput.category,
      " severity: ",
      textCategoriesAnalysisOutput.severity
    );
  }
}

main().catch((err) => {
    console.error("The sample encountered an error:", err);
});

Uruchom aplikację, wykonując polecenie node dla pliku szybkiego startu.

node index.js

Wyjście

Hate severity:  0
SelfHarm severity:  0
Sexual severity:  0
Violence severity:  0

Czyszczenie zasobów

Jeśli chcesz wyczyścić i usunąć subskrypcję usług Azure AI, możesz usunąć zasób lub grupę zasobów. Usunięcie grupy zasobów powoduje również usunięcie wszelkich innych skojarzonych z nią zasobów.