Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Rozpocznij pracę z programem Content Safety Studio, interfejsem API REST lub zestawami SDK klienta, aby wykonać podstawowe moderowanie tekstu. Usługa Azure AI Content Safety service udostępnia algorytmy sztucznej inteligencji służące do flagowania niepożądanej zawartości. Wykonaj następujące kroki, aby to wypróbować.
Aby uzyskać więcej informacji na temat moderowania tekstu, zobacz stronę pojęć dotyczących kategorii szkód. Aby uzyskać informacje o limitach danych wejściowych interfejsu API, zobacz sekcję Wymagania dotyczące danych wejściowych w sekcji Przegląd.
Uwaga
Przykładowe dane i kod mogą zawierać obraźliwą zawartość. Zaleca się ostrożność.
Wymagania wstępne
- Subskrypcja platformy Azure — utwórz bezpłatnie
- Po utworzeniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwo zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
- Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i jeden z kluczy są używane do wywoływania interfejsów API.
- Zainstalowano bibliotekę cURL
Analizowanie zawartości tekstowej
W poniższej sekcji pokazano przykładowe żądanie z cURL. Wklej poniższe polecenie do edytora tekstów i wprowadź następujące zmiany.
- Zastąp ciąg
<endpoint>
adresem URL punktu końcowego skojarzonym z zasobem. - Zastąp
<your_subscription_key>
jednym z kluczy dostarczanych z twoim zasobem. - Opcjonalnie zastąp
"text"
pole w treści własnym tekstem, który chcesz przeanalizować.Napiwek
Rozmiar tekstu i stopień szczegółowości
Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.
curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2024-09-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["string"],
"haltOnBlocklistHit": true,
"outputType": "FourSeverityLevels"
}'
Poniższe pola muszą być uwzględnione w adresie URL:
Nazwisko | Wymagane | opis | Typ |
---|---|---|---|
Wersja interfejsu API | Wymagane | Jest to wersja interfejsu API do sprawdzenia. Bieżąca wersja to: api-version=2024-09-01. Przykład: <endpoint>/contentsafety/text:analyze?api-version=2024-09-01 |
String |
Parametry w treści żądania są zdefiniowane w tej tabeli:
Nazwisko | Wymagane | opis | Typ |
---|---|---|---|
text | Wymagane | Jest to nieprzetworzony tekst do sprawdzenia. Można uwzględnić inne znaki inne niż ascii. | String |
Kategorie | Opcjonalnie | Przyjmuje się, że jest to tablica nazw kategorii. Zobacz przewodnik po kategoriach szkody, aby uzyskać listę dostępnych nazw kategorii. Jeśli nie określono żadnych kategorii, zostaną użyte wszystkie cztery kategorie. Używamy wielu kategorii do uzyskiwania wyników w jednym żądaniu. | String |
blocklistNames | Opcjonalnie | Nazwa listy bloków tekstu. Obsługują tylko następujące znaki: 0-9 A-Z a-z - . _ ~ . Tutaj można dołączyć wiele nazw list. |
Tablica |
haltOnBlocklistHit | Opcjonalnie | Gdy ustawiono wartość true , dalsze analizy szkodliwej zawartości nie będą przeprowadzane w przypadkach trafienia na listy blokujące. Po ustawieniu wartości false wszystkie analizy szkodliwej zawartości zostaną wykonane, niezależnie od tego, czy dotyczy to list zablokowanych. |
Wartość logiczna |
outputType | Opcjonalnie |
"FourSeverityLevels" lub "EightSeverityLevels" . Poziomy ważności wyjściowej na czterech lub ośmiu poziomach, wartość może być 0,2,4,6 lub 0,1,2,3,4,5,6,7 . |
String |
Zobacz następującą przykładową treść żądania:
{
"text": "I hate you",
"categories": ["Hate", "Sexual", "SelfHarm", "Violence"],
"blocklistNames": ["array"],
"haltOnBlocklistHit": false,
"outputType": "FourSeverityLevels"
}
Otwórz okno wiersza polecenia, wklej edytowane polecenie cURL i uruchom je.
Wyjście
Wyniki moderowania tekstu powinny być wyświetlane jako dane JSON w danych wyjściowych konsoli. Na przykład:
{
"blocklistsMatch": [
{
"blocklistName": "string",
"blocklistItemId": "string",
"blocklistItemText": "string"
}
],
"categoriesAnalysis": [
{
"category": "Hate",
"severity": 2
},
{
"category": "SelfHarm",
"severity": 0
},
{
"category": "Sexual",
"severity": 0
},
{
"category": "Violence",
"severity": 0
}
]
}
Pola JSON w danych wyjściowych są zdefiniowane tutaj:
Nazwisko | opis | Typ |
---|---|---|
categoriesAnalysis | Każda klasa wyjściowa przewidywana przez API. Klasyfikacja może być oznaczona wieloma etykietami. Na przykład gdy przykładowy tekst jest uruchamiany przez model moderowania tekstu, może zostać sklasyfikowany jako zawartość seksualna i przemoc. Kategorie szkód | String |
Ważność | Im większy jest stopień ciężkości zawartości wejściowej, tym większa jest ta wartość. | Integer |
Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (NuGet) | Przykłady
Wymagania wstępne
- Subskrypcja platformy Azure — utwórz bezpłatnie
- Środowisko IDE programu Visual Studio z włączonym tworzeniem aplikacji .NET dla pulpitu. Jeśli nie planujesz używania środowiska IDE programu Visual Studio, potrzebujesz bieżącej wersji platformy .NET Core.
- Po utworzeniu subskrypcji platformy Azure, w portalu Azure utwórz zasób Content Safety, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
- Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z kluczy są używane do wywoływania API.
Konfigurowanie aplikacji
Utwórz nową aplikację w języku C#.
Otwórz program Visual Studio i w obszarze Rozpocznij wybierz pozycję Utwórz nowy projekt. Ustaw filtry szablonu na C#/Wszystkie platformy/konsolę. Wybierz pozycję Aplikacja konsolowa (aplikacja wiersza polecenia, która może działać na platformie .NET w systemach Windows, Linux i macOS), a następnie wybierz pozycję Dalej. Zaktualizuj nazwę projektu na ContentSafetyQuickstart i wybierz pozycję Dalej. Wybierz pozycję .NET 6.0 lub nowszą, a następnie wybierz pozycję Utwórz , aby utworzyć projekt.
Instalowanie zestawu SDK klienta
Po utworzeniu nowego projektu zainstaluj zestaw SDK klienta, klikając prawym przyciskiem myszy rozwiązanie projektu w Eksplorator rozwiązań i wybierając polecenie Zarządzaj pakietami NuGet. W menedżerze pakietów, który zostanie otwarty, wybierz pozycję Przeglądaj i wyszukaj ciąg Azure.AI.ContentSafety
. Wybierz Zainstaluj.
Tworzenie zmiennych środowiskowych
W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na komputerze lokalnym, na którym działa aplikacja.
Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.
- Aby ustawić zmienną środowiskową
CONTENT_SAFETY_KEY
, zastąpYOUR_CONTENT_SAFETY_KEY
jednym z kluczy twojego zasobu. - Aby ustawić zmienną środowiska
CONTENT_SAFETY_ENDPOINT
, zastąpYOUR_CONTENT_SAFETY_ENDPOINT
punktem końcowym zasobu.
Ważne
Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.
Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.
Analizowanie zawartości tekstowej
W katalogu projektu otwórz utworzony wcześniej plik Program.cs . Wklej następujący kod:
using System;
using Azure.AI.ContentSafety;
namespace Azure.AI.ContentSafety.Dotnet.Sample
{
class ContentSafetySampleAnalyzeText
{
public static void AnalyzeText()
{
// retrieve the endpoint and key from the environment variables created earlier
string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");
ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));
string text = "Your input text";
var request = new AnalyzeTextOptions(text);
Response<AnalyzeTextResult> response;
try
{
response = client.AnalyzeText(request);
}
catch (RequestFailedException ex)
{
Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
throw;
}
Console.WriteLine("\nAnalyze text succeeded:");
Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);
}
static void Main()
{
AnalyzeText();
}
}
}
Zastąp "Your input text"
treścią, której chcesz użyć.
Napiwek
Rozmiar tekstu i stopień szczegółowości
Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.
Skompiluj i uruchom aplikację, wybierając pozycję Rozpocznij debugowanie w menu Debuguj w górnej części okna ŚRODOWISKA IDE (lub naciśnij F5).
Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (PyPI) | Przykłady |
Wymagania wstępne
- Subskrypcja platformy Azure — utwórz bezpłatnie
- Po uzyskaniu subskrypcji platformy Azure utwórz zasób Bezpieczeństwa zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
- Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z dwóch kluczy są używane do wywoływania API.
-
Python 3.x
- Twoja instalacja Pythona powinna zawierać pip. Możesz sprawdzić, czy masz zainstalowany pip, wpisując
pip --version
w wierszu poleceń. Aby pobrać pip, zainstaluj najnowszą wersję języka Python.
- Twoja instalacja Pythona powinna zawierać pip. Możesz sprawdzić, czy masz zainstalowany pip, wpisując
Tworzenie zmiennych środowiskowych
W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na komputerze lokalnym, z którego uruchomiona jest aplikacja.
Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.
- Aby ustawić zmienną środowiskową
CONTENT_SAFETY_KEY
, zastąpYOUR_CONTENT_SAFETY_KEY
jednym z kluczy zasobu. - Aby ustawić zmienną
CONTENT_SAFETY_ENDPOINT
środowiskową, zastąpYOUR_CONTENT_SAFETY_ENDPOINT
punktem końcowym zasobu.
Ważne
Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.
Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.
Analizowanie zawartości tekstowej
W poniższej sekcji przedstawiono przykładowe żądanie z zestawem SDK języka Python.
Otwórz wiersz polecenia, przejdź do folderu projektu i utwórz nowy plik o nazwie quickstart.py.
Uruchom to polecenie, aby zainstalować bibliotekę zabezpieczeń zawartości usługi Azure AI:
pip install azure-ai-contentsafety
Skopiuj następujący kod do quickstart.py:
import os from azure.ai.contentsafety import ContentSafetyClient from azure.core.credentials import AzureKeyCredential from azure.core.exceptions import HttpResponseError from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory def analyze_text(): # analyze text key = os.environ["CONTENT_SAFETY_KEY"] endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"] # Create an Azure AI Content Safety client client = ContentSafetyClient(endpoint, AzureKeyCredential(key)) # Contruct request request = AnalyzeTextOptions(text="Your input text") # Analyze text try: response = client.analyze_text(request) except HttpResponseError as e: print("Analyze text failed.") if e.error: print(f"Error code: {e.error.code}") print(f"Error message: {e.error.message}") raise print(e) raise hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE) self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM) sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL) violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE) if hate_result: print(f"Hate severity: {hate_result.severity}") if self_harm_result: print(f"SelfHarm severity: {self_harm_result.severity}") if sexual_result: print(f"Sexual severity: {sexual_result.severity}") if violence_result: print(f"Violence severity: {violence_result.severity}") if __name__ == "__main__": analyze_text()
Zamień
"Your input text"
na treść, której chcesz użyć.Napiwek
Rozmiar tekstu i stopień szczegółowości
Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.
Następnie uruchom aplikację poleceniem
python
na swoim pliku quickstart.python quickstart.py
Dokumentacja referencyjna | Kod źródłowy biblioteki | Artefakt (Maven) | Przykłady
Wymagania wstępne
- Subskrypcja platformy Azure — utwórz bezpłatnie
- Bieżąca wersja zestawu Java Development Kit (JDK)
- Narzędzie Gradle, albo inny menedżer zależności.
- Po posiadaniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwo zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
- Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i którykolwiek z kluczy są używane do wywoływania API.
Konfigurowanie aplikacji
Utwórz nowy projekt Gradle.
W oknie konsoli (na przykład cmd, PowerShell lub Bash) utwórz nowy katalog dla aplikacji i przejdź do niego.
mkdir myapp && cd myapp
Uruchom polecenie gradle init
z katalogu roboczego. To polecenie spowoduje utworzenie podstawowych plików kompilacji dla narzędzia Gradle, w tym pliku build.gradle.kts, który jest używany w czasie wykonywania do tworzenia i konfigurowania aplikacji.
gradle init --type basic
Po wyświetleniu monitu wybierz DSL, a następnie Kotlin.
W katalogu roboczym uruchom następujące polecenie, aby utworzyć folder źródłowy projektu:
mkdir -p src/main/java
Przejdź do nowego folderu i utwórz plik o nazwie ContentSafetyQuickstart.java.
Instalowanie zestawu SDK klienta
W tym przewodniku szybkiego startu używany jest menedżer zależności Gradle. Bibliotekę klienta i informacje dotyczące innych menedżerów zależności można znaleźć w repozytorium centralnym programu Maven.
Znajdź plik build.gradle.kts i otwórz go przy użyciu preferowanego środowiska IDE lub edytora tekstów. Następnie skopiuj poniższą konfigurację kompilacji. Ta konfiguracja definiuje projekt jako aplikację Java, której punktem wejścia jest klasa ContentSafetyQuickstart. Importuje bibliotekę usługi Azure AI Vision.
plugins {
java
application
}
application {
mainClass.set("ContentSafetyQuickstart")
}
repositories {
mavenCentral()
}
dependencies {
implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}
Tworzenie zmiennych środowiskowych
W tym przykładzie zapiszesz swoje poświadczenia do zmiennych środowiskowych na lokalnym komputerze, na którym działa aplikacja.
Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.
- Aby ustawić zmienną
CONTENT_SAFETY_KEY
środowiskową, zastąpYOUR_CONTENT_SAFETY_KEY
jednym z kluczy zasobu. - Aby ustawić zmienną środowiskową
CONTENT_SAFETY_ENDPOINT
, zastąpYOUR_CONTENT_SAFETY_ENDPOINT
punktem końcowym dla swojego zasobu.
Ważne
Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.
Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.
Analizowanie zawartości tekstowej
Otwórz ContentSafetyQuickstart.java w preferowanym edytorze lub środowisku IDE i wklej następujący kod. Zastąp <your text sample>
tekstem zawartości, której chcesz użyć.
Napiwek
Rozmiar tekstu i stopień szczegółowości
Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.
import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;
public class ContentSafetyQuickstart {
public static void main(String[] args) {
// get endpoint and key from environment variables
String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
String key = System.getenv("CONTENT_SAFETY_KEY");
ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
.credential(new KeyCredential(key))
.endpoint(endpoint).buildClient();
AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));
for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
System.out.println(result.getCategory() + " severity: " + result.getSeverity());
}
}
}
Wróć do folderu głównego projektu i skompiluj aplikację za pomocą polecenia:
gradle build
Następnie uruchom go za pomocą gradle run
polecenia :
gradle run
Wyjście
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Dokumentacja referencyjna | Kod źródłowy biblioteki | Pakiet (npm) | Przykłady |
Wymagania wstępne
- Subskrypcja platformy Azure — utwórz bezpłatnie
- Bieżąca wersja Node.js
- Po utworzeniu subskrypcji platformy Azure, utwórz zasób Bezpieczeństwa zawartości w portalu Azure, aby uzyskać klucz i punkt końcowy. Wprowadź unikatową nazwę zasobu, wybierz subskrypcję i wybierz grupę zasobów, obsługiwany region (zobacz Dostępność regionu) i obsługiwaną warstwę cenową. Następnie wybierz Utwórz.
- Wdrożenie zasobu trwa kilka minut. Po zakończeniu wybierz Przejdź do zasobu. W okienku po lewej stronie w obszarze Zarządzanie zasobami wybierz pozycję Klucz subskrypcji i punkt końcowy. Punkt końcowy i jeden z kluczy są używane do wywoływania interfejsów API.
Konfigurowanie aplikacji
Tworzenie nowej aplikacji Node.js. W oknie konsoli (na przykład cmd, PowerShell lub Bash) utwórz nowy katalog dla aplikacji i przejdź do niego.
mkdir myapp && cd myapp
Uruchom polecenie npm init
, aby utworzyć aplikację Node przy użyciu pliku package.json
.
npm init
Instalowanie zestawu SDK klienta
@azure-rest/ai-content-safety
Zainstaluj pakiet npm:
npm install @azure-rest/ai-content-safety
Zainstaluj również moduł, dotenv
aby używać zmiennych środowiskowych:
npm install dotenv
Plik package.json
aplikacji zostanie zaktualizowany przy użyciu zależności.
Tworzenie zmiennych środowiskowych
W tym przykładzie umieścisz poświadczenia w zmiennych środowiskowych na lokalnym komputerze, na którym jest uruchomiona aplikacja.
Aby ustawić zmienną środowiskową dla klucza i punktu końcowego, otwórz okno konsoli i postępuj zgodnie z instrukcjami dotyczącymi systemu operacyjnego i środowiska programistycznego.
- Aby ustawić zmienną
CONTENT_SAFETY_KEY
środowiskową, zastąpYOUR_CONTENT_SAFETY_KEY
jednym z kluczy zasobu. - Aby ustawić zmienną
CONTENT_SAFETY_ENDPOINT
środowiskową, zamieńYOUR_CONTENT_SAFETY_ENDPOINT
na adres końcowy zasobu.
Ważne
Używaj kluczy interfejsu API z ostrożnością. Nie dołączaj klucza interfejsu API bezpośrednio do kodu i nigdy nie publikuj go publicznie. Jeśli używasz klucza interfejsu API, zapisz go bezpiecznie w usłudze Azure Key Vault. Aby uzyskać więcej informacji na temat bezpiecznego używania kluczy interfejsu API w aplikacjach, zobacz Klucze interfejsu API w usłudze Azure Key Vault.
Aby uzyskać więcej informacji na temat zabezpieczeń usług sztucznej inteligencji, zobacz Uwierzytelnianie żądań w usługach Azure AI.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'
Po dodaniu zmiennych środowiskowych może być konieczne ponowne uruchomienie wszystkich uruchomionych programów, które będą odczytywać zmienne środowiskowe, w tym okno konsoli.
Analizowanie zawartości tekstowej
Utwórz nowy plik w katalogu index.js. Otwórz go w preferowanym edytorze lub środowisku IDE i wklej następujący kod. Zastąp <your text sample>
treścią, której chcesz użyć.
Napiwek
Rozmiar tekstu i stopień szczegółowości
Zobacz Wymagania dotyczące danych wejściowych, aby uzyskać informacje o maksymalnych ograniczeniach długości tekstu.
const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
{ isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");
// Load the .env file if it exists
require("dotenv").config();
async function main() {
// get endpoint and key from environment variables
const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
const key = process.env["CONTENT_SAFETY_KEY"];
const credential = new AzureKeyCredential(key);
const client = ContentSafetyClient(endpoint, credential);
// replace with your own sample text string
const text = "<your sample text>";
const analyzeTextOption = { text: text };
const analyzeTextParameters = { body: analyzeTextOption };
const result = await client.path("/text:analyze").post(analyzeTextParameters);
if (isUnexpected(result)) {
throw result;
}
for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
console.log(
textCategoriesAnalysisOutput.category,
" severity: ",
textCategoriesAnalysisOutput.severity
);
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
});
Uruchom aplikację, wykonując polecenie node
dla pliku szybkiego startu.
node index.js
Wyjście
Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0
Czyszczenie zasobów
Jeśli chcesz wyczyścić i usunąć subskrypcję usług Azure AI, możesz usunąć zasób lub grupę zasobów. Usunięcie grupy zasobów powoduje również usunięcie wszelkich innych skojarzonych z nią zasobów.
Powiązana zawartość
- Kategorie szkód
- Skonfiguruj filtry dla każdej kategorii i przetestuj zestawy danych przy użyciu programu Content Safety Studio, wyeksportuj kod i wdróż.