Co to jest bezpieczeństwo zawartości usługi Azure AI?
Bezpieczeństwo zawartości usługi Azure AI to usługa sztucznej inteligencji, która wykrywa szkodliwą zawartość wygenerowaną przez użytkownika i wygenerowaną przez sztuczną inteligencję w aplikacjach i usługach. Bezpieczeństwo zawartości usługi Azure AI obejmuje interfejsy API tekstu i obrazu, które umożliwiają wykrywanie szkodliwych materiałów. Interaktywne narzędzie Content Safety Studio umożliwia wyświetlanie, eksplorowanie i wypróbowanie przykładowego kodu do wykrywania szkodliwej zawartości w różnych modalnościach.
Oprogramowanie do filtrowania zawartości może pomóc aplikacji w przestrzeganiu przepisów lub zachowaniu zamierzonego środowiska dla użytkowników.
Ta dokumentacja zawiera następujące typy artykułów:
- Pojęcia zawierają szczegółowe wyjaśnienia dotyczące funkcjonalności i funkcji usługi.
- Przewodniki Szybki start to instrukcje wprowadzające, które ułatwiają wysyłanie żądań do usługi.
- Przewodniki z instrukcjami zawierają instrukcje dotyczące korzystania z usługi w bardziej szczegółowy lub dostosowany sposób.
Miejsce użycia
Poniżej przedstawiono kilka scenariuszy, w których deweloper oprogramowania lub zespół wymaga usługi con tryb namiotu ration:
- Monity użytkownika przesłane do usługi generowania sztucznej inteligencji.
- Zawartość utworzona przez generowanie modeli sztucznej inteligencji.
- Platformy handlowe online, które moderowały katalogi produktów i inną zawartość wygenerowaną przez użytkownika.
- Firmy zajmujące się grami, które moderowały artefakty gier generowane przez użytkownika i pokoje rozmów.
- Platformy obsługi wiadomości społecznościowych, które moderują obrazy i tekst dodany przez użytkowników.
- Przedsiębiorstwa medialne, które implementują scentralizowane moderowanie zawartości.
- Dostawcy rozwiązań edukacyjnych K-12 odfiltrowuje zawartość nieodpowiednią dla uczniów i nauczycieli.
Ważne
W celu wykrywania nielegalnych obrazów wykorzystywania dzieci nie można użyć bezpieczeństwa zawartości usługi Azure AI.
Funkcje produktu
Ta usługa udostępnia kilka różnych typów analiz. W poniższej tabeli opisano obecnie dostępne interfejsy API.
Funkcja | Funkcje | Przewodnik po pojęciach | Rozpocznij |
---|---|---|---|
Monitowanie osłon | Skanuje tekst pod kątem ryzyka ataku wejściowego użytkownika na model dużego języka. | Pojęcia dotyczące monitowania o tarcze | Szybki start |
Wykrywanie naziemności (wersja zapoznawcza) | Wykrywa, czy odpowiedzi tekstowe dużych modeli językowych (LLM) są uziemione w materiałach źródłowych dostarczanych przez użytkowników. | Pojęcia dotyczące wykrywania naziemności | Szybki start |
Wykrywanie tekstu chronionego materiału | Skanuje tekst wygenerowany przez sztuczną inteligencję pod kątem znanej zawartości tekstowej (na przykład teksty piosenek, artykuły, przepisy, wybrana zawartość internetowa). | Pojęcia dotyczące materiałów chronionych | Szybki start |
Interfejs API kategorii niestandardowych (standardowy) (wersja zapoznawcza) | Umożliwia tworzenie i trenowanie własnych niestandardowych kategorii zawartości oraz skanowanie tekstu pod kątem dopasowań. | Pojęcia dotyczące kategorii niestandardowych | Szybki start |
Interfejs API kategorii niestandardowych (szybki) (wersja zapoznawcza) | Umożliwia definiowanie pojawiających się szkodliwych wzorców zawartości oraz skanowanie tekstu i obrazów pod kątem dopasowań. | Pojęcia dotyczące kategorii niestandardowych | Przewodnik z instrukcjami |
Interfejs API analizowania tekstu | Skanuje tekst pod kątem treści seksualnych, przemocy, nienawiści i samookaleczenia z wieloma poziomami ważności. | Kategorie szkód | Szybki start |
Analizowanie interfejsu API obrazu | Skanuje obrazy pod kątem treści seksualnych, przemocy, nienawiści i samookaleczenia z wieloma poziomami ważności. | Kategorie szkód | Szybki start |
Content Safety Studio
Azure AI Content Safety Studio to narzędzie online przeznaczone do obsługi potencjalnie obraźliwych, ryzykownych lub niepożądanych treści przy użyciu nowoczesnych modeli uczenia maszynowego tryb namiotu ration. Udostępnia szablony i dostosowane przepływy pracy, umożliwiając użytkownikom wybieranie i tworzenie własnego systemu con tryb namiotu ration. Użytkownicy mogą przekazać własną zawartość lub wypróbować ją z udostępnioną przykładową zawartością.
Content Safety Studio nie tylko zawiera gotowe do użycia modele sztucznej inteligencji, ale także wbudowane listy zablokowanych firmy Microsoft, aby flagować wulgaryzmy i być na bieżąco z nowymi trendami zawartości. Możesz również przekazać własne listy zablokowanych, aby zwiększyć zakres szkodliwej zawartości specyficznej dla twojego przypadku użycia.
Program Studio umożliwia również skonfigurowanie przepływu pracy moderowania, w którym można stale monitorować i poprawiać wydajność con tryb namiotu ration. Może to pomóc w spełnieniu wymagań dotyczących zawartości ze wszystkich rodzajów branż, takich jak gry, media, edukacja, handel elektroniczny i inne. Firmy mogą łatwo połączyć swoje usługi z programem Studio i mieć ich con tryb namiotu rated w czasie rzeczywistym, niezależnie od tego, czy są generowane przez użytkownika, czy generowane przez sztuczną inteligencję.
Wszystkie te możliwości są obsługiwane przez program Studio i jego zaplecze; klienci nie muszą martwić się o tworzenie modeli. Możesz dołączyć dane w celu szybkiej weryfikacji i odpowiednio monitorować wskaźniki KPI, takie jak metryki techniczne (opóźnienie, dokładność, kompletność) lub metryki biznesowe (szybkość blokowania, ilość bloków, proporcje kategorii, proporcje języka i inne). Dzięki prostym operacjom i konfiguracjom klienci mogą szybko testować różne rozwiązania i znajdować najlepsze rozwiązanie, zamiast poświęcać czas na eksperymentowanie z modelami niestandardowymi lub ręczne moderowanie.
Funkcje programu Content Safety Studio
W programie Content Safety Studio dostępne są następujące funkcje bezpieczeństwa zawartości sztucznej inteligencji platformy Azure:
Moderowanie zawartości tekstu: za pomocą narzędzia moderowania tekstu można łatwo uruchamiać testy zawartości tekstowej. Niezależnie od tego, czy chcesz przetestować jedno zdanie, czy cały zestaw danych, nasze narzędzie oferuje przyjazny dla użytkownika interfejs, który umożliwia ocenę wyników testów bezpośrednio w portalu. Możesz eksperymentować z różnymi poziomami poufności, aby skonfigurować filtry zawartości i zarządzanie listami zablokowanymi, zapewniając, że zawartość jest zawsze moderowana zgodnie z dokładnymi specyfikacjami. Ponadto dzięki możliwości eksportowania kodu możesz zaimplementować narzędzie bezpośrednio w aplikacji, usprawniając przepływ pracy i oszczędzając czas.
Moderowanie zawartości obrazu: za pomocą narzędzia moderowania obrazów można łatwo uruchamiać testy na obrazach, aby upewnić się, że spełniają one standardy zawartości. Nasz przyjazny dla użytkownika interfejs umożliwia ocenę wyników testów bezpośrednio w portalu i eksperymentowanie z różnymi poziomami poufności w celu skonfigurowania filtrów zawartości. Po dostosowaniu ustawień można łatwo wyeksportować kod w celu zaimplementowania narzędzia w aplikacji.
Monitorowanie aktywności online: zaawansowana strona monitorowania umożliwia łatwe śledzenie użycia i trendów interfejsu API moderowania w różnych modalnościach. Dzięki tej funkcji można uzyskać dostęp do szczegółowych informacji o odpowiedzi, w tym dystrybucji kategorii i ważności, opóźnienia, błędu i wykrywania listy zablokowanych. Te informacje zawierają pełny przegląd wydajności con tryb namiotu ration, co umożliwia optymalizację przepływu pracy i zapewnienie, że zawartość jest zawsze moderowana zgodnie z dokładnymi specyfikacjami. Dzięki przyjaznemu dla użytkownika interfejsowi możesz szybko i łatwo nawigować po stronie monitorowania, aby uzyskać dostęp do informacji potrzebnych do podejmowania świadomych decyzji dotyczących strategii con tryb namiotu ration. Masz narzędzia, które należy zachować na bieżąco z wydajnością con tryb namiotu ration i osiągnąć cele zawartości.
Zabezpieczenia
Zarządzanie dostępem przy użyciu identyfikatora Entra firmy Microsoft lub tożsamości zarządzanej
W przypadku zwiększonych zabezpieczeń możesz użyć identyfikatora Entra firmy Microsoft lub tożsamości zarządzanej (MI) do zarządzania dostępem do zasobów.
- Tożsamość zarządzana jest automatycznie włączana podczas tworzenia zasobu Bezpieczeństwo zawartości.
- Identyfikator Entra firmy Microsoft jest obsługiwany zarówno w scenariuszach interfejsu API, jak i zestawu SDK. Zapoznaj się z ogólnymi wytycznymi usług sztucznej inteligencji w temacie Authenticating with Microsoft Entra ID (Uwierzytelnianie za pomocą identyfikatora Entra firmy Microsoft). Możesz również udzielić dostępu innym użytkownikom w organizacji, przypisując im role użytkowników i czytelnika usług Cognitive Services. Aby dowiedzieć się więcej na temat udzielania użytkownikom dostępu do zasobów platformy Azure przy użyciu witryny Azure Portal, zapoznaj się z przewodnikiem Kontrola dostępu oparta na rolach.
Szyfrowanie danych w stanie spoczynku
Dowiedz się, jak bezpieczeństwo zawartości usługi Azure AI obsługuje szyfrowanie i odszyfrowywanie danych. Klucze zarządzane przez klienta (CMK), znane również jako Bring Your Own Key (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływanie kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych.
Cennik
Obecnie bezpieczeństwo zawartości usługi Azure AI ma warstwę cenową F0 i S0 . Aby uzyskać więcej informacji, zobacz stronę cennika platformy Azure.
Limity usługi
Uwaga
Powiadomienie o wycofaniu
W ramach zarządzania wersjami i cyklem życia bezpieczeństwa zawartości ogłaszamy wycofanie niektórych wersji publicznej wersji zapoznawczej i ogólnie dostępnych wersji interfejsów API usługi. Zgodnie z naszymi zasadami wycofywania:
- Wersje publicznej wersji zapoznawczej: każda nowa publiczna wersja zapoznawcza wyzwoli wycofanie poprzedniej wersji zapoznawczej po upływie 90-dniowego okresu, pod warunkiem, że nie wprowadzono żadnych zmian powodujących niezgodność.
- Wersje ogólnie dostępne: po wydaniu nowej wersji ogólnie dostępnej poprzednia wersja będzie przestarzała po upływie 90-dniowego okresu, jeśli zostanie zachowana zgodność.
Zobacz stronę Co nowego, aby zapoznać się z nadchodzącymi wycofaniem.
Wymagania dotyczące danych wejściowych
Zapoznaj się z poniższą listą wymagań dotyczących danych wejściowych dla każdej funkcji.
- Interfejs API analizowania tekstu:
- Domyślna maksymalna długość: 10 000 znaków (podziel dłuższe teksty zgodnie z potrzebami).
- Interfejs API analizowania obrazów:
- Maksymalny rozmiar pliku obrazu: 4 MB
- Wymiary z zakresu od 50 x 50 do 7200 x 7200 pikseli.
- Obrazy mogą być w formatach JPEG, PNG, GIF, BMP, TIFF lub WEBP.
- Analizowanie wielomodalnego interfejsu API (wersja zapoznawcza):
- Domyślna maksymalna długość tekstu: 1K znaków.
- Maksymalny rozmiar pliku obrazu: 4 MB
- Wymiary z zakresu od 50 x 50 do 7200 x 7200 pikseli.
- Obrazy mogą być w formatach JPEG, PNG, GIF, BMP, TIFF lub WEBP.
- Interfejs API monitów o osłony:
- Maksymalna długość monitu: 10 000 znaków.
- Maksymalnie pięć dokumentów z łącznie 10 000 znaków.
- Interfejs API wykrywania naziemności (wersja zapoznawcza):
- Maksymalna długość źródeł uziemienia: 55 000 znaków (na wywołanie interfejsu API).
- Maksymalna długość tekstu i zapytania: 7500 znaków.
- Interfejsy API wykrywania chronionych materiałów:
- Domyślna maksymalna długość: 1K znaków.
- Minimalna długość: 110 znaków (w przypadku skanowania uzupełniania LLM, a nie monitów użytkownika).
- Interfejs API kategorii niestandardowych (standardowy) (wersja zapoznawcza):
- Maksymalna długość danych wejściowych wnioskowania: 1K znaków.
Obsługa języków
Modele bezpieczeństwa zawartości sztucznej inteligencji platformy Azure dla chronionych materiałów, wykrywania uziemienia i kategorii niestandardowych (standard) działają tylko w języku angielskim.
Inne modele bezpieczeństwa zawartości sztucznej inteligencji platformy Azure zostały specjalnie przeszkolone i przetestowane w następujących językach: chiński, angielski, francuski, niemiecki, hiszpański, włoski, japoński, portugalski. Jednak te funkcje mogą działać w wielu innych językach, ale jakość może się różnić. We wszystkich przypadkach należy przeprowadzić własne testy, aby upewnić się, że działa ona w danym zastosowaniu.
Aby uzyskać więcej informacji, zobacz Obsługa języka.
Dostępność w regionach
Aby korzystać z interfejsów API bezpieczeństwa zawartości, należy utworzyć zasób Bezpieczeństwo zawartości usługi Azure AI w obsługiwanym regionie. Obecnie funkcje bezpieczeństwa zawartości są dostępne w następujących regionach świadczenia usługi Azure z różnymi wersjami interfejsu API:
Region (Region) | Kategoria niestandardowa | Uziemienie | Obraz | Multimodal(Obraz z Tex) | Reagowania na incydenty | Monituj osłonę | Materiał chroniony (tekst) | Materiał chroniony (kod) | Text | Ujednolicony interfejs API |
---|---|---|---|---|---|---|---|---|---|---|
Australia Wschodnia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Kanada Wschodnia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Central US | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||
East US | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |
Wschodnie stany USA 2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Francja Środkowa | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Japonia Wschodnia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Północno-środkowe stany USA | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Polska Środkowa | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||
South Central US | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Indie Południowe | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||
Szwecja Środkowa | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Szwajcaria Północna | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Szwajcaria Zachodnia | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||
Północne Zjednoczone Emiraty Arabskie | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||||
Południowe Zjednoczone Królestwo | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
West Europe | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Zachodnie stany USA | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Zachodnie stany USA 2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Zachodnie stany USA 3 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | |||
FairFax - USGovArizona | ✅ | ✅ | ✅ | ✅ | ✅ | |||||
FairFax - USGovVirginia | ✅ | ✅ | ✅ | ✅ | ✅ |
Możesz skontaktować się z nami , jeśli Twoja firma potrzebuje innych regionów, aby być dostępnymi.
Współczynniki zapytań
Funkcje bezpieczeństwa zawartości mają limity szybkości zapytań w żądaniach na sekundę (RPS) lub żądania na 10 sekund (RP10S). W poniższej tabeli przedstawiono limity szybkości dla każdej funkcji.
Warstwa cenowa | Interfejsy API moderowania (tekst i obraz) |
Osłony monitów | Materiał chroniony zmian |
Uziemienie wykrywanie (wersja zapoznawcza) |
Kategorie niestandardowe (szybkie) (wersja zapoznawcza) |
Kategorie niestandardowe (standardowa) (wersja zapoznawcza) |
Multimodalnego |
---|---|---|---|---|---|---|---|
F0 | 5 RPS | 5 RPS | 5 RPS | Nie dotyczy | 5 RPS | 5 RPS | 5 RPS |
S0 | 1000 RP10S | 1000 RP10S | 1000 RP10S | 50 RPS | 1000 RP10S | 5 RPS | 10 RPS |
Jeśli potrzebujesz szybszej stawki, skontaktuj się z nami, aby go poprosić.
Kontakt z nami
Jeśli utkniesz, wyślij nam wiadomość e-mail lub użyj widżetu opinii w dolnej części dowolnej strony usługi Microsoft Learn.
Następne kroki
Postępuj zgodnie z przewodnikiem Szybki start, aby rozpocząć korzystanie z bezpieczeństwa zawartości usługi Azure AI w aplikacji.