Moderare il contenuto e rilevare possibili danni in Studio AI della piattaforma Azure con Sicurezza dei contenuti

Principiante
Sviluppatore
Azure

Informazioni su come scegliere e compilare un sistema di moderazione del contenuto con Studio AI della piattaforma Azure.

Nota

Questo è un modulo con un progetto guidato, in cui si completa un progetto end-to-end seguendo istruzioni dettagliate.

Obiettivi di apprendimento

Al termine del modulo, si sarà in grado di:

  • Configurare filtri e livelli di soglia per bloccare contenuti dannosi.
  • Eseguire la moderazione del testo e delle immagini per contenuti dannosi.
  • Analizzare e migliorare le metriche Precisione, Richiamo e Punteggio F1.
  • Rilevare il radicamento nell'output di un modello.
  • Identificare e bloccare contenuti protetti da copyright generati dall'intelligenza artificiale.
  • Ridurre l'inserimento di richieste dirette e indirette.
  • Scrivere l'output delle configurazioni del filtro nel codice.

Prerequisiti