Moderare il contenuto e rilevare possibili danni in Studio AI della piattaforma Azure con Sicurezza dei contenuti
Informazioni su come scegliere e compilare un sistema di moderazione del contenuto con Studio AI della piattaforma Azure.
Nota
Questo è un modulo con un progetto guidato, in cui si completa un progetto end-to-end seguendo istruzioni dettagliate.
Obiettivi di apprendimento
Al termine del modulo, si sarà in grado di:
- Configurare filtri e livelli di soglia per bloccare contenuti dannosi.
- Eseguire la moderazione del testo e delle immagini per contenuti dannosi.
- Analizzare e migliorare le metriche Precisione, Richiamo e Punteggio F1.
- Rilevare il radicamento nell'output di un modello.
- Identificare e bloccare contenuti protetti da copyright generati dall'intelligenza artificiale.
- Ridurre l'inserimento di richieste dirette e indirette.
- Scrivere l'output delle configurazioni del filtro nel codice.
Prerequisiti
- Una sottoscrizione di Azure: creare un account gratuitamente
- Familiarità con Azure e il portale di Azure