Usare l'intelligenza artificiale in modo responsabile con Sicurezza dei contenuti di Azure AI
Sicurezza dei contenuti di Azure AI è uno strumento completo progettato per rilevare e gestire contenuti dannosi sia nei materiali generati dagli utenti che in quelli generati dall’intelligenza artificiale. Informazioni su come Sicurezza dei contenuti di Azure AI usa le API di testo e immagine per identificare e filtrare contenuti correlati a violenza, odio, contenuto sessuale e autolesionismo.
Obiettivi di apprendimento
Gli obiettivi del modulo sono:
- Descrizione Sicurezza dei contenuti di Azure AI.
- Descrivere come funziona Sicurezza dei contenuti di Azure AI.
- Descrivere quando usare Sicurezza dei contenuti di Azure AI.
Prerequisiti
Prima di iniziare il modulo, è consigliabile acquisire familiarità con Azure e l’uso del portale di Azure. È anche opportuno avere esperienza di programmazione con C# o Python. Se non si ha alcuna esperienza di programmazione precedente, è consigliabile completare il percorso di apprendimento Muovere i primi passi con C# or Muovere i primi passi con Python prima di iniziare questo.