Usare l'intelligenza artificiale in modo responsabile con Sicurezza dei contenuti di Azure AI

Intermedio
AI engineer
Sviluppatore
Progettista di soluzioni
Studente
Servizi di intelligenza artificiale di Azure

Sicurezza dei contenuti di Azure AI è uno strumento completo progettato per rilevare e gestire contenuti dannosi sia nei materiali generati dagli utenti che in quelli generati dall’intelligenza artificiale. Informazioni su come Sicurezza dei contenuti di Azure AI usa le API di testo e immagine per identificare e filtrare contenuti correlati a violenza, odio, contenuto sessuale e autolesionismo.

Obiettivi di apprendimento

Gli obiettivi del modulo sono:

  • Descrizione Sicurezza dei contenuti di Azure AI.
  • Descrivere come funziona Sicurezza dei contenuti di Azure AI.
  • Descrivere quando usare Sicurezza dei contenuti di Azure AI.

Prerequisiti

Prima di iniziare il modulo, è consigliabile acquisire familiarità con Azure e l’uso del portale di Azure. È anche opportuno avere esperienza di programmazione con C# o Python. Se non si ha alcuna esperienza di programmazione precedente, è consigliabile completare il percorso di apprendimento Muovere i primi passi con C# or Muovere i primi passi con Python prima di iniziare questo.