Riepilogo
La proliferazione di contenuti generati dall'utente rende quasi impossibile per i moderatori umani gestire efficacemente le piattaforme online. Tuttavia, a mano a mano che aumenta la quantità di contenuti generati dall'utente, nello stesso modo aumenta l'importanza della sicurezza online.
Sicurezza dei contenuti di Azure AI usa modelli di intelligenza artificiale per rilevare automaticamente linguaggio violento, sessuale, contenente autolesionismo o che incita all'odio in tempo reale. Alloca un livello di gravità, in modo che i moderatori umani possano concentrarsi su casi ad alta priorità ed essere esposti a una quantità minore di contenuti anomali. La sicurezza dei contenuti di Intelligenza artificiale di Azure include funzionalità che consentono di moderare sia il materiale generato dagli utenti sia quello generato dall'intelligenza artificiale.
In questo modulo si è visto come le funzionalità di Sicurezza dei contenuti di Azure AI possano aiutare i marchi di e-commerce, le aziende di gioco e i docenti a fornire spazi più sicuri per gli utenti.