Riepilogo
In questo workshop si è appreso come usare le funzionalità di Sicurezza dei contenuti di Azure AI all'interno dello Studio AI della piattaforma Azure. A questo punto si è pronti per integrare questa risorsa nella piattaforma basata su intelligenza artificiale di Contoso Camping Store.
Mentre si continua nel percorso di sviluppo responsabile dell'IA, ricordarsi di mantenere i principi dell'intelligenza artificiale responsabile in primo piano nell'approccio all'integrazione dell'IA. La mitigazione dei potenziali danni presentati dai modelli di intelligenza artificiale generativa richiede un approccio iterativo e a più livelli che include la sperimentazione e la misurazione. Azure per intelligenza artificiale integra anni di esperienza di Microsoft nelle politiche, nella ricerca e negli aspetti tecnici dell'intelligenza artificiale, in modo che i team possano creare soluzioni di intelligenza artificiale sicure, protette e affidabili fin dall'inizio. Azure per intelligenza artificiale applica i controlli aziendali per la privacy, la conformità e la sicurezza dei dati nell'infrastruttura creata per l'intelligenza artificiale su larga scala.
Nota
Al termine del workshop, se è stata completata l'esplorazione di Servizi di Azure AI, eliminare le risorse di Azure create durante il workshop.
Altre informazioni
- Infuse responsible AI tools and practices in your LLMops (Integrare strumenti e procedure di intelligenza artificiale responsabile nelle operazioni su LLM)
- Categorie di danni in Sicurezza dei contenuti di Azure AI
- Protezioni delle richieste
- Rilevamento del grounding