Resumen
En este taller, ha aprendido a usar las características de Seguridad del contenido de Azure AI en Estudio de IA de Azure. ¡Ya está listo para integrar este recurso en la plataforma basada en IA de Contoso Camping Store!
A medida que continúe en el recorrido de desarrollo responsable de la inteligencia artificial, recuerde mantener los principios de inteligencia artificial responsables a la vanguardia de su enfoque para integrar la inteligencia artificial. La mitigación de posibles daños presentados por los modelos de IA generativa requiere un enfoque iterativo y en capas que incluye experimentación y medición. Azure AI integra años de experiencia en directivas, investigaciones e ingeniería de inteligencia artificial de Microsoft para que los equipos puedan crear soluciones de inteligencia artificial seguras, seguras y confiables desde el principio. Azure AI aplica controles empresariales para la privacidad, el cumplimiento y la seguridad de los datos en la infraestructura creada a escala para la inteligencia artificial.
Nota:
Después de completar el taller, si ha terminado de explorar Azure AI Services, elimine los recursos de Azure que creó durante el taller.
Saber más
- Infundir herramientas y prácticas de inteligencia artificial responsables en LLMops
- Categorías de daños en la seguridad del contenido de Azure AI
- Escudos de avisos
- Detección de suelo