Consideraciones de IA responsable para cargas de trabajo de aplicaciones inteligentes
Las cargas de trabajo de las aplicaciones inteligentes deben cumplir con los principios de IA responsable para garantizar la equidad, la responsabilidad, la transparencia y el comportamiento ético.
Diseñe el sistema de IA para que trate a todos los usuarios de manera justa, responsabilice a los desarrolladores y usuarios de su rendimiento, garantice la transparencia en las operaciones de IA y cumpla con los estándares éticos.
En Microsoft, estamos comprometidos con el avance de la IA impulsada por principios que ponen a las personas en primer lugar. Los modelos generativos tienen beneficios potenciales significativos, pero sin un diseño cuidadoso y mitigaciones bien pensadas, estos modelos tienen el potencial de generar contenido incorrecto o incluso dañino. Microsoft ha realizado importantes inversiones para ayudar a protegerse contra el abuso y el daño no intencionado, lo que incluye la incorporación de los principios de Microsoft para el uso responsable de la IA, la adopción de un Código de conducta, la creación de filtros de contenido para ayudar a los clientes y el suministro de información y orientación sobre IA responsable que los clientes deben tener en cuenta al usar la IA generativa.
Los copilotos de Power Platform y las funciones de IA generativa siguen un conjunto de prácticas básicas de seguridad y privacidad y el Estándar de IA responsable de Microsoft. Los datos de Power Platform están protegidos por controles de seguridad y cumplimiento integrales y líderes del sector.
Más información:
- Principios de Microsoft AI
- Recursos de IA responsable de Microsoft
- Cursos de Microsoft Azure Learning sobre IA responsable
- Preguntas frecuentes sobre IA responsable para Copilot Studio
- Información general sobre las prácticas de IA responsable para los modelos de Azure OpenAI
Principios básicos de la IA responsable
Los principios básicos de la IA responsable incluyen la equidad, la rendición de cuentas, la transparencia y la ética. Garantizar que una carga de trabajo de aplicaciones inteligente creada con Power Platform se adhiera a estos principios básicos implica varias prácticas clave:
- Equidad: utilice datos de entrenamiento diversos y representativos para minimizar los sesgos. Actualice regularmente los datos de entrenamiento y contrate auditores para validar la justicia y la equidad.
- Responsabilidad: defina roles y responsabilidades claros para los miembros del equipo involucrados en el proyecto de IA. Establecer y cumplir con estándares éticos que prioricen la equidad y la responsabilidad.
- Transparencia: asegúrese de que los usuarios sepan que están usando una carga de trabajo que utiliza capacidades de IA generativa. Explique claramente por qué se eligió una solución de IA, cómo se diseñó y cómo se supervisa y actualiza.
- Ética: fomente una plantilla inclusiva y busque la opinión de diversas comunidades al principio del proceso de desarrollo. Evalúe y pruebe regularmente los modelos para detectar preocupaciones éticas y disparidades en el desempeño. Establezca un marco de gobernanza que incluya auditorías periódicas.
Incorpore estas prácticas en sus procesos de desarrollo e implementación para crear una carga de trabajo de aplicaciones inteligente que se adhiera a los principios básicos de la IA responsable.
Seguridad y privacidad de los datos
Garantizar la privacidad de los datos es fundamental, especialmente porque la carga de trabajo de la aplicación inteligente puede manejar datos confidenciales. Al planificar una carga de trabajo de aplicaciones inteligentes con Power Platform, es esencial abordar varios riesgos clave e implementar estrategias de mitigación efectivas:
- Características de la plataforma: comprenda los controles nativos y las características de la plataforma que protegen sus datos. Microsoft Copilot se basa en el Servicio OpenAI de Microsoft Azure y se ejecuta completamente dentro de la nube de Azure. Copilot usa modelos de OpenAI con todas las capacidades de seguridad de Microsoft Azure. Copilot está integrado en servicios de Microsoft como Dynamics 365 y Power Platform, y hereda sus políticas y procesos de seguridad, privacidad y cumplimiento, como límites de cumplimiento y autenticación multifactor.
- Cifrado de datos: las tecnologías del lado del servicio cifran el contenido organizativo en reposo y en tránsito para lograr una seguridad sólida. Las conexiones están protegidas con Seguridad de la capa de transporte (TLS) y las transferencias de datos entre Dynamics 365, Power Platform y Azure OpenAI se producen a través de la red troncal de Microsoft, lo que garantiza fiabilidad y seguridad. Más información sobre el cifrado en Microsoft Cloud.
- Controles de acceso: los datos que se proporcionan a Copilot (o a un agente personalizado) según el nivel de acceso del usuario actual. Implemente el control de acceso basado en roles (RBAC) mediante Microsoft Entra ID para garantizar que solo los usuarios autorizados puedan acceder a los datos. Aplique el principio de privilegio mínimo para limitar el acceso solo a lo necesario.
- Supervisión y auditoría: detecte y responda a posibles incidentes de seguridad supervisando periódicamente el acceso y el uso del sistema de IA. Mantenga registros de auditoría detallados para realizar un seguimiento del acceso a los datos y sus modificaciones.
- Cumplimiento y gobernanza: garantice el cumplimiento de las normativas de privacidad de datos pertinentes, como RGPD (Reglamento general de protección de datos), HIPAA (Ley de Portabilidad y Responsabilidad de Seguros Médicos) y CCPA (Ley de Privacidad del Consumidor de California). Implemente prácticas éticas de IA para evitar sesgos y garantizar la equidad en los resultados de IA.
- Educación y formación de usuarios: entrenar a los usuarios sobre las mejores prácticas de seguridad y la importancia de la privacidad de los datos. Mantener informados a los usuarios sobre actualizaciones y cambios en las políticas y procedimientos de seguridad.
Más información: Leer las preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot para Dynamics 365 y Power Platform
Concientización y mitigación de sesgos
Reconozca la importancia de abordar los sesgos en el sistema y garantice la equidad para evitar sesgos en las respuestas de la IA.
- Datos diversos y representativos: asegúrese de que los datos de entrenamiento sean diversos y representativos de diferentes grupos demográficos para minimizar los sesgos inherentes. Audite periódicamente los datos en busca de sesgos y desequilibrios, y tome las medidas correctivas necesarias.
- Herramientas de detección y mitigación de sesgos: utilice herramientas y técnicas para detectar sesgos en los modelos de IA, como el análisis estadístico y las métricas de equidad. Implemente técnicas de eliminación de sesgos, como el remuestreo, la reponderación o la eliminación de sesgos adversarios, para reducir los sesgos en los modelos.
- Human-in-the-loop: incorpore la revisión humana y los bucles de retroalimentación para identificar y corregir los sesgos que la IA pueda introducir. Establezca un comité de ética o una junta de gobernanza para supervisar el desarrollo y la implementación de la IA, asegurando que se cumplan los estándares éticos.
- Transparencia y confianza: asegúrese de que los usuarios sepan que están usando una carga de trabajo que utiliza capacidades de IA generativa. Comunique claramente por qué se eligió una solución de IA y proporcione información sobre cómo se diseñó y cómo se supervisa y actualiza.
- Supervisión y mejora continuas: supervise continuamente el sistema de IA para detectar sesgos y problemas de rendimiento, y actualice los modelos según sea necesario. Asegúrese de que los modelos sigan siendo justos e imparciales mediante el reentrenamiento periódico de los modelos con datos actualizados y más diversos.
Seguimiento y evaluación continuos
Continúe mejorando la carga de trabajo de sus aplicaciones inteligentes. Establezca un marco para el seguimiento y la evaluación continuos, e incorpore los comentarios de los usuarios y la evolución de las normas éticas en las actualizaciones.
- Bucles de retroalimentación: defina mecanismos de retroalimentación en los que los usuarios puedan informar de imprecisiones, que luego se pueden utilizar para refinar y mejorar los modelos.
- Supervisión y auditoría: detecte y responda a posibles incidentes de seguridad supervisando periódicamente el acceso y el uso del sistema de IA. Mantenga registros de auditoría detallados para realizar un seguimiento del acceso a los datos y sus modificaciones.