Consideraciones de IA responsable para cargas de trabajo de aplicaciones inteligentes
Las cargas de trabajo de aplicaciones inteligentes deben cumplir con los principios de IA responsable para garantizar la equidad, la responsabilidad, la transparencia y el comportamiento ético.
Diseñar el sistema de IA para tratar a todos los usuarios de manera justa, responsabilizar a los desarrolladores y usuarios de su desempeño, garantizar la transparencia en las operaciones de IA y cumplir con los estándares éticos.
En Microsoft, estamos comprometidos con el avance de la IA impulsada por principios que priorizan a las personas. Los modelos generativos tienen importantes beneficios potenciales, pero sin un diseño cuidadoso y mitigaciones bien pensadas, dichos modelos tienen el potencial de generar contenido incorrecto o incluso dañino. Microsoft ha realizado inversiones significativas para ayudar a protegerse contra el abuso y el daño no deseado, lo que incluye la incorporación de los principios de Microsoftpara el uso responsable de la IA , la adopción de un Código de conducta , la creación de filtros de contenido para apoyar a los clientes y el suministro de información y orientación sobre IA responsableque los clientes deben tener en cuenta al utilizar IA generativa. ...
Power Platform copilotos y características de IA generativa seguir un conjunto de prácticas básicas de seguridad y privacidad y el Microsoft Estándar de IA Responsable. Power Platform Los datos están protegidos por controles integrales de cumplimiento, seguridad y privacidad líderes en la industria.
Más información:
- Microsoft Principios de la IA
- Microsoft Recursos de IA responsables
- Microsoft Azure Cursos de aprendizaje sobre IA responsable
- Preguntas frecuentes sobre IA responsable para Copilot Studio
- Descripción general de las prácticas de IA responsable para los modelos de Azure OpenAI
Principios básicos de la IA responsable
Los principios básicos de la IA responsable incluyen la equidad, la responsabilidad, la transparencia y la ética. Para garantizar que una carga de trabajo de aplicación inteligente creada con Power Platform se adhiera a estos principios básicos, se requieren varias prácticas clave:
- Equidad: utilice datos de capacitación diversos y representativos para minimizar los sesgos. Actualice periódicamente los datos de capacitación y contrate auditores para validar la imparcialidad y la equidad.
- Responsabilidad: Defina roles y responsabilidades claros para los miembros del equipo involucrados en el proyecto de IA. Establecer y adherirse a estándares éticos que prioricen la equidad y la responsabilidad.
- Transparencia: asegúrese de que los usuarios sepan que están utilizando una carga de trabajo que utiliza capacidades de IA generativa. Comunique claramente por qué se eligió una solución de IA, cómo se diseñó y cómo se monitorea y actualiza.
- Ética: Fomentar una fuerza laboral inclusiva y buscar aportes de comunidades diversas en las primeras etapas del proceso de desarrollo. Evaluar y probar periódicamente los modelos para detectar preocupaciones éticas y disparidades en el desempeño. Establecer un marco de gobernanza que incluya auditorías periódicas.
Incorpore estas prácticas en sus procesos de desarrollo e implementación para crear una carga de trabajo de aplicaciones inteligente que se adhiera a los principios centrales de la IA responsable.
Privacidad y seguridad de los datos
Garantizar la privacidad de los datos es fundamental, especialmente porque la carga de trabajo de la aplicación inteligente puede manejar datos confidenciales. Al planificar una carga de trabajo de aplicación inteligente con Power Platform, es esencial abordar varios riesgos clave e implementar estrategias de mitigación efectivas:
- Características de la plataforma: comprenda los controles nativos y las características de la plataforma que protegen sus datos. Microsoft Copilot se basa en el Microsoft Azure OpenAI Servicio y se ejecuta completamente dentro de la nube de Azure. Copilot usa modelos de OpenAI con todas las capacidades de seguridad de Microsoft Azure. Copilot está integrado en servicios como Dynamics 365 y hereda sus políticas y procesos de seguridad, privacidad y cumplimiento, como la autenticación multifactor y los límites de cumplimiento. Microsoft Power Platform
- Cifrado de datos: las tecnologías del lado del servicio cifran el contenido de la organización en reposo y en tránsito para brindar una seguridad sólida. Las conexiones están protegidas con seguridad de transporte (TLS), y las transferencias de datos entre Dynamics 365, Power Platform y Azure OpenAI se realizan a través de la red troncal, lo que garantiza tanto la confiabilidad como la seguridad. Microsoft Obtenga más información sobre el cifrado en la nube . Microsoft
- Controles de acceso: Los datos se proporcionan a Copilot en función del nivel de acceso del usuario actual. Implemente el control de acceso basado en roles (RBAC) utilizando ID para garantizar que solo los usuarios autorizados puedan acceder a los datos. Microsoft Entra Aplicar el principio del mínimo privilegio para limitar el acceso sólo a lo necesario.
- Monitoreo y auditoría: Detectar y responder a posibles incidentes de seguridad monitoreando regularmente el acceso y el uso del sistema de IA. Mantener registros de auditoría detallados para rastrear el acceso y las modificaciones de los datos.
- Cumplimiento y gobernanza: garantizar el cumplimiento de las regulaciones de privacidad de datos pertinentes, como RGPD (capa), HIPAA (Ley de Portabilidad y Responsabilidad del Seguro Médico) y CCPA (Ley de Privacidad del Consumidor de California). Implementar prácticas de IA éticas para evitar sesgos y garantizar la imparcialidad en los resultados de IA.
- Educación y capacitación de usuarios: capacite a los usuarios sobre las mejores prácticas de seguridad y la importancia de la privacidad de los datos. Mantenga a los usuarios informados sobre actualizaciones y cambios en las políticas y procedimientos de seguridad.
Obtenga más información: Preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot para Dynamics 365 y Power Platform
Concientización y mitigación de sesgos
Reconocer la importancia de abordar los sesgos en el sistema y garantizar la equidad para evitar sesgos en las respuestas de la IA.
- Datos diversos y representativos:Asegúrese de que los datos de entrenamiento sean diversos y representativos de diferentes grupos demográficos para minimizar los sesgos inherentes. Audite periódicamente los datos para detectar sesgos y desequilibrios y tome medidas correctivas según sea necesario.
- Herramientas de detección y mitigación de sesgos: utilice herramientas y técnicas para detectar sesgos en los modelos de IA, como análisis estadístico y métricas de imparcialidad. Implementar técnicas de eliminación de sesgos, incluido el remuestreo, la reponderación o la eliminación de sesgos adversarial, para reducir los sesgos en los modelos.
- Participación humana: incorporar revisiones humanas y ciclos de retroalimentación para identificar y corregir sesgos que la IA pueda introducir. Establecer un comité de ética o una junta de gobernanza para supervisar el desarrollo y la implementación de la IA, garantizando que se cumplan los estándares éticos.
- Transparencia y confianza: asegúrese de que los usuarios sepan que están utilizando una carga de trabajo que utiliza capacidades de inteligencia artificial generativa. Comunique claramente por qué se eligió una solución de IA y proporcione información sobre cómo se diseñó y cómo se monitorea y actualiza.
- Monitoreo y mejora continuos: monitoree continuamente el sistema de IA para detectar sesgos y problemas de rendimiento, y actualice los modelos según sea necesario. Asegúrese de que los modelos sigan siendo justos e imparciales reentrenándolos periódicamente con datos actualizados y más diversos.
Seguimiento y evaluación permanentes
Continúe mejorando la carga de trabajo de su aplicación inteligente. Establecer un marco para el seguimiento y la evaluación continuos, e incorporar la retroalimentación de los usuarios y los estándares éticos en evolución en las actualizaciones.
- Bucles de retroalimentación :Establecer mecanismos de retroalimentación donde los usuarios puedan reportar imprecisiones, que luego puedan usarse para refinar y mejorar los modelos.
- Monitoreo y auditoría: Detectar y responder a posibles incidentes de seguridad monitoreando regularmente el acceso y el uso del sistema de IA. Mantener registros de auditoría detallados para rastrear el acceso y las modificaciones de los datos.