Compartir a través de


Preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot para Dynamics 365 y Power Platform

Las características de Copilot para Dynamics 365 y Power Platform siguen un conjunto de prácticas de seguridad y privacidad básicas y el Estándar de IA responsable de Microsoft. Los datos de Dynamics 365 y Power Platform están protegidos por controles de cumplimiento, seguridad y privacidad integrales y líderes del sector.

Copilot se basa en el Microsoft Azure OpenAI Service y se ejecuta completamente dentro de la nube de Azure. Azure OpenAI ofrece disponibilidad regional y filtrado de contenido de IA responsable. Copilot utiliza modelos de OpenAI con todas las capacidades de seguridad de Microsoft Azure. OpenAI es una organización independiente. No compartimos sus datos con OpenAI.

Las características de Copilot no están disponibles en todas las zonas geográficas e idiomas de Azure. En función de dónde esté hospedado su entorno, es posible que deba permitir el movimiento de datos entre zonas geográficas para usarlos. Para obtener más información, consulte los artículos que aparecen en Movimiento de datos en distintas zonas geográficas.

¿Qué pasa con mis datos cuando uso Copilot?

Usted tiene el control de sus datos. Microsoft no comparte sus datos con terceros a menos que usted haya otorgado permiso para hacerlo. Además, no utilizamos los datos de sus clientes para entrenar Copilot o sus características de IA, a menos que nos dé su consentimiento para hacerlo. Copilot cumple con las directivas y permisos de datos existentes, y las respuestas que le dé se basan únicamente en los datos a los que tiene acceso personalmente. Para obtener más información sobre cómo puede controlar sus datos y cómo se tratan, consulte los artículos que aparecen en Copilot en aplicaciones de Dynamics 365 y Power Platform.

Copilot supervisa usos abusivos o dañinos del servicio con procesamiento transitorio. No almacenamos ni realizamos revisiones presenciales de las entradas y salidas de Copilot con fines de seguimiento de abusos.

¿Cómo utiliza Copilot mis datos?

Cada servicio o característica utiliza Copilot en función de los datos que proporcione o configure para que Copilot los procese.

Sus solicitudes (entradas) y respuestas (salidas o resultados) de Copilot:

Más información acerca de los datos, la privacidad y la seguridad de Azure OpenAI Service. Para obtener más información sobre cómo Microsoft protege y utiliza sus datos de manera más general, lea nuestra Declaración de privacidad.

¿A dónde van mis datos?

Microsoft se basa en la confianza. Estamos comprometidos con la seguridad, la privacidad y el cumplimiento en todo lo que hacemos, y nuestro enfoque hacia la IA no es diferente. Los datos del cliente, incluidas las entradas y salidas de Copilot, se almacenan dentro del límite de confianza de Microsoft Cloud.

En algunos escenarios, como las características con tecnología Bing y complementos de copiloto de terceros, los datos del cliente pueden transmitirse fuera del límite de confianza de Microsoft Cloud.

¿Puede Copilot acceder a contenido cifrado?

Los datos se proporcionan a Copilot según el nivel de acceso del usuario actual. Si un usuario tiene acceso a los datos cifrados en Dynamics 365 y Power Platform y el usuario los proporciona a Copilot, Copilot puede acceder a ellos.

¿Cómo protege Copilot los datos de los clientes?

Microsoft está en una posición única para ofrecer IA lista para la empresa. Copilot cuenta con la tecnología del Azure OpenAI Service y cumple con nuestros compromisos existentes de privacidad, seguridad y normativos con nuestros clientes.

  • Basado en el enfoque integral de Microsoft para la seguridad, la privacidad y el cumplimiento. Copilot está integrado en servicios de Microsoft como Dynamics 365 y Power Platform, y hereda sus directivas y procesos de seguridad, privacidad y cumplimiento, como límites de cumplimiento y autenticación multifactor.

  • Varias formas de protección para proteger los datos organizacionales. Las tecnologías del lado del servicio cifran el contenido organizativo en reposo y en tránsito para lograr una seguridad sólida. Las conexiones están protegidas con Seguridad de la capa de transporte (TLS) y las transferencias de datos entre Dynamics 365, Power Platform y Azure OpenAI se producen a través de la red troncal de Microsoft, lo que garantiza fiabilidad y seguridad. Más información sobre el cifrado en Microsoft Cloud.

  • Diseñado para proteger sus datos tanto en el nivel de inquilino como de entorno. Sabemos que la fuga de datos es una preocupación para los clientes. Los modelos de IA de Microsoft no se entrenan ni aprenden de los datos de su inquilino ni de sus indicaciones, a menos que su administrador de inquilino haya optado por compartir datos con nosotros. Dentro de sus entornos, puede controlar el acceso a través de los permisos que configure. Los mecanismos de autenticación y autorización segregan las solicitudes al modelo compartido entre inquilinos. Copilot utiliza datos a los que solo usted puede acceder usando la misma tecnología que llevamos usando durante años para proteger los datos de los clientes.

¿Las respuestas de Copilot son siempre objetivas?

Al igual que cualquier IA generativa, las respuestas de Copilot no son 100 % objetivas. Si bien continuamos mejorando las respuestas a las consultas basadas en hechos, usted debe usar su juicio y revisar los resultados antes de enviarlas a otros. Copilot proporciona borradores y resúmenes útiles para ayudarle a hacer más, pero es completamente automático. Siempre tiene la oportunidad de revisar el contenido generado por IA.

Nuestros equipos están trabajando para abordar problemas de manera proactiva, como la información errónea y la desinformación, el bloqueo de contenido, la seguridad de los datos y la promoción de contenido dañino o discriminatorio de acuerdo con nuestros principios de IA responsable.

También ofrecemos orientación en la experiencia del usuario para reforzar el uso responsable de contenido generados por IA y acciones sugeridas.

  • Instrucciones y solicitudes. Al usar Copilot, las solicitudes y otros elementos informativos le recuerdan que revise y edite las respuestas según sea necesario y que verifique manualmente la precisión de los hechos, los datos y el texto antes de usar el contenido generado por IA.

  • Fuentes citadas. Cuando corresponda, Copilot cita sus fuentes de información, ya sean públicas o internas, para que usted mismo pueda revisarlas y confirmar sus respuestas.

Para obtener más información, consulte las preguntas frecuentes de IA responsable para su producto en Microsoft Learn.

¿Cómo bloquea Copilot el contenido peligroso?

Azure OpenAI Service incluye un sistema de filtrado de contenido que funciona junto con los modelos principales. Los modelos de filtrado de contenido para las categorías Odio y equidad, Sexual, Violencia y Autolesión se han entrenado y probado específicamente en varios idiomas. Este sistema funciona ejecutando tanto la solicitud de entrada como la respuesta a través de modelos de clasificación que están diseñados para identificar y bloquear la salida de contenido peligroso.

Los daños relacionados con el odio y la equidad se refieren a cualquier contenido que utilice lenguaje peyorativo o discriminatorio basado en atributos como raza, etnia, nacionalidad, identidad y expresión de género, orientación sexual, religión, estado de migración, estado de capacidad, apariencia personal y tamaño del cuerpo. La equidad consiste en garantizar que los sistemas de IA traten a todos los grupos de personas de forma equitativa sin contribuir a las desigualdades sociales existentes. El contenido sexual incluye discusiones sobre órganos reproductivos humanos, relaciones románticas, actos representados en términos eróticos o afectuosos, embarazo, actos sexuales físicos, incluidos los representados como una agresión o un acto forzado de violencia sexual, prostitución, pornografía y abuso. La violencia describe el lenguaje relacionado con acciones físicas que tienen como objetivo dañar o matar, incluidas acciones, armas y entidades relacionadas. El lenguaje de autolesión se refiere a acciones deliberadas que tienen como objetivo lastimarse o suicidarse.

Más información sobre el filtrado de contenido de Azure OpenAI.

¿Copilot bloquea las inyecciones de mensajes (ataques de jailbreaking)?

Los ataques de jailbreaking son mensajes de usuario que están diseñados para provocar que el modelo de IA generativa se comporte de un modo para los que fue entrenado o que infrinja las reglas que se le ha ordenado seguir. Se requieren servicios en Dynamics 365 y Power Platform para protegerse frente a inyecciones de mensajes. Obtenga más información sobre los ataques de jailbreak y cómo usar la Seguridad del contenido de Azure AI para detectarlos.

¿Copilot bloquea las inyecciones de mensajes indirectos (ataques indirectos)?

Los ataques indirectos, también conocidos como ataques de mensajes indirectos o ataques de inyección de mensajes entre dominios, son una posible vulnerabilidad donde terceros colocan instrucciones maliciosas dentro de documentos a los que el sistema de IA generativa puede acceder y procesar. Se requieren servicios en Dynamics 365 y Power Platform para protegerse frente a inyecciones de mensajes indirectos. Obtenga más información sobre los ataques indirectos y cómo usar la Seguridad del contenido de Azure AI para detectarlos.

¿Cómo prueba y valida Microsoft la calidad de Copilot, incluida la protección de inyección de mensajes y las respuestas fundamentadas?

Cada nuevo producto de Copilot y cada iteración del modelo de lenguaje deben pasar una revisión interna de IA responsable antes de que pueda lanzarse. Antes del lanzamiento, utilizamos un proceso llamado "red teaming" (en el que un equipo simula un ataque enemigo, encuentra y explota los puntos débiles para ayudar a la organización a mejorar sus defensas) para evaluar los riesgos potenciales en contenido peligroso, escenarios de jailbreak y respuestas fundamentadas. Después del lanzamiento, utilizamos pruebas automatizadas y herramientas de evaluación manuales y automatizadas para evaluar la calidad de las respuestas de Copilot.

¿Cómo mejora Microsoft el modelo básico y mide las mejoras en las respuestas fundamentadas?

En el contexto de la IA, especialmente la IA que se ocupa de modelos de lenguaje como en el que se basa Copilot, la fundamentación ayuda a la IA a generar respuestas que son más relevantes y tienen sentido en el mundo real. La fundamentación ayuda a garantizar que las respuestas de la IA se basen en información fiable y sean lo más precisas y relevantes posible. Las métricas de respuesta fundamentada evalúan la precisión con la que los hechos expuestos en el contenido fundamentado que se proporciona al modelo se representan en la respuesta final.

Los modelos básicos como GPT-4 se mejoran mediante técnicas de generación aumentada de recuperación (RAG). Estas técnicas permiten a los modelos utilizar más información de la que se les entrenó para comprender el escenario de un usuario. RAG funciona identificando primero los datos que son relevantes para el escenario, de manera similar a cómo un motor de búsqueda identifica páginas web que son relevantes para los términos de búsqueda del usuario. Utiliza diversos enfoques para identificar qué contenido es relevante para el mensaje del usuario y debe usarse para fundamentar la respuesta. Los enfoques incluyen la búsqueda en diferentes tipos de índices, como índices invertidos que utilizan técnicas de recuperación de información como la coincidencia de términos, o índices vectoriales que utilizan comparaciones de distancias vectoriales para obtener similitud semántica. Después de identificar los documentos relevantes, RAG pasa los datos al modelo junto con la conversación actual, lo que le brinda al modelo más contexto para comprender mejor la información que ya tiene y generar una respuesta basada en el mundo real. Finalmente, RAG verifica la respuesta para asegurarse de que sea compatible con el contenido de origen que proporcionó al modelo. Las características de IA generativa de Copilot incorporan RAG de varias formas. Un ejemplo es el chat con uso de datos, donde un bot de chat se basa en los propios orígenes de datos del cliente.

Otro método para mejorar los modelos fundamentales se conoce como ajustes precisos. Se muestra un gran conjunto de datos de pares de consulta-respuesta a un modelo fundamental para aumentar su entrenamiento original con nuevas muestras orientadas a un escenario específico. El modelo se puede implementar como un modelo separado, uno que esté ajustado para ese escenario. Mientras que la fundamentación consiste en hacer que el conocimiento de la IA sea relevante para el mundo real, los ajustes precisos consisten en hacer que el conocimiento de la IA sea más específico para una tarea o dominio en particular. Microsoft utiliza los ajustes precisos de varias maneras. Por ejemplo, utilizamos la creación de flujos de Power Automate a partir de descripciones en lenguaje natural proporcionadas por el usuario.

¿Cumple Copilot con los requisitos de cumplimiento normativo?

Microsoft Copilot forma parte del ecosistema de Dynamics 365 y Power Platform y cumple con los mismos requisitos de cumplimiento normativo. Para obtener más información sobre las certificaciones reglamentarias de los servicios de Microsoft, vaya al Portal de confianza de servicios. Además, Copilot se adhiere a nuestro compromiso con la IA responsable, que se pone en práctica a través de nuestro Estándar de IA responsable. A medida que evoluciona la regulación en la IA, Microsoft continúa adaptándose y respondiendo a nuevos requisitos.

Más información sobre la disponibilidad de Dynamics 365, Power Platform y Copilot, las ubicaciones de los datos de los clientes y el cumplimiento de los requisitos globales, regionales y específicos del sector para la administración de datos.

Más información

Copilot en aplicaciones de Dynamics 365 y Power Platform

Producto Característica ¿Entornos administrados requeridos? Cómo desactivar la característica
AI Builder Escenarios en versión preliminar No Escenarios en versión preliminar
Copilot Studio Conocimientos generales de IA No Seguridad y gobernanza de Copilot Studio
Copilot Studio Crear y editar temas con Copilot No Seguridad y gobernanza de Copilot Studio
Copilot Studio Acciones generativas No Seguridad y gobernanza de Copilot Studio
Copilot Studio Respuestas generativas No Seguridad y gobernanza de Copilot Studio
Dynamics 365 Business Central Todos (consulte la lista completa en aka.ms/bcAI.) No Activar características
Dynamics 365 Customer Insights - Data Crear segmentos con Copilot en Customer Insights - Data (versión preliminar) No Customer Insights - Data tiene su propia marca para todas sus características de Copilot por Azure OpenAI.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Data
Dynamics 365 Customer Insights - Data Información general sobre informes de preparación de datos (versión preliminar) No Customer Insights - Data tiene su propia marca para todas sus características de Copilot por Azure OpenAI.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Data
Dynamics 365 Customer Insights - Data Obtener respuestas a preguntas acerca de capacidades de Copilot (versión preliminar) No Customer Insights - Data tiene su propia marca para todas sus características de Copilot por Azure OpenAI.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Data
Dynamics 365 Customer Insights (Datos) Tener un cuadro de diálogo con datos usando Copilot en Customer Insights No Customer Insights - Data tiene su propia marca para todas sus características de Copilot por Azure OpenAI.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Data
Dynamics 365 Customer Insights - Data Ver configuración del sistema No Customer Insights - Data tiene su propia marca para todas sus características de Copilot por Azure OpenAI.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot le ayuda a aprender y hacer más (revisión) No La disponibilidad de este copiloto en su entorno está determinada por la configuración de administrador de Power Platform. Aprenda cómo agregar Copilot a las aplicaciones basadas en modelos.


Esta capacidad es "copiloto de la aplicación en Customer Insights - Journeys" y por eso está habilitada en el centro de administración de Power Platform. Más información: Preguntas frecuentes sobre IA responsable
Dynamics 365 Customer Insights - Journeys Crear recorridos con ayuda de IA No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Actualizar y perfeccionar su mensaje No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Aplicar estilo en sus correos electrónicos con temas asistidos por IA No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Dirigirse a los clientes adecuados utilizando asistencia de consultas

No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Usar IA para poner en marcha la creación de correos electrónicos No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Usar imágenes en el contenido No Customer Insights - Journeys tiene sus propias marcas para características de Copilot.

Más información: Dar consentimiento para usar Copilot en Customer Insights - Journeys
Dynamics 365 Customer Service Redactar un correo electrónico No Administrar las características de Copilot en Customer Service
Dynamics 365 Customer Service Elaborar un borrador de chat No Administrar las características de Copilot en Customer Service
Dynamics 365 Customer Service Respuesta a preguntas No Administrar las características de Copilot en Customer Service
Dynamics 365 Customer Service Resumir un caso y conversación No Administrar las características de Copilot en Customer Service
Power Apps Crear aplicaciones a través de conversaciones No Administrar la configuración de características
Power Apps Ayuda de Copilot para rellenar formularios en aplicaciones basadas en modelos No Administrar la configuración de características
Power Apps Redactar texto de entrada bien escrito con Copilot No, licencia de usuario Premium Redactar texto de entrada bien escrito con Copilot
Power Apps Excel a tabla No Administrar la configuración de características
Power Apps Usar lenguaje natural para editar una aplicación mediante el panel Copilot No Administrar la configuración de características
Power Automate Copilot en flujos de nube en la página de inicio y en el diseñador (consulte Introducción a Copilot en flujos de nube para obtener más detalles). No Póngase en contacto con el soporte para ejecutar un script de PowerShell.
Power Pages Todo (consulte Información general de Copilot en Power Pages para obtener detalles). No Desactivar Copilot en Power Pages

Dynamics 365Obtenga más información en Preguntas frecuentes sobre el intercambio de datos opcional para las características de IA de Copilot en Dynamics 365 y Power Platform.

Disponibilidad de región e idioma

Disponibilidad internacional de Copilot

Movimiento de datos en distintas zonas geográficas

Seguridad en Microsoft

Privacidad de Microsoft

Declaración de privacidad de Microsoft

IA responsable