Examine cómo Microsoft 365 Copilot usa sus datos empresariales protegidos
Microsoft proporciona herramientas de seguridad eficaces dentro de sus ecosistemas de Microsoft 365 y Azure para ayudar a las organizaciones a reforzar los permisos e implementar "acceso suficiente". Las directivas y la configuración que los administradores definen en estas herramientas no solo las usan Microsoft 365 y Azure para ayudar a proteger la privacidad y evitar el uso compartido excesivo de datos, también Microsoft 365 Copilot.
Microsoft 365 Copilot añade valor al conectar LLM a los datos de la organización. Gracias a Microsoft Graph, Microsoft 365 Copilot accede tanto al contenido como al contexto de los permisos de acceso de cada usuario específico. Puede generar respuestas a partir de los datos de la organización, como los documentos del usuario, correos electrónicos, calendario, chats, reuniones y contactos. Microsoft 365 Copilot combina este contenido con el contexto de trabajo del usuario, como la reunión en la que está el usuario, los intercambios de correo electrónico que el usuario ha realizado sobre un tema o las conversaciones de chat del usuario de la semana anterior. Microsoft 365 Copilot usa esta combinación de contenido y contexto para ayudar a ofrecer respuestas contextuales precisas y pertinentes.
Las solicitudes (entradas), las respuestas de Copilot (salidas o resultados) y los datos a los que se accede a través de Microsoft Graph:
- No están disponibles para otros clientes.
- NO se usan para entrenar LLM básicos, incluidos los LLM usados por Copilot para Microsoft 365.
- NO se usan para entrenar ni mejorar modelos de IA de Microsoft, a menos que el administrador de inquilinos opte por compartir datos con Microsoft. Los modelos de inteligencia artificial de Microsoft hacen referencia a una categoría más amplia de modelos de IA que usa Microsoft, que puede incluir varios tipos de modelos más allá de los LLM básicos.
- NO se usan para entrenar ni mejorar ningún producto o servicio que no sea de Microsoft (como los modelos de OpenAI).
Microsoft 365 Copilot puede generar respuestas centradas en el contenido empresarial del cliente, como:
- Documentos de usuario
- Mensajes de correo electrónico
- Calendario
- Chats
- Reuniones
- Contactos
- Otros datos empresariales
Microsoft 365 Copilot también usa los datos empresariales protegidos de la organización de los servicios de Microsoft 365 para generar respuestas. Al hacerlo, solo accede a los datos que el usuario tiene permiso para ver dentro de su inquilino. A continuación, personaliza cada respuesta al contexto empresarial de un usuario.
Acceso a los datos
Copilot para Microsoft 365 solo muestra los datos de la organización para los que los usuarios individuales tienen al menos permisos para Visualizar. Es importante que las organizaciones usen los modelos de permisos disponibles en los servicios de Microsoft 365, como SharePoint, para ayudar a garantizar que los usuarios o grupos adecuados tengan el acceso adecuado al contenido adecuado.
Microsoft 365 solo expone el contenido en la nube para el inquilino del usuario actual. Microsoft 365 Copilot no busca en otros inquilinos en los que el usuario también pueda ser un invitado B2B ni en inquilinos de usuarios no recurrentes configurados con acceso entre inquilinos o sincronización entre inquilinos.
Cuando se escriben indicaciones con Microsoft 365 Copilot, la información contenida en las indicaciones, los datos que se recuperan y las respuestas generadas permanecen dentro del límite del servicio de Microsoft 365. Este diseño está en consonancia con los compromisos actuales de privacidad, seguridad y cumplimiento de Microsoft.
Nota:
Los administradores pueden optar por dejar que los datos salgan del límite de cumplimiento; por ejemplo, para consultar la web pública mediante Microsoft Bing.
La única entrada a Microsoft 365 Copilot es la indicación del usuario. La consulta también puede incluir archivos de entrada o contenido detectados y presentados al usuario (por la instancia del orquestador de Microsoft 365 Copilot del inquilino) que el usuario seleccionó para la entrada al LLM.
Nota:
Opcionalmente, las organizaciones pueden proporcionar comentarios de los clientes a Microsoft para mejorar Copilot para Microsoft 365, de forma similar a cómo usa los comentarios de los clientes para mejorar otros servicios de Microsoft 365 y aplicaciones de Microsoft 365. Sin embargo, Microsoft no usa estos comentarios para entrenar ningún modelo de lenguaje grande (LLM). Los clientes pueden administrar los comentarios a través de los controles de administración. Para obtener más información, consulte Administrar los comentarios de Microsoft para su organización.
Seguridad, privacidad y residencia de datos
Microsoft 365 Copilot sigue estos principios fundamentales:
- Basado en el enfoque completo de Microsoft para la seguridad, el cumplimiento y la privacidad.
- Diseñado para proteger los datos individuales, de grupo y de inquilino.
- Comprometido con la inteligencia artificial responsable.
Microsoft 365 Copilot usa el contenido organizativo de una empresa en su inquilino de Microsoft 365. Estos datos incluyen calendarios de los usuarios, correos electrónicos, chats, documentos, reuniones, contactos, etc. Aunque Microsoft 365 Copilot ya puede usar las aplicaciones y los datos dentro del ecosistema de Microsoft 365, muchos usuarios también dependen de diversas herramientas y servicios externos para gestionar el trabajo y la colaboración. Los clientes pueden solucionar este inconveniente si amplían Microsoft 365 Copilot para permitir que los usuarios trabajen con herramientas y servicios de terceros. Puede ampliar Microsoft 365 Copilot si crea un complemento o se conecta a un origen de datos externo. Para obtener más información, consulte Ampliar Microsoft 365 Copilot.
Microsoft 365 Copilot no usa los servicios disponibles públicamente de OpenAI. En su lugar, todo el procesamiento se realiza mediante los servicios de Azure OpenAI con sus propias instancias independientes de los modelos de lenguaje grande. Microsoft 365 Copilot no cambia los compromisos de residencia y procesamiento de datos existentes que se aplican a los inquilinos de Microsoft 365. Las llamadas realizadas por Microsoft 365 Copilot al LLM se enrutan a los centros de datos más cercanos de la región. Sin embargo, también pueden llamar a otras regiones donde la capacidad está disponible durante periodos de uso elevado. Para los usuarios de la Unión Europea (UE), Microsoft 365 incluye otras medidas de seguridad para cumplir con EU Data Boundary. El tráfico de la UE permanece dentro de EU Data Boundary, mientras que el tráfico mundial se puede enviar a la UE y a otras regiones geográficas para el procesamiento de LLM.
La riqueza de la experiencia de Microsoft 365 Copilot depende de los datos que se pueden recuperar de Microsoft 365 y de orígenes de datos externos conectados. Los inquilinos con los datos más valiosos de Microsoft 365 (Exchange, OneDrive, SharePoint, Teams) obtienen los mejores resultados de Microsoft 365 Copilot. Con acceso a datos de la organización completos, Microsoft 365 Copilot puede sugerir contenido más relevante y personalizado en función del contexto de trabajo y las preferencias del usuario.
Respuestas de Microsoft 365 Copilot
No se garantiza que las respuestas que genera la inteligencia artificial generativa sean 100 % reales. Aunque seguimos mejorando las respuestas, los usuarios han de usar su sentido crítico y revisarlas antes de enviarlas a otros usuarios. Microsoft 365 Copilot proporciona borradores y resúmenes útiles para ayudar a los usuarios a conseguir más, a la vez que les da la oportunidad de revisar la inteligencia artificial generada en lugar de automatizar completamente estas tareas.
Seguimos mejorando los algoritmos para abordar de forma proactiva los problemas, como la desinformación y la falta de información, el bloqueo de contenido, la seguridad de los datos y la prevención de la promoción de contenido perjudicial o discriminador de acuerdo con nuestros principios de inteligencia artificial responsable.
Microsoft no reclama derechos de propiedad de los resultados del servicio. Dicho esto, no tomamos decisiones sobre si los resultados de un cliente están protegidos por derechos de autor o si dichos derechos deben aplicarse en otros usuarios. ¿Por qué? Esto se debe a que los sistemas de IA generativa pueden producir respuestas similares a indicaciones o consultas similares de diferentes clientes. Por lo tanto, diferentes clientes podrían tener derechos o reclamarlos sobre contenido que es igual o sustancialmente similar.
Si un tercero demanda a un cliente comercial por infracción de derechos de autor por usar Copilot de Microsoft o los resultados que genera, defenderemos al cliente y pagaremos la cantidad por fallos adversos o acuerdos que resulten de la demanda, siempre y cuando el cliente haya usado los filtros de protección y contenido que hemos integrado en nuestros productos. Para obtener más información, consulte Microsoft anuncia el nuevo compromiso sobre los derechos de autor de Copilot para los clientes.
Datos almacenados sobre las interacciones de los usuarios con Microsoft 365 Copilot
Cuando un usuario interactúa con Copilot para Microsoft 365 (usando aplicaciones como Word, PowerPoint, Excel, OneNote, Loop o Whiteboard), almacenamos datos sobre estas interacciones. Los datos almacenados incluyen la solicitud del usuario y la respuesta de Copilot, incluidas citas a cualquier información usada para establecer la respuesta de Copilot. Microsoft hace referencia al mensaje del usuario y a la respuesta de Copilot a ese mensaje como el “contenido de las interacciones.” El registro de esas interacciones es el historial de interacción de Copilot del usuario.
Por ejemplo, estos datos almacenados proporcionan a los usuarios un historial de interacción de Copilot en Microsoft Copilot con chat basado en Graph y reuniones en Microsoft Teams. Estos datos se procesan y almacenan en consonancia con los compromisos contractuales con el resto del contenido de la organización en Microsoft 365. Los datos se cifran mientras se almacenan. Los datos se cifran mientras se almacenan y no se usan para entrenar modelos LLM fundacionales, incluidos los que usa Copilot para Microsoft 365.
Para ver y administrar estos datos almacenados, los administradores pueden usar la búsqueda de contenido o Microsoft Purview. Los administradores también pueden usar Microsoft Purview para establecer directivas de retención para los datos relacionados con las interacciones de chat con Copilot. Para más información, consulte los siguientes artículos:
- Información general sobre la Búsqueda de contenido
- Protección de cumplimiento y seguridad de datos de Microsoft Purview para aplicaciones de IA generativa
- Obtener más información sobre la retención de Copilot para Microsoft 365
Para los chats de Microsoft Teams con Copilot, los administradores también pueden usar las API de exportación de Microsoft Teams para ver los datos almacenados.
Nota:
Los usuarios pueden eliminar su historial de interacción de Copilot, que incluye sus mensajes y las respuestas que devuelve Copilot. Las instrucciones sobre cómo eliminar interacciones de usuario se incluyen en un módulo de aprendizaje posterior titulado Administrar Microsoft Copilot.
Comprobación de conocimientos
Elija la mejor respuesta para cada una de las siguientes preguntas.