Vue d’ensemble de Copilot et d’ASD Blueprint
Copilot pour Microsoft 365 fournit aux utilisateurs un assistant alimenté par l’IA générative qui interagit en langage naturel pour simplifier votre flux de travail. Les exemples incluent la synthèse des e-mails et des documents, la fourniture de récapitulatifs de réunions, la création de contenu et la réponse aux questions, entre autres fonctionnalités, intégrées directement dans les applications Microsoft 365 quotidiennes (Office). Copilot fournit une interface en langage naturel sur une ia sophistiquée assistant au sein d’Office.
Une évaluation du programme IRAP (Australian Government Protected Infosec Registered Assessors Program) de Microsoft 365 a été publiée sur le portail d’approbation de services Microsoft en mars 2024 et inclut Copilot pour Microsoft 365 dans l’étendue des services évalués. Il s’agit du niveau d’évaluation de sécurité le plus élevé applicable à un service de cloud public en Australie. Toutefois, comme pour tout nouveau service déployé dans un environnement sensible, l’introduction de Copilot nécessite une configuration spécifique. Ce guide de planification de la configuration est dédié aux considérations particulières nécessaires pour le déploiement réussi de Copilot pour Microsoft 365 dans un cadre opérationnel sensible. Il offre une vue d’ensemble complète de l’architecture de service et des considérations d’intégration essentielles pour un environnement sensible. Ce guide suppose l’accès à Copilot pour les licences d’abonnement Microsoft 365 et Microsoft 365 Entreprise E5, conformément aux instructions de configuration de l’Australian Signals Directorate (ASD) Blueprint for Secure Cloud pour Microsoft 365.
Copilot est... | Copilot n’est pas... |
---|---|
votre assistant IA | votre ia de remplacement |
contrôlé par l’homme | un collègue indépendant |
d’améliorer votre productivité | éliminer votre rôle |
rédaction de contenu | sélection de « Envoyer » ou « Enregistrer » |
vous aider à trouver des réponses | prise de décision automatisée |
SaaS prêt à l’utilisation | un composant de développement d’application |
Architecture du service
Lorsque vous envisagez l’intégration de Copilot pour Microsoft 365, il est utile d’évaluer Copilot pour Microsoft 365 dans le contexte du modèle de responsabilité partagée Microsoft AI. Cette approche reflète les considérations prises en compte pour d’autres services cloud dans les modèles Infrastructure, Platform et Software as a Service. Les services d’IA présentent une distinction similaire, et les considérations et l’objectif du consommateur de ces services doivent être informés de la même façon. Il est recommandé aux clients de se familiariser avec le modèle de responsabilité partagée Microsoft AI.
L’architecture spécifique de Copilot pour Microsoft 365 peut être plus facilement comprise dans ce contexte, car Copilot pour Microsoft 365 est un produit SaaS (Software-as-a-Service) intégré en toute transparence dans Microsoft 365.
Responsabilités du client
Les cinq domaines du modèle de responsabilité partagée par IA qui sont pertinents à prendre en compte dans l’implémentation d’applications SaaS telles que Copilot pour Microsoft 365 sont détaillés dans cet article. Les clients sont invités à suivre les instructions de configuration de ce document et à réfléchir à la façon dont leurs stratégies et pratiques internes peuvent affecter ces domaines de responsabilité.
Dans le modèle de responsabilité partagée ia, Copilot pour Microsoft 365 couvre les trois scénarios de responsabilité :
Responsabilité du client : ces éléments sont traités uniquement par le client. Microsoft n’a pas la responsabilité de traiter ces composants.
Responsabilité de Microsoft : Ces éléments sont traités uniquement par Microsoft. Le client n’a pas la responsabilité de traiter ces composants.
Responsabilité partagée : dans les éléments de responsabilité partagée dans ce modèle, les clients sont responsables de la configuration du service pour répondre à leurs besoins spécifiques, tandis que Microsoft garantit l’intégrité de la plateforme et applique les contrôles configurés par le client. Les clients sont responsables des aspects non techniques de ces éléments, tels que l’adoption et l’adaptation des stratégies et procédures, l’établissement de modèles récurrents & pratiques et la prise de décisions sur les configurations à appliquer.
La conformité de Microsoft à ces exigences est démontrée par le rapport d’évaluation de Microsoft 365 IRAP, qui garantit que Copilot pour Microsoft 365 fonctionne dans les paramètres de sécurité et de conformité des données établis de l’environnement Microsoft 365.
Formation et responsabilité des utilisateurs
Dans le modèle de responsabilité partagée ia, les clients ont l’entière responsabilité de la formation et de la responsabilité des utilisateurs.
Comme pour toute nouvelle technologie, une formation efficace aide les utilisateurs à comprendre et à appliquer en toute confiance l’IA générative dans leur travail, en réduisant les risques d’erreurs ou de comportement inapproprié des utilisateurs et en s’assurant que les sorties assistées par l’IA sont adaptées à leur objectif.
Importante
Microsoft recommande que tous les clients donnent la priorité à l’adoption et à la gestion des modifications lors de l’implémentation de produits d’IA générative. Cela inclut le développement d’une stratégie complète qui garantit que les utilisateurs sont formés et formés de manière appropriée sur les bonnes façons d’utiliser les systèmes IA.
Les services d’IA générative, tels que Copilot pour Microsoft 365, offrent des avantages substantiels en améliorant la productivité, la créativité et la qualité du travail, mais ils ne sont pas infaillibles et font des erreurs. Par conséquent, une approche centrée sur l’humain qui reconnaît l’autonomie de l’utilisateur final est cruciale. Les clients doivent s’assurer que les utilisateurs sont correctement formés et conscients de leurs responsabilités lors de l’utilisation des services d’IA générative. Cette philosophie centrée sur l’homme fait partie intégrante du modèle Copilot, garantissant que les utilisateurs gardent le contrôle et la responsable de leur utilisation de l’IA.
Il est tout aussi impératif que les professionnels de l’informatique, les dépositaires du service, les parties prenantes et les dirigeants d’entreprise au sein de l’organization soient informés de l’utilisation de Copilot pour Microsoft 365. Les dirigeants jouent un rôle crucial dans la communication de la vision des services d’IA générative dans l’ensemble du organization, en veillant à ce que les utilisateurs finaux reçoivent les conseils et le coaching nécessaires pour optimiser les avantages des services. Il s’agit notamment d’articuler la vision de Copilot pour Microsoft 365, de détailler ses avantages et de fournir des scénarios d’utilisation appropriés pour une compréhension holistique et une utilisation efficace.
Importante
Il est important que l’engagement de la direction d’un organization à piloter la vision et à aligner les stratégies et les pratiques dans le cadre de ces responsabilités est tout aussi crucial pour une implémentation réussie de Copilot pour Microsoft 365.
En suivant ces pratiques, de nombreux clients intègrent efficacement l’IA générative, l’alignent sur leurs objectifs métier et améliorent la productivité.
Pour plus d’informations sur le lancement de la gestion des changements, de l’adoption et de la formation des utilisateurs pour les professionnels de l’informatique, consultez :
- Prise en main de Copilot pour Microsoft 365
- Préparer votre organisation pour Copilot pour Microsoft 365
- Documentation concernant le produit
- Extensibilité
Pour plus d’informations sur le lancement de la gestion des modifications, de l’adoption et de la formation des utilisateurs finaux, consultez :
- Vue d’ensemble du produit
- Vidéos de produit
- Copilot Interaction Lab (nécessite une licence et une connexion)
- Adoption et gestion des modifications
Stratégie d’utilisation, contrôles d’administration
Dans le modèle de responsabilité partagée IA, les clients ont l’entière responsabilité de la stratégie d’utilisation et de l’application des contrôles d’administration.
L’établissement d’une politique d’utilisation est une question que les organisations individuelles doivent prendre en compte dans le contexte de leurs cadres juridiques, contractuels et réglementaires, de leurs propres modèles de travail et des attentes des parties prenantes, telles que :
- Attentes d’utilisation interne par rapport aux invités
- Utiliser dans la création de communications externes
- Acceptation de l’implication de l’IA dans les interactions personnalisées
- Données démographiques des parties prenantes
Ce guide de planification de configuration se concentre principalement sur les contrôles d’administration, qui sont détaillés dans l’article Configuration recommandée .
Gestion des identités, des appareils et des accès
Dans le modèle de responsabilité partagée ia, la gestion des identités, des appareils et des accès est une responsabilité partagée.
Copilot pour Microsoft 365 est conçu pour s’intégrer en toute transparence aux configurations existantes de gestion des identités, des appareils et des accès dans l’environnement Microsoft 365 d’un client. Ce guide se concentre sur les contrôles supplémentaires spécifiques à Copilot pour Microsoft 365 ou met en évidence les contrôles existants qui sont pertinents pour les organisations qui implémentent Copilot pour Microsoft 365.
Pour obtenir des conseils de configuration supplémentaires dans le déploiement d’un environnement Microsoft 365 sensible, consultez le blueprint ASD pour le cloud sécurisé qui offre des recommandations complètes et des protocoles pour une configuration sécurisée.
Gouvernance des données
Dans le modèle de responsabilité partagée IA, la gouvernance des données est une responsabilité partagée. Une gouvernance efficace des données est essentielle pour gérer les connaissances et les informations, améliorer la détectabilité et stimuler la productivité au sein de toute organization qui a subi une transformation numérique. Ce document décrit les mécanismes et pratiques de gouvernance des données essentiels à une implémentation réussie de Copilot pour Microsoft 365.
Pour plus d’informations sur la gouvernance des données au sein de l’écosystème Microsoft 365 plus large, consultez :
Plug-ins d’IA et connexions de données
Dans le modèle de responsabilité partagée ia, les plug-ins et les connexions de données sont une responsabilité partagée. Les connecteurs et plug-ins permettent aux clients d’élargir les fonctionnalités de Copilot pour Microsoft 365, ce qui lui permet de s’interfacer avec les systèmes et les données au-delà de leur environnement Microsoft 365. Par conséquent, les clients doivent prendre en compte à la fois la responsabilité de gérer les risques liés à l’utilisation de données et de systèmes externes, et l’intégration elle-même, car ils peuvent être développés par Microsoft, développés par le client ou non-Microsoft d’origine. Les clients sont responsables de tous les connecteurs et plug-ins développés non-Microsoft ou personnalisés.
Les professionnels de l’informatique sont encouragés à se familiariser avec les options et architectures d’extensibilité de Copilot pour Microsoft 365 .
Les plug-ins, tels que Bing, diffèrent des connecteurs en ce qu’ils fonctionnent en temps réel pour améliorer Copilot avec de nouvelles capacités et insights. Une description plus détaillée des plug-ins et des connecteurs est fournie dans l’article Composants du service .