Dela via


AI-säkerhet för Microsoft 365 Copilot

AI har revolutionerat många sektorer, vilket ger oöverträffade funktioner och effektivitet. Till exempel Microsoft 365 Copilot vårt AI-baserade produktivitetsverktyg, samordnar stora språkmodeller (LLMs), innehåll i Microsoft Graphs och Microsoft 365 produktivitetsappar som Word, Excel, PowerPoint, Outlook, Teams, SharePoint med flera. Den här integreringen ger intelligent hjälp i realtid så att användarna kan förbättra sin kreativitet, produktivitet och sina färdigheter.

Kunderna är angelägna om att utforska dessa möjligheter, och de överväger eftertänksamt de viktiga säkerhetsaspekterna som följer med dem. Baserat på våra interaktioner med kunder som är på sin AI-omvandlingsresa förstår vi att ämnen som datasäkerhet, sekretess, modell robusthet och cyberattacker är viktigast.

Microsoft förstår hur viktiga dessa överväganden är, vilket är anledningen till att vi använder en robust strategi för skydd på djupet för att skydda produktivitetsverktyg som Microsoft 365 Copilot mot säkerhetsrisker. Den här metoden med flera lager omfattar en kombination av avancerad hotinformation, rigorösa säkerhetsrutiner och proaktiva skydd. Förutom våra egna red-teaming-övningar för att testa Microsoft 365 Copilot har vi till exempel anlitat Casaba Security för att testa nio Copilot-implementeringar i Microsoft 365-produktsviten. Vi tog snabbt itu med och löste resultaten av deras testning, som fokuserade på att identifiera Open Worldwide Application Security Projects (OWASP) topp 10 för LLM samt traditionella säkerhetsproblem i stöd för programinfrastruktur.

Microsoft vidtar omfattande åtgärder för att säkerställa att Microsoft 365 Copilot uppfyller våra befintliga åtaganden gällande sekretess, säkerhet och efterlevnad gentemot våra kunder. Och allt eftersom AI-tekniker och användningsfall fortsätter att utvecklas görs aldrig vårt arbete: Microsoft strävar efter att kontinuerligt utveckla skyddet för Copilot, lära sig av vår egen övervakning och testning av våra system, samt att arbeta med kunder, partners och den bredare säkerhetsindustrin.

Den här artikeln innehåller en översikt över Microsofts övergripande säkerhetsstatus för AI och hur olika Microsoft-säkerhetslösningar fungerar tillsammans för att skydda dina data och interaktioner i Microsoft 365 Copilot och andra AI-program. Vi kommer att uppdatera den här artikeln med ny information om nya risker och innovationer i lösningar när de blir tillgängliga.

Skydda Microsoft 365 Copilot

På Microsoft är säkerhet inte bara en prioritet. Det är grunden för allt vi gör. Det här åtagandet sträcker sig till AI: Microsoft Office of Responsible AI vägleder inte bara säkerhet och säkerhet på vår AI-resa, vårt nyligen utökade Secure Future Initiative återspeglar ytterligare vårt engagemang för att skapa ett säkrare digitalt landskap för alla.

Vår omfattande säkerhetsstatus för AI har följande grundpelare:

  • Ansvarsfull AI-utveckling: Microsoft hanterar ansvarsfulla AI-principer. Dessa principer betonar rättvisa, tillförlitlighet och säkerhet, sekretess och säkerhet, inkludering, transparens och ansvarsskyldighet under hela AI-livscykeln.
  • Metodtips för säkerhet: Vi tillhandahåller skräddarsydda resurser och metodtips för utvecklare, ingenjörer och säkerhetspersonal som arbetar med Microsoft AI-produkter. Dessa resurser hjälper organisationer att förstå och implementera säkerhetsåtgärder under distributionen.
  • Livscykel för säkerhetsutveckling (SDL): Vår rigorösa SDL integrerar säkerhetsöverväganden under hela AI-utvecklingsprocessen. Den här proaktiva metoden säkerställer att sårbarheter identifieras och åtgärdas redan från början.
  • Hotforskning, identifiering och riskreducering: Vi investerar aktivt i strategier för att identifiera och minimera hot mot våra AI-modeller. Detta inkluderar pågående sårbarhetsövervakning och utveckling av motåtgärder mot potentiella attacker. Microsoft Threat Intelligence, vårt globala nätverk av forskare, övervakar också hotlandskapet för hotaktörer och cyberattacker som kan dra nytta av AI-program.

Microsoft skyddar sekretess, säkerhet och tillförlitlighet för Microsoft 365 Copilot AI-funktioner, från indatafasen för användaren via systemets utdatafas. Microsoft 365 Copilot är kompatibel med våra befintliga åtaganden om sekretess, säkerhet och efterlevnad, inklusive den allmänna dataskyddsförordningen (GDPR) och EU:s datagräns. I enlighet med dessa åtaganden hanterar Microsoft informationen i alla uppmaningar som anges med Hjälp av Copilot, och hämtade data och genererade svar förblir skyddade som kunddata och omfattas av våra krav på avtalsbaserad datahantering.

Följande avsnitt beskriver hur Microsoft hanterar olika aspekter av sekretess, säkerhet och efterlevnad som är viktiga kundöverväganden för att införa Microsoft 365 Copilot.

Åtkomstkontroll och behörighetshantering

Microsoft 365 Copilot åtkomst till resurser för användarens räkning, så att den bara kan komma åt resurser som användaren redan har behörighet att komma åt. Om användaren till exempel inte har åtkomst till ett dokument kommer Microsoft 365 Copilot som arbetar för användarens räkning inte heller att ha åtkomst.

De data som används för att generera svar bearbetas av Microsoft enligt avtalsenliga krav för datahantering, inklusive kryptering under överföring, vilket bidrar till att skydda sekretessen och förhindra dataläckage. Dessutom följer Microsoft 365-data, inklusive data från Microsoft Graph och SharePoint, mekanismer för åtkomstkontroll och granskning.

Microsoft 365 Copilot respekterar Microsoft 365-, Microsoft Entra- och Microsoft Purview-principer som ytterligare begränsar användaråtkomst och behörighet, till exempel informationsbarriärer, villkorsstyrd åtkomst och känslighetsetiketter.

Microsoft 365 Copilot ärver principer för dataförlustskydd (DLP) för att förhindra dataexfiltrering av Copilot-genererade svar. Dessutom förbättrar den datasäkerheten genom att använda känslighetsetiketter för dessa svar.

Skydda data under modellträning

Microsoft 365 Copilot använder förtränad LLM-modeller som hanteras av Microsoft. Den använder inte kunddata för att träna dessa modeller. Dessutom används inte prompt- och grounding-data för att träna AI-modeller och delas aldrig med OpenAI eller andra tredje parter.

Uppfylla kraven för datahemvist

Microsoft respekterar åtaganden om datahemvist enligt beskrivningen i Microsofts produktvillkor och tillägg för dataskydd. Microsoft Advanced Data Residency (ADR) och Multi-Geo-funktioner erbjudanden omfattar datahemvistsåtaganden för Microsoft 365 Copilot-kunder från och med 1 mars 2024. För ANVÄNDARE i Europeiska unionen (EU) har Microsoft ytterligare skydd för att uppfylla EU:s datagräns. EU-trafiken stannar inom EU-datagränsen medan global trafik kan skickas till EU och andra länder eller regioner för LLM-bearbetning.

Alla data som skickas för AI-bearbetning krypteras både under överföring och i vila. För att säkerställa att data förblir säkra under hela bearbetningslivscykeln använder Microsoft 365 FIPS 140-2-kompatibla tekniker på tjänstsidan som krypterar kundinnehåll i vila och under överföring, inklusive BitLocker, kryptering per fil, Transport Layer Security (TLS) 1.2 och IPsec (Internet Protocol Security).

Härdning mot promptinmatningar

Microsoft använder en kombination av avancerad maskininlärning för innehållsfiltrering i flera lager, rigorösa säkerhetsprotokoll och kontinuerlig övervakning. Indirekta inmatningsklassificerare eller korspromptinmatningsklassificerare identifierar och blockerar snabbinmatning i flera lager. Under tiden bidrar skydd, till exempel följande, också till att minimera säkerhetseffekterna av inmatningsattacker (XPIA):

  • XPIA-klassificerare används för att identifiera och minska instanser av XPIA

  • Krav för mänsklig-i-loop (användarinitierade eller godkända åtgärder) för privilegierade åtgärder och åtgärder som kan ändra eller utgående innehåll, till exempel att skicka ut ett e-postmeddelande

  • Onödiga mekanismer för utgående data tas bort för att förhindra dataexfiltrering

I samband med en snabbinmatningsattack kan angriparen dessutom bara komma åt data i den utsträckning som användaren har åtkomst till. Det innebär att angriparen är begränsad till de behörigheter och data som användaren har i systemet. Den här begränsningen hjälper till att begränsa den potentiella skadan av en snabbinmatningsattack i omfånget för användarens behörigheter.

Följa ansvarsfulla AI-principer

Microsofts ansvarsfulla AI-principer vägleder utvecklingen och användningen av Microsoft 365 Copilot. Till exempel implementerar Microsoft 365 Copilot klassificerare, till exempel de som är tillgängliga i Azure AI Innehållsäkerhet, och metapromptering för att minska risken för skadligt, stötande eller våldsamt innehåll. Microsoft 365 Copilot använder AI-baserade klassificerare och innehållsfilter för att flagga olika typer av potentiellt skadligt innehåll i användarens uppmaningar eller genererade svar. Under tiden vägleder metaprompting modellbeteendet, inklusive att se till att systemet fungerar i enlighet med Microsofts AI-principer och användarnas förväntningar.

Microsoft tillämpar även teknik för snabbgranskning och innehållsfilter för att förhindra användning av Microsoft 365 Copilot för utpressningstrojaner och andra attacker baserade på skadlig kod. Dessutom hjälper SDL (Security Development Lifecycle) till att skydda Microsoft 365 Copilot mot fjärrkörning av kod. Ett sätt att göra detta är att förhindra att Copilot kör obehindrat och oanvänd kod.

För att förhindra ojordat innehåll implementerar Microsoft 365 Copilot hämtning av förhöjd generering (RAG) med hjälp av en dedikerad semantisk databas som kan ge information om innehållet hos Microsoft 365-klientkunder. Microsoft granskar kontinuerligt och noggrant ändringar i grundnivån för svaret. För alla ändringar vi gör i Microsoft 365 Copilot (inklusive prompt, modell eller orkestrering) fångar vi regressioner som kan påverka användaren negativt.

Det finns nya verktyg i Azure AI som bidrar till att ytterligare förbättra dessa skydd genom att hjälpa AI-apputvecklare att skapa säkrare AI-program.

Microsoft har inbyggt skydd mot genereringen av skyddat innehåll, vilket inkluderar branschens första program för kund copyrightåtagande för att försvara kunder och kompensera för eventuella negativa bedömningar, i händelse av en rättegång om upphovsrättsintrång.

Uppfylla regelkrav

Microsoft 365 Copilot uppfyller regelkrav för eDiscovery, granskningsloggning och kvarhållning via flera mekanismer:

  • Kvarhållningsprinciper: Meddelanden från Microsoft 365 Copilot inkluderas automatiskt på platsen för kvarhållningsprincipen med namnet Teams-chattar och Copilot-interaktioner. Det innebär att användarens frågor och Copilot-svar kan behållas och tas bort av efterlevnadsskäl. Data från Copilot-meddelanden lagras i en dold mapp i postlådan för den användare som kör Copilot, som efterlevnadsadministratörer kan söka med eDiscovery-verktyg.

  • Granskningsloggning: Granskningsloggar som genereras av Microsoft 365 Copilot kan behållas i upp till 180 dagar för granskningskunder (standard) och upp till ett år för granskningslicensinnehavare (Premium), med möjlighet att förlänga upp till 10 år.

  • Efterlevnad med Microsoft Purview: Microsoft Purview tillhandahåller dataskydd och efterlevnadsskydd för generativa AI-appar som Copilot. Microsoft Purview Data Security Posture Management för AI, som för närvarande är i förhandsversion, innehåller lätthanterliga grafiska verktyg och rapporter för att snabbt få insikter om AI-användning inom organisationen. Principer med ett klick hjälper till att skydda data och uppfylla regelkrav.

  • Admin kontroller: Administratörer kan använda Microsoft Purview för att visa och hantera lagrade data, ange kvarhållningsprinciper och utföra eDiscovery-sökningar. Både administratörs- och användarinitierade borttagningsalternativ är tillgängliga via Purview.

Vanliga frågor och svar

Är resultatet av Microsoft 365 Copilot tillförlitligt?

Även om Microsofts skydd ger en stark riskreducering mot felaktig information och kompromettering, som med alla AI-program, kanske Microsoft 365 Copilot svar inte alltid är korrekta. Du bör fortfarande använda mänsklig bedömning för att kontrollera dessa svar.

Hur hanterar Microsoft mina frågor och svar?

Microsoft behandlar frågor och svar när vi behandlar andra mer traditionella former av innehåll, till exempel e-postmeddelanden, dokument och chattar, och våra avtalsmässiga åtaganden är desamma.

Använder Microsoft 365 Copilot mina data för att träna AI-modeller?

Promptar, svar och kunddata som nås via Microsoft Graph används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft 365 Copilot. Produktförbättringar drivs genom tekniker som kundrapporterade incidenter och syntetisk promptgenerering.

Vad ska jag göra om jag ser oväntat eller stötande innehåll?

Rapportera eventuellt störande eller misstänkt innehåll omedelbart genom att välja nedröstningsknappen (tummen ned) bredvid promptsvaret.

Hur kommer jag åt Microsoft 365 Copilot sårbarhetsbedömningsrapport?

Sårbarhetsbedömningen från tredje part av Microsoft 365 Copilot kan laddas ned från Service Trust Portal.

Kan Microsoft hjälpa mig att hitta risker i mina AI-program?

Microsoft har släppt Python Risk Identification Toolkit for generative AI (PyRIT), ett ramverk för automatisering av öppen åtkomst som syftar till att ge säkerhetspersonal och maskininlärningstekniker möjlighet att proaktivt hitta risker i sina egna generativa AI-system.

Har Microsoft 365 Copilot åtkomst till data som jag inte har när jag använder grundinnehåll?

Microsoft 365 Copilot får åtkomst till resurser för användarens räkning, så att den bara kan komma åt resurser som du redan har behörighet att komma åt.

Grunderna sker inom kontexten för din identitet och semantiska index- och graffrågor är "säkerhetstrimmade" baserat på dina behörigheter för det underliggande innehållet. Den här processen säkerställer att endast auktoriserat innehåll ingår i grundprocessen.

Hur begränsar jag data som Microsoft 365 Copilot kan använda?

Följande steg kan hjälpa administratörer att kontrollera användaråtkomst och därmed begränsa vilka data Microsoft 365 Copilot kan använda:

Hur kan jag använda Microsofts säkerhetslösningar för att skydda data- och AI-programinteraktioner?

Microsoft rekommenderar alltid att du skapar en stark säkerhetsgrund för ditt företag. Den Nolltillit säkerhetsstrategin ger vägledning för en sådan grund eftersom den behandlar varje anslutnings- och resursbegäran som om den kommer från ett okontrollerat nätverk och en hotaktör. Oavsett var begäran kommer från eller vilken resurs den kommer åt använder du Nolltillit principer.

Våra omfattande säkerhetslösningar – inklusive Microsoft Defender, Entra, Purview och Intune – samarbetar för att skydda dina data och interaktioner i Microsoft 365 Copilot och andra AI-program. Dessa produkter har funktioner som gör att du och dina team kan:

  • Identifiera potentiella risker som rör AI-användning, till exempel känsliga dataläckor och obehörig åtkomst till högriskprogram

  • Skydda AI-programmen och känsliga data som de bearbetar eller genererar, inklusive frågor och svar

  • Styra AI-användning på ett ansvarsfullt sätt genom att behålla och logga interaktioner, identifiera principöverträdelser och undersöka incidenter

Vi har till exempel nyligen introducerat nya funktioner för Microsoft Defender och Purview som tillhandahåller specialbyggda verktyg för robust säkerhet och styrning av generativa AI-program och deras data. Dessutom effektiviserar sömlös integrering av Microsoft Security Copilot i våra produkter den övergripande processen och upplevelsen för säkerhetsanalytiker. Genom att prioritera säkerhet och erbjuda dessa avancerade funktioner ger Microsoft organisationer möjlighet att på ett säkert sätt tillämpa de fördelar och möjligheter som AI-program erbjuder.

Var ska jag rapportera sårbarheter i Microsoft 365 Copilot och andra AI-program?

Om du upptäcker nya säkerhetsrisker på en AI-plattform rekommenderar vi att du följer ansvarsfulla metoder för avslöjande för plattformsägaren. Microsofts egen procedur (för Copilot) förklaras på den här sidan: Microsoft AI Bounty Program.