Vanliga frågor och svar för Copilot datasäkerhet och sekretess för Dynamics 365 och Power Platform
Copilot för Dynamics 365 och Power Platform funktioner följer en uppsättning grundläggande säkerhets- och sekretessrutiner och standarden för Microsoft ansvarsfull AI. Dynamics 365 och Power Platform skyddas av omfattande, branschledande efterlevnads-, säkerhets- och integritetskontroller.
Copilot är byggd på Microsoft Azure OpenAI Service och körs helt inom Azure-molnet. Azure OpenAI erbjuder regional tillgänglighet och innehållsfiltrering för ansvarsfull AI. Copilot använder OpenAI-modeller med alla säkerhetsfunktioner för Microsoft Azure. OpenAI är en oberoende organisation. Vi delar inte dina data med OpenAI.
Copilot-funktioner är inte tillgängliga i alla Azure-geografier och språk. Beroende på var din miljö är värd kan du behöva aktivera dataflytt mellan geografier för att kunna använda dem. Mer information finns i artiklarna som listas under Dataflytt över geografiska områden.
Vad händer med mina data när jag använder Copilot?
Du har kontroll över dina data. Microsoft delar inte dina uppgifter med en tredje part om du inte har gett tillstånd att göra det. Vidare använder vi inte dina kunddata för att träna Copilot eller dess AI-funktioner, såvida du inte ger vårt samtycke till att göra det. Copilot följer befintliga databehörigheter och policyer, och dess svar till dig baseras endast på data som du personligen har tillgång till. Mer information om hur du kan kontrollera dina data och hur dina data hanteras finns i artiklarna som anges under Copilot i Dynamics 365-appar och Power Platform.
Copilot övervakar att tjänsten används på ett felaktigt sätt och att tjänsten används vid bearbetning. Vi lagrar inte eller genomför ingen granskning av indata och utdata från Copilot för missbruksövervakning.
Hur använder Copilot mina data?
Varje tjänst eller funktion använder Copilot baserat på de data som du tillhandahåller eller ställer in för Copilot att bearbeta.
Dina frågor (indata) och Copilot-svaren (utdata eller resultat):
Är INTE tillgängliga för andra kunder.
Används INTE för att träna eller förbättra några produkter eller tjänster från tredje part (som OpenAI-modeller).
Används INTE för att träna eller förbättra Microsoft AI-modeller, såvida inte din klientadministratör väljer att dela data med oss. Läs mer i Vanliga frågor och svar om valfri datadelning för Copilot AI-funktioner i Dynamics 365 och Power Platform.
Läs mer om datasekretess och säkerhet OpenAI för Azure-tjänsten. Om du vill veta mer om hur Microsoft du skyddar och använder dina uppgifter mer allmänt kan du läsa vår sekretesspolicy.
Vart tar mina data vägen?
Microsoft Körs på förtroende. Vi värnar om säkerhet, sekretess och efterlevnad i allt vi gör och vår inställning till AI är inte annorlunda. Kunddata, inklusive Copilot-indata och -utdata, lagras inom Microsoft Cloud Trust-gränsen.
I vissa scenarier, till exempel funktioner som drivs av Bing och copilot-plugin-program från tredje part, kan kunddata överföras utanför gränsen för Microsoft molnförtroende.
Kan Copilot komma åt krypterat innehåll?
Data tillhandahålls Copilot baserat på åtkomstnivån för den aktuella användaren. Om en användare har tillgång till krypterade data i Dynamics 365 och Power Platform, och den användaren tillhandahåller det till Copilot, kan Copilot komma åt den.
Hur skyddar Copilot kunddata?
Microsoft är unikt positionerad för att leverera företagsklar AI. Copilot drivs av Azure OpenAI Service och följer våra befintliga integritets-, säkerhets- och regleringsåtaganden gentemot våra kunder.
Bygger på Microsoft vår omfattande strategi för säkerhet, sekretess och efterlevnad. Copilot är integrerat i Microsoft tjänster som Dynamics 365 och Power Platform ärver deras principer och processer för säkerhet, sekretess och efterlevnad, till exempel multifaktorautentisering och efterlevnadsgränser.
Flera sätt att skydda organisationens data. Tekniker på serversidan krypterar organisationens innehåll i vila och under överföring för robust säkerhet. Anslutningar skyddas med TLS (Transport lager Security) och dataöverföringar mellan Dynamics 365 Power Platform och Azure OpenAI sker via Microsoft stamnätverket, vilket garanterar både tillförlitlighet och säkerhet. Läs mer om kryptering i Microsoft molnet.
Skapad för att skydda dina data både i klientorganisationen och på miljönivå. Vi vet att dataläckage är ett problem för kunder. Microsoft AI-modeller tränas inte på och lär sig inte av dina klientdata eller dina uppmaningar, såvida inte klientadministratören har valt att dela data med oss. Du kan styra åtkomsten i dina miljöer med hjälp av behörigheter som du ställer in. Autentiserings- och auktoriseringsmekanismer för att skapa förfrågningar till den delade modellen mellan innehavare. Copilot använder data som bara du kan komma åt, med hjälp av samma teknik som vi har använt i flera år för att skydda kunddata.
Är svar från Copilot alltid sakliga?
Som med all generativ AI är Copilot-svaren inte 100 % faktiska. Vi förbättrar kontinuerligt svaren på faktabaserade frågor men du bör fortfarande använda ditt omdöme och granska resultatet innan du skickar det till andra. Copilot innehåller användbara utkast och sammanfattningar som hjälper dig att göra mer, men det är helt automatiskt. Du har alltid en chans att granska det AI-genererade innehållet.
Våra team arbetar för att förbättra algoritmerna för att proaktivt åtgärda problem som felaktig eller vilseledande information, innehållsblockering, datasäkerhet och förhindra skadligt eller diskriminerande innehåll i enlighet med MicrosoftResponsible AI-principer.
Vi erbjuder även vägledning i användarupplevelsen för att förstärka ansvarsfull användning av AI-genererat innehåll och åtgärder.
Instruktioner och frågor. När du använder Copilot påminner uppmaningar och andra instruktionselement dig om att granska och redigera svar vid behov samt att manuellt kontrollera fakta, data och text för noggrannhet innan du använder det AI-genererade innehållet.
Citerade källor. I tillämpliga fall hänvisar Copilot till informationskällorna, oavsett om de är offentliga eller interna, så att du själv kan granska dem och bekräfta svaren.
Mer information finns i Vanliga frågor och svar om Ansvarsfull AI för din produkt på Microsoft Learn.
Hur blockerar Copilot skadligt innehåll?
Azure OpenAI Service innehåller ett system för innehållsfiltrering som arbetar tillsammans med kärnmodeller. Innehållsfiltreringsmodellerna för kategorierna Hat och rättvisa, sexuellt, våld och självskada har utbildats och testats specifikt på olika språk. Detta system fungerar genom att både indataprompten och svaret körs genom klassificeringsmodeller som är utformade för att identifiera och blockera produktionen av skadligt innehåll.
Hat och rättviserelaterade skador avser allt innehåll som använder nedsättande eller diskriminerande språk baserat på attribut t.ex. ras, etnicitet, nationalitet, könsidentitet och uttryck, sexuell läggning, religion, invandringsstatus, funktionsförmåga, personligt utseende och kroppsstorlek. Rättvisa handlar om att se till att AI-system behandlar alla grupper av människor rättvist utan att bidra till befintliga orättvisor i samhället. Sexuellt innehåll omfattar diskussioner om mänskliga fortplantningsorgan, romantiska relationer, handlingar sp, skildras i erotiska eller kärleksfulla termer, graviditet, fysiska sexuella handlingar, inklusive de som framställs som övergrepp eller en tvingade sexuella våldshandlingar, prostitution, pornografi och missbruk. Våld beskriver språk relaterat till fysiska handlingar som är avsedda att skada eller döda, inklusive handlingar, vapen och relaterade enheter. Språk relaterat till självskadebeteende avser avsiktliga handlingar som syftar till att skada eller döda sig själv.
Läs mer om innehållsfiltrering i OpenAI Azure.
Blockerar Copilot promptinjektioner (jailbreak-attacker)?
Jailbreak-attacker är användaruppmaningar som är utformade för att provocera den generativa AI-modellen att bete sig på ett sätt som den har tränats att inte göra eller bryta mot de regler som den har blivit tillsagd att följa. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot promptinjektioner. Läs mer om jailbreak-attacker och hur du använder Azure AI Content Safety för att identifiera dem.
Blockerar Copilot indirekta promptinjektioner (indirekta attacker)?
Indirekta attacker, som även kallas indirekta promptattacker eller domänöverskridande promptinjektionsattacker, är en potentiell säkerhetsrisk där tredje parter lägger skadlig information i dokument som det generativa AI-systemet kan få åtkomst till och bearbeta. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot indirekta promptinjektioner. Läs mer om indirekta attacker och hur du använder Azure AI Content Safety för att identifiera dem.
Hur testar Microsoft och validerar man Copilot-kvaliteten, inklusive skydd mot snabb injektion och jordade svar?
Alla nya Copilot-produkter och språkmodell iteration måste skicka en intern ansvarig AI-granskning innan den kan lanseras. Innan lanseringen använder vi en process som kallas "Red Teaming" (där ett team simulerar ett fiendeangrepp, hittar och utnyttjar svagheter för att hjälpa organisationen att förbättra sina försvar) för att bedöma potentiella risker i skadligt innehåll, jailbreak-scenarier och välgrundade svar. Efter lanseringen använder vi automatiserade tester och manuella och automatiserade utvärderingsverktyg för att utvärdera kvaliteten på Copilot-svaren.
Hur kan Microsoft man förbättra grundmodellen och mäta förbättringar i grundade svar?
I sammanhanget av AI, särskilt AI som hanterar språkmodeller som den som Copilot bygger på hjälper välgrundat AI att generera svar som är mer relevanta och meningsfulla i den verkliga världen. Grunda hjälper till att säkerställa att AI:s svar baseras på tillförlitlig information och är så korrekta och relevanta som möjligt. Mått på välgrundade svar bedömer hur exakt de fakta som anges i det grundläggande innehållet som tillhandahålls till modellen representeras i det slutliga svaret
Grundmodeller som GPT-4 förbättras av tekniker för hämtningsförstärkt generering (RAG). Med de här teknikerna kan modeller använda mer information än de var utbildade för att förstå en användares scenario. RAG fungerar genom att först identifiera data som är relevant för scenariot, liknande hur en sökmotor identifierar webbsidor som är relevanta för användarens söktermer. Den använder flera metoder för att identifiera vilket innehåll som är relevant för användarens fråga och bör användas för att fastställa svaret. Tillvägagångssätten inkluderar sökning mot olika typer av index, såsom inverterade index som använder informationssökningsmetoder som termmatchning, eller vektorindex som använder jämförelser av vektordistans för semantisk likhet. När MAN har identifierar relevanta dokument skickar MAN vidare data till modellen tillsammans med det aktuella samtalet, vilket ger modellen ett sammanhang som ger en bättre förståelse av den information den redan har och genererar ett svar som kan skapas i den verkliga världen. Slutligen kontrollerar RAG svaret för att säkerställa att det stöds av det källinnehåll som tillhandahölls modellen. Copilot generativa AI-funktioner integrerar RAG på flera sätt. Ett exempel är att chatta med data med hjälp av en chattrobot som är försedd med kundens egna datakällor.
En annan metod för att förbättra grundmodeller är känd som finjustering. En stor datauppsättning av frågesvarspar visas för en grundmodell för att utöka sin ursprungliga utbildning med nya prover som är inriktade på ett specifikt scenario. Modellen kan sedan distribueras som en separat modell som är finjusterad för det scenariot. Medan jordning handlar om att göra AI:s kunskap relevant för den verkliga världen, handlar finjustering om att göra AI:s kunskap mer specifik för en viss uppgift eller domän. Microsoft använder finjustering på flera sätt. Vi använder det till exempel vid Power Automate-flödesskapande utifrån användarens beskrivningar på naturligt språk.
Uppfyller Copilot kraven på regelefterlevnad?
Microsoft Copilot ingår i Dynamics 365 och Power Platform ekosystemet och uppfyller samma krav för regelefterlevnad. Mer information om regelcertifieringar av Microsoft tjänster finns i Service Trust Portal. Dessutom följer Copilot vårt åtagande för ansvarsfull AI, vilket omsätts i handling genom vår Ansvarsfull AI-standard. I takt med att regleringen inom AI utvecklas Microsoft fortsätter den att anpassas och svara på nya krav.
Mer information
Copilot i Dynamics 365-appar och Power Platform
Tillgänglighet efter region och språk
Internationell tillgänglighet för Copilot
Dataflytt över geografiska områden
- Så här fungerar dataflytt mellan regioner
- Konfigurera dataförflyttning över geografiska platser för generativa AI-funktioner utanför USA
- Copilot-dataförflyttning mellan geografiska områden i Dynamics 365 Sales
- Copilot-dataförflyttning mellan geografiska områden i Dynamics 365 Business Central
Säkerhet på Microsoft
- Introduktion till Azure-säkerhet
- Kryptering i Microsoft molnet
- Data, sekretess och säkerhet för Azure-tjänsten OpenAI – Azure AI-tjänster
Sekretess på Microsoft
Microsoft Skydd av personuppgifter