Dela via


Vanliga frågor och svar för Copilot datasäkerhet och sekretess för Dynamics 365 och Power Platform

Copilot för Dynamics 365 och Power Platform funktioner följer en uppsättning grundläggande säkerhets- och sekretessrutiner och standarden för Microsoft ansvarsfull AI. Dynamics 365 och Power Platform skyddas av omfattande, branschledande efterlevnads-, säkerhets- och integritetskontroller.

Copilot är byggd på Microsoft Azure OpenAI Service och körs helt inom Azure-molnet. Azure OpenAI erbjuder regional tillgänglighet och innehållsfiltrering för ansvarsfull AI. Copilot använder OpenAI-modeller med alla säkerhetsfunktioner för Microsoft Azure. OpenAI är en oberoende organisation. Vi delar inte dina data med OpenAI.

Copilot-funktioner är inte tillgängliga i alla Azure-geografier och språk. Beroende på var din miljö är värd kan du behöva aktivera dataflytt mellan geografier för att kunna använda dem. Mer information finns i artiklarna som listas under Dataflytt över geografiska områden.

Vad händer med mina data när jag använder Copilot?

Du har kontroll över dina data. Microsoft delar inte dina uppgifter med en tredje part om du inte har gett tillstånd att göra det. Vidare använder vi inte dina kunddata för att träna Copilot eller dess AI-funktioner, såvida du inte ger vårt samtycke till att göra det. Copilot följer befintliga databehörigheter och policyer, och dess svar till dig baseras endast på data som du personligen har tillgång till. Mer information om hur du kan kontrollera dina data och hur dina data hanteras finns i artiklarna som anges under Copilot i Dynamics 365-appar och Power Platform.

Copilot övervakar att tjänsten används på ett felaktigt sätt och att tjänsten används vid bearbetning. Vi lagrar inte eller genomför ingen granskning av indata och utdata från Copilot för missbruksövervakning.

Hur använder Copilot mina data?

Varje tjänst eller funktion använder Copilot baserat på de data som du tillhandahåller eller ställer in för Copilot att bearbeta.

Dina frågor (indata) och Copilot-svaren (utdata eller resultat):

Läs mer om datasekretess och säkerhet OpenAI för Azure-tjänsten. Om du vill veta mer om hur Microsoft du skyddar och använder dina uppgifter mer allmänt kan du läsa vår sekretesspolicy.

Vart tar mina data vägen?

Microsoft Körs på förtroende. Vi värnar om säkerhet, sekretess och efterlevnad i allt vi gör och vår inställning till AI är inte annorlunda. Kunddata, inklusive Copilot-indata och -utdata, lagras inom Microsoft Cloud Trust-gränsen.

I vissa scenarier, till exempel funktioner som drivs av Bing och copilot-plugin-program från tredje part, kan kunddata överföras utanför gränsen för Microsoft molnförtroende.

Kan Copilot komma åt krypterat innehåll?

Data tillhandahålls Copilot baserat på åtkomstnivån för den aktuella användaren. Om en användare har tillgång till krypterade data i Dynamics 365 och Power Platform, och den användaren tillhandahåller det till Copilot, kan Copilot komma åt den.

Hur skyddar Copilot kunddata?

Microsoft är unikt positionerad för att leverera företagsklar AI. Copilot drivs av Azure OpenAI Service och följer våra befintliga integritets-, säkerhets- och regleringsåtaganden gentemot våra kunder.

  • Bygger på Microsoft vår omfattande strategi för säkerhet, sekretess och efterlevnad. Copilot är integrerat i Microsoft tjänster som Dynamics 365 och Power Platform ärver deras principer och processer för säkerhet, sekretess och efterlevnad, till exempel multifaktorautentisering och efterlevnadsgränser.

  • Flera sätt att skydda organisationens data. Tekniker på serversidan krypterar organisationens innehåll i vila och under överföring för robust säkerhet. Anslutningar skyddas med TLS (Transport lager Security) och dataöverföringar mellan Dynamics 365 Power Platform och Azure OpenAI sker via Microsoft stamnätverket, vilket garanterar både tillförlitlighet och säkerhet. Läs mer om kryptering i Microsoft molnet.

  • Skapad för att skydda dina data både i klientorganisationen och på miljönivå. Vi vet att dataläckage är ett problem för kunder. Microsoft AI-modeller tränas inte på och lär sig inte av dina klientdata eller dina uppmaningar, såvida inte klientadministratören har valt att dela data med oss. Du kan styra åtkomsten i dina miljöer med hjälp av behörigheter som du ställer in. Autentiserings- och auktoriseringsmekanismer för att skapa förfrågningar till den delade modellen mellan innehavare. Copilot använder data som bara du kan komma åt, med hjälp av samma teknik som vi har använt i flera år för att skydda kunddata.

Är svar från Copilot alltid sakliga?

Som med all generativ AI är Copilot-svaren inte 100 % faktiska. Vi förbättrar kontinuerligt svaren på faktabaserade frågor men du bör fortfarande använda ditt omdöme och granska resultatet innan du skickar det till andra. Copilot innehåller användbara utkast och sammanfattningar som hjälper dig att göra mer, men det är helt automatiskt. Du har alltid en chans att granska det AI-genererade innehållet.

Våra team arbetar för att förbättra algoritmerna för att proaktivt åtgärda problem som felaktig eller vilseledande information, innehållsblockering, datasäkerhet och förhindra skadligt eller diskriminerande innehåll i enlighet med MicrosoftResponsible AI-principer.

Vi erbjuder även vägledning i användarupplevelsen för att förstärka ansvarsfull användning av AI-genererat innehåll och åtgärder.

  • Instruktioner och frågor. När du använder Copilot påminner uppmaningar och andra instruktionselement dig om att granska och redigera svar vid behov samt att manuellt kontrollera fakta, data och text för noggrannhet innan du använder det AI-genererade innehållet.

  • Citerade källor. I tillämpliga fall hänvisar Copilot till informationskällorna, oavsett om de är offentliga eller interna, så att du själv kan granska dem och bekräfta svaren.

Mer information finns i Vanliga frågor och svar om Ansvarsfull AI för din produkt på Microsoft Learn.

Hur blockerar Copilot skadligt innehåll?

Azure OpenAI Service innehåller ett system för innehållsfiltrering som arbetar tillsammans med kärnmodeller. Innehållsfiltreringsmodellerna för kategorierna Hat och rättvisa, sexuellt, våld och självskada har utbildats och testats specifikt på olika språk. Detta system fungerar genom att både indataprompten och svaret körs genom klassificeringsmodeller som är utformade för att identifiera och blockera produktionen av skadligt innehåll.

Hat och rättviserelaterade skador avser allt innehåll som använder nedsättande eller diskriminerande språk baserat på attribut t.ex. ras, etnicitet, nationalitet, könsidentitet och uttryck, sexuell läggning, religion, invandringsstatus, funktionsförmåga, personligt utseende och kroppsstorlek. Rättvisa handlar om att se till att AI-system behandlar alla grupper av människor rättvist utan att bidra till befintliga orättvisor i samhället. Sexuellt innehåll omfattar diskussioner om mänskliga fortplantningsorgan, romantiska relationer, handlingar sp, skildras i erotiska eller kärleksfulla termer, graviditet, fysiska sexuella handlingar, inklusive de som framställs som övergrepp eller en tvingade sexuella våldshandlingar, prostitution, pornografi och missbruk. Våld beskriver språk relaterat till fysiska handlingar som är avsedda att skada eller döda, inklusive handlingar, vapen och relaterade enheter. Språk relaterat till självskadebeteende avser avsiktliga handlingar som syftar till att skada eller döda sig själv.

Läs mer om innehållsfiltrering i OpenAI Azure.

Blockerar Copilot promptinjektioner (jailbreak-attacker)?

Jailbreak-attacker är användaruppmaningar som är utformade för att provocera den generativa AI-modellen att bete sig på ett sätt som den har tränats att inte göra eller bryta mot de regler som den har blivit tillsagd att följa. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot promptinjektioner. Läs mer om jailbreak-attacker och hur du använder Azure AI Content Safety för att identifiera dem.

Blockerar Copilot indirekta promptinjektioner (indirekta attacker)?

Indirekta attacker, som även kallas indirekta promptattacker eller domänöverskridande promptinjektionsattacker, är en potentiell säkerhetsrisk där tredje parter lägger skadlig information i dokument som det generativa AI-systemet kan få åtkomst till och bearbeta. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot indirekta promptinjektioner. Läs mer om indirekta attacker och hur du använder Azure AI Content Safety för att identifiera dem.

Hur testar Microsoft och validerar man Copilot-kvaliteten, inklusive skydd mot snabb injektion och jordade svar?

Alla nya Copilot-produkter och språkmodell iteration måste skicka en intern ansvarig AI-granskning innan den kan lanseras. Innan lanseringen använder vi en process som kallas "Red Teaming" (där ett team simulerar ett fiendeangrepp, hittar och utnyttjar svagheter för att hjälpa organisationen att förbättra sina försvar) för att bedöma potentiella risker i skadligt innehåll, jailbreak-scenarier och välgrundade svar. Efter lanseringen använder vi automatiserade tester och manuella och automatiserade utvärderingsverktyg för att utvärdera kvaliteten på Copilot-svaren.

Hur kan Microsoft man förbättra grundmodellen och mäta förbättringar i grundade svar?

I sammanhanget av AI, särskilt AI som hanterar språkmodeller som den som Copilot bygger på hjälper välgrundat AI att generera svar som är mer relevanta och meningsfulla i den verkliga världen. Grunda hjälper till att säkerställa att AI:s svar baseras på tillförlitlig information och är så korrekta och relevanta som möjligt. Mått på välgrundade svar bedömer hur exakt de fakta som anges i det grundläggande innehållet som tillhandahålls till modellen representeras i det slutliga svaret

Grundmodeller som GPT-4 förbättras av tekniker för hämtningsförstärkt generering (RAG). Med de här teknikerna kan modeller använda mer information än de var utbildade för att förstå en användares scenario. RAG fungerar genom att först identifiera data som är relevant för scenariot, liknande hur en sökmotor identifierar webbsidor som är relevanta för användarens söktermer. Den använder flera metoder för att identifiera vilket innehåll som är relevant för användarens fråga och bör användas för att fastställa svaret. Tillvägagångssätten inkluderar sökning mot olika typer av index, såsom inverterade index som använder informationssökningsmetoder som termmatchning, eller vektorindex som använder jämförelser av vektordistans för semantisk likhet. När MAN har identifierar relevanta dokument skickar MAN vidare data till modellen tillsammans med det aktuella samtalet, vilket ger modellen ett sammanhang som ger en bättre förståelse av den information den redan har och genererar ett svar som kan skapas i den verkliga världen. Slutligen kontrollerar RAG svaret för att säkerställa att det stöds av det källinnehåll som tillhandahölls modellen. Copilot generativa AI-funktioner integrerar RAG på flera sätt. Ett exempel är att chatta med data med hjälp av en chattrobot som är försedd med kundens egna datakällor.

En annan metod för att förbättra grundmodeller är känd som finjustering. En stor datauppsättning av frågesvarspar visas för en grundmodell för att utöka sin ursprungliga utbildning med nya prover som är inriktade på ett specifikt scenario. Modellen kan sedan distribueras som en separat modell som är finjusterad för det scenariot. Medan jordning handlar om att göra AI:s kunskap relevant för den verkliga världen, handlar finjustering om att göra AI:s kunskap mer specifik för en viss uppgift eller domän. Microsoft använder finjustering på flera sätt. Vi använder det till exempel vid Power Automate-flödesskapande utifrån användarens beskrivningar på naturligt språk.

Uppfyller Copilot kraven på regelefterlevnad?

Microsoft Copilot ingår i Dynamics 365 och Power Platform ekosystemet och uppfyller samma krav för regelefterlevnad. Mer information om regelcertifieringar av Microsoft tjänster finns i Service Trust Portal. Dessutom följer Copilot vårt åtagande för ansvarsfull AI, vilket omsätts i handling genom vår Ansvarsfull AI-standard. I takt med att regleringen inom AI utvecklas Microsoft fortsätter den att anpassas och svara på nya krav.

Läs mer om Dynamics 365 Power Platform och Copilot-tillgänglighet, kunddataplatser och efterlevnad av globala, regionala och branschspecifika krav för hantering av data.

Mer information

Copilot i Dynamics 365-appar och Power Platform

Produkt Egenskap Krävs hanterade miljöer? Så inaktiverar du funktionen
AI Builder Scenarier i förhandsversion Nej. Scenarier i förhandsversion
Copilot Studio Allmän kunskap om AI Nej. Copilot Studio Säkerhet och styrning
Copilot Studio Skapa och redigera ämnen med Copilot Nej. Copilot Studio Säkerhet och styrning
Copilot Studio Generativa åtgärder Nej. Copilot Studio Säkerhet och styrning
Copilot Studio Generativa svar Nej. Copilot Studio Säkerhet och styrning
Dynamics 365 Business Central Alla (Se den fullständiga listan på aka.ms/bcAI.) Nej. Aktivera funktioner
Dynamics 365 Customer Insights - Data Skapa segment med Copilot för Customer Insights - Data (förhandsversion) Nej Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Översikt över dataförberedelserapport (förhandsversion) Nej Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på frågor om funktioner från Copilot (förhandsversion) Nej Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (Data) Ha en dialog med data med hjälp av Copilot i Customer Insights Nej Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Visa systemkonfiguration Nej Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjälper dig att lära dig och göra mer (recension) Nej Om denna copilot är tillgänglig i din miljö avgörs av administratörsinställningarna för Power Platform. Lär dig hur du lägger till Copilot för modellbaserade appar.


Den här funktionen är "app copilot in Customer Insights - Journeys" och det är därför den är aktiverad i Power Platform administrationscentret. Läs mer: Vanliga frågor och svar om ansvarsfull AI
Dynamics 365 Customer Insights - Journeys Skapa resor med hjälp av AI-assistans Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Fräscha upp och finslipa ditt budskap Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Styla dina e-postmeddelanden med AI-assisterade teman Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Rikta in dig på rätt kunder med hjälp av frågehjälpen

Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Använd AI för att snabbt skapa e-post Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Använd bilder i ditt innehåll Nej Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Service Skriv ett e-postmeddelande Nej. Hantera Copilot-funktioner i kundtjänst
Dynamics 365 Customer Service Utarbeta ett svar på en chatt Nej. Hantera Copilot-funktioner i kundtjänst
Dynamics 365 Customer Service Svara på frågor Nej. Hantera Copilot-funktioner i kundtjänst
Dynamics 365 Customer Service Sammanfatta ett ärende och en konversation Nej. Hantera Copilot-funktioner i kundtjänst
Power Apps Skapa appar genom konversation Nej. Hantera funktionsinställningar
Power Apps Copilot-hjälp för att fylla i formulär i modellbaserade appar Nej Hantera funktionsinställningar
Power Apps Utarbeta välskriven, inmatad text med Copilot Nej, premiumanvändarlicens Utarbeta välskriven, inmatad text med Copilot
Power Apps Excel till tabell Nej Hantera funktionsinställningar
Power Apps Använd naturligt språk för att redigera en app med hjälp av Copilot-panelen Nej Hantera funktionsinställningar
Power Automate Copilot i molnflöden på startsidan och i designverktyget (Se Komma i gång med Copilot i molnflöden för mer information.) Nej Kontakta supporten för att köra ett PowerShell-skript.
Power Pages Alla (Se Copilot-översikt i Power Pages för mer information.) Nej Stäng av Copilot i Power Pages

Läs mer i Vanliga frågor och svar om valfri datadelning för Copilot AI-funktioner i Dynamics 365 och Power Platform.

Tillgänglighet efter region och språk

Internationell tillgänglighet för Copilot

Dataflytt över geografiska områden

Säkerhet på Microsoft

Sekretess på Microsoft

Microsoft Skydd av personuppgifter

Ansvarsfull AI