Del via


Vanlige spørsmål om Copilot-datasikkerhet og -personvern for Dynamics 365 og Power Platform

Copilot for Dynamics 365 og Power Platform funksjoner følger et sett med kjernepraksiser for sikkerhet og personvern og standarden for Microsoft ansvarlig kunstig intelligens. Dynamics 365- og Power Platform-data er beskyttet av omfattende, bransjeledende samsvars-, sikkerhets- og personvernkontroller.

Copilot er bygd på Microsoft Azure OpenAI-tjenesten og kjører fullstendig i Azure-skyen. Azure OpenAI tilbyr regional tilgjengelighet og innholdsfiltrering for ansvarlig kunstig intelligens. Copilot bruker OpenAI-modeller med alle sikkerhetsfunksjonene i Microsoft Azure. OpenAI er en uavhengig organisasjon. Vi deler ikke dataene dine med OpenAI.

Copilot-funksjoner er ikke tilgjengelige i alle geografiske Azure-områder og heller ikke på alle språk. Avhengig av hvor miljøet er driftet, må du kanskje tillate dataflytting på tvers av geografiske områder for å kunne bruke dem. Hvis du vil ha mer informasjon, kan du se artiklene under Dataflytting på tvers av geografiske områder.

Hva skjer med dataene mine når jeg bruker Copilot?

Du har kontroll over dataene dine. Microsoft ikke deler dataene dine med en tredjepart med mindre du har gitt tillatelse til det. Vi bruker heller ikke kundedataene dine til å lære opp Copilot eller KI-funksjonene i den med mindre du gir samtykke til at vi kan gjøre det. Copilot overholder eksisterende datatillatelser og policyer, og svarene den gir deg, er bare basert på data som du personlig har tilgang til. Hvis du vil ha mer informasjon om hvordan du styrer dataene, og hvordan dataene håndteres, kan du se artiklene under Copilot i Dynamics 365-apper og Power Platform.

Copilot ser etter støtende eller skadelig bruk av tjenesten med midlertidig behandling. Vi verken lagrer eller foretar manuell gjennomgang av Copilot-inndata og -utdata for overvåking av misbruk.

Hvordan bruker Copilot dataene mine?

Hver tjeneste eller funksjon bruker Copilot basert på dataene du oppgir eller konfigurerer for behandling i Copilot.

Ledetekstene (inndata) og svarene fra Copilot (utdata eller resultater):

Finn ut mer om personvern og sikkerhet OpenAI for Azure-tjenesten. Hvis du vil vite mer om hvordan Microsoft du beskytter og bruker dataene dine mer generelt, kan du lese personvernerklæringen vår.

Hvor sendes dataene mine?

Microsoft kjører på tillit. Vi er forpliktet til sikkerhet, personvern og samsvar i alt vi gjør, og tilnærmingen vår til kunstig intelligens er likeledes. Kundedata, inkludert Copilot-inn- og utdata, lagres innenfor Microsoft skytillitsgrensen.

I noen scenarioer, for eksempel funksjoner drevet av Bing og tredjeparts Copilot-plugin-moduler, kan kundedata overføres utenfor Microsoft skyklareringsgrensen.

Kan Copilot få tilgang til kryptert innhold?

Data gis til Copilot basert på tilgangsnivået til nåværende bruker. Hvis en bruker har tilgang til krypterte data i Dynamics 365 og Power Platform og vedkommende gir dem til Copilot, har Copilot tilgang til dem.

Hvordan beskytter Copilot kundedata?

Microsoft er unikt posisjonert for å levere bedriftsklar AI. Copilot drives av Azure OpenAI-tjenesten og samsvarer med de eksisterende forskriftsmessige forpliktelsene om personvern, sikkerhet og samsvar til kundene.

  • Bygget på Microsoft den omfattende tilnærmingen til sikkerhet, personvern og samsvar. Copilot er integrert i Microsoft tjenester som Dynamics 365 og Power Platform arver deres sikkerhets-, personvern- og samsvarspolicyer og -prosesser, for eksempel godkjenning med flere faktorer og samsvarsgrenser.

  • Flere former for beskyttelse sikrer organisasjonsdata. Teknologier på servicesiden krypterer organisasjonsinnhold som lagres eller overføres, for å sørge for solid sikkerhet. Tilkoblinger sikres med Transport lag Security (TLS), og dataoverføringer mellom Dynamics 365 Power Platform og Azure OpenAI skjer over Microsoft ryggradsnettverket, noe som sikrer både pålitelighet og sikkerhet. Finn ut mer om kryptering i skyen Microsoft .

  • Strukturert for å beskytte dataene på både leier- og miljønivå. Vi vet at datalekkasjer er en bekymring for kunder. Microsoft AI-modeller er ikke opplært på og lærer ikke av leierdataene eller instruksjonene dine, med mindre leieradministratoren har valgt å dele data med oss. Du kan styre tilgang via tillatelser du konfigurerer i miljøene. Godkjennings- og autorisasjonsmekanismer skiller mellom forespørsler til den delte modellen blant leiere. Copilot bruker data som bare du har tilgang til, ved hjelp av den samme teknologien som vi har brukt i årevis til å sikre kundedata.

Er svarene til Copilot alltid saklige?

Som med all generativ AI, er ikke Copilot-svarene 100 % saklige. Vi fortsetter å forbedre svarene på faktabaserte forespørsler, men du må fortsatt bruke dømmekraften din og gå gjennom utdataene før du sender dem til andre. Copilot gir deg nyttige utkast og sammendrag, slik at du får gjort mer, men det er helautomatisk. Du har alltid mulighet til å se gjennom det KI-genererte innholdet.

Teamene våre arbeider proaktivt for å løse problemer, for eksempel med feilinformasjon og desinformasjon, innholdsblokkering, datasikkerhet og markedsføring av skadelig eller diskriminerende innhold i henhold til prinsippene for ansvarlig kunstig intelligens.

Vi gir også veiledning i brukeropplevelsen for å formidle ansvarlig bruk av innhold og forslag til handlinger generert av kunstig intelligens.

  • Instruksjoner og ledetekster. Når du bruker Copilot, brukes ledetekster og andre instruksjonselementer til å minne deg på å gå gjennom og redigere svar etter behov, og manuelt kontrollere fakta, data og tekst for nøyaktighet før du bruker det KI-genererte innholdet.

  • Siterte kilder Copilot siterer informasjonskildene, enten de er offentlige eller interne, der det er aktuelt, slik at du kan gå gjennom dem selv for å bekrefte svarene.

Hvis du vil ha mer informasjon, kan du se vanlige spørsmål om ansvarlig kunstig intelligens for produktet på Microsoft Learn.

Hvordan blokkerer Copilot skadelig innhold?

Azure OpenAI Service inneholder et innholdsfiltreringssystem som fungerer sammen med kjernemodeller. Modellene for innholdsfiltrering for kategoriene hat og rettferdighet, seksualitet, vold, selvskading er spesielt lært opp og testet på ulike språk. Dette systemet fungerer ved å kjøre både inndataledeteksten og svaret gjennom klassifiseringsmodeller som er utformet for å identifisere og blokkere utdata med skadelig innhold.

Skader knyttet til hat og rettferdighet henviser til alt innhold som bruker nedsettende eller diskriminerende språk basert på attributter som rase, etnisitet, nasjonalitet, kjønnsidentitet og -uttrykk, seksualitet, religion, immigrasjonsstatus, ferdighetsstatus, personlig utseende og kroppsstørrelse. Rettferdighet handler om å sørge for at KI-systemer behandler alle grupper med mennesker rettferdig uten å bidra til eksisterende samfunnsmessig urettferdighet. Innhold av seksuell karakter omfatter diskusjoner om menneskers reproduktive organer, romantiske forhold, handlinger som fremstilles i erotisk eller kjærlig språkdrakt, svangerskap, fysisk seksuelle handlinger, inkludert de som fremstilles som overgrep eller tvang som omfatter seksuell vold, prostitusjon, pornografi og vold. Vold beskriver språk knyttet til fysiske handlinger som er ment å skade eller drepe, inkludert handlinger, våpen og relaterte enheter. Selvskadingsspråk henviser til overlagte handlinger som er ment å skade eller drepe seg selv.

Finn ut mer om Azure-innholdsfiltrering OpenAI .

Blokkerer Copilot spørringsinjeksjoner (jailbreak-angrep)?

Jailbreak-angrep er brukermeldinger som er designet for å provosere den generative AI-modellen til å oppføre seg på måter den ble trent til ikke å gjøre, eller bryte reglene den har fått beskjed om å følge. Tjenester på tvers av Dynamics 365 og Power Platform er påkrevd å beskytte mot ledetekstinjeksjoner. Finn ut mer om jailbreak-angrep og hvordan du bruker Azure AI Content Safety til å oppdage dem.

Blokkerer Copilot indirekte spørringsinjeksjoner (indirekte angrep)?

Indirekte angrep, også referert til som indirekte spørringsangrep eller spørringsinjeksjoner på tvers av domener, er en potensiell svakhet der tredjeparter plasserer skadelige instruksjoner i dokumenter som det generative KI-systemet kan få tilgang til og behandle. Tjenester i Dynamics 365 og Power Platform må beskytte mot indirekte spørringsinjeksjoner. Finn ut mer om indirekte angrep og hvordan du bruker Azure AI Content Safety til å oppdage dem.

Hvordan tester og validerer Microsoft Copilot-kvaliteten, inkludert rask injeksjonsbeskyttelse og jordet respons?

Alle nye versjoner av Copilot-produkter og -språkmodeller må bestå en intern gjennomgang for ansvarlig kunstig intelligens før de kan lanseres. Vi foretar en grundig sikkerhetstest (kalt «red teaming», der et team simulerer et fiendtlig angrep for å finne og utnytte svakheter og hjelpe organisasjonen med å forbedre forsvaret) før lanseringen for å vurdere potensielle risikoer ved skadelig innhold, opplåsingsscenarioer og underbygde svar. Etter lanseringen bruker vi automatiserte tester og manuelle og automatiserte evalueringsverktøy til å vurdere kvaliteten på svarene til Copilot.

Hvordan forbedrer Microsoft fundamentmodellen og måler forbedringer i jordede responser?

I sammenheng med kunstig intelligens, særlig kunstig intelligens som bruker språkmodeller som den Copilot er basert på, bidrar underbygging til at kunstig intelligens kan generere svar som er mer relevante og gir mening i den virkelige verden. Underbygging bidrar til å sikre at svarene til kunstig intelligens er basert på pålitelig informasjon og er så nøyaktige og relevante som mulig. Måledata for underbygde svar vurderer hvor nøyaktig fakta som er uttrykt underbyggingsinnholdet modellen har fått, representeres i det siste svaret.

Grunnmodeller som GPT-4 forbedres ved å bruke RAG-teknikker for generering basert på henting av eksterne data (Retrieval Augmented Generation). Disse teknikkene gjør at modellene kan bruke mer informasjon enn den de er lært opp på, til å forstå et brukerscenario. RAG fungerer ved først å identifisere data som er relevante for scenarioet, omtrent slik en søkemotor identifiserer nettsider som er relevante for brukerens søkeord. Den bruker flere tilnærminger til å identifisere innholdet som er relevant for brukerledeteksten, og skal brukes til å underbygge svaret. Tilnærminger omfatter søk mot ulike typer indekser, for eksempel inverterte indekser ved hjelp av teknikker for henting av informasjon, for eksempel termsamsvar, eller vektorindekser ved hjelp av sammenligning av vektoravstand for semantisk likhet. Etter at RAG har identifisert de relevante dokumentene, sender den dataene til modellen sammen med gjeldende samtale, slik at modellen får mer kontekst og kan bedre forstå informasjonen den allerede har samt generere et svar som er forankret i den virkelige verden. RAG kontrollerer til slutt svaret for å sikre at det er underbygd av kildeinnholdet den har gitt modellen. Funksjoner for generativ kunstig intelligens i Copilot omfatter RAG på flere måter. Ett eksempel er chat med bruk av data, der en chatrobot er underbygd med kundens egne datakilder.

En annen metode for å forbedre grunnleggende modeller kan kalles finjustering. En stor datasett med spørsmål-og-svar-par vises til en grunnleggende modell for å forbedre den opprinnelige opplæringen med nye eksempler som er rettet mot et bestemt scenario. Modellen kan deretter distribueres som en separat modell – en modell som er finjustert for dette scenarioet. Underbygging handler om å gjøre kunnskapen til den kunstige intelligensen relevant i den virkelige verden, mens finjustering handler om å gjøre kunnskapen til den kunstige intelligensen mer spesifikk for en bestemt oppgave eller et bestemt domene. Microsoft bruker finjustering på flere måter. Vi bruker for eksempel Power Automate-flytoppretting fra beskrivelser på naturlig språk som gis av brukeren.

Oppfyller Copilot kravene om forskriftsmessig samsvar?

Microsoft Copilot er en del av økosystemet med Dynamics 365 og Power Platform og oppfyller de samme kravene for forskriftsmessig samsvar. Hvis du vil ha mer informasjon om forskriftsmessige sertifiseringer av Microsoft tjenester, kan du gå til Service Trust Portal. I tillegg overholder Copilot vår forpliktelse til ansvarlig kunstig intelligens, som er iverksatt via vår standard for ansvarlig kunstig intelligens. Etter hvert som reguleringen innen AI utvikler seg, Microsoft fortsetter å tilpasse seg og svare på nye krav.

Finn ut mer om Dynamics 365 og Copilot-tilgjengelighet Power Platform, kundedataplasseringer og samsvar med globale, regionale og bransjespesifikke krav for behandling av data.

Finn ut mer

Copilot i Dynamics 365-apper og Power Platform

Produkt Funksjon Er administrerte miljøer påkrevd? Slik deaktiverer du funksjonen
AI Builder Scenarioer i forhåndsversjon No Scenarioer i forhåndsversjon
Copilot Studio Generell kunnskap om kunstig intelligens No Copilot Studio Sikkerhet og styring
Copilot Studio Opprett og rediger emner med Copilot No Copilot Studio Sikkerhet og styring
Copilot Studio Generative handlinger No Copilot Studio Sikkerhet og styring
Copilot Studio Generative svar No Copilot Studio Sikkerhet og styring
Dynamics 365 Business Central Alle (se hele listen på aka.ms/bcAI) No Aktivere funksjoner
Dynamics 365 Customer Insights - Data Opprett segmenter med Copilot for Customer Insights - Data (forhåndsversjon) No Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Oversikt over rapport for dataklargjøring (forhåndsversjon) Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på spørsmål om funksjoner fra Copilot (forhåndsversjon) Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (data) Ha en dialog med data ved hjelp av Copilot i Customer Insights Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Vis systemkonfigurasjon Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjelper deg med å lære og gjøre mer (anmeldelse) Nei Om denne kopiloten er tilgjengelig i miljøet ditt, bestemmes av Power Platform-administratorinnstillingene. Finn ut hvordan du legger til Copilot for modelldrevne apper.


Denne funksjonen er «app copilot in Customer Insights - Journeys», og det er derfor den er aktivert i Power Platform administrasjonssenteret. Finn ut mer: Vanlige spørsmål om ansvarlig kunstig intelligens
Dynamics 365 Customer Insights - Journeys Opprett reiser ved hjelp av AI-assistanse Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Oppdater og perfeksjoner budskapet ditt Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Style e-postene dine med AI-assisterte temaer Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Målrett mot de riktige kundene ved hjelp av spørringshjelp

Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruk AI til å kickstarte e-postoppretting Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruk bilder i innholdet ditt Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Service Skriv en e-post No Administrer Copilot-funksjoner i kundeservice
Dynamics 365 Customer Service Utarbeide et chat-svar No Administrer Copilot-funksjoner i kundeservice
Dynamics 365 Customer Service Svar på spørsmål No Administrer Copilot-funksjoner i kundeservice
Dynamics 365 Customer Service Oppsummere en sak og samtale No Administrer Copilot-funksjoner i kundeservice
Power Apps Bygg apper gjennom samtale No Behandle funksjonsinnstillinger
Power Apps Copilot-assistanse for skjemautfylling i modelldrevne apper Nei Behandle funksjonsinnstillinger
Power Apps Utkast til velskrevet inndatatekst med Copilot Nei, Premium-brukerlisens Utkast til velskrevet inndatatekst med Copilot
Power Apps Excel til tabell Nei Behandle funksjonsinnstillinger
Power Apps Bruk naturlig språk til å redigere en app ved hjelp av Copilot-panelet No Behandle funksjonsinnstillinger
Power Automate Copilot i skyflytprosesser på startsiden og i utformingen (Se Kom i gang med Copilot i skyflyt hvis du vil ha mer informasjon.) No Kontakt kundestøtte for å kjøre et PowerShell-skript.
Power Pages Alle (Se Copilot-oversikt i Power Pages hvis du vil ha mer informasjon.) Nei Slå av Copilot i Power Pages

Finn ut mer på Vanlige spørsmål om valgfri datadeling for Copilot AI-funksjoner i Dynamics 365 og Power Platform.

Område- og språktilgjengelighet

Copilot internasjonal tilgjengelighet

Dataflytting på tvers av geografiske områder

Sikkerhet på Microsoft

Personvern på Microsoft

Microsoft Personvernerklæring

Ansvarlig kunstig intelligens