Personvern, sikkerhet og ansvarlig bruk av Copilot i Fabric
Før bedriften begynner å bruke Copilot i Fabric, kan det hende du har spørsmål om hvordan det fungerer, hvordan det holder forretningsdataene dine sikre og overholder personvernkravene, og hvordan du bruker generativ kunstig intelligens på en ansvarlig måte.
Denne artikkelen gir svar på vanlige spørsmål relatert til sikkerhet og personvern for forretningsdata for å hjelpe organisasjonen med å komme i gang med Copilot i Fabric. Artikkelen personvern, sikkerhet og ansvarlig bruk for Copilot i Power BI (forhåndsversjon) gir en oversikt over Copilot i Power BI. Les videre for mer informasjon om Copilot for Fabric.
Notat
- Administratoren må aktivere leierbryteren før du begynner å bruke Copilot. Se artikkelen Copilot leierinnstillinger for mer informasjon.
- F64- eller P1-kapasiteten må være i et av områdene som er oppført i denne artikkelen, fabric-områdetilgjengelighet.
- Hvis leieren eller kapasiteten er utenfor USA eller Frankrike, deaktiveres Copilot som standard med mindre leieradministratoren for Fabric aktiverer data som sendes til Azure OpenAI, kan behandles utenfor leierens geografiske område, samsvarsgrense eller nasjonale skyforekomst leierinnstilling i administrasjonsportalen for Stoff.
- Copilot i Microsoft Fabric støttes ikke på prøveversjon av SKU-er. Bare betalte SKU-er (F64 eller høyere, eller P1 eller høyere) støttes.
- Copilot i Fabric rulles for tiden ut i offentlig forhåndsvisning og forventes å være tilgjengelig for alle kunder innen utgangen av mars 2024.
- Se artikkelen Oversikt over Copilot i Fabric og Power BI for mer informasjon.
Forretningsdataene dine er sikre
- Copilot funksjoner bruker Azure OpenAI Service, som er fullstendig kontrollert av Microsoft. Dataene dine brukes ikke til å lære opp modeller og er ikke tilgjengelige for andre kunder.
- Du beholder kontrollen over hvor dataene behandles. Data som behandles av Copilot i Fabric, forblir innenfor leierens geografiske område, med mindre du eksplisitt tillater at data behandles utenfor området, for eksempel for å la brukerne bruke Copilot når Azure OpenAI ikke er tilgjengelig i ditt område eller tilgjengelighet er begrenset på grunn av høy etterspørsel. Lær mer om administratorinnstillinger for Copilot.
- Copilot lagrer ikke dataene for overvåking av misbruk. For å forbedre personvern og tillit har vi oppdatert vår tilnærming til overvåking av misbruk: Tidligere beholdt vi data fra Copilot i Fabric, som inneholder raske inndata og utganger, i opptil 30 dager for å se etter misbruk eller misbruk. Etter tilbakemeldinger fra kunder har vi fjernet denne 30-dagers oppbevaringen. Nå lagrer vi ikke lenger ledetekstrelaterte data, noe som viser vår urokkelige forpliktelse til personvern og sikkerhet.
Kontroller Copilot utdata før du bruker dem
- Copilot svar kan inkludere unøyaktig innhold eller innhold av lav kvalitet, så pass på å se gjennom utdata før du bruker dem i arbeidet.
- Personer som kan evaluere innholdets nøyaktighet og hensiktsmessighet på en meningsfull måte, bør se gjennom utdataene.
- I dag fungerer Copilot funksjoner best på engelsk. Andre språk fungerer kanskje ikke så bra.
Viktig
Se gjennom ekstra forhåndsvisningsvilkårene for Fabric, som inkluderer vilkår for bruk for forhåndsvisninger av Microsoft Generative AI-tjenesten.
Slik fungerer Copilot
I denne artikkelen refererer Copilot til en rekke generative AI-funksjoner og -funksjoner i Fabric som drives av Azure OpenAI Service.
Generelt sett er disse funksjonene utformet for å generere naturlig språk, kode eller annet innhold basert på:
(a) inndata du angir, og
(b) jordingsdata som funksjonen har tilgang til.
Power BI, Data Factory og datavitenskap tilbyr for eksempel Copilot chatter der du kan stille spørsmål og få svar som er kontekstualisert på dataene dine. Copilot for Power BI kan også opprette rapporter og andre visualiseringer. Copilot for Data Factory kan transformere dataene dine og forklare hvilke trinn de har brukt. Datavitenskap tilbyr Copilot funksjoner utenfor chatteruten, for eksempel egendefinerte IPython-magiske kommandoer i notatblokker. Copilot chatter kan legges til andre opplevelser i Fabric, sammen med andre funksjoner som drives av Azure OpenAI under panseret.
Denne informasjonen sendes til Azure OpenAI-tjenesten, der den behandles og en utdata genereres. Derfor kan data som behandles av Azure OpenAI inkludere:
- Brukerens ledetekst eller inndata.
- Jordingsdata.
- AI-svar eller utdata.
Jordingsdata kan omfatte en kombinasjon av datasettskjema, bestemte datapunkter og annen informasjon som er relevant for brukerens gjeldende oppgave. Se gjennom hver opplevelsesinndeling for mer informasjon om hvilke data som er tilgjengelige for Copilot funksjoner i dette scenarioet.
Samhandlinger med Copilot er spesifikke for hver bruker. Dette betyr at Copilot bare kan få tilgang til data som den gjeldende brukeren har tilgang til, og utdataene er bare synlige for denne brukeren, med mindre brukeren deler utdataene med andre, for eksempel deling av en generert Power BI-rapport eller generert kode. Copilot bruker ikke data fra andre brukere i samme leier eller andre leiere.
Copilot bruker Azure OpenAI, ikke de offentlig tilgjengelige OpenAI-tjenestene, til å behandle alle data, inkludert brukerinndata, jordingsdata og Copilot utdata. Copilot bruker for tiden en kombinasjon av GPT-modeller, inkludert GPT 3.5. Microsoft er vert for OpenAI-modellene i Microsoft Azure-miljøet, og tjenesten samhandler ikke med noen tjenester av OpenAI, for eksempel ChatGPT eller OpenAI API. Dataene dine brukes ikke til å lære opp modeller og er ikke tilgjengelige for andre kunder. Finn ut mer om Azure OpenAI.
Prosessen Copilot
Disse funksjonene følger den samme generelle prosessen:
- Copilot mottar en ledetekst fra en bruker. Denne ledeteksten kan være i form av et spørsmål som en bruker skriver inn i en chatrute, eller i form av en handling, for eksempel å velge en knapp som sier «Opprett en rapport».
- Copilot forhåndsbearbeider ledeteksten gjennom en tilnærming kalt jording. Avhengig av scenarioet kan dette omfatte henting av relevante data, for eksempel datasettskjema eller chatlogg fra brukerens gjeldende økt med Copilot. Jording forbedrer spesysiteten til ledeteksten, slik at brukeren får svar som er relevante og gjennomførbare for den bestemte oppgaven. Datahenting er begrenset til data som er tilgjengelig for den godkjente brukeren basert på tillatelsene deres. Se delen Hvilke data bruker Copilot, og hvordan behandles den? i denne artikkelen for mer informasjon.
- Copilot tar svaret fra Azure OpenAI og postprosesserer det. Avhengig av scenarioet kan denne postbehandleren inkludere ansvarlige AI-kontroller, filtrering med Azure-innholdsmoderasjon eller flere forretningsspesifikke begrensninger.
- Copilot returnerer et svar til brukeren i form av naturlig språk, kode eller annet innhold. Et svar kan for eksempel være i form av en chatmelding eller generert kode, eller det kan være et kontekstavhengig passende skjema, for eksempel en Power BI-rapport eller en Synapse-notatblokkcelle.
- Brukeren ser gjennom svaret før du bruker det. Copilot svar kan inkludere unøyaktig innhold eller innhold av lav kvalitet, så det er viktig for fageksperter å sjekke utdata før du bruker eller deler dem.
På samme måte som hver opplevelse i Fabric er bygget for bestemte scenarier og personligheter – fra dataingeniører til dataanalytikere – har hver Copilot funksjon i Fabric også blitt bygget med unike scenarier og brukere i tankene. Se gjennom inndelingen for opplevelsen du arbeider i, for funksjoner, tiltenkte bruksområder og begrensninger for hver funksjon.
Definisjoner
Ledetekst eller inndata
Teksten eller handlingen som sendes til Copilot av en bruker. Dette kan være i form av et spørsmål som en bruker skriver inn i en chatrute, eller i form av en handling, for eksempel å velge en knapp som sier «Opprett en rapport».
Jording
En forhåndsbehandler teknikk der Copilot henter flere data som er kontekstavhengige for brukerens ledetekst, og deretter sender disse dataene sammen med brukerens ledetekst til Azure OpenAI for å generere et mer relevant og handlingsbart svar.
Svar eller utdata
Innholdet som Copilot returnerer til en bruker. Et svar kan for eksempel være i form av en chatmelding eller generert kode, eller det kan være kontekstavhengig passende innhold, for eksempel en Power BI-rapport eller en Synapse-notatblokkcelle.
Hvilke data bruker Copilot, og hvordan behandles de?
Hvis du vil generere et svar, bruker Copilot:
- Brukerens ledetekst eller inndata, og når det er aktuelt,
- Tilleggsdata som hentes gjennom jordingsprosessen.
Denne informasjonen sendes til Azure OpenAI-tjenesten, der den behandles og en utdata genereres. Derfor kan data som behandles av Azure OpenAI inkludere:
- Brukerens ledetekst eller inndata.
- Jordingsdata.
- AI-svar eller -utdata.
Jordingsdata kan omfatte en kombinasjon av datasettskjema, bestemte datapunkter og annen informasjon som er relevant for brukerens gjeldende oppgave. Se gjennom hver opplevelsesinndeling for mer informasjon om hvilke data som er tilgjengelige for Copilot funksjoner i dette scenarioet.
Samhandlinger med Copilot er spesifikke for hver bruker. Dette betyr at Copilot bare kan få tilgang til data som den gjeldende brukeren har tilgang til, og utdataene er bare synlige for denne brukeren, med mindre brukeren deler utdataene med andre, for eksempel deling av en generert Power BI-rapport eller generert kode. Copilot bruker ikke data fra andre brukere i samme leier eller andre leiere.
Copilot bruker Azure OpenAI – ikke OpenAIs offentlig tilgjengelige tjenester – til å behandle alle data, inkludert brukerinndata, jordingsdata og Copilot utdata. Copilot bruker for tiden en kombinasjon av GPT-modeller, inkludert GPT 3.5. Microsoft er vert for OpenAI-modellene i Microsofts Azure-miljø, og tjenesten samhandler ikke med noen tjenester av OpenAI (for eksempel ChatGPT eller OpenAI API). Dataene dine brukes ikke til å lære opp modeller og er ikke tilgjengelige for andre kunder. Finn ut mer om Azure OpenAI.
Datalagring og samsvar
Du beholder kontrollen over hvor dataene behandles. Data som behandles av Copilot i Fabric, forblir innenfor leierens geografiske område, med mindre du eksplisitt tillater at data behandles utenfor området, for eksempel for å la brukerne bruke Copilot når Azure OpenAI ikke er tilgjengelig i ditt område eller tilgjengelighet er begrenset på grunn av høy etterspørsel. (Se der Azure OpenAI er tilgjengelig.)
Hvis du vil tillate at data behandles et annet sted, kan administratoren slå på innstillingen Data som sendes til Azure OpenAI, kan behandles utenfor leierens geografiske område, samsvarsgrense eller nasjonale skyforekomst. Lær mer om administratorinnstillinger for Copilot.
Hva bør jeg vite for å bruke Copilot ansvarlig?
Microsoft er forpliktet til å sikre at AI-systemene våre styres av våre AI-prinsipper og Ansvarlig AI Standard. Disse prinsippene omfatter å gi kundene våre mulighet til å bruke disse systemene effektivt og i tråd med deres tiltenkte bruksområder. Vår tilnærming til ansvarlig kunstig intelligens utvikler seg kontinuerlig for proaktivt å løse nye problemer.
Copilot funksjoner i Fabric er bygget for å oppfylle den ansvarlige AI-standarden, noe som betyr at de blir gjennomgått av tverrfaglige team for potensielle skader, og deretter raffinert for å inkludere begrensninger for disse skadene.
Før du bruker Copilot, må du huske på begrensningene i Copilot:
- Copilot svar kan inkludere unøyaktig innhold eller innhold av lav kvalitet, så pass på å se gjennom utdata før du bruker dem i arbeidet.
- Personer som er i stand til å evaluere innholdets nøyaktighet og hensiktsmessighet på en meningsfull måte, bør se gjennom utdataene.
- For øyeblikket fungerer Copilot funksjoner best på engelsk. Andre språk fungerer kanskje ikke så bra.
Copilot for fabric-arbeidsbelastninger
Personvern, sikkerhet og ansvarlig bruk for:
- Copilot for Data Factory (forhåndsversjon)
- Copilot for datavitenskap (forhåndsversjon)
- Copilot for datalager (forhåndsversjon)
- Copilot for SQL-databaser (forhåndsversjon)
- Copilot for Power BI-
- Copilot for Real-Time Intelligence (forhåndsversjon)