Del via


Hensyn til ansvarlig kunstig intelligens for intelligente programarbeidsbelastninger

Intelligente programarbeidsbelastninger må overholde prinsippene for ansvarlig kunstig intelligens for å sikre rettferdighet, ansvarlighet, åpenhet og etisk atferd.

Utform KI-systemet for å behandle alle brukere rettferdig, holde utviklere og brukere ansvarlige for ytelsen, sikre åpenhet i KI-operasjoner og overholde etiske standarder.

Hos Microsoft er vi forpliktet til å fremme kunstig intelligens drevet av prinsipper som setter mennesker først. Generative modeller har betydelige potensielle fordeler, men uten nøye utforming og gjennomtenkte reduksjoner har slike modeller potensial til å generere feil eller til og med skadelig innhold. Microsoft har gjort betydelige investeringer for å beskytte mot misbruk og utilsiktet skade, som inkluderer å innlemme Microsofts prinsipper for ansvarlig bruk av kunstig intelligens, ta i bruk regler for god oppførsel, bygge innholdsfiltre for å støtte kunder og gi informasjon og veiledning ansvarlig KI som kunder bør vurdere når de bruker generativ KI.

Power Platform-kopiloter og generative KI-funksjoner følger et sett med kjernesikkerhets- og personvernpraksiser og Microsofts standard for ansvarlig kunstig intelligens. Power Platform-data er beskyttet av omfattende, bransjeledende samsvars-, sikkerhets- og personvernkontroller.

Finn ut mer:

Kjerneprinsipper for ansvarlig kunstig intelligens

Kjerneprinsippene for ansvarlig kunstig intelligens omfatter rettferdighet, ansvarlighet, åpenhet og etikk. Å sikre at en intelligent applikasjonsarbeidsbelastning bygget med Power Platform overholder disse kjerneprinsippene, involverer flere viktige praksiser:

  • Rettferdighet: Bruk varierte og representative treningsdata for å minimere skjevheter. Oppdater treningsdata regelmessig og få revisorer til å validere rettferdighet og likebehandling.
  • Ansvarlighet: Definer klare roller og ansvar for teammedlemmer som er involvert i KI-prosjektet. Etabler og etterlev etiske standarder som prioriterer rettferdighet og ansvarlighet.
  • Gjennomsiktighet: Sørg for at brukerne vet at de bruker en arbeidsbelastning som bruker generativ KI-funksjoner. Kommuniser tydelig hvorfor en KI-løsning ble valgt, hvordan den ble utformet, og hvordan den overvåkes og oppdateres.
  • Etikk: Fremme en inkluderende arbeidsstyrke og søke innspill fra ulike samfunn tidlig i utviklingsprosessen. Regelmessig vurder og test modeller for etiske bekymringer og ulikheter i ytelse. Etabler et styringsrammeverk som inkluderer regelmessige revisjoner.

Innlem disse praksisene i utviklings- og utrullingsprosessene for å skape en intelligent programarbeidsbelastning som overholder kjerneprinsippene for ansvarlig kunstig intelligens.

Datapersonvern og -sikkerhet

Det er avgjørende å sikre personvern, spesielt ettersom den intelligente programarbeidsbelastningen kan håndtere sensitive data. Når du planlegger en intelligent programarbeidsbelastning med Power Platform, er det viktig å håndtere flere viktige risikoer og implementere effektive reduksjonsstrategier:

  • Plattformfunksjoner: Forstå opprinnelige kontroller og plattformfunksjoner som beskytter dataene dine. Microsoft Copilot er bygd på Microsoft Azure OpenAI-tjenesten og kjøres fullstendig innenfor Azure-skyen. Copilot bruker OpenAI-modeller med alle sikkerhetsfunksjonene i Microsoft Azure. Copilot er integrert i Microsoft-tjenester som Dynamics 365 og Power Platform og arver deres policyer og prosesser for sikkerhet, personvern og samsvar, for eksempel flerfaktorautentisering og grenser for samsvar.
  • Datakryptering: Teknologier på servicesiden krypterer organisasjonsinnhold både inaktivt og underveis for robust sikkerhet. Tilkoblinger ivaretas med TLS (Transport Layer Security), og dataoverføringer mellom Dynamics 365 Power Platform og Azure OpenAI skjer over Microsofts baknettverk, noe som sikrer både pålitelighet og sikkerhet. Finn ut mer om kryptering i Microsoft Cloud.
  • Tilgangskontroller: Data er gitt til Copilot (eller en egendefinert agent) basert på tilgangsnivået til nåværende bruker. Implementer rollebasert tilgangskontroll (RBAC) ved hjelp av Microsoft Entra ID for å sikre at bare autoriserte brukere har tilgang til data. Bruk prinsippet om minste rettighet for å begrense tilgangen til bare det som er nødvendig.
  • Overvåking og revisjon: Oppdag og svar på potensielle sikkerhetshendelser ved regelmessig å overvåke tilgang og bruk av KI-systemet. Vedlikehold detaljerte overvåkingslogger for å spore datatilgang og endringer.
  • Samsvar og styring: Sikre samsvar med relevante personvernforskrifter som GDPR (EUs personvernforordning), HIPAA (Health Insurance Portability and Accountability Act) og CCPA (California Consumer Privacy Act). Implementer etiske KI-praksiser for å unngå skjevheter og sikre rettferdighet i KI-utdata.
  • Brukeropplæring og trening: Tren brukere på beste praksis for sikkerhet og viktigheten av personvern. Hold brukerne informert om oppdateringer og endringer i sikkerhetspolicyer og -prosedyrer.

Mer informasjon: Vanlige spørsmål om Copilot-datasikkerhet og -personvern for Dynamics 365 og Power Platform

Bevissthet om skjevhet og begrensing

Anerkjenn viktigheten av å adressere skjevheter i systemet og sikre rettferdighet for å unngå skjevheter i KI-svar.

  • Mangfoldige og representative data: Sørg for at treningsdataene er mangfoldige og representative for ulike demografier for å minimere iboende skjevheter. Regelmessig revider dataene for skjevheter og ubalanser, og iverksett korrigerende tiltak etter behov.
  • Verktøy for deteksjon og begrensning av skjevheter: Bruk verktøy og teknikker til å oppdage skjevheter i modellene for kunstig intelligens, for eksempel statistisk analyse og rettferdighetsmåleverdier. Implementer tekniker for å unngå skjevheter, inkludert nye eksempler, ny vekting eller negative skjevheter, for å redusere skjevheter i modellene.
  • Menneskelig gjennomgang: Inkluder menneskelige gjennomgang og tilbakemeldingsløkker for å identifisere og korrigere skjevheter som kunstig intelligens kan introdusere. Etablere en etisk komité eller et styringsstyre for å overvåke KI-utvikling og -utrulling, og sikre at etiske standarder oppfylles.
  • Gjennomsiktighet og tillit: Sørg for at brukerne vet at de bruker en arbeidsbelastning som bruker generativ KI-funksjoner. Kommuniser tydelig hvorfor en KI-løsning ble valgt, og gi informasjon om hvordan den ble utformet og hvordan den overvåkes og oppdateres.
  • Kontinuerlig overvåking og forbedring: Overvåk kontinuerlig KI-systemet for skjevheter og ytelsesproblemer, og oppdater modellene etter behov. Sørg for at modellene forblir rettferdige og objektive ved regelmessig lære opp modeller på nytt med oppdaterte og mer varierte data.

Løpende overvåking og evaluering

Fortsett å forbedre den intelligente applikasjonsarbeidsbelastningen. Etabler et rammeverk for kontinuerlig overvåking og evaluering, og innlemm tilbakemeldinger fra brukere og utviklende etiske standarder i oppdateringer.

  • Tilbakemeldingssløyfer: Opprett tilbakemeldingsmekanismer der brukere kan rapportere unøyaktigheter, som deretter kan brukes til å finjustere og forbedre modellene.
  • Overvåking og revisjon: Oppdag og svar på potensielle sikkerhetshendelser ved regelmessig å overvåke tilgang og bruk av KI-systemet. Vedlikehold detaljerte overvåkingslogger for å spore datatilgang og endringer.