Del via


Overvejelser om ansvarlig kunstig intelligens i forbindelse med intelligente arbejdsbelastninger i applikationer

Intelligente arbejdsbelastninger i applikationer skal overholde principperne for ansvarlig kunstig intelligens for at sikre retfærdighed, ansvarlighed, gennemsigtighed og etisk adfærd.

Design AI-systemet, så det behandler alle brugere retfærdigt, holder udviklere og brugere ansvarlige for dets ydeevne, sikrer gennemsigtighed i AI-handlinger og overholder etiske standarder.

Hos Microsoft er vi forpligtet til at fremme AI drevet af principper, der sætter mennesker først. Generative modeller har betydelige potentielle fordele, men uden omhyggeligt design og gennemtænkte afhjælpninger har sådanne modeller potentiale til at generere forkert eller endda skadeligt indhold. Microsoft har foretaget betydelige investeringer for at beskytte mod misbrug og utilsigtet skade, hvilket omfatter inkorporering af Microsoft's principper for ansvarlig AI-brug, vedtagelse af et adfærdskodeks, opbygning af indholdsfiltre til support af kunder og levering af oplysninger og vejledning om ansvarlig AI , som kunderne bør overveje, når de bruger generativ AI.

Power Platform-copiloter og generativ AI-funktioner følger et sæt metoder for kernesikkerhed og beskyttelse af personlige oplysninger og Microsoft Ansvarlig AI-standard. Power Platform-data er beskyttet af omfattende, brancheførende overholdelse, sikkerhed og sikkerhedskontroller.

Få mere at vide:

Kerneprincipper for ansvarlig AI

Kerneprincipperne for ansvarlig kunstig intelligens omfatter retfærdighed, ansvarlighed, gennemsigtighed og etik. Sikring af, at en intelligent arbejdsbelastning i programmer, der er designet med Power Platform overholdelse af disse kerneprincipper, involverer flere vigtige fremgangsmåder:

  • Retfærdighed: Brug forskellige og repræsentative træningsdata til at minimere fordomme. Opdater regelmæssigt træningsdata, og få auditorer til at validere retfærdighed og lige værd.
  • Ansvarlighed: Definer klare roller og ansvarsområder for teammedlemmer, der er involveret i AI-projektet. Etabler og overhold etiske standarder, der prioriterer retfærdighed og ansvarlighed.
  • Gennemsigtighed: Sørg for, at brugerne ved, at de bruger en arbejdsbelastning, der bruger generative AI-funktioner. Kommuniker tydeligt, hvorfor en AI-løsning blev valgt, hvordan den blev designet, og hvordan den overvåges og opdateres.
  • Etik: Fremme en inkluderende arbejdsstyrke og søge input fra forskellige samfund tidligt i udviklingsprocessen. Regelmæssigt vurdere og teste modeller for etiske bekymringer og forskelle i ydeevne. Etabler en styringsramme, der omfatter regelmæssige revisioner.

Indarbejd disse fremgangsmåder i dine udviklings- og udrulningsprocesser for at oprette en intelligent arbejdsbelastning i programmet, der overholder kerneprincipperne for ansvarlig kunstig intelligens.

Beskyttelse af personlige oplysninger og sikkerhed

Det er vigtigt at sikre beskyttelse af personlige oplysninger, især da arbejdsbelastningen i intelligente programmer kan håndtere følsomme data. Når du planlægger en intelligent programbelastning med Power Platform, er det vigtigt at håndtere flere vigtige risici og implementere effektive afhjælpningsstrategier:

  • Platformsfunktioner: Forstå indbyggede kontrolelementer og platformsfunktioner, der beskytter dine data. Microsoft Copilot er bygget på Microsoft Azure OpenAI Service og kører fuldstændigt i Azure-skyen. Copilot bruger OpenAI-modeller med alle sikkerhedsfunktioner i Microsoft Azure. Copilot er integreret i Microsoft-services, som f.eks. Dynamics 365 og Power Platform, og arver deres politikker til sikkerhed, overholdelse af angivne standarder og processer, såsom multifaktorgodkendelse og grænser for overholdelse af angivne standarder.
  • Datakryptering: Teknologier på servicesiden krypterer organisationsindhold i hvile og undervejs for robust sikkerhed. Forbindelserne beskyttes med TLS (Transport Layer Security), og dataoverførsler mellem Dynamics 365 Power Platform og Azure OpenAI sker via Microsofts netværk for at sikre stabilitet og sikkerhed. Få mere at vide om kryptering i Microsoft cloud.
  • Adgangskontrol: Data leveret til Copilot (eller en tilpasset agent) baseret på adgangsniveauet for den aktuelle bruger. Implementer rollebaseret adgangskontrol (RBAC) ved hjælp af Microsoft Entra id for at sikre, at kun autoriserede brugere har adgang til data. Anvend princippet om mindste privilegium til at begrænse adgangen til kun det, der er nødvendigt.
  • Overvågning og revision: Registrer og reager på potentielle sikkerhedshændelser ved regelmæssigt at overvåge adgangen til og brugen af AI-systemet. Oprethold detaljerede overvågningslogfiler for at spore dataadgang og ændringer.
  • Overholdelse og styring: Sørg for overholdelse af relevante databeskyttelsesbestemmelser såsom GDPR (generel forordning om databeskyttelse), HIPAA (Health Insurance Portability and Accountability Act) og CCPA (California Consumer Privacy Act). Implementer etisk AI-praksis for at undgå forudindtagethed og sikre retfærdighed i AI-output.
  • Brugeruddannelse og træning: Oplær brugere om bedste praksis for sikkerhed og vigtigheden af databeskyttelse. holde brugere orienteret om opdateringer og ændringer af sikkerhedspolitikker og -procedurer.

Få mere at vide: Ofte stillede spørgsmål om Copilot-datasikkerhed og beskyttelse af personlige oplysninger i Dynamics 365 og Power Platform

Bevidsthed om og afhjælpning af bias

Anerkend vigtigheden af at håndtere skævheder i systemet, og sørg for retfærdighed for at undgå skævheder i AI-svar.

  • Forskellige og repræsentative data: Sørg for, at træningsdataene er forskellige og repræsentative for forskellige demografier for at minimere iboende bias. Overvåg regelmæssigt dataene for skævheder og ubalancer, og foretag korrigerende handlinger efter behov.
  • Værktøjer til registrering og afhjælpning af bias: Brug værktøjer og teknikker til at registrere skævheder i AI-modellerne, f.eks. statistisk analyse og fairness-metrics. Implementere debiasing teknikker, herunder resampling, reweighting, eller adversarial debiasing, for at reducere biases i modellerne.
  • Menneske-i-løkken: Inkorporer menneskelige gennemgangs- og feedbacksløjfer for at identificere og rette skævheder, som AI kan introducere. Opret en etisk komité eller et styringsråd, der skal føre tilsyn med AI-udvikling og -udrulning og sikre, at etiske standarder overholdes.
  • Gennemsigtighed og tillid: Sørg for, at brugerne ved, at de bruger en arbejdsbelastning, der bruger generative AI-funktioner. Kommuniker tydeligt, hvorfor en AI-løsning blev valgt, og giv oplysninger om, hvordan den blev designet, og hvordan den overvåges og opdateres.
  • Løbende overvågning og forbedring: Overvåg løbende AI-systemet for skævheder og problemer med ydeevnen, og opdater modellerne efter behov. Sørg for, at modellerne forbliver retfærdige og upartiske ved regelmæssigt at omskole modeller med opdaterede og mere forskelligartede data.

Løbende overvågning og evaluering

Fortsæt med at forbedre din intelligente applikationsarbejdsbyrde. Etabler en ramme for løbende overvågning og evaluering og indarbejde brugerfeedback og udvikling af etiske standarder i opdateringer.

  • Feedbackløkker: Opret feedbackmekanismer, hvor brugerne kan rapportere unøjagtigheder, som derefter kan bruges til at forfine og forbedre modellerne.
  • Overvågning og revision: Registrer og reager på potentielle sikkerhedshændelser ved regelmæssigt at overvåge adgangen til og brugen af AI-systemet. Oprethold detaljerede overvågningslogfiler for at spore dataadgang og ændringer.