Använda en ansvarsfull generativ AI-lösning
När du har identifierat potentiella skador, utvecklat ett sätt att mäta deras närvaro och implementera åtgärder för dem i din lösning, kan du göra dig redo att släppa din lösning. Innan du gör det finns det några överväganden som hjälper dig att säkerställa en lyckad lansering och efterföljande åtgärder.
Slutför förhandsversionsgranskningar
Innan du släpper en generativ AI-lösning kan du identifiera de olika efterlevnadskraven i din organisation och bransch och se till att lämpliga team ges möjlighet att granska systemet och dess dokumentation. Vanliga efterlevnadsgranskningar är:
- Legal
- Sekretess
- Säkerhet
- Tillgänglighet
Släppa och använda lösningen
En lyckad version kräver viss planering och förberedelse. Läs igenom följande riktlinjer:
- Utforma en stegvis leveransplan som gör att du kan släppa lösningen från början till en begränsad grupp användare. Med den här metoden kan du samla in feedback och identifiera problem innan du släpper till en bredare publik.
- Skapa en incidenthanteringsplan som innehåller uppskattningar av den tid det tar att svara på oväntade incidenter.
- Skapa en återställningsplan som definierar stegen för att återställa lösningen till ett tidigare tillstånd om en incident inträffar.
- Implementera funktionen för att omedelbart blockera skadliga systemsvar när de identifieras.
- Implementera en funktion för att blockera specifika användare, program eller klient-IP-adresser i händelse av systemmissbruk.
- Implementera ett sätt för användare att ge feedback och rapportera problem. I synnerhet gör det möjligt för användare att rapportera genererat innehåll som "felaktigt", "ofullständigt", "skadligt", "stötande" eller på annat sätt problematiskt.
- Spåra telemetridata som gör att du kan fastställa användarnöjdhet och identifiera funktionella luckor eller användbarhetsutmaningar. Telemetri som samlas in bör följa sekretesslagar och din egen organisations principer och åtaganden för användarsekretess.
Använda Azure AI-innehåll Valv ty
Flera Azure AI-resurser tillhandahåller inbyggd analys av innehållet de arbetar med, inklusive Language, Vision och Azure OpenAI med hjälp av innehållsfilter.
Azure AI Content Valv ty innehåller fler funktioner som fokuserar på att skydda AI och andrepiloter från risker. Dessa funktioner omfattar identifiering av olämpligt eller stötande språk, både från indata eller genererade, och identifiering av riskfyllda eller olämpliga indata.
Funktioner i Azure AI Content Valv ty är:
Funktion | Funktioner |
---|---|
Fråga sköldar | Söker efter risken för användarindataattacker på språkmodeller |
Identifiering av grundlighet | Identifierar om textsvar baseras på en användares källinnehåll |
Identifiering av skyddat material | Söker efter känt upphovsrättsskyddat innehåll |
Anpassade kategorier | Definiera anpassade kategorier för nya eller framväxande mönster |
Information och snabbstarter för användning av Azure AI-innehåll Valv ty finns på dokumentationssidorna för tjänsten.