Dela via


Styrningsrekommendationer för AI-arbetsbelastningar i Azure

Den här artikeln innehåller styrningsrekommendationer för organisationer som kör AI-arbetsbelastningar i Azure. Den fokuserar på PaaS-lösningar (plattform som en tjänst) i Azure AI, inklusive Azure AI Foundry, Azure OpenAI, Azure Machine Learning och Azure AI Services. Den omfattar både generativa och icke-generativa AI-arbetsbelastningar.

Effektiv styrning stöder ansvarsfull användning av AI. Det gör det möjligt för företag att optimera sina AI-investeringar samtidigt som riskerna med säkerhet, kostnader och regelefterlevnad minskar.

Styra AI-modeller

AI-modellstyrning avser processerna för att hantera AI-modeller för att säkerställa att de ger tillförlitliga, säkra och etiska utdata. Kontroller över modellindata och utdata bidrar till att minska riskerna. Dessa risker omfattar skadligt innehåll och oavsiktlig AI-användning. Båda kan påverka användare och organisationen. Dessa processer stöder ansvarsfull AI-distribution och skyddar mot potentiella juridiska och etiska utmaningar.

  • Kontrollera de modeller som du använder. Använd Azure Policy för att hantera vilka specifika modeller dina team får distribuera från Azure AI Foundry-modellkatalogen. Du har möjlighet att använda en inbyggd policy eller skapa en anpassad policy. Eftersom den här metoden använder en tillåtelselista börjar du med en granskningseffekt av . Med granskningseffekt kan du övervaka de modeller som dina team använder utan att begränsa distributionerna. Byt endast till neka effekten när du förstår AI-utvecklings- och experimenteringsbehoven för arbetsgrupper, så att du inte hindrar deras framsteg utan att det är nödvändigt. Om du växlar en princip till nekatar den inte automatiskt bort inkompatibla modeller som teamen redan har distribuerat. Du måste åtgärda dessa modeller manuellt.

  • Upprätta en process för att identifiera AI-risker. Använd verktyg som Defender för molnet för att identifiera generativa AI-arbetsbelastningar och utforska risker för generativa AI-artefakter i förväg. Upprätta en princip för regelbundet röda teamgenerativa AI-modeller. Dokumentera identifierade risker och uppdatera dina AI-styrningsprinciper kontinuerligt för att åtgärda nya problem.

  • Definiera baslinjeinnehållsfilter för generativa AI-modeller. Använd Azure AI Content Safety för att definiera ett baslinjeinnehållsfilter för dina godkända AI-modeller. Det här säkerhetssystemet kör både prompten och slutförandet för din modell via en grupp med klassificeringsmodeller. Dessa klassificeringsmodeller identifierar och hjälper till att förhindra utdata från skadligt innehåll i en rad kategorier. Content Safety innehåller funktioner som promptsköldar, markavkänning och skyddad materialtextidentifiering. Den söker igenom bilder och text. Skapa en process för programteam för att kommunicera olika styrningsbehov.

  • Markgenerativa AI-modeller. Använd systemmeddelanden och RAG-mönstret (retrieval augmented generation ) för att styra utdata från generativa AI-modeller. Testa effekten av jordning med hjälp av verktyg som promptflöde eller det röda teamramverket PyRIT med öppen källkod.

Styra AI-kostnader

AI-kostnadsstyrning omfattar hantering av utgifter i samband med AI-arbetsbelastningar för att maximera effektiviteten och minska onödiga utgifter. Effektiv kostnadskontroll säkerställer att AI-investeringar överensstämmer med affärsmålen, vilket förhindrar oförutsedda kostnader från överetablering eller underutnyttjande. Dessa metoder gör det möjligt för organisationer att optimera sin AI-verksamhet ekonomiskt.

  • Använd rätt faktureringsmodell. Om du har förutsägbara arbetsbelastningar använder du AI-åtagandenivåer i Azure AI-tjänster. För Azure OpenAI-modeller använder du etablerade dataflödesenheter (PTUs), som kan vara billigare än prissättningen betala per användning (förbrukningsbaserad). Det är vanligt att kombinera PTU-slutpunkter och förbrukningsbaserade slutpunkter för kostnadsoptimering. Använd PTUs på den primära AI-modellens slutpunkt och en sekundär, förbrukningsbaserad AI-slutpunkt för spillover. Mer information finns i Introduktion till en gateway för flera Azure OpenAI-instanser.

  • Välj rätt modell för ditt användningsfall. Välj den AI-modell som uppfyller dina behov utan att medföra orimliga kostnader. Använd billigare modeller om inte användningsfallet kräver en dyrare modell. För finjustering maximerar du tidsanvändningen inom varje faktureringsperiod för att undvika extra avgifter. Mer information finns i Azure OpenAI-modeller och priser. Se även Azure AI Foundry-modellkatalogen och faktureringsinformation för modellimplementeringar.

  • Ange etableringsgränser. Allokera etableringskvoter för varje modell baserat på förväntade arbetsbelastningar för att förhindra onödiga kostnader. Övervaka dynamiska kvoter kontinuerligt för att säkerställa att de matchar den faktiska efterfrågan och justera dem i enlighet med detta för att upprätthålla optimalt dataflöde utan överförbrukning.

  • Använd rätt distributionstyp. Med Azure OpenAI-modeller kan du använda olika distributionstyper. Global distribution erbjuder lägre priser per token för vissa OpenAI-modeller.

  • Utvärdera värdalternativ. Välj rätt värdinfrastruktur, beroende på din lösnings behov. För generativa AI-arbetsbelastningar kan alternativen till exempel vara hanterade onlineslutpunkter, Azure Kubernetes Service (AKS) och Azure App Service, var och en med sin egen faktureringsmodell. Välj det alternativ som ger den bästa balansen mellan prestanda och kostnad för dina specifika krav.

  • Kontrollera klientbeteendet i förbrukningsbaserade tjänster. Begränsa klientåtkomsten till DIN AI-tjänst genom att framtvinga säkerhetsprotokoll som nätverkskontroller, nycklar och rollbaserad åtkomstkontroll (RBAC). Se till att klienter använder API-begränsningar som maxtoken och maximalt antal slutföranden. När det är möjligt, batchbegäranden för att optimera effektiviteten. Håll anvisningarna kortfattade, men ge nödvändig kontext för att minska tokenförbrukningen.

  • Överväg att använda en generativ AI-gateway. Med en generativ AI-gateway kan du spåra tokenanvändning, begränsa tokenanvändning, tillämpa kretsbrytare och dirigera till olika AI-slutpunkter för att kontrollera kostnaderna.

  • Skapa en princip för att stänga av beräkningsinstanser. Definiera och framtvinga en princip som anger att AI-resurser måste använda funktionen för automatisk avstängning på virtuella datorer och beräkningsinstanser i Azure AI Foundry och Azure Machine Learning. Automatisk avstängning gäller för icke-produktionsmiljöer och produktionsarbetsbelastningar som du kan ta offline under vissa tidsperioder.

Mer vägledning om kostnadshantering finns i Hantera AI-kostnader och kostnadsoptimering i Azure OpenAI-baslinjearkitekturen.

Styra AI-plattformar

AI-plattformsstyrning omfattar tillämpning av principkontroller för olika AI-tjänster i Azure, till exempel Azure AI Foundry och Azure Machine Learning. Genom att använda styrning på plattformsnivå tillämpas konsekventa principer för säkerhet, efterlevnad och drift i AI-ekosystemet. Den här justeringen stöder effektiv tillsyn, vilket stärker den övergripande AI-hanteringen och tillförlitligheten.

  • Använd inbyggda styrningsprinciper. Använd Azure Policy för att tillämpa inbyggda principdefinitioner för varje AI-plattform som du använder. Den innehåller Azure AI Foundry, Azure Machine Learning, Azure AI-tjänster, Azure AI Searchoch andra.

  • Aktivera AI-principer för Azure-landningszoner. För användare i Azure-landningszonen innehåller distributionen en kuraterad uppsättning rekommenderade inbyggda principer för Azure AI-plattformstjänster. Välj det principinitiativ som du vill använda under kategorin Arbetsbelastningsspecifik efterlevnad under en distribution i Azure-landningszonen. Principuppsättningarna omfattar Azure OpenAI, Azure Machine Learning och Azure AI Search och Azure Bot-tjänster.

Styra AI-säkerhet

AI-säkerhetsstyrning tar itu med behovet av att skydda AI-arbetsbelastningar från hot som kan äventyra data, modeller eller infrastruktur. Robusta säkerhetsrutiner skyddar dessa system mot obehörig åtkomst och dataintrång. Det här skyddet säkerställer integriteten och tillförlitligheten hos AI-lösningar, vilket är viktigt för att upprätthålla användarnas förtroende och regelefterlevnad.

  • Aktivera Defender för molnet för varje prenumeration. Defender för molnet tillhandahåller en kostnadseffektiv metod för att identifiera konfigurationer i dina distribuerade resurser som inte är säkra. Du bör också aktivera AI-skydd mot hot.

  • Konfigurera åtkomstkontroll. Ge användare med minst behörighet åtkomst till centraliserade AI-resurser. Börja till exempel med rollen Läsare i Azure och upphöja till rollen Deltagare i Azure om de begränsade behörigheterna saktar ned programutvecklingen.

  • Använd hanterade identiteter. Använd hanterad identitet på alla Azure-tjänster som stöds. Bevilja åtkomst med minst behörighet till programresurser som behöver åtkomst till AI-modellslutpunkter.

  • Använd just-in-time-åtkomst. Använd privilegierad identitetshantering (PIM) för just-in-time-åtkomst.

Styra AI-åtgärder

AI-driftsstyrning fokuserar på att hantera och underhålla stabila AI-tjänster. Dessa åtgärder stöder långsiktig tillförlitlighet och prestanda. Centraliserade översikts- och kontinuitetsplaner hjälper organisationer att undvika stilleståndstid, vilket säkerställer AI:s konsekventa affärsvärde. Dessa insatser bidrar till effektiv AI-distribution och varaktig driftseffektivitet.

  • Granska och hantera AI-modeller. Utveckla en princip för att hantera modellversioner, särskilt när modeller uppgraderas eller dras tillbaka. Du måste upprätthålla kompatibiliteten med befintliga system och säkerställa en smidig övergång mellan modellversioner.

  • Definiera en plan för affärskontinuitet och haveriberedskap. Upprätta en princip för affärskontinuitet och haveriberedskap för dina AI-slutpunkter och AI-data. Konfigurera haveriberedskap för baslinje för resurser som är värdar för dina AI-modellslutpunkter. Dessa resurser omfattar Azure AI Foundry, Azure Machine Learning, Azure OpenAIeller Azure AI-tjänster. Alla Azure-datalager, till exempel Azure Blob Storage, Azure Cosmos DB och Azure SQL Database, ger vägledning om tillförlitlighet och haveriberedskap som du bör följa.

  • Definiera baslinjemått för AI-resurser. Aktivera rekommenderade aviseringsregler för att ta emot meddelanden om avvikelser som indikerar en minskning av arbetsbelastningens hälsa. Exempel finns i Azure AI Search, Azure Machine Learning, Azure AI Foundry prompt flow deploymentsoch vägledning om enskilda Azure AI-tjänster.

Styra efterlevnad av AI-regler

Regelefterlevnad i AI kräver att organisationer följer branschstandarder och juridiska skyldigheter, vilket minskar riskerna med skulder och skapar förtroende. Efterlevnadsåtgärder hjälper organisationer att undvika påföljder och förbättra trovärdigheten hos kunder och tillsynsmyndigheter. Genom att följa dessa standarder skapas en solid grund för ansvarsfull och kompatibel AI-användning.

  • Automatisera efterlevnad. Använd Microsoft Purview Compliance Manager för att utvärdera och hantera efterlevnad i molnmiljöer. Använd tillämpliga initiativ för regelefterlevnad i Azure Policy för din bransch. Tillämpa andra principer baserat på de AI-tjänster som du använder, till exempel Azure AI Foundry och Azure Machine Learning-.

  • Utveckla branschspecifika checklistor för efterlevnad. Regler och standarder skiljer sig åt beroende på bransch och plats. Du behöver känna till dina regelkrav och kompilera checklistor som återspeglar de regelkrav som är relevanta för din bransch. Använd standarder som ISO/IEC 23053:2022 (Framework for Artificial Intelligence Systems Using Machine Learning) för att granska principer som tillämpas på dina AI-arbetsbelastningar.

Styra AI-data

AI-datastyrning omfattar principer för att säkerställa att data som matas in i AI-modeller är lämpliga, kompatibla och säkra. Datastyrning skyddar sekretess och immateriella rättigheter, vilket förbättrar AI-utdatas tillförlitlighet och kvalitet. Dessa åtgärder bidrar till att minska riskerna med missbruk av data, och de överensstämmer med reglerande och etiska standarder.

  • Upprätta en process för katalogisering av data. Använd ett verktyg som Microsoft Purview för att implementera en enhetlig datakatalog och ett klassificeringssystem i organisationen. Integrera dessa principer i dina CI/CD-pipelines för AI-utveckling.

  • Underhålla datasäkerhetsgränser. Genom att katalogisera data ser du till att du inte matar in känsliga data i offentliga AI-slutpunkter. När du skapar index från vissa datakällor kan indexeringsprocessen ta bort säkerhetsgränserna kring data. Se till att alla data som matas in i AI-modeller klassificeras och granskas enligt centraliserade standarder.

  • Förhindra intrång i upphovsrätten. Använd ett system för innehållsfiltrering som Skyddad materialidentifiering i Azure AI Content Safety för att filtrera bort upphovsrättsskyddat material. Om du har grundat, tränat eller finjusterat en AI-modell ska du se till att du använder lagligt erhållna och korrekt licensierade data och implementerar skydd för att förhindra att modellen gör intrång i upphovsrätten. Granska regelbundet utdata för efterlevnad av immateriella rättigheter.

  • Implementera versionskontroll för jordningsdata. Upprätta en versionskontrollprocess för jordning av data, till exempel i RAG. Versionshantering säkerställer att du kan spåra eventuella ändringar i underliggande data eller dess struktur. Du kan återställa ändringarna om det behövs, vilket bidrar till att upprätthålla konsekvens mellan distributioner.

Gå vidare