Dela via


Designmetod för AI-arbetsbelastningar i Azure

Att utforma AI-arbetsbelastningar innebär att integrera kod och data för att ersätta deterministiskt beteende, aktivera uppgifter som förutsägelse, klassificering och andra funktionella mål. AI-arbetsbelastningsarkitektur kan ofta vara komplex och måste utformas inom affärsbegränsningar. Även om Well-Architected Framework ger en solid grund för arkitekturens utmärkthet bör ai-specifika designprinciper också beaktas.

I den här artikeln presenteras en föreslagen designmetod som fokuserar på dessa AI-principer, som systematiskt vägleder design och optimering av lösningar. När du är osäker på beslutsfattandet kan du gå tillbaka till den här metoden för att betona designriktningen genom ai-principer på hög nivå. Om du utformar en funktion eller introducerar en förbättring utvärderar du ändringen från metodperspektivet. Påverkas en säker användarupplevelse? Är det tillräckligt flexibelt för att anpassa sig till framtida innovationer? Kommer det att störa experimenteringsflödet? En annan fördel med metoden är samarbete med produktägare och intressenter för att motivera tekniska beslut.

Designa med ett experimentellt tänkesätt

Designa med ett experimentellt tankesätt mål att uppnå relevans genom iterativa och statistiskt drivna processer baserat på verkliga användningsfall.

Experimentering i AI innebär kontinuerliga justeringar med mätbara resultat mot kvalitetsmål efter varje iteration. En experimenteringsloop krävs under den inledande modellutvärderingen och den pågående förfiningen. Den inre loopen förfinar modellens förutsägelsekraft i utvecklingsmiljön, medan den yttre slingan övervakar produktionsanvändningen och kan utlösa ytterligare förfining eller förberedelse av data. Båda looparna förlitar sig på kontinuerlig övervakning och utvärdering för att identifiera förbättringar.

Alla experiment lyckas inte. Överväg värsta tänkbara scenarier och ha beredskapsplaner för misslyckade experiment.

Utforma ansvarsfullt

När användarna interagerar med ditt AI-system litar de på dess etiska funktioner, trots ai-modellernas ogenomskinliga logik. Det här förtroendet håller dig ansvarig för att utforma systemet för att förhindra oetiska beteenden som manipulation, innehålls toxicitet, IP-intrång och fabricerade svar. Ansvarsfull AI bör inte bara bäddas in i systemdriften utan även i teamets kultur. Metoderna måste utökas under hela livscykeln för användarinteraktion – från användarens ursprungliga avsikt att använda systemet, under sessioner och även under störningar som orsakas av systemfel.

Con tältläge ration är en viktig strategi för ansvarsfull design av generativ AI, där begäranden och svar utvärderas i realtid för att säkerställa säkerhet och lämplighet. Som en del av experimenteringslooparna strävar du efter att göra algoritmer rättvisa och inkluderande för att minimera bias. Bias kan komma in i systemet via olika kanaler, bland annat under faktiska sessioner eller vid insamling av feedback.

Etisk datahantering är centralt för ansvarsfull design, med noggranna beslut om när du ska använda eller undvika att förlita dig på användardata. Användarna litar på att du ser till att personlig information antingen tas bort från systemet eller behålls endast med deras medgivande. Om kvarhållning är oundvikligt bör du se till att data skyddas med betrodd teknik för sekretess och säkerhet.

Design för förklaring

AI-modellresultat måste vara förklarande, vilket kräver motivering och spårning av data ursprung, slutsatsdragningsprocesser och resan av data från källan till serverlagret. I discriminative AI kan beslut motiveras med varje steg, medan förklaring i generativa modeller kan vara komplex. Det är viktigt att dokumentera beslutsprocessen, både manuellt och via tekniska funktioner.

Syftet med den här principen är att säkerställa systemets öppenhet och ansvarsskyldighet för att få användarens förtroende.

Håll dig före modellförfall

Modellförfall är en unik utmaning inom AI som avsevärt påverkar designbeslut. Kvaliteten på AI-modellutdata kan försämras med tiden utan ändringar i koden, ibland till och med plötsligt, på grund av ändringar i data eller externa faktorer.

Denna försämring påverkar olika aspekter av systemet. Detta omfattar datainmatningshastighet, datakvalitet, övervakningsbehov, utvärderingsprocesser och reaktionstider för att åtgärda problem. Tidig identifiering rekommenderas genom en kombination av automatiserade processer för kontinuerlig övervakning och modellutvärdering. Användarfeedback är också en effektiv metod för att identifiera modellförfall.

Oavsett vilka signaler som används för att identifiera modellförfall måste driftteamet engagera dataforskare för att snabbt undersöka och åtgärda potentiella problem med förfall.

Design för anpassningsbarhet

AI utvecklas snabbt när det gäller tekniska framsteg och implementering. Tänk på att det du skapar idag kan bli föråldrat snabbt, vilket påverkar designbeslut och processer.

Den här principen betonar behovet av flexibilitet och flexibilitet och inser att vissa komponenter kan ha en kortare livslängd. Anta en paus-och-tänk-metod där grundlig forskning om modellidentifiering, programmeringsbibliotek och ramverk och bearbetningstekniker är nyckeln.

Gå vidare

Lär dig mer om designprinciper för att skapa och använda AI-arbetsbelastningar i Azure.