Delen via


Ontwerpmethodologie voor AI-workloads in Azure

Het ontwerpen van AI-workloads omvat het integreren van code en gegevens om deterministisch gedrag te vervangen en taken zoals voorspelling, classificatie en andere functionele doelen mogelijk te maken. Ai-workloadarchitectuur is vaak complex en moet worden ontworpen binnen bedrijfsbeperkingen. Het Azure Well-Architected Framework biedt een solide basis voor uitstekende architectuur, maar u moet ook rekening houden met ai-specifieke ontwerpprincipes.

In dit artikel vindt u een voorgestelde ontwerpmethodologie die is gericht op deze AI-principes, die systematisch het ontwerp en de optimalisatie van oplossingen begeleiden. Als u niet zeker weet hoe u beslissingen neemt, raadpleegt u deze methodologie om de ontwerprichting te benadrukken via AI-principes op hoog niveau.

Als u een mogelijkheid ontwerpt of een verbetering introduceert, evalueert u de wijziging vanuit het perspectief van de methodologie. Is de veilige gebruikerservaring beïnvloed? Is het flexibel genoeg om zich aan toekomstige innovaties aan te passen? Zal het de experimentenstroom verstoren? Een ander voordeel van de methodologie is samenwerking met producteigenaren en belanghebbenden om technische beslissingen te rechtvaardigen.

Ontwerpen met een experimentele mindset

Wanneer u ontwerpt met een experimentele mindset, is het doel om relevantie te bereiken via iteratieve en statistische processen op basis van praktijkgebruiksscenario's.

Experimenten in AI omvat continue aanpassingen met meetbare resultaten op basis van kwaliteitsdoelen na elke iteratie. Er is een experimentenlus nodig tijdens de eerste modelevaluatie en doorlopende verfijning. De binnenste lus verfijnt de voorspellende kracht van het model in de ontwikkelomgeving. De buitenste lus bewaakt het productiegebruik en kan verdere verfijning of gegevensvoorbereiding activeren. Beide lussen zijn afhankelijk van continue bewaking en evaluatie om verbeteringen te identificeren.

Niet elk experiment slaagt. Houd rekening met scenario's met slechtste gevallen en hebt u plannen voor onvoorziene gebeurtenissen voor mislukte experimenten.

Op verantwoorde wijze ontwerpen

Wanneer gebruikers met uw AI-systeem communiceren, plaatsen ze hun vertrouwen in de ethische functionaliteit ervan, ondanks de ondoorzichtige logica van AI-modellen. Deze vertrouwensrelatie houdt u verantwoordelijk voor het ontwerpen van het systeem om onethisch gedrag te voorkomen, zoals manipulatie, inhoudsvergiftiging, IP-inbreuk en ge fabriceerde reacties.

Sluit verantwoorde AI in in systeembewerkingen en de cultuur van het team. De procedures moeten gedurende de levenscyclus van gebruikersinteractie worden uitgebreid. Het begint met de eerste intentie van de gebruiker om het systeem te gebruiken, doorloopt sessies en omvat zelfs onderbrekingen die worden veroorzaakt door systeemfouten.

Inhoudsbeheer is een belangrijke strategie in het verantwoorde ontwerp van generatieve AI, waarbij aanvragen en antwoorden in realtime worden geëvalueerd om veiligheid en geschiktheid te garanderen. Als onderdeel van de experimentele lussen streeft u ernaar om algoritmen eerlijk en inclusief te maken om vooroordelen te minimaliseren. Bias kan het systeem binnenkomen tijdens echte sessies of wanneer u feedback verzamelt.

Ethisch gegevensbeheer is centraal in verantwoord ontwerp. Het omvat zorgvuldige beslissingen over het gebruik of voorkomen van vertrouwen op gebruikersgegevens. Gebruikers vertrouwen u erop dat eventuele persoonlijke gegevens worden verwijderd uit het systeem of alleen worden bewaard met hun toestemming. Als retentie onvermijdelijk is, moet u ervoor zorgen dat gegevens worden beveiligd met vertrouwde technologie voor privacy en beveiliging.

Ontwerp voor uitleg

Resultaten van AI-modellen moeten kunnen worden uitgelegd. Ze vereisen rechtvaardiging en tracering van gegevensoorsprongen, deductieprocessen en het traject van gegevens van de bron naar de servicelaag. In discriminerende AI kunt u uw beslissingen met elke stap rechtvaardigen, maar uitlegbaarheid in generatieve modellen kan complex zijn. Het is essentieel om het besluitvormingsproces te documenteren, zowel handmatig als via technische mogelijkheden.

Het doel van dit principe is om de transparantie en verantwoordelijkheid van het systeem te waarborgen om het vertrouwen van de gebruiker te verkrijgen.

Blijf vooruit op modelverval

Modelverval is een unieke uitdaging in AI die aanzienlijk invloed heeft op ontwerpbeslissingen. De kwaliteit van ai-modeluitvoer kan na verloop van tijd verslechteren zonder wijzigingen in de code, soms zelfs plotseling, vanwege wijzigingen in gegevens of externe factoren.

Verslechtering is van invloed op verschillende aspecten van het systeem en omvat:

  • Snelheid van gegevensopname.
  • Gegevenskwaliteit.
  • Bewakingsbehoeften.
  • Evaluatieprocessen.
  • Reactietijden om problemen op te lossen.

We raden vroege detectie aan via een combinatie van geautomatiseerde processen voor continue bewaking en modelevaluatie. Feedback van gebruikers is ook een effectieve methode voor het identificeren van modelverval.

Ongeacht de signalen die worden gebruikt om modelverval te identificeren, moet het operationele team gegevenswetenschappers betrekken om onmiddellijk onderzoek te doen en potentiële vervalproblemen op te lossen.

Ontwerp voor aanpassingsvermogen

Technologische vooruitgang en acceptatie van AI gaan in een snel tempo verder. Houd er rekening mee dat wat u vandaag bouwt, snel verouderd kan zijn en van invloed kan zijn op uw ontwerpbeslissingen en -processen.

Dit principe benadrukt de behoefte aan flexibiliteit en flexibiliteit en herkenning dat sommige onderdelen mogelijk een korte levensduur hebben. Gebruik een onderbreken en denken benadering, waarbij grondig onderzoek naar modeldetectie, programmeerbibliotheken en frameworks en verwerkingstechnologieën essentieel is.

Volgende stap

Meer informatie over ontwerpprincipes voor het bouwen en gebruiken van AI-workloads in Azure.