Dela via


Vad är Personanpassning?

Viktigt!

Från och med den 20 september 2023 kommer du inte att kunna skapa nya personaliseringsresurser. Personanpassningstjänsten dras tillbaka den 1 oktober 2026.

Azure AI Personalizer är en AI-tjänst som dina program fattar smartare beslut i stor skala med hjälp av förstärkningsinlärning. Personanpassning bearbetar information om tillståndet för ditt program, scenario och/eller användare (kontexter) och en uppsättning möjliga beslut och relaterade attribut (åtgärder) för att fastställa det bästa beslutet att fatta. Feedback från ditt program (belöningar) skickas till Personalizer för att lära dig hur du kan förbättra dess beslutsförmåga i nästan realtid.

Personanpassning kan fastställa de bästa åtgärderna att vidta i en mängd olika scenarier:

  • E-handel: Vilken produkt bör visas för kunderna för att maximera sannolikheten för ett köp?
  • Innehållsrekommendering: Vilken artikel ska visas för att öka klickfrekvensen?
  • Innehållsdesign: Var ska en annons placeras för att optimera användarengagemanget på en webbplats?
  • Kommunikation: När och hur ska ett meddelande skickas för att maximera risken för ett svar?

Kom igång med personanpassningen genom att följa snabbstartsguiden eller prova Personalizer i webbläsaren med den här interaktiva demonstrationen.

Den här dokumentationen innehåller följande typer av artiklar:

  • Snabbstarter innehåller stegvisa instruktioner som vägleder dig genom konfiguration och exempelkod för att börja göra API-begäranden till tjänsten.
  • Instruktionsguider innehåller instruktioner för att använda personanpassningsfunktioner och avancerade funktioner.
  • Kodexempel visar hur du använder Personanpassning och hjälper dig att enkelt interagera med ditt program med tjänsten.
  • Självstudier är längre genomgångar som implementerar Personalizer som en del av en bredare affärslösning.
  • Begrepp ger ytterligare information om personanpassningsfunktioner, funktioner och grunder.

Hur fungerar Personanpassning?

Personanpassning använder förstärkningsinlärning för att välja den bästa åtgärden för en viss kontext för alla användare för att maximera en genomsnittlig belöning.

  • Kontext: Information som beskriver tillståndet för ditt program, scenario eller användare som kan vara relevant för att fatta ett beslut.
    • Exempel: Plats, enhetstyp, ålder och favoritämnen för användare som besöker en webbplats.
  • Åtgärder: En diskret uppsättning objekt som kan väljas, tillsammans med attribut som beskriver varje objekt.
    • Exempel: En uppsättning nyhetsartiklar och de ämnen som beskrivs i varje artikel.
  • Belöning: En numerisk poäng mellan 0 och 1 som anger om beslutet var dåligt (0) eller bra (1)
    • Exempel: "1" anger att en användare klickade på den föreslagna artikeln, medan ett "0" anger att användaren inte gjorde det.

API:er för rangordning och belöning

Med personanpassning kan du dra nytta av kraften och flexibiliteten i förstärkningsinlärning med bara två primära API:er.

Rank-API:et anropas av ditt program varje gång ett beslut ska fattas. Programmet skickar en JSON som innehåller en uppsättning åtgärder, funktioner som beskriver varje åtgärd och funktioner som beskriver den aktuella kontexten. Varje Rank API-anrop kallas för en händelse och noteras med ett unikt händelse-ID. Personanpassning returnerar sedan ID:t för den bästa åtgärden som maximerar den totala genomsnittliga belöningen enligt den underliggande modellen.

Reward-API :et anropas av ditt program när det finns feedback som kan hjälpa personanpassningen att ta reda på om åtgärds-ID:t returnerades i värdet rankningsanrop. Om en användare till exempel klickade på den föreslagna nyhetsartikeln eller slutförde köpet av en föreslagen produkt. Ett anrop till Reward-API:et kan ske i realtid (precis efter att rankningsanropet har gjorts) eller fördröjts för att bättre passa scenariots behov. Belöningspoängen bestäms av dina affärsmått och mål och kan genereras av en algoritm eller regler i ditt program. Poängen är ett verkligt värde mellan 0 och 1.

Inlärningslägen

  • Lärlingsläge Liknar hur en lärling lär sig ett hantverk av att observera en expert, gör lärlingsläget det möjligt för Personanpassning att lära sig genom att observera programmets aktuella beslutslogik. Detta hjälper till att minska det så kallade "kallstart"-problemet med en ny otränad modell och gör att du kan verifiera de åtgärds- och kontextfunktioner som skickas till Personanpassning. I lärlingsläge returnerar varje anrop till ranknings-API:et baslinjeåtgärden eller standardåtgärden som är den åtgärd som programmet skulle ha vidtagit utan att använda Personanpassning. Detta skickas av ditt program till Personanpassning i Rank-API:et som det första objektet i uppsättningen med möjliga åtgärder.

  • Onlinelägesanpassning returnerar den bästa åtgärden, med tanke på kontexten, som bestäms av den underliggande RL-modellen och utforskar andra möjliga åtgärder som kan förbättra prestandan. Personalizer lär sig av feedback som tillhandahålls i anrop till Reward-API:et.

Observera att Personanpassning använder kollektiv information för alla användare för att lära sig de bästa åtgärderna baserat på den aktuella kontexten. Tjänsten gör inte följande:

  • Spara och hantera användarprofilinformation. Unika användar-ID:t ska inte skickas till Personanpassning.
  • Logga enskilda användares inställningar eller historiska data.

Exempelscenarier

Här är några exempel där Personanpassning kan användas för att välja det bästa innehållet att återge för en användare.

Innehållstyp Åtgärder {features} Kontextfunktioner Returnerat åtgärds-ID för belöning
(visa det här innehållet)
Nyhetsartiklar a. The president..., {national, politics, [text]}
b. Premier League ... {global, sport, [text, bild, video]}
c. Hurricane in the ... {regionalt, väder, [text,bild]}
Country='USA',
Recent_Topics=('politics', 'business'),
Month='October'
a The president...
Filmer 1. Star Wars {1977, [action, äventyr, fantasi], George Lucas}
2. Hoop Dreams {1994, [dokumentär, sport], Steve James}
3. Casablanca {1942, [romantik, drama, krig], Michael Curtiz}
Device='smart TV',
Screen_Size='large',
Favorite_Genre='classics'
3. Casablanca
E-handelsprodukter i. Product A {3 kg, $$$$, leverera på 1 dag}
ii. Product B {20 kg, $$, leverera på 7 dagar}
iii. Product C {3 kg, $$$, leverera i 2 dagar}
Device='iPhone',
Spending_Tier='low',
Month='June'
ii. Product B

Scenariokrav

Använd Personanpassning när ditt scenario har:

  • En begränsad uppsättning åtgärder eller objekt att välja mellan i varje anpassningshändelse. Vi rekommenderar högst ~50 åtgärder i varje Rank API-anrop. Om du har en större uppsättning möjliga åtgärder rekommenderar vi att du använder en rekommendationsmotor eller en annan mekanism för att minska listan över åtgärder innan du anropar Rank-API:et.
  • Information som beskriver åtgärderna (åtgärdsfunktioner).
  • Information som beskriver den aktuella kontexten (kontextuella funktioner).
  • Tillräckligt med datavolym för att personaliseraren ska kunna lära sig. I allmänhet rekommenderar vi minst ~1 000 händelser per dag för att personaliseraren ska kunna lära sig effektivt. Om personanpassningen inte tar emot tillräckligt med data tar det längre tid för tjänsten att fastställa de bästa åtgärderna.

Ansvarsfull användning av AI

På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. AI-modeller som de som är tillgängliga i personanpassningstjänsten har betydande potentiella fördelar, men utan noggrann design och tankeväckande åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll. Microsoft har gjort betydande investeringar för att skydda mot missbruk och oavsiktlig skada, införliva Microsofts principer för ansvarsfull AI-användning, skapa innehållsfilter för att stödja kunder och ge ansvarsfull AI-implementeringsvägledning till registrerade kunder. Se dokumentationen om ansvarsfull AI för personanpassning.

Integrera Personanpassning i ett program

  1. Utforma och planera åtgärderna och kontexten. Bestäm hur du tolkar feedback som en belöningspoäng.

  2. Varje personanpassningsresurs som du skapar definieras som en utbildningsslinga. Loopen tar emot både Rank- och Reward-anropen för det innehållet eller användarupplevelsen och tränar en underliggande RL-modell. Det finns

    Resurstyp Syfte
    Lärlingsläge - E0 Träna Personanpassning för att efterlikna din aktuella beslutslogik utan att påverka ditt befintliga program, innan du använder onlineläge för att lära dig bättre principer i en produktionsmiljö.
    Onlineläge – Standard, S0 Personanpassning använder RL för att fastställa de bästa åtgärderna i produktionen.
    Onlineläge – kostnadsfritt, F0 Prova Personanpassning i en begränsad icke-produktionsmiljö.
  3. Lägg till personanpassning i ditt program, din webbplats eller ditt system:

    1. Lägg till ett Rank-anrop till Personanpassning i ditt program, din webbplats eller ditt system för att fastställa den bästa åtgärden.

    2. Använd den bästa åtgärden, enligt vad som anges som ett belöningsåtgärds-ID i ditt scenario.

    3. Använd affärslogik för användarbeteende eller feedbackdata för att fastställa belöningspoängen. Till exempel:

      Funktionssätt Beräknad belöningspoäng
      Användaren valde en nyhetsartikel som föreslogs av Personalizer 1
      Användaren valde en nyhetsartikel som inte föreslogs av Personanpassning 0
      Användaren tvekade att välja en nyhetsartikel, bläddrade runt obeslutsamt och valde slutligen nyhetsartikeln som föreslogs av Personalizer 0.5
    4. Lägg till ett Reward-samtal som skickar en belöningspoäng mellan 0 och 1

      • Omedelbart efter att feedback har tagits emot.
      • Eller någon gång senare i scenarier där fördröjd feedback förväntas.
    5. Utvärdera din loop med en offlineutvärdering efter en tidsperiod då Personanpassning har tagit emot betydande data för att fatta onlinebeslut. Med en offlineutvärdering kan du testa och utvärdera personanpassningstjänstens effektivitet utan kodändringar eller användarpåverkan.

Nästa steg