Vanliga frågor och svar om personanpassning

Den här artikeln innehåller svar på vanliga felsökningsfrågor om personanpassningstjänsten.

Datahemvist för en region

När kommer personanpassningen att bli inaktuell?

Från och med den 20 september 2023 kommer du inte att kunna skapa nya personaliseringsresurser. Personanpassningstjänsten dras tillbaka den 1 oktober 2026.

Hur replikeras mina data i en region med datahemvist i en enda region?

Personanpassning lagrar/bearbetar inte kunddata utanför den region som kunden distribuerar tjänstinstansen i.

Konfigurationsproblem

Jag har ändrat en konfigurationsinställning och nu fungerar inte min loop på samma inlärningsnivå. Vad hände?

Vissa konfigurationsinställningar återställer din modell. Konfigurationsändringar bör planeras och utföras noggrant när du har läst dokumentationen.

När jag konfigurerade Personanpassning med API:et fick jag ett fel. Vad hände?

Om du använder en enda API-begäran för att konfigurera tjänsten och ändra ditt inlärningsbeteende får du ett fel. Du måste göra två separata API-anrop: först för att konfigurera tjänsten och sedan för att ändra inlärningsbeteendet.

Transaktionsfel

Jag får ett HTTP 429-svar (för många begäranden) från tjänsten. Vad ska jag göra?

Om du valde en kostnadsfri prisnivå när du skapade personanpassningsinstansen finns det en kvotgräns för antalet rankningsbegäranden som tillåts. Granska API-anropsfrekvensen för Rank API (i fönstret Mått i Azure-portalen för din Personalizer-resurs) och justera prisnivån (i fönstret Prisnivå) om API-anropsvolymen förväntas öka över tröskelvärdet för den valda nivån.

Jag får ett 5xx-fel på API:er för rangordning eller belöning. Vad ska jag göra?

5xx-fel bör vara tillfälliga problem. Om de fortsätter att inträffa kontaktar du supporten genom att välja Ny supportbegäran i avsnittet Support + felsökning i Azure-portalen för din Personalizer-resurs.

Inlärningsloop

I lärlingsläge uppnår inte inlärningsloopen en 100 %-matchning till principen för icke-personlig (baslinje). Hur åtgärdar jag detta?

Personanpassningens effektivitet i lärlingsläge uppnår sällan nära 100 % av programmets baslinje. och överskrider den aldrig. Bästa praxis skulle inte vara att uppnå 100 procent. men ett intervall på 60% - 80% bör uppnås beroende på användningsfallet. Men om inlärningsprestandan är långsam eller ligger under 60 %, kan följande problem ha uppstått:

  • Det finns inte tillräckligt med funktioner som skickas med Rank API-anrop
  • Buggar i de funktioner som skickas , till exempel att skicka icke-aggregerade funktionsdata, till exempel tidsstämplar till Rank API
  • Buggar med loopbearbetning – till exempel att inte skicka belöningsdata till Reward API för händelser

För att lösa dessa problem kan du behöva göra justeringar genom att antingen ändra de funktioner som skickas till loopen eller se till att belöningspoängen korrekt samlar in värdet för åtgärden som returneras av Rank API-anropet.

Inlärningsloopen verkar inte lära sig effektivt eller snabbt. Hur åtgärdar jag detta?

Inlärningsloopen behöver några tusen Reward-anrop innan Rank-anrop prioriteras effektivt.

Om du är osäker på hur din inlärningsloop för närvarande fungerar kör du en offlineutvärdering och tillämpar den korrigerade inlärningsprincipen.

Jag får rankningsresultat med samma sannolikheter för alla objekt. Hur vet jag att Personalizer lär sig?

Personanpassningen returnerar samma sannolikheter i ett ranknings-API-resultat när den precis har startat och har en tom modell, eller när du återställer Personanpassningsloopen, och din modell fortfarande ligger inom uppdateringsfrekvensperioden för modellen.

När den nya uppdateringsperioden börjar ser du sannolikheterna ändras med det uppdaterade modellresultatet.

Inlärningsloopen lärde sig men verkar inte lära sig längre, och kvaliteten på Rank-resultaten är inte så bra. Vad ska jag göra?

  • Kontrollera att du har slutfört och tillämpat en utvärdering i Azure-portalen för den loopen.
  • Kontrollera att alla belöningar har skickats via Reward-API:et och bearbetats.

Hur vet jag att inlärningsloopen uppdateras regelbundet och används för att poängsätta mina data?

Du hittar den tid då modellen senast uppdaterades på sidan Modell- och inlärningsinställningar i Azure-portalen. Om du ser en gammal tidsstämpel beror det förmodligen på att du inte skickar ranknings- och belöningssamtalen. Om tjänsten inte har några inkommande data uppdateras inte inlärningen. Om du ser att inlärningsloopen inte uppdateras tillräckligt ofta kan du redigera loopens modelluppdateringsfrekvens.

Offlineutvärderingar

En offlineutvärderings funktionsvikt returnerar en lång lista med hundratals eller tusentals objekt. Vad hände?

Detta beror vanligtvis på tidsstämplar, användar-ID eller andra detaljerade funktioner som skickas in.

Jag skapade en offlineutvärdering och det lyckades nästan omedelbart. Varför är den det? Ser jag inga resultat?

Offlineutvärderingen använder den tränade modellen och data från de händelser som skickades till API:erna rankning/belöning under den tidsperioden. Om ditt program inte skickade några data mellan start- och sluttiderna för utvärderingen slutförs det snabbt utan resultat.

Utbildningsprincip

Hur importerar jag en inlärningsprincip?

Läs mer om begrepp för inlärningsprinciper och hur du tillämpar en ny inlärningsprincip. Om du inte vill välja en inlärningsprincip kan du använda offlineutvärderingen för att föreslå en inlärningsprincip baserat på dina aktuella händelser.

Säkerhet

Vilka API-autentiseringsprotokoll stöder Personalizer?

Personanpassnings-API:er använder Microsoft Entra-ID, som stöder en mängd olika autentiserings- och synkroniseringsprotokoll.

API-nyckeln för min loop har komprometterats. Vad ska jag göra?

Du kan återskapa en nyckel när du har bytt klienter för att använda den andra nyckeln. Med två nycklar kan du sprida nyckeln på ett lat sätt utan att behöva ha någon stilleståndstid. Av säkerhetsskäl rekommenderar vi att du gör detta regelbundet.