Ukládání odpovědí na požadavky rozhraní API pro velký jazykový model do mezipaměti

PLATÍ PRO: Všechny úrovně služby API Management

Zásady llm-semantic-cache-store ukládají odpovědi na rozhraní API pro dokončování chatu a požadavky rozhraní API pro dokončování do nakonfigurované externí mezipaměti. Ukládání odpovědí do mezipaměti snižuje požadavky na šířku pásma a zpracování uložené na back-endovém rozhraní Api OpenAI a snižuje latenci vnímanou příjemci rozhraní API.

Poznámka:

Poznámka:

Nastavte prvky zásad a podřízené prvky v pořadí uvedeném v prohlášení o zásadách. Přečtěte si další informace o tom, jak nastavit nebo upravit zásady služby API Management.

Podporované modely

Použijte zásadu s rozhraními LLM API přidanými do služby Azure API Management, které jsou dostupné prostřednictvím rozhraní API pro odvozování modelů Azure AI.

Prohlášení o zásadách

<llm-semantic-cache-store duration="seconds"/>

Atributy

Atribut Popis Požaduje se Výchozí
doba trvání Doba trvání položek uložených v mezipaměti zadaná v sekundách. Výrazy zásad jsou povolené. Yes

Využití

Poznámky k využití

  • Tuto zásadu je možné v oddílu zásad použít jenom jednou.
  • Pokud vyhledávání mezipaměti selže, volání rozhraní API, které používá operaci související s mezipamětí, nevyvolá chybu a operace mezipaměti se úspěšně dokončí.

Příklady

Příklad s odpovídající zásadou llm-sémantic-cache-lookup

<policies>
    <inbound>
        <base />
        <llm-semantic-cache-lookup
            score-threshold="0.05"
            embeddings-backend-id ="llm-backend"
            embeddings-backend-auth ="system-assigned" >
            <vary-by>@(context.Subscription.Id)</vary-by>
        </llm-semantic-cache-lookup>
    </inbound>
    <outbound>
        <llm-semantic-cache-store duration="60" />
        <base />
    </outbound>
</policies>

Další informace o práci se zásadami najdete v tématech: