Ausgeben von Metriken für den Verbrauch großer Sprachmodelltoken

GILT FÜR: Alle API Management-Ebenen

Die Richtlinie llm-emit-token-metric sendet Metriken an Application Insights über den Verbrauch von Token großer Sprachmodelle (LLMs) über LLM-APIs. Zu den Metriken für die Tokenanzahl gehören: Gesamttoken, Eingabeaufforderungstoken und Abschlusstoken.

Hinweis

Derzeit befindet sich diese Richtlinie in der Vorschau.

Hinweis

Legen Sie die Elemente und untergeordneten Elemente einer Richtlinie in der Reihenfolge fest, die in der Richtlinienanweisung angegeben ist. Erfahren Sie mehr darüber, wie Sie API Management-Richtlinien festlegen oder bearbeiten.

Unterstützte Modelle

Verwenden Sie die Richtlinie mit LLM-APIs, die Azure API Management hinzugefügt wurden und über die Azure KI-Modellinferenz-API verfügbar sind.

Voraussetzungen

Richtlinienanweisung

<llm-emit-token-metric
        namespace="metric namespace" >      
        <dimension name="dimension name" value="dimension value" />
        ...additional dimensions...
</llm-emit-token-metric>

Attribute

Attribut BESCHREIBUNG Erforderlich Standardwert
Namespace Eine Zeichenfolge. Namespace der Metrik Richtlinienausdrücke sind nicht zulässig. Nein API Management
value Der Wert der Metrik, ausgedrückt als Double Richtlinienausdrücke sind zulässig. Nein 1

Elemente

Element BESCHREIBUNG Erforderlich
Dimension Fügen Sie mindestens eines dieser Elemente für jede Dimension hinzu, die in der Metrik enthalten ist. Ja

Dimensionsattribute

attribute BESCHREIBUNG Erforderlich Standardwert
name Eine Zeichenfolge oder ein Richtlinienausdruck. Der Name der Dimension. Ja
value Eine Zeichenfolge oder ein Richtlinienausdruck. Der Wert der Dimension. Kann nur ausgelassen werden, wenn name mit einer der Standarddimensionen übereinstimmt. In diesem Fall wird der Wert gemäß Dimensionsname bereitgestellt. Nein

Namen von Standarddimensionen, die ohne Wert verwendet werden können

  • API-ID
  • Vorgangs-ID
  • Product ID
  • Benutzer-ID
  • Abonnement-ID
  • Location
  • Gateway-ID

Verbrauch

Hinweise zur Verwendung

  • Diese Richtlinie kann pro Richtliniendefinition mehrmals verwendet werden.
  • Sie können maximal 10 benutzerdefinierte Dimensionen für diese Richtlinie konfigurieren.
  • Falls verfügbar, werden Werte im Verwendungsbereich der Antwort aus der LLM-API verwendet, um Tokenmetriken zu bestimmen.
  • Bestimmte LLM-Endpunkte unterstützen das Streaming von Antworten. Wenn stream in der API-Anforderung zum Aktivieren des Streamings auf true festgelegt ist, werden Tokenmetriken geschätzt.

Beispiel

Im folgenden Beispiel werden die Metriken der LLM-Tokenanzahl zusammen mit der Benutzer-ID, der Client-IP und der API-ID als Dimensionen an Application Insights gesendet.

<policies>
  <inbound>
      <llm-emit-token-metric
            namespace="MyLLM">   
            <dimension name="User ID" />
            <dimension name="Client IP" value="@(context.Request.IpAddress)" />
            <dimension name="API ID" />
        </llm-emit-token-metric> 
  </inbound>
  <outbound>
  </outbound>
</policies>

Weitere Informationen zum Arbeiten mit Richtlinien finden Sie hier: