Anleitung zum Protokollieren von Audio- und Transkriptionen für die Spracherkennung
Sie können die Protokollierung sowohl für Audioeingabe als auch für die erkannte Sprache aktivieren, wenn Sie Spracherkennung oder Sprachübersetzung verwenden. Bei der Sprachübersetzung werden nur die Audio und Transkription des ursprünglichen Audios protokolliert. Die Übersetzungen werden nicht protokolliert. In diesem Artikel wird beschrieben, wie Sie die Audio- und Transkriptionsprotokolle aktivieren, darauf zugreifen und sie löschen.
Audio- und Transkriptionsprotokolle können als Eingabe für zum Trainieren des Custom Speech-Modells verwendet werden. Möglicherweise haben Sie andere Anwendungsfälle.
Warnung
Machen Sie sich nicht abhängig von Audio- und Transkriptionsprotokollen, wenn die genaue Aufzeichnung der Audioeingabe erforderlich ist. Während Spitzenlasten priorisiert der Dienst Hardwareressourcen für Transkriptionsaufgaben. Das kann dazu führen, dass kleinere Teile des Audios nicht protokolliert werden. Das ist zwar selten, aber dennoch möglich.
Die Protokollierung erfolgt asynchron sowohl für grundlegende als auch benutzerdefinierte Modellendpunkte. Der Sprachdienst speichert Audio- und Transkriptionsprotokolle im internen Speicher und nicht lokal. Die Protokolle werden 30 Tage aufbewahrt. Nach diesem Zeitraum werden die Protokolle automatisch gelöscht. Sie können jedoch bestimmte Protokolle oder eine Reihe verfügbarer Protokolle jederzeit löschen.
Sie können Audio- und Transkriptionsprotokolle auch in einem Azure Storage-Konto speichern, das Sie besitzen und steuern, anstatt die lokale Spracherkennung mithilfe der BYOS (Bring-Your-Own-Storage) Technologie zu verwenden. Ausführliche Informationen zur Verwendung der BYOS-fähigen Speech-Ressource finden Sie in diesem Artikel.
Aktivieren der Audio- und Transkriptionsprotokollierung
Die Protokollierung ist standardmäßig deaktiviert. Die Protokollierung kann pro Erkennungssitzung oder pro benutzerdefiniertem Modellendpunkt aktiviert werden.
Aktivieren der Protokollierung für eine einzelne Erkennungssitzung
Sie können die Protokollierung für eine einzelne Erkennungssitzung aktivieren, unabhängig davon, ob sie den Endpunkt des Standardbasismodells oder des benutzerdefinierten Modells verwenden.
Warnung
Bei benutzerdefinierten Modellendpunkten wird die Protokollierungseinstellung Ihres bereitgestellten Endpunkts gegenüber Ihrer Einstellung auf Sitzungsebene (SDK oder REST-API) priorisiert. Wenn die Protokollierung für den Endpunkt des benutzerdefinierten Modells aktiviert ist, wird die Einstellung auf Sitzungsebene ignoriert (unabhängig davon, ob sie auf true oder false festgelegt ist). Wenn die Protokollierung für den benutzerdefinierten Modellendpunkt nicht aktiviert ist, bestimmt die Einstellung auf Sitzungsebene, ob die Protokollierung aktiv ist.
Aktivieren der Protokollierung für Spracherkennung mit dem Speech-SDK
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode EnableAudioLogging()
der SpeechConfig-Klasseninstanz aus.
speechConfig.EnableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
string isAudioLoggingEnabled = speechConfig.GetProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem SpeechRecognizer, der diese speechConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode EnableAudioLogging
der SpeechConfig-Klasseninstanz aus.
speechConfig->EnableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
Eigenschaft ab:
string isAudioLoggingEnabled = speechConfig->GetProperty(PropertyId::SpeechServiceConnection_EnableAudioLogging);
Bei jedem SpeechRecognizer, der diese speechConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging()
der SpeechConfig-Klasseninstanz aus.
speechConfig.enableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
String isAudioLoggingEnabled = speechConfig.getProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem SpeechRecognizer, der diese speechConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging()
der SpeechConfig-Klasseninstanz aus.
speechConfig.enableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
var SpeechSDK;
SpeechSDK = speechSdk;
// <...>
string isAudioLoggingEnabled = speechConfig.getProperty(SpeechSDK.PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem SpeechRecognizer, der diese speechConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enable_audio_logging
der SpeechConfig-Klasseninstanz aus.
speech_config.enable_audio_logging()
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
import azure.cognitiveservices.speech as speechsdk
# <...>
is_audio_logging_enabled = speech_config.get_property(property_id=speechsdk.PropertyId.SpeechServiceConnection_EnableAudioLogging)
Bei jedem SpeechRecognizer, der diese speech_config
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging
der SPXSpeechConfiguration-Klasseninstanz aus.
[speechConfig enableAudioLogging];
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SPXSpeechServiceConnectionEnableAudioLogging
-Eigenschaft ab:
NSString *isAudioLoggingEnabled = [speechConfig getPropertyById:SPXSpeechServiceConnectionEnableAudioLogging];
Bei jedem SpeechRecognizer, der diese speechConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Aktivieren der Protokollierung für Sprachübersetzung mit dem Speech SDK
Bei der Sprachübersetzung werden nur die Audio und Transkription des ursprünglichen Audios protokolliert. Die Übersetzungen werden nicht protokolliert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode EnableAudioLogging()
der SpeechTranslationConfig-Klasseninstanz aus.
speechTranslationConfig.EnableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
string isAudioLoggingEnabled = speechTranslationConfig.GetProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem TranslationRecognizer, der diese speechTranslationConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode EnableAudioLogging
der SpeechTranslationConfig-Klasseninstanz aus.
speechTranslationConfig->EnableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
Eigenschaft ab:
string isAudioLoggingEnabled = speechTranslationConfig->GetProperty(PropertyId::SpeechServiceConnection_EnableAudioLogging);
Bei jedem TranslationRecognizer, der diese speechTranslationConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging()
der SpeechTranslationConfig-Klasseninstanz aus.
speechTranslationConfig.enableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
String isAudioLoggingEnabled = speechTranslationConfig.getProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem TranslationRecognizer, der diese speechTranslationConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging()
der SpeechTranslationConfig-Klasseninstanz aus.
speechTranslationConfig.enableAudioLogging();
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
var SpeechSDK;
SpeechSDK = speechSdk;
// <...>
string isAudioLoggingEnabled = speechTranslationConfig.getProperty(SpeechSDK.PropertyId.SpeechServiceConnection_EnableAudioLogging);
Bei jedem TranslationRecognizer, der diese speechTranslationConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enable_audio_logging
der SpeechTranslationConfig-Klasseninstanz aus.
speech_translation_config.enable_audio_logging()
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SpeechServiceConnection_EnableAudioLogging
-Eigenschaft ab:
import azure.cognitiveservices.speech as speechsdk
# <...>
is_audio_logging_enabled = speech_translation_config.get_property(property_id=speechsdk.PropertyId.SpeechServiceConnection_EnableAudioLogging)
Bei jedem TranslationRecognizer, der diese speech_translation_config
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Um die Audio- und Transkriptionsprotokollierung mit dem Speech SDK zu aktivieren, führen Sie die Methode enableAudioLogging
der SPXSpeechTranslationConfiguration-Klasseninstanz aus.
[speechTranslationConfig enableAudioLogging];
Um zu überprüfen, ob die Protokollierung aktiviert ist, rufen Sie den Wert der SPXSpeechServiceConnectionEnableAudioLogging
-Eigenschaft ab:
NSString *isAudioLoggingEnabled = [speechTranslationConfig getPropertyById:SPXSpeechServiceConnectionEnableAudioLogging];
Bei jedem TranslationRecognizer, der diese speechTranslationConfig
verwendet, ist die Audio- und Transkriptionsprotokollierung aktiviert.
Aktivieren der Protokollierung für die Spracherkennung-REST-API für kurze Audiodateien
Wenn Sie die Spracherkennung-REST-API für kurze Audiodateien verwenden und die Audio- und Transkriptionsprotokollierung aktivieren möchten, müssen Sie den Abfrageparameter und den Wert storeAudio=true
als Teil Ihrer REST-Anforderung verwenden. Eine beispielhafte Anforderung sieht wie folgt aus:
https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?language=en-US&storeAudio=true
Aktivieren der Audio- und Transkriptionsprotokollierung für einen benutzerdefinierten Modellendpunkt
Diese Methode gilt nur für Custom Speech-Endpunkte.
Die Protokollierung kann in den Endpunkteinstellungen des persistenten benutzerdefinierten Modells aktiviert oder deaktiviert werden. Wenn die Protokollierung für einen benutzerdefinierten Modellendpunkt aktiviert ist, müssen Sie die Protokollierung nicht auf der Erkennungssitzungsebene mit dem SDK oder der REST-API aktivieren. Selbst wenn die Protokollierung für einen benutzerdefinierten Modellendpunkt nicht aktiviert ist, können Sie die Protokollierung vorübergehend auf Erkennungssitzungsebene mit dem SDK oder der REST-API aktivieren.
Warnung
Bei benutzerdefinierten Modellendpunkten wird die Protokollierungseinstellung Ihres bereitgestellten Endpunkts gegenüber Ihrer Einstellung auf Sitzungsebene (SDK oder REST-API) priorisiert. Wenn die Protokollierung für den Endpunkt des benutzerdefinierten Modells aktiviert ist, wird die Einstellung auf Sitzungsebene ignoriert (unabhängig davon, ob sie auf true oder false festgelegt ist). Wenn die Protokollierung für den benutzerdefinierten Modellendpunkt nicht aktiviert ist, bestimmt die Einstellung auf Sitzungsebene, ob die Protokollierung aktiv ist.
Sie können die Audio- und Transkriptionsprotokollierung für einen benutzerdefinierten Modellendpunkt aktivieren:
- Wenn Sie den Endpunkt mithilfe von Speech Studio, der REST-API oder der Speech CLI erstellen. Ausführliche Informationen zum Aktivieren der Protokollierung für einen Custom Speech-Endpunkt finden Sie unter Bereitstellen eines Custom Speech-Modells.
- Wenn Sie den Endpunkt (Endpoints_Update) mithilfe der Spracherkennung-REST-API aktualisieren. Ein Beispiel für die Aktualisierung der Protokollierungseinstellung für einen Endpunkt finden Sie unter Deaktivieren der Protokollierung für einen benutzerdefinierten Modellendpunkt. Legen Sie die
contentLoggingEnabled
-Eigenschaft jedoch nicht auffalse
fest, sondern auftrue
, um die Protokollierung für den Endpunkt zu aktivieren.
Deaktivieren der Protokollierung für einen benutzerdefinierten Modellendpunkt
Um die Audio- und Transkriptionsprotokollierung für einen benutzerdefinierten Modellendpunkt zu deaktivieren, müssen Sie die Protokollierungseinstellung für persistente Endpunkte mithilfe der Spracherkennung-REST-API aktualisieren. Es gibt keine Möglichkeit, die Protokollierung für einen vorhandenen Endpunkt eines benutzerdefinierten Modells mithilfe von Speech Studio zu deaktivieren.
Um die Protokollierung für einen benutzerdefinierten Endpunkt zu deaktivieren, verwenden Sie den Endpoints_Update-Vorgang der Spracherkennung-REST-API. Erstellen Sie den Anforderungstext gemäß den folgenden Anweisungen:
- Legen Sie die Eigenschaft
contentLoggingEnabled
innerhalb vonproperties
fest. Legen Sie diese Eigenschaft auftrue
fest, um die Protokollierung des Datenverkehrs des Endpunkts zu aktivieren. Legen Sie diese Eigenschaft auffalse
fest, um die Protokollierung des Datenverkehrs des Endpunkts zu deaktivieren.
Erstellen Sie eine HTTP PATCH-Anforderung mithilfe des URI, wie im folgenden Beispiel gezeigt. Ersetzen Sie YourSubscriptionKey
durch den Schlüssel Ihrer Speech-Ressource, YourServiceRegion
durch die Region Ihrer Speech-Ressource, YourEndpointId
durch die ID Ihres Endpunktes, und legen Sie die Anforderungstexteigenschaften wie zuvor beschrieben fest.
curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
"properties": {
"contentLoggingEnabled": false
},
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"
Sie sollten einen Antworttext im folgenden Format erhalten:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": false
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Der Antworttext sollte die neue Einstellung widerspiegeln. Der Name der Protokollierungseigenschaft in der Antwort (loggingEnabled
) unterscheidet sich vom Namen der Protokollierungseigenschaft, die Sie in der Anforderung (contentLoggingEnabled
) festgelegt haben.
Abrufen von Audio- und Transkriptionsprotokollen
Sie können mit der Spracherkennung-REST-API auf Audio- und Transkriptionsprotokolle zugreifen. Für benutzerdefinierte Modell-Endpunkte können Sie auch Speech Studio verwenden. Weitere Details finden Sie in den folgenden Abschnitten.
Hinweis
Protokollierungsdaten werden 30 Tage lang aufbewahrt. Nach diesem Zeitraum werden die Protokolle automatisch gelöscht. Sie können jedoch bestimmte Protokolle oder eine Reihe verfügbarer Protokolle jederzeit löschen.
Abrufen von Audio- und Transkriptionsprotokollen mit Speech Studio
Diese Methode gilt nur für benutzerdefinierte Modell-Endpunkte.
So laden Sie die Endpunktprotokolle herunter:
- Melden Sie sich in Speech Studio an.
- Wählen Sie Custom Speech> Ihr Projektname >Modelle bereitstellen aus.
- Wählen Sie den Link nach dem Namen des Endpunkts aus.
- Wählen Sie unter Inhaltsprotokollierung die Option Protokoll herunterladen aus.
Mit diesem Ansatz können Sie alle verfügbaren Protokollsätze gleichzeitig herunterladen. Es gibt keine Möglichkeit, ausgewählte Protokollsätze in Speech Studio herunterzuladen.
Abrufen von Audio- und Transkriptionsprotokollen mit der Spracherkennung-REST-API
Sie können alle oder eine Teilmenge der verfügbaren Protokollsätze herunterladen.
Diese Methode gilt nur für grundlegende und benutzerdefinierte Modell-Endpunkte. So listen Sie Audio- und Transkriptionsprotokolle auf und laden sie herunter:
- Basismodelle: Verwenden Sie den Endpoints_ListBaseModelLogs-Vorgang der Spracherkennung-REST-API. Dieser Vorgang ruft die Liste der Audio- und Transkriptionsprotokolle ab, die bei Verwendung des Standardbasismodells einer bestimmten Sprache gespeichert werden.
- Benutzerdefinierte Modellendpunkte: Verwenden Sie den Endpoints_ListLogs-Vorgang der Spracherkennung-REST-API. Dieser Vorgang ruft die Liste der Audio- und Transkriptionsprotokolle ab, die für einen bestimmten Endpunkt gespeichert werden.
Abrufen von Protokoll-IDs mit der Spracherkennung-REST-API
In einigen Szenarien müssen Sie möglicherweise IDs der verfügbaren Protokolle abrufen. Das kann der Fall sein, wenn Sie ein bestimmtes Protokoll löschen möchten, wie weiter unten in diesem Artikel beschrieben.
So rufen Sie IDs der verfügbaren Protokolle ab:
- Basismodelle: Verwenden Sie den Endpoints_ListBaseModelLogs-Vorgang der Spracherkennung-REST-API. Dieser Vorgang ruft die Liste der Audio- und Transkriptionsprotokolle ab, die bei Verwendung des Standardbasismodells einer bestimmten Sprache gespeichert werden.
- Benutzerdefinierte Modellendpunkte: Verwenden Sie den Endpoints_ListLogs-Vorgang der Spracherkennung-REST-API. Dieser Vorgang ruft die Liste der Audio- und Transkriptionsprotokolle ab, die für einen bestimmten Endpunkt gespeichert werden.
Dies ist eine Beispielausgabe von Endpoints_ListLogs. Der Einfachheit halber wird nur ein Protokollsatz angezeigt:
{
"values": [
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json",
"name": "163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9.v2.json",
"kind": "Transcription",
"properties": {
"size": 79920
},
"createdDateTime": "2024-07-15T16:29:36Z",
"links": {
"contentUrl": "<Link to download log file>"
}
},
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_wav",
"name": "163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9.wav",
"kind": "Audio",
"properties": {
"size": 932966
},
"createdDateTime": "2024-07-15T16:29:36Z",
"links": {
"contentUrl": "<Link to download log file>"
}
}
]
}
Die Speicherorte jeder Audio- und Transkriptionsprotokolldatei werden im Antworttext zurückgegeben. Sehen Sie sich die entsprechende kind
-Eigenschaft an, um zu bestimmen, ob die Datei das Audio ("kind": "Audio"
) oder die Transkription ("kind": "Transcription"
) enthält.
Die Protokoll-ID für jede Protokolldatei ist der letzte Teil der URL im Elementwert "self"
. Im folgenden Beispiel lautet die Protokoll-ID 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json
.
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json"
Löschen von Audio- und Transkriptionsprotokollen
Protokollierungsdaten werden 30 Tage lang aufbewahrt. Nach diesem Zeitraum werden die Protokolle automatisch gelöscht. Sie können jedoch bestimmte Protokolle oder eine Reihe verfügbarer Protokolle jederzeit löschen.
Für jeden grundlegenden oder benutzerdefinierten Modell-Endpunkt können Sie alle verfügbaren Protokolle, Protokolle für einen bestimmten Zeitraum oder ein bestimmtes Protokoll basierend auf seiner Protokoll-ID löschen. Der Löschvorgang erfolgt asynchron und kann je nach Anzahl der Protokolldateien Minuten, Stunden, einen Tag oder länger dauern.
Zum Löschen von Audio- und Transkriptionsprotokollen müssen Sie die Spracherkennung-REST-API verwenden. Es gibt keine Möglichkeit, Protokolle mithilfe von Speech Studio zu löschen.
Löschen aller Protokolle oder der Protokolle für einen bestimmten Zeitraum
So löschen Sie alle Protokolle oder Protokolle für einen bestimmten Zeitraum:
- Basismodelle: Verwenden Sie den Endpoints_DeleteBaseModelLogs-Vorgang der Spracherkennung-REST-API.
- Benutzerdefinierte Modellendpunkte: Verwenden Sie den Endpoints_DeleteLogs-Vorgang der Spracherkennung-REST-API.
Optional können Sie das endDate
der Löschung der Audioprotokolle (bestimmter Tag, UTC) festlegen. Erwartetes Format: „jjjj-mm-tt“. So führt beispielsweise „2023-03-15“ dazu, dass alle Protokolle am 15. März 2023 und früher gelöscht werden.
Löschen eines bestimmten Protokolls
So löschen Sie ein bestimmtes Protokoll anhand seiner ID:
- Basismodelle: Verwenden Sie den Endpoints_DeleteBaseModelLog-Vorgang der Spracherkennung-REST-API.
- Benutzerdefinierte Modellendpunkte: Verwenden Sie den Endpoints_DeleteLog-Vorgang der Spracherkennung-REST-API.
Details zum Abrufen von Protokoll-IDs finden Sie im vorherigen Abschnitt Abrufen von Protokoll-IDs mit der Spracherkennung-REST-API.
Da Audio- und Transkriptionsprotokolle über separate IDs (z. B. die IDs 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json
und 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_wav
aus einem früheren Beispiel in diesem Artikel) verfügen, sollten Sie beim Löschen von Audio- und Transkriptionsprotokollen separate delete (nach ID)-Vorgänge ausführen.