PropertyId enum
Definiert Spracheigenschaften-IDs.
Felder
SpeechServiceConnection_Key = 0 | Der Cognitive Services Speech Service-Abonnementschlüssel. Wenn Sie eine Absichtserkennung verwenden, müssen Sie den LUIS-Endpunktschlüssel für Ihre jeweilige LUIS-App angeben. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | Der Cognitive Services Speech Service-Endpunkt (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromEndpoint. HINWEIS: Dieser Endpunkt ist nicht mit dem Endpunkt identisch, der zum Abrufen eines Zugriffstokens verwendet wird. |
SpeechServiceConnection_Region = 2 | Die Cognitive Services Speech Service-Region. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | Das Cognitive Services Speech Service-Autorisierungstoken (auch als Zugriffstoken bezeichnet). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | Der Cognitive Services Speech Service-Autorisierungstyp. Derzeit nicht verwendet. |
SpeechServiceConnection_EndpointId = 5 | Die Cognitive Services Speech Service-Endpunkt-ID. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.endpointId. HINWEIS: Die Endpunkt-ID ist im Speech-Portal unter Endpunktdetails aufgeführt. |
SpeechServiceConnection_TranslationToLanguages = 6 | Die Liste der durch Trennzeichen getrennten Sprachen (BCP-47-Format), die als Zielübersetzungssprachen verwendet werden. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | Der Name des Cognitive Service Text to Speech Service Voice. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechTranslationConfig.voiceName. HINWEIS: Gültige Sprachnamen finden Sie hier. |
SpeechServiceConnection_TranslationFeatures = 8 | Übersetzungsfeatures. |
SpeechServiceConnection_IntentRegion = 9 | Die Language Understanding-Dienstregion. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | Der Hostname des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_ProxyPort = 11 | Der Port des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_ProxyUserName = 12 | Der Benutzername des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_ProxyPassword = 13 | Das Kennwort des Proxyservers, der zum Herstellen einer Verbindung mit dem Cognitive Services Speech Service verwendet wird. Nur in Node.js Umgebungen relevant. Sie sollten diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen . In Version 1.4.0 hinzugefügt. |
SpeechServiceConnection_RecoMode = 14 | Der Cognitive Services Speech Service-Erkennungsmodus. Kann "INTERAKTIV", "UNTERHALTUNG", "DIKTATION" sein. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. |
SpeechServiceConnection_RecoLanguage = 15 | Die zu erkennende Gesprochene Sprache (im BCP-47-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | Die Sitzungs-ID. Diese ID ist ein universell eindeutiger Bezeichner (auch als UUID bezeichnet), der eine bestimmte Bindung eines Audioeingabedatenstroms und die zugrunde liegende Spracherkennung instance darstellt, an die er gebunden ist. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | Die zu synthetisierende Sprache (z. B. en-US) |
SpeechServiceConnection_SynthVoice = 18 | Der Name der TTS-Stimme, die für die Sprachsynthese verwendet werden soll |
SpeechServiceConnection_SynthOutputFormat = 19 | Die Zeichenfolge zum Angeben des TTS-Ausgabeaudioformats |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | Die Liste der durch Kommas getrennten Sprachen, die als mögliche Quellsprachen verwendet werden In Version 1.13.0 hinzugefügt |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | Das angeforderte Cognitive Services Speech Service-Antwortausgabeformat (einfach oder detailliert). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | Die angeforderte Ausgabestufe der Cognitive Services Speech Service-Antwort. Derzeit nicht verwendet. |
SpeechServiceResponse_JsonResult = 23 | Die Cognitive Services Speech Service-Antwortausgabe (im JSON-Format). Diese Eigenschaft ist nur für Erkennungsergebnisobjekte verfügbar. |
SpeechServiceResponse_JsonErrorDetails = 24 | Die Cognitive Services Speech Service-Fehlerdetails (im JSON-Format). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | Der Kündigungsgrund. Derzeit nicht verwendet. |
CancellationDetails_ReasonText = 26 | Der Abbruchtext. Derzeit nicht verwendet. |
CancellationDetails_ReasonDetailedText = 27 | Detaillierter Text zur Abbruchabmeldung. Derzeit nicht verwendet. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | Die Language Understanding-Dienstantwortausgabe (im JSON-Format). Verfügbar über IntentRecognitionResult |
SpeechServiceConnection_Url = 29 | Die URL-Zeichenfolge, die aus der Sprachkonfiguration erstellt wurde. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. HINWEIS: In Version 1.7.0 hinzugefügt. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | Der anfängliche Stille-Timeoutwert (in Millisekunden), der vom Dienst verwendet wird. Hinzugefügt in Version 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | Der vom Dienst verwendete End Silence-Timeoutwert (in Millisekunden). Hinzugefügt in Version 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Eine In Millisekunden gemessene Dauer der erkannten Stille, nach der die Spracherkennung bestimmt, dass ein gesprochener Ausdruck beendet wurde und ein endgültiges erkanntes Ergebnis generiert wird. Das Konfigurieren dieses Timeouts kann in Situationen hilfreich sein, in denen gesprochene Eingaben wesentlich schneller oder langsamer als üblich sind und das Standardsegmentierungsverhalten konsistent zu zu langen oder zu kurzen Ergebnissen führt. Segmentierungstimeoutwerte, die unangemessen hoch oder niedrig sind, können sich negativ auf die Spracherkennungsgenauigkeit auswirken. Diese Eigenschaft sollte sorgfältig konfiguriert werden, und das resultierende Verhalten sollte wie vorgesehen gründlich überprüft werden. Weitere Informationen zur Konfiguration von Timeouts, die eine Erläuterung des Standardverhaltens enthalten, finden Sie unter https://aka.ms/csspeech/timeouts. In Version 1.21.0 hinzugefügt. |
SpeechServiceConnection_EnableAudioLogging = 33 | Ein boolescher Wert, der angibt, ob die Audioprotokollierung im Dienst aktiviert ist oder nicht. Audio- und Inhaltsprotokolle werden entweder im Microsoft-eigenen Speicher oder in Ihrem eigenen Speicherkonto gespeichert, das mit Ihrem Cognitive Services-Abonnement (Bring Your Own Storage, BYOS) verknüpft ist. Die Protokolle werden nach 30 Tagen entfernt. Hinzugefügt in Version 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 34 | Der Spracherkennungsmodus für die Spracherkennung des Sprachdiensts. Kann "AtStart" (Standard) oder "Continuous" sein. Weitere Informationen finden Sie im Dokument https://aka.ms/speech/lid?pivots=programming-language-javascript zur Sprachidentifikation. In 1.25.0 hinzugefügt |
SpeechServiceConnection_RecognitionEndpointVersion = 35 | Ein Zeichenfolgenwert, der die gewünschte Endpunktversion für die Spracherkennung darstellt. Hinzugefügt in Version 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 36 | /**
|
SpeechServiceResponse_ProfanityOption = 37 | Die angeforderte Einstellung für die Ausgabe der Cognitive Services Speech Service-Antwort. Zulässige Werte sind "masked", "removed" und "raw". In Version 1.7.0 hinzugefügt. |
SpeechServiceResponse_PostProcessingOption = 38 | Ein Zeichenfolgenwert, der angibt, welche Nachverarbeitungsoption vom Dienst verwendet werden soll. Zulässige Werte sind "TrueText". Hinzugefügt in Version 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 39 | Ein boolescher Wert, der angibt, ob Zeitstempel auf Wortebene in das Antwortergebnis eingeschlossen werden sollen. Hinzugefügt in Version 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 40 | Die Häufigkeit, mit der ein Wort in Teilergebnissen zurückgegeben werden muss. Hinzugefügt in Version 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 41 | Ein Zeichenfolgenwert, der die Ausgabeformatoption im Antwortergebnis angibt. Nur zur internen Verwendung. In Version 1.7.0 hinzugefügt. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 42 | Ein boolescher Wert, der die Stabilisierung von Übersetzungsteilergebnissen anfordern soll, indem wörter am Ende weggelassen werden. In Version 1.7.0 hinzugefügt. |
SpeechServiceResponse_RequestWordBoundary = 43 | Ein boolescher Wert, der angibt, ob WordBoundary-Ereignisse anzufordern sind. |
SpeechServiceResponse_RequestPunctuationBoundary = 44 | Ein boolescher Wert, der angibt, ob die Interpunktionsgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "true". |
SpeechServiceResponse_RequestSentenceBoundary = 45 | Ein boolescher Wert, der angibt, ob die Satzgrenze in WordBoundary-Ereignissen anzufordern ist. Der Standardwert ist "false". |
Conversation_ApplicationId = 46 | Bezeichner, der zum Herstellen einer Verbindung mit dem Back-End-Dienst verwendet wird. |
Conversation_DialogType = 47 | Typ des Dialog-Back-Ends, mit dem eine Verbindung hergestellt werden soll. |
Conversation_Initial_Silence_Timeout = 48 | Timeout für Stille beim Lauschen |
Conversation_From_Id = 49 | Von id zum Hinzufügen zu Spracherkennungsaktivitäten. |
Conversation_Conversation_Id = 50 | ConversationId für die Sitzung. |
Conversation_Custom_Voice_Deployment_Ids = 51 | Durch Kommas getrennte Liste der benutzerdefinierten Sprachbereitstellungs-IDs. |
Conversation_Speech_Activity_Template = 52 | Vorlage für Sprachaktivität, Stempeleigenschaften aus der Vorlage für die aktivität, die vom Dienst für Sprache generiert wurde. |
Conversation_Request_Bot_Status_Messages = 53 | Aktiviert oder deaktiviert den Empfang von Turn status Nachrichten, die für das turnStatusReceived-Ereignis abgerufen wurden. |
Conversation_Agent_Connection_Id = 54 | Gibt die Verbindungs-ID an, die in der Agentkonfigurationsnachricht angegeben werden soll, z. B. ein Direct Line Token für die Kanalauthentifizierung. In Version 1.15.1 hinzugefügt. |
SpeechServiceConnection_Host = 55 | Der Cognitive Services Speech Service-Host (URL). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. Verwenden Sie stattdessen SpeechConfig.fromHost. |
ConversationTranslator_Host = 56 | Legen Sie den Host für Dienstaufrufe auf die REST-Verwaltung von Konversationsübersetzungen und Websocketaufrufe fest. |
ConversationTranslator_Name = 57 | Legen Sie optional den Anzeigenamen des Hosts fest. Wird beim Beitreten zu einer Unterhaltung verwendet. |
ConversationTranslator_CorrelationId = 58 | Legen Sie optional einen Wert für den X-CorrelationId-Anforderungsheader fest. Wird zur Problembehandlung von Fehlern in den Serverprotokollen verwendet. Es sollte eine gültige GUID sein. |
ConversationTranslator_Token = 59 | Legen Sie das Konversationstoken fest, das an den Sprachdienst gesendet werden soll. Dadurch kann der Dienst vom Sprachdienst an den Konversationsübersetzungsdienst aufrufen, um Erkennungen weiterzuübertragen. Für die interne Verwendung. |
PronunciationAssessment_ReferenceText = 60 | Der Referenztext des Audiosignals für die Ausspracheauswertung. Ausführliche Informationen zu diesem und den folgenden Aussprachebewertungsparametern finden Sie unter https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters . Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In Version 1.15.0 hinzugefügt |
PronunciationAssessment_GradingSystem = 61 | Das Punktsystem für die Aussprachebewertungskalibrierung (FivePoint oder HundredMark). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In Version 1.15.0 hinzugefügt |
PronunciationAssessment_Granularity = 62 | Die Granularität der Ausspracheauswertung (Phoneme, Word oder FullText). Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In Version 1.15.0 hinzugefügt |
PronunciationAssessment_EnableMiscue = 63 | Definiert, ob fehlgeleitete Berechnung aktiviert wird. Wenn diese Option aktiviert ist, werden die ausgesprochenen Wörter mit dem Referenztext verglichen und auf der Grundlage des Vergleichs mit Auslassung/Einfügung gekennzeichnet. Die Standardeinstellung lautet Falsch. Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In Version 1.15.0 hinzugefügt |
PronunciationAssessment_Json = 64 | Die JSON-Zeichenfolge der Aussprachebewertungsparameter Unter normalen Umständen sollten Sie diese Eigenschaft nicht direkt verwenden müssen. In Version 1.15.0 hinzugefügt |
PronunciationAssessment_Params = 65 | Aussprachebewertungsparameter. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. In Version 1.15.0 hinzugefügt |
SpeakerRecognition_Api_Version = 66 | Version der zu verwendenden Sprechererkennungs-API. In Version 1.18.0 hinzugefügt |
WebWorkerLoadType = 67 | Gibt an, ob das Laden der Daten-URL für web worker zulässige Werte "off" und "on" sind. Der Standardwert ist "on". In Version 1.32.0 hinzugefügt |
TalkingAvatarService_WebRTC_SDP = 68 | WebRTC-Sitzungsbeschreibungsprotokoll für den Sprechen des Avatardiensts. Diese Eigenschaft soll schreibgeschützt sein. Das SDK verwendet es intern. In Version 1.33.0 hinzugefügt |