SpeechServiceConnection_Key |
Chiave di sottoscrizione del servizio voce servizi cognitivi. Se si usa un riconoscimento finalità, è necessario specificare la chiave dell'endpoint LUIS per l'app LUIS specifica. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Endpoint del servizio voce servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromEndpoint. NOTA: questo endpoint non è uguale all'endpoint usato per ottenere un token di accesso. |
SpeechServiceConnection_Region |
Area del servizio Di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Token di autorizzazione del servizio voce di Servizi cognitivi (noto anche come token di accesso). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Tipo di autorizzazione del servizio Voce di Servizi cognitivi. Attualmente inutilizzato. |
SpeechServiceConnection_EndpointId |
ID endpoint servizio vocale personalizzato o voce personalizzata di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetEndpointId. NOTA: l'ID endpoint è disponibile nel portale di riconoscimento vocale personalizzato, elencato in Dettagli endpoint. |
SpeechServiceConnection_Host |
Host (URL) del servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nome host del server proxy usato per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyPort |
Porta del server proxy usata per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nome utente del server proxy usato per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Password del server proxy usato per connettersi al servizio Di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0. |
SpeechServiceConnection_Url |
Stringa URL creata dalla configurazione del riconoscimento vocale. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. NOTA: aggiunta nella versione 1.5.0. |
SpeechServiceConnection_TranslationToLanguages |
Elenco di lingue separate da virgole utilizzate come lingue di traduzione di destinazione. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nome della voce del servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::SetVoiceName. NOTA: i nomi di voce validi sono disponibili qui. |
SpeechServiceConnection_TranslationFeatures |
Funzionalità di traduzione. Per uso interno. |
SpeechServiceConnection_IntentRegion |
Area del servizio Language Understanding. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Modalità di riconoscimento del servizio di riconoscimento vocale di Servizi cognitivi. Può essere "INTERACTIVE", "CONVERSATION", "DICTATION". Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. |
SpeechServiceConnection_RecoLanguage |
Lingua parlata da riconoscere (in formato BCP-47). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
ID sessione. Questo ID è un identificatore univoco universale (noto anche come UUID) che rappresenta un'associazione specifica di un flusso di input audio e l'istanza di riconoscimento vocale sottostante a cui è associata. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Parametri di query forniti dagli utenti. Verranno passati al servizio come parametri di query URL. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_RecoBackend |
Stringa per specificare il back-end da usare per il riconoscimento vocale; le opzioni consentite sono online e offline. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente l'opzione offline è valida solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nome del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Chiave di decrittografia del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_RecoModelIniFile |
Percorso del file ini del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthLanguage |
La lingua parlata da sintetizzare (ad esempio en-US) Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nome della voce TTS da usare per la sintesi vocale Aggiunta nella versione 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Stringa per specificare il formato audio di output TTS Aggiunto nella versione 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Indica se utilizzare il formato audio compresso per la trasmissione audio di sintesi vocale. Questa proprietà influisce solo quando SpeechServiceConnection_SynthOutputFormat è impostato su un formato pcm. Se questa proprietà non è impostata e GStreamer è disponibile, SDK userà il formato compresso per la trasmissione audio sintetizzata e decodificarlo. È possibile impostare questa proprietà su "false" per utilizzare il formato pcm non elaborato per la trasmissione in transito. Aggiunta nella versione 1.16.0. |
SpeechServiceConnection_SynthBackend |
Stringa per specificare il back-end TTS; le opzioni valide sono online e offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths per impostare il back-end di sintesi su offline. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Percorsi del file di dati per il motore di sintesi offline; valido solo quando il back-end di sintesi è offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nome della voce TTS offline da usare per la sintesi vocale In circostanze normali, non è consigliabile usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Chiave di decrittografia della voce da usare per la sintesi vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Aggiunta nella versione 1.19.0. |
SpeechServiceConnection_VoicesListEndpoint |
L'endpoint api (URL) dell'elenco voce del servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario specificare questa proprietà, l'SDK lo creerà in base all'area/host/endpoint di SpeechConfig. Aggiunta nella versione 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Valore di timeout del silenzio iniziale (in millisecondi) utilizzato dal servizio. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Valore di timeout del silenzio finale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Valore booleano che specifica se la registrazione audio è abilitata o meno nel servizio. I log audio e di contenuto vengono archiviati nella risorsa di archiviazione di proprietà di Microsoft o nel proprio account di archiviazione collegato alla sottoscrizione di Servizi cognitivi (risorsa Di archiviazione personalizzata (BYOS) abilitata per il riconoscimento vocale. Aggiunta nella versione 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Modalità identificatore lingua di connessione del servizio voce. Può essere "AtStart" (impostazione predefinita) o "Continuous". Vedere Documento di identificazione della lingua . Aggiunta nella versione 1.25.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Le lingue di origine di rilevamento automatico aggiunte nella versione 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Il risultato del rilevamento automatico della lingua di origine Aggiunto nella versione 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Formato di output della risposta del servizio voce di Servizi cognitivi richiesto (semplice o dettagliato). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Livello di contenuto volgare della risposta del servizio Voce di Servizi cognitivi richiesto. Attualmente inutilizzato. |
SpeechServiceResponse_ProfanityOption |
Impostazione di contenuto volgare dell'output della risposta di Servizi cognitivi richiesti. I valori consentiti sono "masked", "removed" e "raw". Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Valore stringa che specifica l'opzione post-elaborazione da usare dal servizio. I valori consentiti sono "TrueText". Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Valore booleano che specifica se includere timestamp a livello di parola nel risultato della risposta. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Numero di volte in cui una parola deve essere restituita in risultati parziali. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Valore stringa che specifica l'opzione di formato di output nel risultato della risposta. Solo per uso interno. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestSnr |
Valore booleano che specifica se includere SNR (rapporto segnale/rumore) nel risultato della risposta. Aggiunta nella versione 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Valore booleano da richiedere la stabilizzazione dei risultati parziali della traduzione omettendo le parole alla fine. Aggiunta nella versione 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Valore booleano che specifica se richiedere eventi WordBoundary. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Valore booleano che specifica se richiedere il limite di punteggiatura negli eventi WordBoundary. Il valore predefinito è true. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Valore booleano che specifica se richiedere il limite della frase in Eventi WordBoundary. L'impostazione predefinita è false. Aggiunta nella versione 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Valore booleano che specifica se l'SDK deve sincronizzare gli eventi dei metadati di sintesi, ad esempio il limite delle parole, viseme e così via, alla riproduzione audio. Questa operazione ha effetto solo quando l'audio viene riprodotto tramite l'SDK. Il valore predefinito è true. Se impostato su false, l'SDK attiverà gli eventi non appena provengono dal servizio, che potrebbero non essere sincronizzati con la riproduzione audio. Aggiunta nella versione 1.31.0. |
SpeechServiceResponse_JsonResult |
Output della risposta del servizio voce di Servizi cognitivi (in formato JSON). Questa proprietà è disponibile solo sugli oggetti dei risultati di riconoscimento. |
SpeechServiceResponse_JsonErrorDetails |
Dettagli dell'errore del servizio voce servizi cognitivi (in formato JSON). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Latenza di riconoscimento in millisecondi. Proprietà di sola lettura, disponibile nei risultati finali della voce/traduzione/finalità. Questa misura la latenza tra quando viene ricevuto un input audio dall'SDK e il momento in cui il risultato finale viene ricevuto dal servizio. L'SDK calcola la differenza di tempo tra l'ultimo frammento audio dell'input audio che contribuisce al risultato finale e l'ora in cui il risultato finale viene ricevuto dal servizio voce. Aggiunta nella versione 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Back-end di riconoscimento. Proprietà di sola lettura, disponibile nei risultati del riconoscimento vocale. Ciò indica se il riconoscimento cloud (online) o incorporato (offline) è stato usato per produrre il risultato. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Prima latenza di byte della sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra quando viene avviata l'elaborazione della sintesi e il momento in cui è disponibile il primo byte audio. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
La latenza di tutti i byte di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra quando viene avviata l'elaborazione della sintesi e il momento in cui l'intero audio viene sintetizzato. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Tempo di esecuzione per la sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati degli eventi SynthesisCompleted. Questo misura il tempo totale di sottorun da PropertyId::AudioConfig_PlaybackBufferLengthInMs viene riempito per la sintesi completata. Aggiunta nella versione 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Latenza della connessione di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra l'elaborazione della sintesi e il momento in cui viene stabilita la connessione HTTP/WebSocket. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Latenza della rete di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questo misura il tempo di round trip della rete. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Latenza del servizio di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questo misura il tempo di elaborazione del servizio per sintetizzare il primo byte dell'audio. Aggiunta nella versione 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Indica il back-end di cui viene completata la sintesi. Proprietà di sola lettura, disponibile nei risultati della sintesi vocale, ad eccezione del risultato dell'evento SynthesisStarted Aggiunto nella versione 1.17.0. |
CancellationDetails_Reason |
Motivo dell'annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonText |
Testo di annullamento. Attualmente inutilizzato. |
CancellationDetails_ReasonDetailedText |
Testo dettagliato dell'annullamento. Attualmente inutilizzato. |
LanguageUnderstandingServiceResponse_JsonResult |
Output della risposta del servizio Language Understanding (in formato JSON). Disponibile tramite IntentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nome del dispositivo per l'acquisizione audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromMicrophoneInput. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Numero di canali per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_SampleRateForCapture |
Frequenza di esempio (in Hz) per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Numero di bit di ogni esempio per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0. |
AudioConfig_AudioSource |
Origine audio. I valori consentiti sono "Microfoni", "File" e "Stream". Aggiunta nella versione 1.3.0. |
AudioConfig_DeviceNameForRender |
Nome del dispositivo per il rendering audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromSpeakerOutput. Aggiunta nella versione 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
La lunghezza del buffer di riproduzione in millisecondi è di 50 millisecondi. |
AudioConfig_AudioProcessingOptions |
Opzioni di elaborazione audio in formato JSON. |
Speech_LogFilename |
Nome file da scrivere log. Aggiunta nella versione 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Durata del silenzio rilevato, misurata in millisecondi, dopo la quale la voce-a-testo determina una frase parlata è terminata e genera un risultato riconosciuto finale. La configurazione di questo timeout può essere utile in situazioni in cui l'input parlato è significativamente più veloce o lento del solito e il comportamento di segmentazione predefinita restituisce in modo coerente risultati troppo lunghi o troppo brevi. I valori di timeout di segmentazione che sono inappropriati o bassi possono influire negativamente sull'accuratezza del testo vocale; questa proprietà deve essere configurata con attenzione e il comportamento risultante deve essere convalidato accuratamente come previsto. |
Conversation_ApplicationId |
Identificatore usato per connettersi al servizio back-end. Aggiunta nella versione 1.5.0. |
Conversation_DialogType |
Tipo di back-end della finestra di dialogo a cui connettersi. Aggiunta nella versione 1.7.0. |
Conversation_Initial_Silence_Timeout |
Timeout del silenzio per l'ascolto Aggiunto nella versione 1.5.0. |
Conversation_From_Id |
Dall'ID da usare nelle attività di riconoscimento vocale Aggiunte nella versione 1.5.0. |
Conversation_Conversation_Id |
ConversationId per la sessione. Aggiunta nella versione 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Elenco delimitato da virgole di ID distribuzione vocale personalizzati. Aggiunta nella versione 1.8.0. |
Conversation_Speech_Activity_Template |
Modello di attività Voce, proprietà stamp nel modello sull'attività generata dal servizio per il riconoscimento vocale. Aggiunta nella versione 1.10.0. |
Conversation_ParticipantId |
Identificatore del partecipante nella conversazione corrente. Aggiunta nella versione 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Timestamp associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Il timestamp è un valore a 64 bit con una risoluzione di 90 kHz. Equivale al timestamp della presentazione in un flusso di trasporto MPEG. Vedere https://en.wikipedia.org/wiki/Presentation_timestamp Aggiunto nella versione 1.5.0. |
DataBuffer_UserId |
ID utente associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Aggiunta nella versione 1.5.0. |
PronunciationAssessment_ReferenceText |
Testo di riferimento dell'audio per la valutazione della pronuncia. Per questo e i parametri di valutazione della pronuncia seguenti, vedere la tabella Parametri di valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create o PronunciationAssessmentConfig::SetReferenceText. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_GradingSystem |
Sistema di punti per la calibrazione del punteggio di pronuncia (FivePoint o HundredMark). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_Granularity |
Granularità di valutazione della pronuncia (Phoneme, Word o FullText). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_EnableMiscue |
Definisce se abilitare il calcolo non chiaro. Con questa opzione abilitata, le parole pronunciate verranno confrontate con il testo di riferimento e verranno contrassegnate con omissione/inserimento in base al confronto. L'impostazione predefinita è False. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alfabeto fonema di valutazione della pronuncia. I valori validi sono "SAPI" (impostazione predefinita) e "IPA" In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetPhonemeAlphabet. Aggiunta nella versione 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Conteggio fonemi della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetNBestPhonemeCount. Aggiunta nella versione 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Indica se abilitare la valutazione prosodia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableProsodyAssessment. Aggiunta nella versione 1.33.0. |
PronunciationAssessment_Json |
Stringa json dei parametri di valutazione della pronuncia In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_Params |
Parametri di valutazione della pronuncia. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. Aggiunta nella versione 1.14.0. |
PronunciationAssessment_ContentTopic |
Argomento del contenuto della valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Aggiunta nella versione 1.33.0. |
SpeakerRecognition_Api_Version |
Versione dell'API back-end Riconoscimento del parlante. Questa proprietà viene aggiunta per consentire il test e l'uso delle versioni precedenti delle API Riconoscimento del parlante, se applicabile. Aggiunta nella versione 1.18.0. |
SpeechTranslation_ModelName |
Nome di un modello da usare per la traduzione vocale. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. |
SpeechTranslation_ModelKey |
Chiave di decrittografia di un modello da usare per la traduzione vocale. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. |
KeywordRecognition_ModelName |
Nome di un modello da usare per il riconoscimento delle parole chiave. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. |
KeywordRecognition_ModelKey |
Chiave di decrittografia di un modello da usare per il riconoscimento delle parole chiave. Non utilizzare direttamente questa proprietà. Attualmente questa operazione è valida solo quando viene usato EmbeddedSpeechConfig. |
EmbeddedSpeech_EnablePerformanceMetrics |
Abilitare la raccolta di metriche delle prestazioni vocali incorporate che possono essere usate per valutare la funzionalità di un dispositivo per l'uso della voce incorporata. I dati raccolti sono inclusi nei risultati di scenari specifici, ad esempio il riconoscimento vocale. L'impostazione predefinita è "false". Si noti che le metriche potrebbero non essere disponibili da tutti gli scenari di riconoscimento vocale incorporati. |