Spazio dei nomi Microsoft::CognitiveServices::Speech

Riepilogo

Membri Descrizioni
enum PropertyId Definisce gli ID della proprietà vocale. Modificato nella versione 1.4.0.
Enum OutputFormat Formato di output.
enum VolityOption Rimuove la volgarità (giuramento) o sostituisce lettere di parole volgari con stelle. Aggiunta nella versione 1.5.0.
enum ResultReason Specifica i possibili motivi per cui potrebbe essere generato un risultato di riconoscimento.
enum CancellationReason Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe essere annullato.
enum CancellationErrorCode Definisce il codice di errore nel caso in cui CancellationReason sia Error. Aggiunta nella versione 1.1.0.
enumerazione NoMatchReason Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe non essere riconosciuto.
enum ActivityJSONType Definisce i tipi possibili per un valore json attività. Aggiunta nella versione 1.5.0.
enumerazione SpeechSynthesisOutputFormat Definisce i possibili formati audio di output della sintesi vocale. Aggiornato nella versione 1.19.0.
enum StreamStatus Definisce lo stato possibile del flusso di dati audio. Aggiunta nella versione 1.4.0.
enum ServicePropertyChannel Definisce i canali usati per passare le impostazioni delle proprietà al servizio. Aggiunta nella versione 1.5.0.
enumerazione VoiceProfileType Definisce i tipi di profilo vocale.
enum RecognitionFactorScope Definisce l'ambito a cui viene applicato un fattore di riconoscimento.
enum PronunciationAssessmentGradingSystem Definisce il sistema di punti per la calibrazione del punteggio di pronuncia; il valore predefinito è FivePoint. Aggiunta nella versione 1.14.0.
enum PronunciationAssessmentGranularity Definisce la granularità della valutazione della pronuncia; il valore predefinito è Phoneme. Aggiunta nella versione 1.14.0.
enum SynthesisVoiceType Definisce il tipo di voci di sintesi aggiunte nella versione 1.16.0.
enum SynthesisVoiceGender Definisce il sesso delle voci di sintesi aggiunte nella versione 1.17.0.
enumerazione SpeechSynthesisBoundaryType Definisce il tipo di limite di sintesi vocale aggiunta nella versione 1.21.0.
classe AsyncRecognizer Classe base astratta AsyncRecognizer.
classe AudioDataStream Rappresenta il flusso di dati audio usato per i dati audio operativi come flusso. Aggiunta nella versione 1.4.0.
classe AutoDetectSourceLanguageConfig Classe che definisce la configurazione dell'origine di rilevamento automatico Aggiornata nella versione 1.13.0.
classe AutoDetectSourceLanguageResult Contiene il risultato del linguaggio di origine rilevato automaticamente Aggiunto nella versione 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato.
classLanguageModel Rappresenta un elenco di grammatica per scenari di grammatica dinamica. Aggiunta nella versione 1.7.0.
classe Connection La connessione è una classe proxy per la gestione della connessione al servizio voce del riconoscimento vocale specificato. Per impostazione predefinita, un riconoscimento gestisce autonomamente la connessione al servizio quando necessario. La classe Connection fornisce metodi aggiuntivi per gli utenti per aprire o chiudere in modo esplicito una connessione e sottoscrivere le modifiche dello stato della connessione. L'uso di Connessione è facoltativo. È destinato agli scenari in cui è necessario ottimizzare il comportamento dell'applicazione in base allo stato di connessione. Gli utenti possono chiamare facoltativamente Open() per avviare manualmente una connessione al servizio prima di avviare il riconoscimento nel riconoscimento associato a questa connessione. Dopo aver avviato un riconoscimento, la chiamata a Open() o Close() potrebbe non riuscire. Ciò non influisce sul riconoscimento o sul riconoscimento in corso. La connessione potrebbe cadere per vari motivi, il riconoscimento tenterà sempre di reinstituire la connessione in base alle esigenze per garantire operazioni in corso. In tutti questi casi gli eventi Connessi/Disconnessi indicherà la modifica dello stato della connessione. Aggiornato nella versione 1.17.0.
classe ConnectionEventArgs Fornisce i dati per ConnectionEvent. Aggiunta nella versione 1.2.0.
classe ConnectionMessage ConnectionMessage rappresenta i messaggi specifici dell'implementazione inviati a e ricevuti dal servizio voce. Questi messaggi vengono forniti per scopi di debug e non devono essere usati per i casi d'uso di produzione con il servizio riconoscimento vocale di Servizi cognitivi di Azure. I messaggi inviati e ricevuti dal servizio voce sono soggetti a modifiche senza preavviso. Ciò include contenuto del messaggio, intestazioni, payload, ordinamento e così via. Aggiunta nella versione 1.10.0.
classe ConnectionMessageEventArgs Fornisce i dati per ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe che definisce la configurazione vocale incorporata (offline).
classe EventArgs Classe di base per gli argomenti dell'evento.
class EventSignal I client possono connettersi al segnale dell'evento per ricevere eventi o disconnettersi dal segnale dell'evento per interrompere la ricezione di eventi.
class EventSignalBase I client possono connettersi al segnale dell'evento per ricevere eventi o disconnettersi dal segnale dell'evento per interrompere la ricezione di eventi.
grammatica della classe Rappresenta la grammatica della classe di base per la personalizzazione del riconoscimento vocale. Aggiunta nella versione 1.5.0.
class GrammarList Rappresenta un elenco di grammatica per scenari di grammatica dinamica. Aggiunta nella versione 1.7.0.
class GrammarPhrase Rappresenta una frase che può essere pronunciata dall'utente. Aggiunta nella versione 1.5.0.
classe HybridSpeechConfig Classe che definisce configurazioni ibride (cloud e incorporate) per il riconoscimento vocale o la sintesi vocale.
classe KeywordRecognitionEventArgs Classe per gli eventi emmited by the KeywordRecognizer.
classe KeywordRecognitionModel Rappresenta il modello di riconoscimento delle parole chiave usato con i metodi StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe che definisce i risultati generati da KeywordRecognizer.
classe KeywordRecognizer Tipo di riconoscimento specializzato per gestire solo l'attivazione delle parole chiave.
classe NoMatchDetails Contiene informazioni dettagliate per i risultati del riconoscimento NoMatch.
classe PhraseListGrammar Rappresenta una grammatica dell'elenco di frasi per scenari di grammatica dinamica. Aggiunta nella versione 1.5.0.
classe PronunciationAssessmentConfig Classe che definisce la configurazione della valutazione della pronuncia Aggiunta nella versione 1.14.0.
classe PronunciationAssessmentResult Classe per i risultati della valutazione della pronuncia.
classe PronunciationContentAssessmentResult Classe per i risultati della valutazione del contenuto.
class PropertyCollection Classe per recuperare o impostare un valore di proprietà da una raccolta di proprietà.
class RecognitionEventArgs Fornisce i dati per Il riconoscimentoEvent.
class RecognitionResult Contiene informazioni dettagliate sul risultato di un'operazione di riconoscimento.
Riconoscimento classi Classe base di Riconoscimento.
classe SessionEventArgs Classe di base per gli argomenti dell'evento di sessione.
classe SmartHandle Classe handle intelligente.
classe SourceLanguageConfig Classe che definisce la configurazione del linguaggio di origine, aggiunta nella versione 1.8.0.
classe SourceLanguageRecognizer Classe per i riconoscimento del linguaggio di origine. È possibile usare questa classe per il rilevamento autonomo del linguaggio. Aggiunta nella versione 1.17.0.
classe SpeechConfig Classe che definisce le configurazioni per il riconoscimento vocale/finalità o la sintesi vocale.
classe SpeechRecognitionCanceledEventArgs Classe per il riconoscimento vocale annullate gli argomenti dell'evento.
classe SpeechRecognitionEventArgs Classe per gli argomenti dell'evento di riconoscimento vocale.
class SpeechRecognitionModel Informazioni sul modello di riconoscimento vocale.
classe SpeechRecognitionResult Classe di base per i risultati del riconoscimento vocale.
classe SpeechRecognizer Classe per i riconoscimento vocale.
classe SpeechSynthesisBookmarkEventArgs Classe per gli argomenti dell'evento del segnalibro di sintesi vocale. Aggiunta nella versione 1.16.0.
classe SpeechSynthesisCancellationDetails Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato. Aggiunta nella versione 1.4.0.
classe SpeechSynthesisEventArgs Classe per gli argomenti dell'evento di sintesi vocale. Aggiunta nella versione 1.4.0.
classe SpeechSynthesisResult Contiene informazioni sui risultati della sintesi vocale da testo a voce. Aggiunta nella versione 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe per gli argomenti evento viseme di sintesi vocale. Aggiunta nella versione 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe per gli argomenti dell'evento limite della parola di sintesi vocale. Aggiunta nella versione 1.7.0.
classe SpeechSynthesizer Classe per il sintetizzatore vocale. Aggiornato nella versione 1.14.0.
classe SpeechTranslationModel Informazioni sul modello di traduzione vocale.
classe SynthesisVoicesResUlt Contiene informazioni sui risultati dall'elenco di voci dei sintetizzatori vocali. Aggiunta nella versione 1.16.0.
classe VoiceInfo Contiene informazioni sulle informazioni vocali di sintesi aggiornate nella versione 1.17.0.

Membri

enum PropertyId

Valori Descrizioni
SpeechServiceConnection_Key Chiave di sottoscrizione del servizio voce servizi cognitivi. Se si usa un riconoscimento finalità, è necessario specificare la chiave dell'endpoint LUIS per l'app LUIS specifica. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint Endpoint del servizio voce servizi cognitivi (URL). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromEndpoint. NOTA: questo endpoint non è uguale all'endpoint usato per ottenere un token di accesso.
SpeechServiceConnection_Region Area del servizio Di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token Token di autorizzazione del servizio voce di Servizi cognitivi (noto anche come token di accesso). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type Tipo di autorizzazione del servizio Voce di Servizi cognitivi. Attualmente inutilizzato.
SpeechServiceConnection_EndpointId ID endpoint servizio vocale personalizzato o voce personalizzata di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetEndpointId. NOTA: l'ID endpoint è disponibile nel portale di riconoscimento vocale personalizzato, elencato in Dettagli endpoint.
SpeechServiceConnection_Host Host (URL) del servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName Nome host del server proxy usato per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0.
SpeechServiceConnection_ProxyPort Porta del server proxy usata per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0.
SpeechServiceConnection_ProxyUserName Nome utente del server proxy usato per connettersi al servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0.
SpeechServiceConnection_ProxyPassword Password del server proxy usato per connettersi al servizio Di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetProxy. NOTA: questo ID proprietà è stato aggiunto nella versione 1.1.0.
SpeechServiceConnection_Url Stringa URL creata dalla configurazione del riconoscimento vocale. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. NOTA: aggiunta nella versione 1.5.0.
SpeechServiceConnection_TranslationToLanguages Elenco di lingue separate da virgole utilizzate come lingue di traduzione di destinazione. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Nome della voce del servizio di riconoscimento vocale di Servizi cognitivi. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechTranslationConfig::SetVoiceName. NOTA: i nomi di voce validi sono disponibili qui.
SpeechServiceConnection_TranslationFeatures Funzionalità di traduzione. Per uso interno.
SpeechServiceConnection_IntentRegion Area del servizio Language Understanding. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Modalità di riconoscimento del servizio di riconoscimento vocale di Servizi cognitivi. Può essere "INTERACTIVE", "CONVERSATION", "DICTATION". Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente.
SpeechServiceConnection_RecoLanguage Lingua parlata da riconoscere (in formato BCP-47). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId ID sessione. Questo ID è un identificatore univoco universale (noto anche come UUID) che rappresenta un'associazione specifica di un flusso di input audio e l'istanza di riconoscimento vocale sottostante a cui è associata. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Parametri di query forniti dagli utenti. Verranno passati al servizio come parametri di query URL. Aggiunta nella versione 1.5.0.
SpeechServiceConnection_RecoBackend Stringa per specificare il back-end da usare per il riconoscimento vocale; le opzioni consentite sono online e offline. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente l'opzione offline è valida solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_RecoModelName Nome del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_RecoModelKey Chiave di decrittografia del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_RecoModelIniFile Percorso del file ini del modello da usare per il riconoscimento vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_SynthLanguage La lingua parlata da sintetizzare (ad esempio en-US) Aggiunta nella versione 1.4.0.
SpeechServiceConnection_SynthVoice Nome della voce TTS da usare per la sintesi vocale Aggiunta nella versione 1.4.0.
SpeechServiceConnection_SynthOutputFormat Stringa per specificare il formato audio di output TTS Aggiunto nella versione 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indica se utilizzare il formato audio compresso per la trasmissione audio di sintesi vocale. Questa proprietà influisce solo quando SpeechServiceConnection_SynthOutputFormat è impostato su un formato pcm. Se questa proprietà non è impostata e GStreamer è disponibile, SDK userà il formato compresso per la trasmissione audio sintetizzata e decodificarlo. È possibile impostare questa proprietà su "false" per utilizzare il formato pcm non elaborato per la trasmissione in transito. Aggiunta nella versione 1.16.0.
SpeechServiceConnection_SynthBackend Stringa per specificare il back-end TTS; le opzioni valide sono online e offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths per impostare il back-end di sintesi su offline. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Percorsi del file di dati per il motore di sintesi offline; valido solo quando il back-end di sintesi è offline. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::FromPath o EmbeddedSpeechConfig::FromPaths. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_SynthOfflineVoice Nome della voce TTS offline da usare per la sintesi vocale In circostanze normali, non è consigliabile usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_SynthModelKey Chiave di decrittografia della voce da usare per la sintesi vocale. In circostanze normali, non è consigliabile usare direttamente questa proprietà. Usare invece EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Aggiunta nella versione 1.19.0.
SpeechServiceConnection_VoicesListEndpoint L'endpoint api (URL) dell'elenco voce del servizio Voce di Servizi cognitivi. In circostanze normali, non è necessario specificare questa proprietà, l'SDK lo creerà in base all'area/host/endpoint di SpeechConfig. Aggiunta nella versione 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs Valore di timeout del silenzio iniziale (in millisecondi) utilizzato dal servizio. Aggiunta nella versione 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs Valore di timeout del silenzio finale (in millisecondi) usato dal servizio. Aggiunta nella versione 1.5.0.
SpeechServiceConnection_EnableAudioLogging Valore booleano che specifica se la registrazione audio è abilitata o meno nel servizio. I log audio e di contenuto vengono archiviati nella risorsa di archiviazione di proprietà di Microsoft o nel proprio account di archiviazione collegato alla sottoscrizione di Servizi cognitivi (risorsa Di archiviazione personalizzata (BYOS) abilitata per il riconoscimento vocale. Aggiunta nella versione 1.5.0.
SpeechServiceConnection_LanguageIdMode Modalità identificatore lingua di connessione del servizio voce. Può essere "AtStart" (impostazione predefinita) o "Continuous". Vedere Documento di identificazione della lingua . Aggiunta nella versione 1.25.0.
SpeechServiceConnection_AutoDetectSourceLanguages Le lingue di origine di rilevamento automatico aggiunte nella versione 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult Il risultato del rilevamento automatico della lingua di origine Aggiunto nella versione 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse Formato di output della risposta del servizio voce di Servizi cognitivi richiesto (semplice o dettagliato). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Livello di contenuto volgare della risposta del servizio Voce di Servizi cognitivi richiesto. Attualmente inutilizzato.
SpeechServiceResponse_ProfanityOption Impostazione di contenuto volgare dell'output della risposta di Servizi cognitivi richiesti. I valori consentiti sono "masked", "removed" e "raw". Aggiunta nella versione 1.5.0.
SpeechServiceResponse_PostProcessingOption Valore stringa che specifica l'opzione post-elaborazione da usare dal servizio. I valori consentiti sono "TrueText". Aggiunta nella versione 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Valore booleano che specifica se includere timestamp a livello di parola nel risultato della risposta. Aggiunta nella versione 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold Numero di volte in cui una parola deve essere restituita in risultati parziali. Aggiunta nella versione 1.5.0.
SpeechServiceResponse_OutputFormatOption Valore stringa che specifica l'opzione di formato di output nel risultato della risposta. Solo per uso interno. Aggiunta nella versione 1.5.0.
SpeechServiceResponse_RequestSnr Valore booleano che specifica se includere SNR (rapporto segnale/rumore) nel risultato della risposta. Aggiunta nella versione 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Valore booleano da richiedere la stabilizzazione dei risultati parziali della traduzione omettendo le parole alla fine. Aggiunta nella versione 1.5.0.
SpeechServiceResponse_RequestWordBoundary Valore booleano che specifica se richiedere eventi WordBoundary. Aggiunta nella versione 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Valore booleano che specifica se richiedere il limite di punteggiatura negli eventi WordBoundary. Il valore predefinito è true. Aggiunta nella versione 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Valore booleano che specifica se richiedere il limite della frase in Eventi WordBoundary. L'impostazione predefinita è false. Aggiunta nella versione 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Valore booleano che specifica se l'SDK deve sincronizzare gli eventi dei metadati di sintesi, ad esempio il limite delle parole, viseme e così via, alla riproduzione audio. Questa operazione ha effetto solo quando l'audio viene riprodotto tramite l'SDK. Il valore predefinito è true. Se impostato su false, l'SDK attiverà gli eventi non appena provengono dal servizio, che potrebbero non essere sincronizzati con la riproduzione audio. Aggiunta nella versione 1.31.0.
SpeechServiceResponse_JsonResult Output della risposta del servizio voce di Servizi cognitivi (in formato JSON). Questa proprietà è disponibile solo sugli oggetti dei risultati di riconoscimento.
SpeechServiceResponse_JsonErrorDetails Dettagli dell'errore del servizio voce servizi cognitivi (in formato JSON). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Latenza di riconoscimento in millisecondi. Proprietà di sola lettura, disponibile nei risultati finali della voce/traduzione/finalità. Questa misura la latenza tra quando viene ricevuto un input audio dall'SDK e il momento in cui il risultato finale viene ricevuto dal servizio. L'SDK calcola la differenza di tempo tra l'ultimo frammento audio dell'input audio che contribuisce al risultato finale e l'ora in cui il risultato finale viene ricevuto dal servizio voce. Aggiunta nella versione 1.3.0.
SpeechServiceResponse_RecognitionBackend Back-end di riconoscimento. Proprietà di sola lettura, disponibile nei risultati del riconoscimento vocale. Ciò indica se il riconoscimento cloud (online) o incorporato (offline) è stato usato per produrre il risultato.
SpeechServiceResponse_SynthesisFirstByteLatencyMs Prima latenza di byte della sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra quando viene avviata l'elaborazione della sintesi e il momento in cui è disponibile il primo byte audio. Aggiunta nella versione 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs La latenza di tutti i byte di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra quando viene avviata l'elaborazione della sintesi e il momento in cui l'intero audio viene sintetizzato. Aggiunta nella versione 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs Tempo di esecuzione per la sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati degli eventi SynthesisCompleted. Questo misura il tempo totale di sottorun da PropertyId::AudioConfig_PlaybackBufferLengthInMs viene riempito per la sintesi completata. Aggiunta nella versione 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs Latenza della connessione di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questa misura la latenza tra l'elaborazione della sintesi e il momento in cui viene stabilita la connessione HTTP/WebSocket. Aggiunta nella versione 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs Latenza della rete di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questo misura il tempo di round trip della rete. Aggiunta nella versione 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs Latenza del servizio di sintesi vocale in millisecondi. Di sola lettura, disponibile nei risultati finali della sintesi vocale. Questo misura il tempo di elaborazione del servizio per sintetizzare il primo byte dell'audio. Aggiunta nella versione 1.26.0.
SpeechServiceResponse_SynthesisBackend Indica il back-end di cui viene completata la sintesi. Proprietà di sola lettura, disponibile nei risultati della sintesi vocale, ad eccezione del risultato dell'evento SynthesisStarted Aggiunto nella versione 1.17.0.
CancellationDetails_Reason Motivo dell'annullamento. Attualmente inutilizzato.
CancellationDetails_ReasonText Testo di annullamento. Attualmente inutilizzato.
CancellationDetails_ReasonDetailedText Testo dettagliato dell'annullamento. Attualmente inutilizzato.
LanguageUnderstandingServiceResponse_JsonResult Output della risposta del servizio Language Understanding (in formato JSON). Disponibile tramite IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Nome del dispositivo per l'acquisizione audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromMicrophoneInput. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0.
AudioConfig_NumberOfChannelsForCapture Numero di canali per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0.
AudioConfig_SampleRateForCapture Frequenza di esempio (in Hz) per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0.
AudioConfig_BitsPerSampleForCapture Numero di bit di ogni esempio per l'acquisizione audio. Solo per uso interno. NOTA: questo ID proprietà è stato aggiunto nella versione 1.3.0.
AudioConfig_AudioSource Origine audio. I valori consentiti sono "Microfoni", "File" e "Stream". Aggiunta nella versione 1.3.0.
AudioConfig_DeviceNameForRender Nome del dispositivo per il rendering audio. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece AudioConfig::FromSpeakerOutput. Aggiunta nella versione 1.14.0.
AudioConfig_PlaybackBufferLengthInMs La lunghezza del buffer di riproduzione in millisecondi è di 50 millisecondi.
AudioConfig_AudioProcessingOptions Opzioni di elaborazione audio in formato JSON.
Speech_LogFilename Nome file da scrivere log. Aggiunta nella versione 1.4.0.
Speech_SegmentationSilenceTimeoutMs Durata del silenzio rilevato, misurata in millisecondi, dopo la quale la voce-a-testo determina una frase parlata è terminata e genera un risultato riconosciuto finale. La configurazione di questo timeout può essere utile in situazioni in cui l'input parlato è significativamente più veloce o lento del solito e il comportamento di segmentazione predefinita restituisce in modo coerente risultati troppo lunghi o troppo brevi. I valori di timeout di segmentazione che sono inappropriati o bassi possono influire negativamente sull'accuratezza del testo vocale; questa proprietà deve essere configurata con attenzione e il comportamento risultante deve essere convalidato accuratamente come previsto.
Conversation_ApplicationId Identificatore usato per connettersi al servizio back-end. Aggiunta nella versione 1.5.0.
Conversation_DialogType Tipo di back-end della finestra di dialogo a cui connettersi. Aggiunta nella versione 1.7.0.
Conversation_Initial_Silence_Timeout Timeout del silenzio per l'ascolto Aggiunto nella versione 1.5.0.
Conversation_From_Id Dall'ID da usare nelle attività di riconoscimento vocale Aggiunte nella versione 1.5.0.
Conversation_Conversation_Id ConversationId per la sessione. Aggiunta nella versione 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Elenco delimitato da virgole di ID distribuzione vocale personalizzati. Aggiunta nella versione 1.8.0.
Conversation_Speech_Activity_Template Modello di attività Voce, proprietà stamp nel modello sull'attività generata dal servizio per il riconoscimento vocale. Aggiunta nella versione 1.10.0.
Conversation_ParticipantId Identificatore del partecipante nella conversazione corrente. Aggiunta nella versione 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Timestamp associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Il timestamp è un valore a 64 bit con una risoluzione di 90 kHz. Equivale al timestamp della presentazione in un flusso di trasporto MPEG. Vedere https://en.wikipedia.org/wiki/Presentation_timestamp Aggiunto nella versione 1.5.0.
DataBuffer_UserId ID utente associato al buffer di dati scritto dal client quando si usano flussi di input audio pull/push. Aggiunta nella versione 1.5.0.
PronunciationAssessment_ReferenceText Testo di riferimento dell'audio per la valutazione della pronuncia. Per questo e i parametri di valutazione della pronuncia seguenti, vedere la tabella Parametri di valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create o PronunciationAssessmentConfig::SetReferenceText. Aggiunta nella versione 1.14.0.
PronunciationAssessment_GradingSystem Sistema di punti per la calibrazione del punteggio di pronuncia (FivePoint o HundredMark). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0.
PronunciationAssessment_Granularity Granularità di valutazione della pronuncia (Phoneme, Word o FullText). In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0.
PronunciationAssessment_EnableMiscue Definisce se abilitare il calcolo non chiaro. Con questa opzione abilitata, le parole pronunciate verranno confrontate con il testo di riferimento e verranno contrassegnate con omissione/inserimento in base al confronto. L'impostazione predefinita è False. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0.
PronunciationAssessment_PhonemeAlphabet Alfabeto fonema di valutazione della pronuncia. I valori validi sono "SAPI" (impostazione predefinita) e "IPA" In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetPhonemeAlphabet. Aggiunta nella versione 1.20.0.
PronunciationAssessment_NBestPhonemeCount Conteggio fonemi della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::SetNBestPhonemeCount. Aggiunta nella versione 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Indica se abilitare la valutazione prosodia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableProsodyAssessment. Aggiunta nella versione 1.33.0.
PronunciationAssessment_Json Stringa json dei parametri di valutazione della pronuncia In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::Create. Aggiunta nella versione 1.14.0.
PronunciationAssessment_Params Parametri di valutazione della pronuncia. Questa proprietà deve essere di sola lettura. L'SDK lo usa internamente. Aggiunta nella versione 1.14.0.
PronunciationAssessment_ContentTopic Argomento del contenuto della valutazione della pronuncia. In circostanze normali, non è necessario usare direttamente questa proprietà. Usare invece PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Aggiunta nella versione 1.33.0.
SpeakerRecognition_Api_Version Versione dell'API back-end Riconoscimento del parlante. Questa proprietà viene aggiunta per consentire il test e l'uso delle versioni precedenti delle API Riconoscimento del parlante, se applicabile. Aggiunta nella versione 1.18.0.
SpeechTranslation_ModelName Nome di un modello da usare per la traduzione vocale. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig.
SpeechTranslation_ModelKey Chiave di decrittografia di un modello da usare per la traduzione vocale. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig.
KeywordRecognition_ModelName Nome di un modello da usare per il riconoscimento delle parole chiave. Non utilizzare direttamente questa proprietà. Attualmente è valido solo quando viene usato EmbeddedSpeechConfig.
KeywordRecognition_ModelKey Chiave di decrittografia di un modello da usare per il riconoscimento delle parole chiave. Non utilizzare direttamente questa proprietà. Attualmente questa operazione è valida solo quando viene usato EmbeddedSpeechConfig.
EmbeddedSpeech_EnablePerformanceMetrics Abilitare la raccolta di metriche delle prestazioni vocali incorporate che possono essere usate per valutare la funzionalità di un dispositivo per l'uso della voce incorporata. I dati raccolti sono inclusi nei risultati di scenari specifici, ad esempio il riconoscimento vocale. L'impostazione predefinita è "false". Si noti che le metriche potrebbero non essere disponibili da tutti gli scenari di riconoscimento vocale incorporati.

Definisce gli ID della proprietà vocale. Modificato nella versione 1.4.0.

Enum OutputFormat

Valori Descrizioni
Semplice
Dettagliato

Formato di output.

enum VolityOption

Valori Descrizioni
Filtrato Sostituisce lettere in parole volgari con caratteri star.
Rimosso Rimuove parole volgare.
Notifica non elaborata Non fa niente per volgare parole.

Rimuove la volgarità (giuramento) o sostituisce lettere di parole volgari con stelle. Aggiunta nella versione 1.5.0.

enum ResultReason

Valori Descrizioni
NoMatch Indica che non è stato possibile riconoscere la voce. Altri dettagli sono disponibili nell'oggetto NoMatchDetails.
Cancellati Indica che il riconoscimento è stato annullato. Altri dettagli sono disponibili usando l'oggetto CancellationDetails.
Riconoscimento diSpeech Indica che il risultato vocale contiene il testo dell'ipotesi.
RecognizedSpeech Indica che il risultato vocale contiene il testo finale riconosciuto. Riconoscimento vocale è ora completo per questa frase.
Riconoscimento diIntent Indica che il risultato della finalità contiene testo e finalità di ipotesi.
RecognizedIntent Indica che il risultato della finalità contiene testo finale e finalità. La determinazione riconoscimento vocale e finalità è ora completa per questa frase.
Traduzionespeech Indica che il risultato della traduzione contiene testo di ipotesi e le relative traduzioni.
TradottoSpeech Indica che il risultato della traduzione contiene testo finale e traduzioni corrispondenti. Riconoscimento vocale e traduzione sono ora completi per questa frase.
SynthesizingAudio Indica che il risultato audio sintetizzato contiene una quantità non zero di dati audio.
SynthesizingAudioCompleted Indica che l'audio sintetizzato è ora completo per questa frase.
Riconoscimento diKeyword Indica il testo della parola chiave (non verificato) del risultato vocale. Aggiunta nella versione 1.3.0.
RecognizedKeyword Indica che il riconoscimento delle parole chiave completato riconosce la parola chiave specificata. Aggiunta nella versione 1.3.0.
SynthesizingAudioStarted Indica che la sintesi vocale è ora avviata Aggiunta nella versione 1.4.0.
Traduzione diParticipantSpeech Indica che il risultato della trascrizione contiene testo di ipotesi e le relative traduzioni per altri partecipanti alla conversazione. Aggiunta nella versione 1.8.0.
TranslatedParticipantSpeech Indica che il risultato della trascrizione contiene testo finale e traduzioni corrispondenti per altri partecipanti alla conversazione. Riconoscimento vocale e traduzione sono ora completi per questa frase. Aggiunta nella versione 1.8.0.
TranslatedInstantMessage Indica che il risultato della trascrizione contiene il messaggio istantaneo e le traduzioni corrispondenti. Aggiunta nella versione 1.8.0.
TranslatedParticipantInstantMessage Indica che il risultato della trascrizione contiene il messaggio istantaneo per altri partecipanti alla conversazione e alle traduzioni corrispondenti. Aggiunta nella versione 1.8.0.
Registrazione diVoiceProfile Indica che il profilo vocale sta registrando e i clienti devono inviare più audio per creare un profilo vocale. Aggiunta nella versione 1.12.0.
EnrolledVoiceProfile Il profilo vocale è stato registrato. Aggiunta nella versione 1.12.0.
RiconosciutoSpeaker Indica l'identificazione riuscita di alcuni altoparlanti. Aggiunta nella versione 1.12.0.
RiconosciutoSpeaker Indica che è stato verificato correttamente un altoparlante. Aggiunta nella versione 1.12.0.
ResetVoiceProfile Indica che un profilo vocale è stato reimpostato correttamente. Aggiunta nella versione 1.12.0.
DeletedVoiceProfile Indica che un profilo vocale è stato eliminato correttamente. Aggiunta nella versione 1.12.0.
VoicesListRetrieved Indica che l'elenco voci è stato recuperato correttamente. Aggiunta nella versione 1.16.0.

Specifica i possibili motivi per cui potrebbe essere generato un risultato di riconoscimento.

enum CancellationReason

Valori Descrizioni
Errore Indica che si è verificato un errore durante il riconoscimento vocale.
EndOfStream Indica che la fine del flusso audio è stata raggiunta.
CancelledByUser Indica che la richiesta è stata annullata dall'utente. Aggiunta nella versione 1.14.0.

Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe essere annullato.

enum CancellationErrorCode

Valori Descrizioni
NoError Nessun errore. Se CancellationReason è EndOfStream, CancellationErrorCode è impostato su NoError.
AuthenticationFailure Indica un errore di autenticazione. Si verifica un errore di autenticazione se la chiave di sottoscrizione o il token di autorizzazione non è valido, scaduto o non corrisponde all'area usata.
BadRequest Indica che uno o più parametri di riconoscimento non sono validi o il formato audio non è supportato.
TooManyRequests Indica che il numero di richieste parallele ha superato il numero di trascrizioni simultanee consentite per la sottoscrizione.
Accesso negato Indica che la sottoscrizione gratuita usata dalla richiesta ha esaurito la quota.
ConnectionFailure Indica un errore di connessione.
ServiceTimeout Indica un errore di timeout quando si attende la risposta dal servizio.
ServiceError Indica che viene restituito un errore dal servizio.
ServiceUnavailable Indica che il servizio non è attualmente disponibile.
RuntimeError Indica un errore di runtime imprevisto.
ServiceRedirectTemporary Indica che il servizio voce richiede temporaneamente una riconnessione a un endpoint diverso.
ServiceRedirectPermanent Indica che il servizio voce richiede in modo permanente una riconnessione a un endpoint diverso.
EmbeddedModelError Indica che il modello di riconoscimento vocale incorporato (SR o TTS) non è disponibile o danneggiato.

Definisce il codice di errore nel caso in cui CancellationReason sia Error. Aggiunta nella versione 1.1.0.

enumerazione NoMatchReason

Valori Descrizioni
NotRecognized Indica che è stato rilevato il riconoscimento vocale, ma non riconosciuto.
InitialSilenceTimeout Indica che l'inizio del flusso audio contiene solo il silenzio e il servizio ha timeout in attesa della voce.
InitialBabbleTimeout Indica che l'inizio del flusso audio contiene solo rumore e il servizio ha timeout in attesa della voce.
KeywordNotRecognized Indica che la parola chiave individuata è stata rifiutata dal servizio di verifica delle parole chiave. Aggiunta nella versione 1.5.0.
EndSilenceTimeout Indica che il flusso audio contiene solo il silenzio dopo l'ultima frase riconosciuta.

Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe non essere riconosciuto.

enum ActivityJSONType

Valori Descrizioni
Null
Oggetto
Array
string
Double
Uint
Int
Boolean

Definisce i tipi possibili per un valore json attività. Aggiunta nella versione 1.5.0.

enumerazione SpeechSynthesisOutputFormat

Valori Descrizioni
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Non supportato dal servizio. Non usare questo valore.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Non supportato dal servizio. Non usare questo valore.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Aggiunto nella versione 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Aggiunto nella versione 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Aggiunto nella versione 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Aggiunto nella versione 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Aggiunto nella versione 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Aggiunto nella versione 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio compresso da OPUS codec in un contenitore WebM, con velocità bit di 24 kbps, ottimizzata per lo scenario IoT. Aggiunta nella versione 1.19.0
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32 kbps-mono-opus Audio compresso da codec OPUS senza contenitore, con velocità in bit di 32 kbps. Aggiunta nella versione 1.20.0
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio compresso da codec OPUS senza contenitore, con velocità in bit di 48 kbps. Aggiunta nella versione 1.20.0
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Audio compresso da codec OPUS senza contenitore, con velocità in bit di 24 kbps. Aggiunta nella versione 1.20.0
Raw22050Hz16BitMonoPcm audio raw-22050hz-16bit-mono-pcm Raw PCM a 22050Hz frequenza di campionamento e profondità a 16 bit. Aggiunta nella versione 1.22.0
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM audio a 22050Hz frequenza di campionamento e profondità a 16 bit, con intestazione RIFF. Aggiunta nella versione 1.22.0
Raw44100Hz16BitMonoPcm audio raw-44100hz-16bit-mono-pcm Raw PCM a 44100Hz frequenza di campionamento e profondità a 16 bit. Aggiunta nella versione 1.22.0
Riff44100Hz16BitMonoPcm audio riff-44100hz-16bit-mono-pcm PCM a 44100Hz frequenza di campionamento e profondità a 16 bit, con intestazione RIFF. Aggiunta nella versione 1.22.0
AmrWb16000Hz audio amr-wb-16000hz AMR-WB a 16kHz frequenza di campionamento. Aggiunta nella versione 1.24.0

Definisce i possibili formati audio di output della sintesi vocale. Aggiornato nella versione 1.19.0.

enum StreamStatus

Valori Descrizioni
Sconosciuto Lo stato del flusso di dati audio è sconosciuto.
Nodata Il flusso di dati audio non contiene dati.
PartialData Il flusso di dati audio contiene dati parziali di una richiesta parla.
Alldata Il flusso di dati audio contiene tutti i dati di una richiesta di parlato.
Cancellati Il flusso di dati audio è stato annullato.

Definisce lo stato possibile del flusso di dati audio. Aggiunta nella versione 1.4.0.

enum ServicePropertyChannel

Valori Descrizioni
UriQueryParameter Usa il parametro di query URI per passare le impostazioni delle proprietà al servizio.
HttpHeader Usa HttpHeader per impostare una chiave/valore in un'intestazione HTTP.

Definisce i canali usati per passare le impostazioni delle proprietà al servizio. Aggiunta nella versione 1.5.0.

enumerazione VoiceProfileType

Valori Descrizioni
TextIndependentIdentification Identificazione dell'altoparlante indipendente dal testo.
TextDependentVerification Verifica dell'altoparlante dipendente dal testo.
TextIndependentVerification Verifica indipendente dal testo.

Definisce i tipi di profilo vocale.

enum RecognitionFactorScope

Valori Descrizioni
PartialPhrase Un fattore di riconoscimento si applica alle grammatica a cui è possibile fare riferimento come singole frasi parziali.

Definisce l'ambito a cui viene applicato un fattore di riconoscimento.

enum PronunciationAssessmentGradingSystem

Valori Descrizioni
FivePoint Calibrazione a cinque punti.
HundredMark Cento segni.

Definisce il sistema di punti per la calibrazione del punteggio di pronuncia; il valore predefinito è FivePoint. Aggiunta nella versione 1.14.0.

enum PronunciationAssessmentGranularity

Valori Descrizioni
Fonema Mostra il punteggio sul livello full-text, word e phoneme.
Word Mostra il punteggio nel testo completo e a livello di parola.
FullText Mostra il punteggio solo a livello full-text.

Definisce la granularità della valutazione della pronuncia; il valore predefinito è Phoneme. Aggiunta nella versione 1.14.0.

enum SynthesisVoiceType

Valori Descrizioni
OnlineNeural Voce neurale online.
OnlineStandard Voce standard online.
OfflineNeural Voce neurale offline.
OfflineStandard Voce standard offline.

Definisce il tipo di voci di sintesi aggiunte nella versione 1.16.0.

enum SynthesisVoiceGender

Valori Descrizioni
Sconosciuto Sesso sconosciuto.
Female Voce femminile.
Male Voce maschile.

Definisce il sesso delle voci di sintesi aggiunte nella versione 1.17.0.

enum SpeechSynthesisBoundaryType

Valori Descrizioni
Word Word limite.
Punteggiatura Limite di punteggiatura.
frase Limite di frase.

Definisce il tipo di limite dell'evento limite di sintesi vocale Aggiunto nella versione 1.21.0.