ConversationTranscriber Classe

Oggetto che esegue operazioni di trascrizione della conversazione. Se è necessario specificare le informazioni sulla lingua di origine, specificare solo uno di questi tre parametri, lingua, source_language_config o auto_detect_source_language_config.

Ereditarietà
ConversationTranscriber

Costruttore

ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)

Parametri

Nome Descrizione
speech_config
Necessario

Configurazione per la trascrizione della conversazione

audio_config

Configurazione per l'input audio

valore predefinito: None
language

Lingua di origine

valore predefinito: None
source_language_config

Configurazione della lingua di origine

valore predefinito: None
auto_detect_source_language_config

Configurazione della lingua di origine del rilevamento automatico

valore predefinito: None

Metodi

recognize_once

Esegue il riconoscimento in modalità di blocco (sincrona). Restituisce il risultato dopo il riconoscimento di una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. L'attività restituisce il testo di riconoscimento come risultato. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.

recognize_once_async

Esegue il riconoscimento in modalità non di blocco (asincrona). Verrà riconosciuta una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.

start_continuous_recognition

Avvia in modo sincrono l'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.

start_continuous_recognition_async

Avvia in modo asincrono un'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.

start_keyword_recognition

Configura in modo sincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition() per terminare il riconoscimento avviato dalla parola chiave.

start_keyword_recognition_async

Configura in modo asincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async() per terminare il riconoscimento avviato dalla parola chiave.

start_transcribing_async

Avvia in modo asincrono la trascrizione della conversazione.

stop_continuous_recognition

Termina in modo sincrono l'operazione di riconoscimento continuo.

stop_continuous_recognition_async

Termina in modo asincrono l'operazione di riconoscimento continuo.

stop_keyword_recognition

Termina in modo sincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition_async

Termina in modo asincrono il riconoscimento avviato dalla parola chiave.

stop_transcribing_async

Arresta in modo asincrono la trascrizione della conversazione.

recognize_once

Esegue il riconoscimento in modalità di blocco (sincrona). Restituisce il risultato dopo il riconoscimento di una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. L'attività restituisce il testo di riconoscimento come risultato. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.

recognize_once() -> SpeechRecognitionResult

Restituisce

Tipo Descrizione

Valore del risultato del riconoscimento sincrono.

recognize_once_async

Esegue il riconoscimento in modalità non di blocco (asincrona). Verrà riconosciuta una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.

recognize_once_async() -> ResultFuture

Restituisce

Tipo Descrizione

Valore futuro contenente il valore del risultato del riconoscimento asincrono.

start_continuous_recognition

Avvia in modo sincrono l'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.

start_continuous_recognition()

start_continuous_recognition_async

Avvia in modo asincrono un'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.

start_continuous_recognition_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento.

start_keyword_recognition

Configura in modo sincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition() per terminare il riconoscimento avviato dalla parola chiave.

start_keyword_recognition(model: KeywordRecognitionModel)

Parametri

Nome Descrizione
model
Necessario

modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere.

start_keyword_recognition_async

Configura in modo asincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async() per terminare il riconoscimento avviato dalla parola chiave.

start_keyword_recognition_async(model: KeywordRecognitionModel)

Parametri

Nome Descrizione
model
Necessario

modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere.

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento.

start_transcribing_async

Avvia in modo asincrono la trascrizione della conversazione.

start_transcribing_async() -> ResultFuture

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo l'avvio della trascrizione della conversazione.

stop_continuous_recognition

Termina in modo sincrono l'operazione di riconoscimento continuo.

stop_continuous_recognition()

stop_continuous_recognition_async

Termina in modo asincrono l'operazione di riconoscimento continuo.

stop_continuous_recognition_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato.

stop_keyword_recognition

Termina in modo sincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition()

stop_keyword_recognition_async

Termina in modo asincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato.

stop_transcribing_async

Arresta in modo asincrono la trascrizione della conversazione.

stop_transcribing_async() -> ResultFuture

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto una volta arrestata la trascrizione della conversazione.

Attributi

authorization_token

Token di autorizzazione che verrà usato per la connessione al servizio.

Nota

Il chiamante deve assicurarsi che il token di autorizzazione sia valido. Prima della

il token di autorizzazione scade, il chiamante deve aggiornarlo chiamando questo setter con un

nuovo token valido. Man mano che i valori di configurazione vengono copiati durante la creazione di un nuovo riconoscitore,

il nuovo valore del token non verrà applicato ai riconoscitori che sono già stati creati. For

riconoscitori creati in precedenza, è necessario impostare il token di autorizzazione del

riconoscitore corrispondente per aggiornare il token. In caso contrario, i riconoscitori incontreranno

errori durante la trascrizione.

canceled

Segnalare gli eventi contenenti risultati di trascrizione annullati (che indica un tentativo di trascrizione annullato come risultato o una richiesta di annullamento diretto o, in alternativa, un errore di trasporto o protocollo).

I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionCanceledEventArgsdi , come singolo argomento.

endpoint_id

ID endpoint di un modello di riconoscimento vocale personalizzato usato per il riconoscimento o un modello di voce personalizzato per la sintesi vocale.

properties

Raccolta di proprietà e dei relativi valori definiti per questo partecipante.

recognized

Segnale per gli eventi contenenti i risultati finali del riconoscimento (che indica un tentativo di riconoscimento riuscito).

I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsTranslationRecognitionEventArgs o IntentRecognitionEventArgs come singolo argomento, a seconda del tipo di riconoscitore.

recognizing

Segnalare gli eventi contenenti risultati intermedi del riconoscimento.

I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsTranslationRecognitionEventArgs o IntentRecognitionEventArgs come singolo argomento, a seconda del tipo di riconoscitore.

session_started

Segnale per gli eventi che indicano l'inizio di una sessione di riconoscimento (operazione).

I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.

session_stopped

Segnale per gli eventi che indicano la fine di una sessione di riconoscimento (operazione).

I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.

speech_end_detected

Segnale per gli eventi che indicano la fine del parlato.

I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.

speech_start_detected

Segnale per gli eventi che indicano l'inizio del parlato.

I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.

transcribed

Segnale per gli eventi contenenti risultati finali della trascrizione (che indica un tentativo di trascrizione riuscito).

I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionEventArgsdi , come singolo argomento.

transcribing

Segnale per gli eventi contenenti risultati intermedi della trascrizione.

I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionEventArgsdi , come singolo argomento.