ConversationTranscriber Classe
Oggetto che esegue operazioni di trascrizione della conversazione. Se è necessario specificare le informazioni sulla lingua di origine, specificare solo uno di questi tre parametri, lingua, source_language_config o auto_detect_source_language_config.
- Ereditarietà
-
ConversationTranscriber
Costruttore
ConversationTranscriber(speech_config: SpeechConfig, audio_config: AudioConfig = None, language: str = None, source_language_config: SourceLanguageConfig = None, auto_detect_source_language_config: AutoDetectSourceLanguageConfig = None)
Parametri
Nome | Descrizione |
---|---|
speech_config
Necessario
|
Configurazione per la trascrizione della conversazione |
audio_config
|
Configurazione per l'input audio valore predefinito: None
|
language
|
Lingua di origine valore predefinito: None
|
source_language_config
|
Configurazione della lingua di origine valore predefinito: None
|
auto_detect_source_language_config
|
Configurazione della lingua di origine del rilevamento automatico valore predefinito: None
|
Metodi
recognize_once |
Esegue il riconoscimento in modalità di blocco (sincrona). Restituisce il risultato dopo il riconoscimento di una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. L'attività restituisce il testo di riconoscimento come risultato. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async. |
recognize_once_async |
Esegue il riconoscimento in modalità non di blocco (asincrona). Verrà riconosciuta una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async. |
start_continuous_recognition |
Avvia in modo sincrono l'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento. |
start_continuous_recognition_async |
Avvia in modo asincrono un'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento. |
start_keyword_recognition |
Configura in modo sincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition() per terminare il riconoscimento avviato dalla parola chiave. |
start_keyword_recognition_async |
Configura in modo asincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async() per terminare il riconoscimento avviato dalla parola chiave. |
start_transcribing_async |
Avvia in modo asincrono la trascrizione della conversazione. |
stop_continuous_recognition |
Termina in modo sincrono l'operazione di riconoscimento continuo. |
stop_continuous_recognition_async |
Termina in modo asincrono l'operazione di riconoscimento continuo. |
stop_keyword_recognition |
Termina in modo sincrono il riconoscimento avviato dalla parola chiave. |
stop_keyword_recognition_async |
Termina in modo asincrono il riconoscimento avviato dalla parola chiave. |
stop_transcribing_async |
Arresta in modo asincrono la trascrizione della conversazione. |
recognize_once
Esegue il riconoscimento in modalità di blocco (sincrona). Restituisce il risultato dopo il riconoscimento di una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. L'attività restituisce il testo di riconoscimento come risultato. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.
recognize_once() -> SpeechRecognitionResult
Restituisce
Tipo | Descrizione |
---|---|
Valore del risultato del riconoscimento sincrono. |
recognize_once_async
Esegue il riconoscimento in modalità non di blocco (asincrona). Verrà riconosciuta una singola espressione. La fine di una singola espressione viene determinata restando in ascolto del silenzio al termine o finché non vengono elaborati al massimo 15 secondi di audio. Per il riconoscimento prolungato e a più espressioni, usare start_continuous_recognition_async.
recognize_once_async() -> ResultFuture
Restituisce
Tipo | Descrizione |
---|---|
Valore futuro contenente il valore del risultato del riconoscimento asincrono. |
start_continuous_recognition
Avvia in modo sincrono l'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.
start_continuous_recognition()
start_continuous_recognition_async
Avvia in modo asincrono un'operazione di riconoscimento continuo. Per ricevere i risultati del riconoscimento, l'utente deve connettersi a EventSignal. Chiamare stop_continuous_recognition_async per arrestare il riconoscimento.
start_continuous_recognition_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento. |
start_keyword_recognition
Configura in modo sincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition() per terminare il riconoscimento avviato dalla parola chiave.
start_keyword_recognition(model: KeywordRecognitionModel)
Parametri
Nome | Descrizione |
---|---|
model
Necessario
|
modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere. |
start_keyword_recognition_async
Configura in modo asincrono il riconoscitore con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il riconoscitore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async() per terminare il riconoscimento avviato dalla parola chiave.
start_keyword_recognition_async(model: KeywordRecognitionModel)
Parametri
Nome | Descrizione |
---|---|
model
Necessario
|
modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere. |
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento. |
start_transcribing_async
Avvia in modo asincrono la trascrizione della conversazione.
start_transcribing_async() -> ResultFuture
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo l'avvio della trascrizione della conversazione. |
stop_continuous_recognition
Termina in modo sincrono l'operazione di riconoscimento continuo.
stop_continuous_recognition()
stop_continuous_recognition_async
Termina in modo asincrono l'operazione di riconoscimento continuo.
stop_continuous_recognition_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato. |
stop_keyword_recognition
Termina in modo sincrono il riconoscimento avviato dalla parola chiave.
stop_keyword_recognition()
stop_keyword_recognition_async
Termina in modo asincrono il riconoscimento avviato dalla parola chiave.
stop_keyword_recognition_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato. |
stop_transcribing_async
Arresta in modo asincrono la trascrizione della conversazione.
stop_transcribing_async() -> ResultFuture
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto una volta arrestata la trascrizione della conversazione. |
Attributi
authorization_token
Token di autorizzazione che verrà usato per la connessione al servizio.
Nota
Il chiamante deve assicurarsi che il token di autorizzazione sia valido. Prima della
il token di autorizzazione scade, il chiamante deve aggiornarlo chiamando questo setter con un
nuovo token valido. Man mano che i valori di configurazione vengono copiati durante la creazione di un nuovo riconoscitore,
il nuovo valore del token non verrà applicato ai riconoscitori che sono già stati creati. For
riconoscitori creati in precedenza, è necessario impostare il token di autorizzazione del
riconoscitore corrispondente per aggiornare il token. In caso contrario, i riconoscitori incontreranno
errori durante la trascrizione.
canceled
Segnalare gli eventi contenenti risultati di trascrizione annullati (che indica un tentativo di trascrizione annullato come risultato o una richiesta di annullamento diretto o, in alternativa, un errore di trasporto o protocollo).
I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionCanceledEventArgsdi , come singolo argomento.
endpoint_id
ID endpoint di un modello di riconoscimento vocale personalizzato usato per il riconoscimento o un modello di voce personalizzato per la sintesi vocale.
properties
Raccolta di proprietà e dei relativi valori definiti per questo partecipante.
recognized
Segnale per gli eventi contenenti i risultati finali del riconoscimento (che indica un tentativo di riconoscimento riuscito).
I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsTranslationRecognitionEventArgs o IntentRecognitionEventArgs come singolo argomento, a seconda del tipo di riconoscitore.
recognizing
Segnalare gli eventi contenenti risultati intermedi del riconoscimento.
I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsTranslationRecognitionEventArgs o IntentRecognitionEventArgs come singolo argomento, a seconda del tipo di riconoscitore.
session_started
Segnale per gli eventi che indicano l'inizio di una sessione di riconoscimento (operazione).
I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.
session_stopped
Segnale per gli eventi che indicano la fine di una sessione di riconoscimento (operazione).
I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.
speech_end_detected
Segnale per gli eventi che indicano la fine del parlato.
I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.
speech_start_detected
Segnale per gli eventi che indicano l'inizio del parlato.
I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.
transcribed
Segnale per gli eventi contenenti risultati finali della trascrizione (che indica un tentativo di trascrizione riuscito).
I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionEventArgsdi , come singolo argomento.
transcribing
Segnale per gli eventi contenenti risultati intermedi della trascrizione.
I callback connessi a questo segnale vengono chiamati con un'istanza ConversationTranscriptionEventArgsdi , come singolo argomento.
Azure SDK for Python