DialogServiceConnector Classe

Oggetto che comunica con un sistema di dialogo abilitato per la voce usando Bot Framework o Comandi personalizzati. Questo tipo riceve i risultati voce-a-testo e facilita anche l'invio asincrono e la ricezione di dati dell'attività del dialogo non vocale.

Ereditarietà
builtins.object
DialogServiceConnector

Costruttore

DialogServiceConnector(dialog_service_config: DialogServiceConfig, audio_config: AudioConfig | None = None)

Parametri

Nome Descrizione
dialog_service_config
Necessario

Configurazione per il servizio di dialogo, per il framework bot o i comandi personalizzati.

audio_config

Configurazione dell'input audio.

valore predefinito: None

Metodi

connect

Stabilisce in modo sincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.

In caso contrario, la connessione potrebbe non essere ancora pronta. Sottoscrivere l'evento connesso dell'istanza di connessione per ricevere una notifica quando viene stabilita la connessione al servizio. Usare Connection per recuperare l'istanza usando from_dialog_service_connector il metodo .

connect_async

Stabilisce in modo asincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.

disconnect

Disconnette in modo sincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.

disconnect_async

Disconnette in modo asincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.

listen_once

Avvia in modo sincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-a-testo. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

listen_once_async

Avvia in modo asincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-to-text. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

send_activity

Invia in modo sincrono un payload di dati al servizio back-end della finestra di dialogo a cui è connessa l'istanza di DialogServiceConnector. Questo è in genere un documento JSON con il relativo schema determinato dall'implementazione del dialogo nel servizio e il contenuto di un'attività inviata deve essere popolato con conoscenza del formato e delle aspettative del contenuto del sistema di dialogo. Le attività inviate non sono associate ad altre interazioni e genereranno il proprio identificatore di interazione autonoma quando elaborato dal servizio. La correlazione delle conversazioni e di altre interazioni deve essere eseguita tramite il payload dell'attività stessa usando le funzionalità dell'implementazione del dialogo usata.

send_activity_async

Invia in modo asincrono un'attività al dialogo di backup, vedere i dettagli della descrizione all'indirizzo send_activity

start_keyword_recognition

Avvia in modo sincrono un'interazione vocale a testo con questo connettore usando una parola chiave. Questa interazione userà il modello di parola chiave fornito per ascoltare una parola chiave indefinita, durante la quale l'audio non viene inviato al servizio voce e tutte le elaborazioni vengono eseguite in locale. Quando viene riconosciuta una parola chiave, DialogServiceConnector si connetterà automaticamente al servizio voce e inizierà a inviare dati audio da appena prima della parola chiave come se listen_once_async fosse stato richiamato. Quando ricevuti, i risultati del riconoscimento vocale possono essere elaborati dal gestore dei risultati specificato o recuperati tramite una sottoscrizione all'evento riconosciuto. Il risultato voce-a-testo prodotto da questa operazione viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.

start_keyword_recognition_async

Configura in modo asincrono il connettore del servizio di dialogo con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il connettore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.

Vedere start_keyword_recognition per una descrizione dettagliata della funzionalità.

stop_keyword_recognition

Si arresta in modo sincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition_async

Arresta in modo asincrono il riconoscimento avviato dalla parola chiave.

stop_listening

Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.

I metodi sincroni non devono essere chiamati durante la gestione di un evento. Usare stop_listening_async se un arresto è desiderato in risposta a un evento.

stop_listening_async

Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.

connect

Stabilisce in modo sincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.

In caso contrario, la connessione potrebbe non essere ancora pronta. Sottoscrivere l'evento connesso dell'istanza di connessione per ricevere una notifica quando viene stabilita la connessione al servizio. Usare Connection per recuperare l'istanza usando from_dialog_service_connector il metodo .

connect()

connect_async

Stabilisce in modo asincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.

connect_async()

Restituisce

Tipo Descrizione

Futuro che viene soddisfatto dopo l'inizializzazione della connessione.

disconnect

Disconnette in modo sincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.

disconnect()

disconnect_async

Disconnette in modo asincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.

disconnect_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto quando si disconnette.

listen_once

Avvia in modo sincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-a-testo. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

listen_once() -> SpeechRecognitionResult

Restituisce

Tipo Descrizione

risultato del riconoscimento vocale da parte del riconoscimento vocale.

listen_once_async

Avvia in modo asincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-to-text. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

listen_once_async() -> ResultFuture

Restituisce

Tipo Descrizione

Futuro contenente il valore del risultato voce-a-testo del riconoscimento asincrono.

send_activity

Invia in modo sincrono un payload di dati al servizio back-end della finestra di dialogo a cui è connessa l'istanza di DialogServiceConnector. Questo è in genere un documento JSON con il relativo schema determinato dall'implementazione del dialogo nel servizio e il contenuto di un'attività inviata deve essere popolato con conoscenza del formato e delle aspettative del contenuto del sistema di dialogo. Le attività inviate non sono associate ad altre interazioni e genereranno il proprio identificatore di interazione autonoma quando elaborato dal servizio. La correlazione delle conversazioni e di altre interazioni deve essere eseguita tramite il payload dell'attività stessa usando le funzionalità dell'implementazione del dialogo usata.

send_activity(activity: str) -> str

Parametri

Nome Descrizione
activity
Necessario

payload serializzato di un'attività da inviare.

Restituisce

Tipo Descrizione

identificatore di interazione acquisito quando l'attività viene riconosciuta dal servizio. Ciò può verificarsi prima che l'attività venga elaborata e valutata dall'implementazione del dialogo e la ricezione di un identificatore di interazione non indica alcun esito positivo o negativo nell'elaborazione dell'attività. Le informazioni sull'esito positivo o negativo possono essere ottenute tramite attività di risposta con dati di correlazione o con eventi TurnStatusReceived correlati a questo identificatore di interazione.

send_activity_async

Invia in modo asincrono un'attività al dialogo di backup, vedere i dettagli della descrizione all'indirizzo send_activity

send_activity_async(activity: str) -> ResultFuture

Parametri

Nome Descrizione
activity
Necessario

payload serializzato di un'attività da inviare.

Restituisce

Tipo Descrizione

Futuro contenente il valore del risultato dell'operazione di invio dell'attività asincrona.

start_keyword_recognition

Avvia in modo sincrono un'interazione vocale a testo con questo connettore usando una parola chiave. Questa interazione userà il modello di parola chiave fornito per ascoltare una parola chiave indefinita, durante la quale l'audio non viene inviato al servizio voce e tutte le elaborazioni vengono eseguite in locale. Quando viene riconosciuta una parola chiave, DialogServiceConnector si connetterà automaticamente al servizio voce e inizierà a inviare dati audio da appena prima della parola chiave come se listen_once_async fosse stato richiamato. Quando ricevuti, i risultati del riconoscimento vocale possono essere elaborati dal gestore dei risultati specificato o recuperati tramite una sottoscrizione all'evento riconosciuto. Il risultato voce-a-testo prodotto da questa operazione viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.

Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.

start_keyword_recognition(model: KeywordRecognitionModel)

Parametri

Nome Descrizione
model
Necessario

modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere.

start_keyword_recognition_async

Configura in modo asincrono il connettore del servizio di dialogo con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il connettore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.

Vedere start_keyword_recognition per una descrizione dettagliata della funzionalità.

start_keyword_recognition_async(model: KeywordRecognitionModel)

Parametri

Nome Descrizione
model
Necessario

modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere.

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento.

stop_keyword_recognition

Si arresta in modo sincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition()

stop_keyword_recognition_async

Arresta in modo asincrono il riconoscimento avviato dalla parola chiave.

stop_keyword_recognition_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato.

stop_listening

Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.

I metodi sincroni non devono essere chiamati durante la gestione di un evento. Usare stop_listening_async se un arresto è desiderato in risposta a un evento.

stop_listening()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto una volta che l'ascolto è stato arrestato.

stop_listening_async

Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.

stop_listening_async()

Restituisce

Tipo Descrizione

Un futuro che viene soddisfatto una volta che l'ascolto è stato arrestato.

Attributi

activity_received

Segnala che un'attività è stata ricevuta dal back-end.

I callback connessi a questo segnale vengono chiamati con un'istanza ActivityReceivedEventArgsdi , come singolo argomento, dipendente dal tipo di riconoscimento.

authorization_token

Token di autorizzazione che verrà usato per la connessione al servizio.

Nota

Il chiamante deve assicurarsi che il token di autorizzazione sia valido. Prima dell'oggetto

il token di autorizzazione scade, il chiamante deve aggiornarlo chiamando questo setter con un

nuovo token valido. In caso contrario, il riconoscimento rileva errori durante il riconoscimento.

canceled

Segnale per gli eventi contenenti risultati di riconoscimento annullati (che indica un tentativo di riconoscimento annullato come risultato o una richiesta di annullamento diretta o, in alternativa, un errore di trasporto o protocollo).

I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionCanceledEventArgsdi , come singolo argomento.

recognized

Segnale per gli eventi contenenti risultati di riconoscimento finale (che indica un tentativo di riconoscimento riuscito).

I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsdi , come singolo argomento, dipendente dal tipo di riconoscimento.

recognizing

Segnale per gli eventi contenenti risultati di riconoscimento intermedio.

I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsdi , come singolo argomento.

session_started

Segnale per gli eventi che indicano l'inizio di una sessione di riconoscimento (operazione).

I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.

session_stopped

Segnale per gli eventi che indicano la fine di una sessione di riconoscimento (operazione).

I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.

speech_activity_template

Ottiene il modello JSON che verrà fornito al servizio voce per la conversazione successiva. Il servizio tenterà di unire questo modello in tutte le attività inviate al back-end della finestra di dialogo, indipendentemente dall'origine dal client con SendActivityAsync o generato dal servizio, come accade con i risultati voce-a-testo.

speech_end_detected

Segnale per gli eventi che indicano la fine della voce.

I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.

speech_start_detected

Segnale per gli eventi che indicano l'inizio della voce.

I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.

turn_status_received

Segnala che un aggiornamento dello stato di turno è stato ricevuto dal back-end.

I callback connessi a questo segnale vengono chiamati con un'istanza TurnStatusReceivedEventArgsdi , come singolo argomento.