DialogServiceConnector Classe
Oggetto che comunica con un sistema di dialogo abilitato per la voce usando Bot Framework o Comandi personalizzati. Questo tipo riceve i risultati voce-a-testo e facilita anche l'invio asincrono e la ricezione di dati dell'attività del dialogo non vocale.
- Ereditarietà
-
builtins.objectDialogServiceConnector
Costruttore
DialogServiceConnector(dialog_service_config: DialogServiceConfig, audio_config: AudioConfig | None = None)
Parametri
Nome | Descrizione |
---|---|
dialog_service_config
Necessario
|
Configurazione per il servizio di dialogo, per il framework bot o i comandi personalizzati. |
audio_config
|
Configurazione dell'input audio. valore predefinito: None
|
Metodi
connect |
Stabilisce in modo sincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale. In caso contrario, la connessione potrebbe non essere ancora pronta. Sottoscrivere l'evento connesso dell'istanza di connessione per ricevere una notifica quando viene stabilita la connessione al servizio. Usare Connection per recuperare l'istanza usando from_dialog_service_connector il metodo . |
connect_async |
Stabilisce in modo asincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale. |
disconnect |
Disconnette in modo sincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale. |
disconnect_async |
Disconnette in modo asincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale. |
listen_once |
Avvia in modo sincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-a-testo. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività. |
listen_once_async |
Avvia in modo asincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-to-text. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività. |
send_activity |
Invia in modo sincrono un payload di dati al servizio back-end della finestra di dialogo a cui è connessa l'istanza di DialogServiceConnector. Questo è in genere un documento JSON con il relativo schema determinato dall'implementazione del dialogo nel servizio e il contenuto di un'attività inviata deve essere popolato con conoscenza del formato e delle aspettative del contenuto del sistema di dialogo. Le attività inviate non sono associate ad altre interazioni e genereranno il proprio identificatore di interazione autonoma quando elaborato dal servizio. La correlazione delle conversazioni e di altre interazioni deve essere eseguita tramite il payload dell'attività stessa usando le funzionalità dell'implementazione del dialogo usata. |
send_activity_async |
Invia in modo asincrono un'attività al dialogo di backup, vedere i dettagli della descrizione all'indirizzo send_activity |
start_keyword_recognition |
Avvia in modo sincrono un'interazione vocale a testo con questo connettore usando una parola chiave. Questa interazione userà il modello di parola chiave fornito per ascoltare una parola chiave indefinita, durante la quale l'audio non viene inviato al servizio voce e tutte le elaborazioni vengono eseguite in locale. Quando viene riconosciuta una parola chiave, DialogServiceConnector si connetterà automaticamente al servizio voce e inizierà a inviare dati audio da appena prima della parola chiave come se listen_once_async fosse stato richiamato. Quando ricevuti, i risultati del riconoscimento vocale possono essere elaborati dal gestore dei risultati specificato o recuperati tramite una sottoscrizione all'evento riconosciuto. Il risultato voce-a-testo prodotto da questa operazione viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività. Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave. |
start_keyword_recognition_async |
Configura in modo asincrono il connettore del servizio di dialogo con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il connettore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave. Vedere start_keyword_recognition per una descrizione dettagliata della funzionalità. |
stop_keyword_recognition |
Si arresta in modo sincrono il riconoscimento avviato dalla parola chiave. |
stop_keyword_recognition_async |
Arresta in modo asincrono il riconoscimento avviato dalla parola chiave. |
stop_listening |
Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto. I metodi sincroni non devono essere chiamati durante la gestione di un evento. Usare stop_listening_async se un arresto è desiderato in risposta a un evento. |
stop_listening_async |
Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto. |
connect
Stabilisce in modo sincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.
In caso contrario, la connessione potrebbe non essere ancora pronta. Sottoscrivere l'evento connesso dell'istanza di connessione per ricevere una notifica quando viene stabilita la connessione al servizio. Usare Connection per recuperare l'istanza usando from_dialog_service_connector il metodo .
connect()
connect_async
Stabilisce in modo asincrono una connessione con il servizio. La connessione viene eseguita automaticamente quando necessario, ma questa chiamata manuale può essere utile per assicurarsi che la connessione sia attiva prima del primo uso per ridurre la latenza iniziale.
connect_async()
Restituisce
Tipo | Descrizione |
---|---|
Futuro che viene soddisfatto dopo l'inizializzazione della connessione. |
disconnect
Disconnette in modo sincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.
disconnect()
disconnect_async
Disconnette in modo asincrono dal servizio. Le chiamate successive che richiedono una connessione continueranno a riconnettersi automaticamente dopo la disconnessione manuale.
disconnect_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto quando si disconnette. |
listen_once
Avvia in modo sincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-a-testo. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.
listen_once() -> SpeechRecognitionResult
Restituisce
Tipo | Descrizione |
---|---|
risultato del riconoscimento vocale da parte del riconoscimento vocale. |
listen_once_async
Avvia in modo asincrono un'interazione voce-a-testo con questo connettore e blocca fino a quando non viene ricevuto un singolo risultato finale voce-to-text. Il risultato voce-a-testo ricevuto viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.
listen_once_async() -> ResultFuture
Restituisce
Tipo | Descrizione |
---|---|
Futuro contenente il valore del risultato voce-a-testo del riconoscimento asincrono. |
send_activity
Invia in modo sincrono un payload di dati al servizio back-end della finestra di dialogo a cui è connessa l'istanza di DialogServiceConnector. Questo è in genere un documento JSON con il relativo schema determinato dall'implementazione del dialogo nel servizio e il contenuto di un'attività inviata deve essere popolato con conoscenza del formato e delle aspettative del contenuto del sistema di dialogo. Le attività inviate non sono associate ad altre interazioni e genereranno il proprio identificatore di interazione autonoma quando elaborato dal servizio. La correlazione delle conversazioni e di altre interazioni deve essere eseguita tramite il payload dell'attività stessa usando le funzionalità dell'implementazione del dialogo usata.
send_activity(activity: str) -> str
Parametri
Nome | Descrizione |
---|---|
activity
Necessario
|
payload serializzato di un'attività da inviare. |
Restituisce
Tipo | Descrizione |
---|---|
identificatore di interazione acquisito quando l'attività viene riconosciuta dal servizio. Ciò può verificarsi prima che l'attività venga elaborata e valutata dall'implementazione del dialogo e la ricezione di un identificatore di interazione non indica alcun esito positivo o negativo nell'elaborazione dell'attività. Le informazioni sull'esito positivo o negativo possono essere ottenute tramite attività di risposta con dati di correlazione o con eventi TurnStatusReceived correlati a questo identificatore di interazione. |
send_activity_async
Invia in modo asincrono un'attività al dialogo di backup, vedere i dettagli della descrizione all'indirizzo send_activity
send_activity_async(activity: str) -> ResultFuture
Parametri
Nome | Descrizione |
---|---|
activity
Necessario
|
payload serializzato di un'attività da inviare. |
Restituisce
Tipo | Descrizione |
---|---|
Futuro contenente il valore del risultato dell'operazione di invio dell'attività asincrona. |
start_keyword_recognition
Avvia in modo sincrono un'interazione vocale a testo con questo connettore usando una parola chiave. Questa interazione userà il modello di parola chiave fornito per ascoltare una parola chiave indefinita, durante la quale l'audio non viene inviato al servizio voce e tutte le elaborazioni vengono eseguite in locale. Quando viene riconosciuta una parola chiave, DialogServiceConnector si connetterà automaticamente al servizio voce e inizierà a inviare dati audio da appena prima della parola chiave come se listen_once_async fosse stato richiamato. Quando ricevuti, i risultati del riconoscimento vocale possono essere elaborati dal gestore dei risultati specificato o recuperati tramite una sottoscrizione all'evento riconosciuto. Il risultato voce-a-testo prodotto da questa operazione viene fornito anche all'implementazione del dialogo configurata e che il sistema di dialogo può produrre qualsiasi numero di payload attività in risposta all'interazione vocale. Le interazioni vocali possono essere correlate alle attività tramite dati specifici del dialogo nel payload dell'attività.
Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.
start_keyword_recognition(model: KeywordRecognitionModel)
Parametri
Nome | Descrizione |
---|---|
model
Necessario
|
modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere. |
start_keyword_recognition_async
Configura in modo asincrono il connettore del servizio di dialogo con il modello di parole chiave specificato. Dopo aver chiamato questo metodo, il connettore è in ascolto della parola chiave per avviare il riconoscimento. Chiamare stop_keyword_recognition_async per arrestare il riconoscimento avviato dalla parola chiave.
Vedere start_keyword_recognition per una descrizione dettagliata della funzionalità.
start_keyword_recognition_async(model: KeywordRecognitionModel)
Parametri
Nome | Descrizione |
---|---|
model
Necessario
|
modello di riconoscimento delle parole chiave che specifica la parola chiave da riconoscere. |
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo l'inizializzazione del riconoscimento. |
stop_keyword_recognition
Si arresta in modo sincrono il riconoscimento avviato dalla parola chiave.
stop_keyword_recognition()
stop_keyword_recognition_async
Arresta in modo asincrono il riconoscimento avviato dalla parola chiave.
stop_keyword_recognition_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto dopo che il riconoscimento è stato arrestato. |
stop_listening
Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.
I metodi sincroni non devono essere chiamati durante la gestione di un evento. Usare stop_listening_async se un arresto è desiderato in risposta a un evento.
stop_listening()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto una volta che l'ascolto è stato arrestato. |
stop_listening_async
Richiede un arresto immediato a qualsiasi operazione di ascolto attiva. Ciò può interrompere un'interazione voce-a-testo in corso e qualsiasi risultato vocale ricevuto può rappresentare un input vocale incompleto.
stop_listening_async()
Restituisce
Tipo | Descrizione |
---|---|
Un futuro che viene soddisfatto una volta che l'ascolto è stato arrestato. |
Attributi
activity_received
Segnala che un'attività è stata ricevuta dal back-end.
I callback connessi a questo segnale vengono chiamati con un'istanza ActivityReceivedEventArgsdi , come singolo argomento, dipendente dal tipo di riconoscimento.
authorization_token
Token di autorizzazione che verrà usato per la connessione al servizio.
Nota
Il chiamante deve assicurarsi che il token di autorizzazione sia valido. Prima dell'oggetto
il token di autorizzazione scade, il chiamante deve aggiornarlo chiamando questo setter con un
nuovo token valido. In caso contrario, il riconoscimento rileva errori durante il riconoscimento.
canceled
Segnale per gli eventi contenenti risultati di riconoscimento annullati (che indica un tentativo di riconoscimento annullato come risultato o una richiesta di annullamento diretta o, in alternativa, un errore di trasporto o protocollo).
I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionCanceledEventArgsdi , come singolo argomento.
recognized
Segnale per gli eventi contenenti risultati di riconoscimento finale (che indica un tentativo di riconoscimento riuscito).
I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsdi , come singolo argomento, dipendente dal tipo di riconoscimento.
recognizing
Segnale per gli eventi contenenti risultati di riconoscimento intermedio.
I callback connessi a questo segnale vengono chiamati con un'istanza SpeechRecognitionEventArgsdi , come singolo argomento.
session_started
Segnale per gli eventi che indicano l'inizio di una sessione di riconoscimento (operazione).
I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.
session_stopped
Segnale per gli eventi che indicano la fine di una sessione di riconoscimento (operazione).
I callback connessi a questo segnale vengono chiamati con un'istanza SessionEventArgs come singolo argomento.
speech_activity_template
Ottiene il modello JSON che verrà fornito al servizio voce per la conversazione successiva. Il servizio tenterà di unire questo modello in tutte le attività inviate al back-end della finestra di dialogo, indipendentemente dall'origine dal client con SendActivityAsync o generato dal servizio, come accade con i risultati voce-a-testo.
speech_end_detected
Segnale per gli eventi che indicano la fine della voce.
I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.
speech_start_detected
Segnale per gli eventi che indicano l'inizio della voce.
I callback connessi a questo segnale vengono chiamati con un'istanza RecognitionEventArgs come singolo argomento.
turn_status_received
Segnala che un aggiornamento dello stato di turno è stato ricevuto dal back-end.
I callback connessi a questo segnale vengono chiamati con un'istanza TurnStatusReceivedEventArgsdi , come singolo argomento.
Azure SDK for Python