com.microsoft.cognitiveservices.speech
Classes
AudioDataStream |
Representa o fluxo de dados de áudio usado para operar dados de áudio como um fluxo. |
AutoDetectSourceLanguageConfig |
Representa a configuração de idioma de origem de detecção automática usada para especificar os possíveis candidatos ao idioma de origem Observação: close() deve ser chamado para liberar recursos subjacentes mantidos pelo objeto . |
AutoDetectSourceLanguageResult |
Representa o resultado da detecção automática de idiomas de origem adicionados na versão 1.8.0 |
CancellationDetails |
Contém informações detalhadas sobre por que um resultado foi cancelado. |
ClassLanguageModel |
Representa um modelo de linguagem |
Connection |
Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Reconhecedor especificado. |
ConnectionEventArgs |
Define o conteúdo para eventos de conexão como Conectado/Desconectado. |
ConnectionMessage |
A Mensagem de Conexão |
ConnectionMessageEventArgs |
Define o conteúdo dos eventos Recebidos da Mensagem |
Diagnostics |
Registro em log nativo e outros diagnóstico |
EmbeddedSpeechConfig |
Classe que define a configuração de fala inserida (offline). |
Grammar |
Representa uma gramática genérica usada para ajudar a melhorar a precisão do recogniton de fala. |
GrammarList |
Permite adicionar várias gramáticas a um Reconhecedor de Fala |
HybridSpeechConfig |
Classe que define configurações híbridas (em nuvem e inseridas) para reconhecimento de fala e síntese de fala. |
KeywordRecognitionEventArgs |
Define o conteúdo de um palavra-chave reconhecendo/reconhecendo eventos. |
KeywordRecognitionModel |
Representa um modelo de reconhecimento de palavra-chave para reconhecer quando o usuário diz que um palavra-chave para iniciar o reconhecimento de fala adicional. |
KeywordRecognitionResult |
Define o resultado do reconhecimento de palavra-chave. |
KeywordRecognizer |
Executa palavra-chave reconhecimento na entrada de fala. |
NoMatchDetails |
Contém informações detalhadas para resultados de reconhecimento Sem |
PhraseListGrammar |
Permite adições de novas frases para melhorar o reconhecimento de fala. |
PronunciationAssessmentConfig |
Representa a configuração da avaliação de pronúncia. |
PronunciationAssessmentResult |
Representa o resultado da avaliação de pronúncia. |
PropertyCollection |
Representa a coleção de propriedades e seus valores. |
RecognitionEventArgs |
Define o conteúdo para eventos de reconhecimento, como Início/Término de Fala Detectado |
RecognitionResult |
Contém informações detalhadas sobre o resultado de uma operação de reconhecimento. |
Recognizer |
Define o Reconhecedor de classe base que contém principalmente manipuladores de eventos comuns. |
SessionEventArgs |
Define o conteúdo para eventos Iniciados/Interrompidos da Sessão |
SourceLanguageConfig |
Representa a configuração do idioma de origem usada para especificar o idioma de origem do reconhecimento. |
SpeechConfig |
Configuração de fala. |
SpeechRecognitionCanceledEventArgs |
Define a carga de eventos cancelados de reconhecimento de fala. |
SpeechRecognitionEventArgs |
Define o conteúdo do evento de reconhecimento/reconhecimento de fala. |
SpeechRecognitionModel |
Contém informações detalhadas do modelo de reconhecimento de fala. |
SpeechRecognitionResult |
Define o resultado do reconhecimento de fala. |
SpeechRecognizer |
Executa o reconhecimento de fala de microfone, arquivo ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado. |
SpeechSynthesisBookmarkEventArgs |
Define o conteúdo do evento de indicador de síntese de fala. |
SpeechSynthesisCancellationDetails |
Contém informações detalhadas sobre por que uma síntese de fala foi cancelada. |
SpeechSynthesisEventArgs |
Define o conteúdo do evento relacionado à síntese de fala. |
SpeechSynthesisResult |
Contém informações detalhadas sobre o resultado de uma operação de síntese de fala. |
SpeechSynthesisVisemeEventArgs |
Define o conteúdo do evento de visema de síntese de fala. |
SpeechSynthesisWordBoundaryEventArgs |
Define o conteúdo do evento de limite de palavra de síntese de fala. |
SpeechSynthesizer |
Executa a síntese de fala para alto-falante, arquivo ou outros fluxos de saída de áudio e obtém áudio sintetizado como resultado. |
SpeechTranslationModel |
Contém informações detalhadas do modelo de tradução de fala. |
SynthesisVoicesResult |
Contém informações detalhadas sobre a lista de vozes de síntese recuperada. |
VoiceInfo |
Contém informações detalhadas sobre as informações de voz de síntese. |
Enumerações
CancellationErrorCode |
Define o código de erro caso o Motivo do Cancelamento |
CancellationReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado. |
NoMatchReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido. |
OutputFormat |
Definir formatos de saída do Reconhecimento de Fala. |
ProfanityOption |
Defina a opção de conteúdo ofensivo para o resultado da resposta. |
PronunciationAssessmentGradingSystem |
Define o sistema de pontos para calibragem de pontuação de pronúncia; O valor padrão é Five |
PronunciationAssessmentGranularity |
Define a granularidade da avaliação de pronúncia; O valor padrão é Phoneme. |
PropertyId |
Define ids de propriedade. |
ResultReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado. |
ServicePropertyChannel |
Define os canais usados para enviar propriedades de serviço. |
SpeechSynthesisBoundaryType |
Define o tipo de limite do evento de limite de síntese de fala. |
SpeechSynthesisOutputFormat |
Define o possível formato de áudio de saída de síntese de fala. |
StreamStatus |
Define a possível status do fluxo de dados de áudio. |
SynthesisVoiceGender |
Definir gênero de voz de síntese. |
SynthesisVoiceType |
Defina o tipo de voz de síntese. |
Azure SDK for Java