Modelo de extrato bancário da Informação de Documentos

O modelo de extrato bancário da Informação de Documentos combina funcionalidades avançadas de Reconhecimento Óptico de Caracteres (OCR) com modelos de aprendizado profundo para analisar e extrair dados dos extratos bancários dos EUA. A API analisa os extratos bancários impressos; extrai informações importantes, como número da conta, detalhes bancários, detalhes da instrução, detalhes da transação e taxas; e retorna uma representação de dados JSON estruturada.

Recurso version ID do Modelo
Modelo de extrato bancário • v4.0:2024-07-31 (versão prévia) prebuilt-bankStatement.us

Extração de dados do extrato bancário

Um extrato bancário ajuda a revisar as atividades da conta durante um período especificado. É uma declaração oficial que ajuda a detectar fraudes, controlar despesas, erros de contabilidade e registrar as atividades do período. Veja como os dados são extraídos usando o modelo de prebuilt-bankStatement.us. Você precisa dos seguintes recursos:

  • Uma assinatura do Azure – você pode criar uma gratuitamente

  • Uma instância da Informação de Documentos no portal do Azure. Você pode usar o tipo de preço gratuito (F0) para experimentar o serviço. Depois que o recurso for implantado, selecione Ir para o recurso para obter a chave e o ponto de extremidade.

    Captura de tela da localização das chaves e do ponto de extremidade no portal do Azure.

Estúdio de Informação de Documentos

  1. Na página inicial do Estúdio da Informação de Documentos, selecione extratos bancários.

  2. Você pode analisar o extrato bancário de exemplo ou carregar seus próprios arquivos.

  3. Selecione o botão Executar análise e, se necessário, configure as opções Analisar :

    Captura de tela dos botões de opções Executar análise e Analisar no Document Intelligence Studio.

Requisitos de entrada

  • Formatos de arquivo com suporte:

    Modelar PDF Image,:
    JPEG/JPG, PNG, BMP, TIFF, HEIF
    Microsoft Office:
    Word (DOCX), Excel (XLSX), PowerPoint (PPTX), HTML
    Ler
    Layout ✔ (2024-07-31-preview, 2024-02-29-preview, 2023-10-31-preview)
    Documento geral
    Predefinida
    Extração personalizada
    Classificação personalizada ✔ (2024-07-31-preview, 2024-02-29-preview)
  • Para ter melhores resultados, forneça uma foto clara ou uma digitalização de alta qualidade por documento.

  • Para PDF e TIFF, até 2.000 páginas podem ser processadas (com uma assinatura de camada gratuita, apenas as duas primeiras páginas são processadas).

  • O tamanho do arquivo para análise de documentos é de 500 MB para a camada paga (S0) e 4 MB para a camada gratuita (F0).

  • As dimensões da imagem devem estar entre 50 x 50 pixels e 10.000 x 10.000 pixels.

  • Se os PDFs estiverem com bloqueio de senha, você deverá remover o bloqueio antes do envio.

  • A altura mínima do texto a ser extraído é de 12 pixels para uma imagem de 1.024 x 768 pixels. Essa dimensão corresponde a aproximadamente 8 pontos de texto a 150 pontos por polegada (DPI).

  • Para treinamento de modelo personalizado, o número máximo de páginas para dados de treinamento é 500 para o modelo de modelo personalizado e 50.000 para o modelo neural personalizado.

    • Para o treinamento do modelo de extração personalizado, o tamanho total dos dados de treinamento é de 50 MB para o modelo de modelo e 1 GB para o modelo neural.

    • Para o treinamento de modelo de classificação personalizado, o tamanho total dos dados de treinamento é de 1 GB, com um máximo de 10.000 páginas. Para a versão 2024-07-31-preview e posteriores, o tamanho total dos dados de treinamento é de 2 GB, com um máximo de 10.000 páginas.

Idiomas e localidades com suporte

Para obter uma lista completa dos idiomas compatíveis, consulte nossa página de suporte a idiomas de modelos predefinidos.

Extrações de campo

Para ver os campos de extração de documentos compatíveis, consulte a página do esquema de checagem bancária em nosso repositório de amostras do GitHub.

Localidades com suporte

A versão 2027-07-31-preview do prebuilt-bankStatement.us oferece suporte ao local en-us.

Próximas etapas