Modello payStub di Intelligence sui documenti

Il modello document intelligence payStub combina potenti funzionalità di riconoscimento ottico dei caratteri (OCR) con i modelli di Deep Learning per analizzare ed estrarre dati di compensazione ed utili dalle buste paga. L'API analizza documenti e file con informazioni correlate alle retribuzioni; estrae informazioni chiave e restituisce una rappresentazione di dati JSON strutturata.

Funzionalità versione Model ID
modello payStub • v4.0:2024-07-31 (anteprima) prebuilt-payStub.us

Provare l'estrazione dei dati payStub

Il modello bozza di pagamento di Informazioni sui documenti unisce potenti funzionalità di riconoscimento ottico dei caratteri (OCR) con modelli di Deep Learning per analizzare ed estrarre dati di compensazione e utili dalle bollette. Vedere in che modo i dati vengono estratti usando il modello prebuilt-payStub.us. Sono necessarie le risorse seguenti:

  • Una sottoscrizione di Azure: è possibile crearne una gratuitamente

  • Un'istanza di Informazioni sui documenti nel portale di Azure. Per provare il servizio, è possibile usare il piano tariffario gratuito (F0). Dopo la distribuzione della risorsa, selezionare Vai alla risorsa per recuperare la chiave e l'endpoint.

    Screenshot della posizione di chiavi ed endpoint nel portale di Azure.

Document Intelligence Studio

  1. Nella home page di Document Intelligence Studio selezionare Bozza di pagamento.

  2. È possibile analizzare la bozza di pagamento di esempio o caricare file personalizzati.

  3. Selezionare il pulsante Esegui analisi e, se necessario, configurare le Opzioni di analisi:

Requisiti di input

  • Formati di file supportati:

    Modello PDF Immagine:
    JPEG/JPG, PNG, BMP, TIFF, HEIF
    Microsoft Office:
    Word (DOCX), Excel (XLSX), PowerPoint (PPTX), HTML
    Lettura
    Layout ✔ (2024-07-31-preview, 2024-02-29-preview, 2023-10-31-preview)
    Documento generale
    Predefinito
    Estrazione personalizzata
    Classificazione personalizzata ✔ (2024-07-31-preview, 2024-02-29-preview)
  • Per risultati ottimali, fornire una foto chiara o una scansione di alta qualità per ogni documento.

  • Per i formati PDF e TIFF, possono essere elaborate fino a 2.000 pagine (con una sottoscrizione di livello gratuito vengono elaborate solo le prime due pagine).

  • Le dimensioni del file per l'analisi dei documenti sono di 500 MB per il livello a pagamento (S0) e 4 MB per il livello gratuito (F0).

  • Per le immagini, le dimensioni devono essere comprese tra 50 x 50 pixel e 10.000 x 10.000 pixel.

  • Se i file PDF sono bloccati da password, è necessario rimuovere il blocco prima dell'invio.

  • L'altezza minima del testo da estrarre è di 12 pixel per un'immagine 1024 x 768 pixel. Queste dimensioni corrispondono approssimativamente a un testo con dimensioni di 8 punti e 150 punti per pollice (DPI).

  • Per il training di modelli personalizzati, il numero massimo di pagine per i dati di training è 500 per il modello personalizzato e 50.000 per il modello neurale personalizzato.

    • Per il training di modelli di estrazione personalizzati, le dimensioni totali dei dati di training sono di 50 MB per il modello e 1 GB per il modello neurale.

    • Per il training del modello di classificazione personalizzato, le dimensioni totali dei dati di training sono 1 GB con un massimo di 10.000 pagine. Per 2024-07-31-preview e le versioni successive, le dimensioni totali dei dati di training sono 2 GB con un massimo di 10.000 pagine.

Lingue e impostazioni locali supportate

Per un elenco completo delle lingue supportate, vedere la pagina di supporto del linguaggio del modello predefinito.

Estrazione dei campi

Per i campi di estrazione dei documenti supportati, vedere la pagina dello schema del modello payStub nel repository di esempio gitHub.

Impostazioni locali supportate

La versione prebuilt-payStub.us 2027-07-31-preview supporta le impostazioni locali en-us.

Passaggi successivi