Condividi tramite


Modello di lettura di Informazioni sui documenti

Importante

  • Le versioni di anteprima pubblica di Informazioni sui documenti consentono l'accesso anticipato alle funzionalità in fase di sviluppo attivo. Le funzionalità, gli approcci e i processi possono cambiare prima della disponibilità generale, a seconda del feedback degli utenti.
  • Per impostazione predefinita, la versione di anteprima pubblica delle librerie client di Intelligence dei documenti è la versione dell'API REST 2024-07-31-preview.
  • La versione di anteprima pubblica 2024-07-31-preview è al momento disponibile solo nelle aree di Azure seguenti. Si noti che il modello di generazione personalizzata (estrazione di campi di documento) in Studio AI è disponibile solo nell'area Stati Uniti centro-settentrionali:
    • Stati Uniti orientali
    • Stati Uniti occidentali 2
    • Europa occidentale
    • Stati Uniti centro-settentrionali

Questo contenuto si applica a:segno di spunta v4.0 (anteprima) | Versioni precedenti: blue-checkmark v3.1 (disponibilità generale) blue-checkmark v3.0 (disponibilità generale)

Questo contenuto si applica a:segno di spunta v4.0 (anteprima) | Versioni precedenti: blue-checkmark v3.1 (disponibilità generale) blue-checkmark v3.0 (disponibilità generale)

Nota

Per estrarre testo da immagini esterne come etichette, segnali stradali e poster, usare la funzione Lettura di Analisi delle immagini Azure AI v4.0 ottimizzata per immagini generiche e non di documenti con un'API sincrona con prestazioni migliorate che semplifica l'incorporamento dell'OCR negli scenari di esperienza utente.

Il modello Lettura OCR di Informazioni sui documenti v3.0 viene eseguito con una risoluzione superiore rispetto alla lettura di Visione di Azure AI ed estrae testo stampato e scritto a mano da documenti PDF e immagini digitalizzate. Include anche il supporto per l'estrazione di testo da documenti Microsoft Word, Excel, PowerPoint e HTML. Rileva paragrafi, righe di testo, parole, posizioni e lingue. Il modello Lettura è il motore OCR sottostante per altri modelli predefiniti di Informazioni sui documenti, come Layout, Documento generale, Fattura, Ricevuta, Documento di identità, Scheda assicurazione sanitaria, W2 oltre ai modelli personalizzati.

Che cos'è il riconoscimento ottico dei caratteri?

Il riconoscimento ottico dei caratteri (OCR) per i documenti è ottimizzato per documenti di grandi dimensioni in più formati di file e lingue globali. Include funzioni come la scansione a risoluzione più elevata delle immagini dei documenti per una migliore gestione dei testi più piccoli e densi, il rilevamento dei paragrafi e la gestione dei moduli compilabili. Le funzionalità OCR includono anche scenari avanzati come caselle a carattere singolo ed estrazione accurata dei campi chiave comunemente presenti in fatture, ricevute e altri scenari predefiniti.

Opzioni di sviluppo (v4)

Informazioni sui documenti v4.0 (2024-07-31-preview) supporta gli strumenti, le applicazioni e le librerie seguenti:

Funzionalità Risorse Model ID
Modello Lettura OCR Document Intelligence Studio
API REST
C# SDK
Python SDK
Java SDK
JavaScript SDK
prebuilt-read

Requisiti di input (v4)

  • Formati di file supportati:

    Modello PDF Immagine:
    JPEG/JPG, PNG, BMP, TIFF, HEIF
    Microsoft Office:
    Word (DOCX), Excel (XLSX), PowerPoint (PPTX), HTML
    Lettura
    Layout ✔ (2024-07-31-preview, 2024-02-29-preview, 2023-10-31-preview)
    Documento generale
    Predefinito
    Estrazione personalizzata
    Classificazione personalizzata ✔ (2024-07-31-preview, 2024-02-29-preview)
  • Per risultati ottimali, fornire una foto chiara o una scansione di alta qualità per ogni documento.

  • Per i formati PDF e TIFF, possono essere elaborate fino a 2.000 pagine (con una sottoscrizione di livello gratuito vengono elaborate solo le prime due pagine).

  • Le dimensioni del file per l'analisi dei documenti sono di 500 MB per il livello a pagamento (S0) e 4 MB per il livello gratuito (F0).

  • Per le immagini, le dimensioni devono essere comprese tra 50 x 50 pixel e 10.000 x 10.000 pixel.

  • Se i file PDF sono bloccati da password, è necessario rimuovere il blocco prima dell'invio.

  • L'altezza minima del testo da estrarre è di 12 pixel per un'immagine 1024 x 768 pixel. Queste dimensioni corrispondono approssimativamente a un testo con dimensioni di 8 punti e 150 punti per pollice (DPI).

  • Per il training di modelli personalizzati, il numero massimo di pagine per i dati di training è 500 per il modello personalizzato e 50.000 per il modello neurale personalizzato.

    • Per il training di modelli di estrazione personalizzati, le dimensioni totali dei dati di training sono di 50 MB per il modello e 1 GB per il modello neurale.

    • Per il training del modello di classificazione personalizzato, le dimensioni totali dei dati di training sono 1 GB con un massimo di 10.000 pagine. Per 2024-07-31-preview e le versioni successive, le dimensioni totali dei dati di training sono 2 GB con un massimo di 10.000 pagine.

Introduzione al modello di lettura (v4)

Provare a estrarre testo da moduli e documenti usando Document Intelligence Studio. Sono necessarie le risorse seguenti:

  • Una sottoscrizione di Azure: è possibile crearne una gratuitamente.

  • Istanza di Informazioni sui documenti nel portale di Azure. Per provare il servizio, è possibile usare il piano tariffario gratuito (F0). Dopo la distribuzione della risorsa, selezionare Vai alla risorsa per recuperare la chiave e l'endpoint.

    Screenshot della posizione di chiavi ed endpoint nel portale di Azure.

Nota

Attualmente, Document Intelligence Studio non supporta i formati di file Microsoft Word, Excel, PowerPoint e HTML.

Documento di esempio elaborato con Document Intelligence Studio

Screenshot dell'elaborazione di lettura in Document Intelligence Studio.

  1. Nella home page di Document Intelligence Studio selezionare Lettura.

  2. È possibile analizzare il documento di esempio o caricare i propri file.

  3. Selezionare il pulsante Esegui analisi e, se necessario, configurare Analizza opzioni:

    Screenshot dei pulsanti Esegui analisi e Analizza opzioni in Studio di Informazioni sui documenti.

Lingue e impostazioni locali supportate (v4)

Vedere la pagina Lingue supportate - modelli di analisi dei documenti per un elenco completo delle lingue supportate.

Estrazione dei dati (v4)

Nota

Microsoft Word e il file HTML sono supportati nella versione 4.0. Rispetto a PDF e immagini, le funzionalità seguenti non sono supportate:

  • Nessun angolo, larghezza/altezza e unità con ogni oggetto pagina.
  • Per ogni oggetto rilevato, non è presente alcun poligono o area di delimitazione.
  • L'intervallo di pagine (pages) non è supportato come parametro.
  • Nessun oggetto lines.

Pdf ricercabili

La funzionalità PDF ricercabile consente di convertire un PDF analogico, ad esempio file PDF a immagini digitalizzate, in un PDF con testo incorporato. Il testo incorporato consente la ricerca di testo avanzato all'interno del contenuto estratto del PDF sovrapponendo le entità di testo rilevate sopra i file di immagine.

Importante

  • Attualmente, la funzionalità PDF ricercabile è supportata solo dal modello OCR di lettura prebuilt-read. Quando si usa questa funzionalità, specificare modelId come prebuilt-read, perché altri tipi di modello restituiranno un errore per questa versione di anteprima.
  • Il PDF ricercabile è incluso nel modello 2024-07-31-preview prebuilt-read senza costi aggiuntivi per la generazione di un output PDF ricercabile.

Usare pdf ricercabili

Per usare il PDF ricercabile, effettuare una richiesta POST usando l'operazione Analyze e specificare il formato di output come pdf:


     POST /documentModels/prebuilt-read:analyze?output=pdf
     {...}
     202

Eseguire il polling per il completamento dell'operazione di Analyze. Una volta completata l'operazione, eseguire una richiesta GET per recuperare il formato PDF dei risultati dell'operazione Analyze.

Al termine, il PDF può essere recuperato e scaricato come application/pdf. Questa operazione consente il download diretto della forma di testo incorporata del PDF anziché del codice JSON con codifica Base64.


     // Monitor the operation until completion.
     GET /documentModels/prebuilt-read/analyzeResults/{resultId}
     200
     {...}

     // Upon successful completion, retrieve the PDF as application/pdf.
     GET /documentModels/prebuilt-read/analyzeResults/{resultId}/pdf
     200 OK
     Content-Type: application/pdf

Parametro Pages

La raccolta di pagine è un elenco di pagine all'interno del documento. Ogni pagina viene rappresentata in sequenza all'interno del documento e include l'angolo di orientamento che indica se la pagina viene ruotata e la larghezza e l'altezza (dimensioni in pixel). Le unità di pagina nell'output del modello vengono calcolate come illustrato:

Formato file Unità di pagina calcolata Pagine totali
Immagini (JPEG/JPG, PNG, BMP, HEIF) Ogni immagine = 1 unità di pagina Totale immagini
PDF Ogni pagina nel PDF = 1 unità di pagina Totale pagine nel PDF
TIFF Ogni immagine nel file TIFF = 1 unità di pagina Totale immagini nel TIFF
Word (DOCX) Fino a 3.000 caratteri = 1 unità di pagina, immagini incorporate o collegate non supportate Totale pagine fino a 3.000 caratteri ciascuna
Excel (XLSX) Ogni foglio di lavoro = 1 unità di pagina, immagini incorporate o collegate non supportate Totale fogli di lavoro
PowerPoint (PPTX) Ogni diapositiva = 1 unità di pagina, immagini incorporate o collegate non supportate Diapositive totali
HTML Fino a 3.000 caratteri = 1 unità di pagina, immagini incorporate o collegate non supportate Totale pagine fino a 3.000 caratteri ciascuna
    # Analyze pages.
    for page in result.pages:
        print(f"----Analyzing document from page #{page.page_number}----")
        print(f"Page has width: {page.width} and height: {page.height}, measured with unit: {page.unit}")

Usare le pagine per l'estrazione di testo

Per i documenti PDF a più pagine di grandi dimensioni, usare il parametro di query pages per indicare numeri di pagina o intervalli di pagine specifici per l'estrazione di testo.

Estrazione di paragrafi

Il modello Lettura OCR in Informazioni sui documenti estrae tutti i blocchi di testo identificati nella raccolta paragraphs come oggetto di primo livello in analyzeResults. Ogni voce di questa raccolta rappresenta un blocco di testo e include il testo estratto come contente le coordinate del polygon delimitatore. Le informazioni span puntano al frammento di testo all'interno della proprietà di primo livello content che contiene il testo completo del documento.

    "paragraphs": [
        {
            "spans": [],
            "boundingRegions": [],
            "content": "While healthcare is still in the early stages of its Al journey, we are seeing pharmaceutical and other life sciences organizations making major investments in Al and related technologies.\" TOM LAWRY | National Director for Al, Health and Life Sciences | Microsoft"
        }
    ]

Estrazione di testo, righe e parole

Il modello Lettura OCR estrae il testo in stile stampato e scritto a mano come lines e words. Il modello restituisce le coordinate del polygon delimitatore e confidence per le parole estratte. La raccolta styles include qualsiasi stile scritto a mano per le righe, se rilevato insieme agli intervalli che puntano al testo associato. Questa funzionalità si applica alle lingue scritte a mano supportate.

Per Microsoft Word, Excel, PowerPoint e HTML, Document Intelligence Read model v3.1 e versioni successive estrae tutto il testo incorporato così come è. I testi vengono estratti come parole e paragrafi. Le immagini incorporate non sono supportate.

    # Analyze lines.
    if page.lines:
        for line_idx, line in enumerate(page.lines):
            words = get_words(page, line)
            print(
                f"...Line # {line_idx} has {len(words)} words and text '{line.content}' within bounding polygon '{line.polygon}'"
            )

            # Analyze words.
            for word in words:
                print(f"......Word '{word.content}' has a confidence of {word.confidence}")

Estrazione dello stile scritto a mano

La risposta include la classificazione di ogni riga di testo come stile di scrittura manuale o no, insieme a un punteggio di attendibilità. Per ulteriori informazioni, vedere Supporto per le lingue scritte a mano. L'esempio seguente mostra un frammento JSON.

    "styles": [
    {
        "confidence": 0.95,
        "spans": [
        {
            "offset": 509,
            "length": 24
        }
        "isHandwritten": true
        ]
    }

Se è stata abilitata la funzionalità di componente aggiuntivo tipo di carattere/stile, si ottiene anche il risultato del tipo di carattere/stile come parte dell'oggetto styles.

Passaggi successivi v4.0

Completare un argomento di avvio rapido di Informazioni sui documenti:

Esplorare l'API REST:

Trovare altri esempi in GitHub:

Questo contenuto si applica a: segno di spunta v3.1 (disponibilità generale) | Ultima versione: purple-checkmark v4.0 (anteprima) | Versioni precedenti: blue-checkmark v3.0

Questo contenuto si applica a: segno di spunta v3.0 (disponibilità generale) | Ultime versioni: purple-checkmark v4.0 (anteprima) segno di spunta viola v3.1

Nota

Per estrarre testo da immagini esterne come etichette, segnali stradali e poster, usare la funzione Lettura di Analisi delle immagini Azure AI v4.0 ottimizzata per immagini generiche e non di documenti con un'API sincrona con prestazioni migliorate che semplifica l'incorporamento dell'OCR negli scenari di esperienza utente.

Il modello Lettura OCR di Informazioni sui documenti v3.0 viene eseguito con una risoluzione superiore rispetto alla lettura di Visione di Azure AI ed estrae testo stampato e scritto a mano da documenti PDF e immagini digitalizzate. Include anche il supporto per l'estrazione di testo da documenti Microsoft Word, Excel, PowerPoint e HTML. Rileva paragrafi, righe di testo, parole, posizioni e lingue. Il modello Lettura è il motore OCR sottostante per altri modelli predefiniti di Informazioni sui documenti, come Layout, Documento generale, Fattura, Ricevuta, Documento di identità, Scheda assicurazione sanitaria, W2 oltre ai modelli personalizzati.

Che cos'è l'OCR per i documenti?

Il riconoscimento ottico dei caratteri (OCR) per i documenti è ottimizzato per documenti di grandi dimensioni in più formati di file e lingue globali. Include funzioni come la scansione a risoluzione più elevata delle immagini dei documenti per una migliore gestione dei testi più piccoli e densi, il rilevamento dei paragrafi e la gestione dei moduli compilabili. Le funzionalità OCR includono anche scenari avanzati come caselle a carattere singolo ed estrazione accurata dei campi chiave comunemente presenti in fatture, ricevute e altri scenari predefiniti.

Opzioni di sviluppo

Informazioni sui documenti v3. 1 supporta gli strumenti, le applicazioni e le librerie seguenti:

Funzionalità Risorse Model ID
Modello Lettura OCR Document Intelligence Studio
API REST
C# SDK
Python SDK
Java SDK
JavaScript SDK
prebuilt-read

Informazioni sui documenti v3.0 supporta gli strumenti, le applicazioni e le librerie seguenti:

Funzionalità Risorse Model ID
Modello Lettura OCR Document Intelligence Studio
API REST
C# SDK
Python SDK
Java SDK
JavaScript SDK
prebuilt-read

Requisiti di input

  • Formati di file supportati:

    Modello PDF Immagine:
    JPEG/JPG, PNG, BMP, TIFF, HEIF
    Microsoft Office:
    Word (DOCX), Excel (XLSX), PowerPoint (PPTX), HTML
    Lettura
    Layout ✔ (2024-07-31-preview, 2024-02-29-preview, 2023-10-31-preview)
    Documento generale
    Predefinito
    Estrazione personalizzata
    Classificazione personalizzata ✔ (2024-07-31-preview, 2024-02-29-preview)
  • Per risultati ottimali, fornire una foto chiara o una scansione di alta qualità per ogni documento.

  • Per i formati PDF e TIFF, possono essere elaborate fino a 2.000 pagine (con una sottoscrizione di livello gratuito vengono elaborate solo le prime due pagine).

  • Le dimensioni del file per l'analisi dei documenti sono di 500 MB per il livello a pagamento (S0) e 4 MB per il livello gratuito (F0).

  • Per le immagini, le dimensioni devono essere comprese tra 50 x 50 pixel e 10.000 x 10.000 pixel.

  • Se i file PDF sono bloccati da password, è necessario rimuovere il blocco prima dell'invio.

  • L'altezza minima del testo da estrarre è di 12 pixel per un'immagine 1024 x 768 pixel. Queste dimensioni corrispondono approssimativamente a un testo con dimensioni di 8 punti e 150 punti per pollice (DPI).

  • Per il training di modelli personalizzati, il numero massimo di pagine per i dati di training è 500 per il modello personalizzato e 50.000 per il modello neurale personalizzato.

    • Per il training di modelli di estrazione personalizzati, le dimensioni totali dei dati di training sono di 50 MB per il modello e 1 GB per il modello neurale.

    • Per il training del modello di classificazione personalizzato, le dimensioni totali dei dati di training sono 1 GB con un massimo di 10.000 pagine. Per 2024-07-31-preview e le versioni successive, le dimensioni totali dei dati di training sono 2 GB con un massimo di 10.000 pagine.

Introduzione al modello di lettura

Provare a estrarre testo da moduli e documenti usando Document Intelligence Studio. Sono necessarie le risorse seguenti:

  • Una sottoscrizione di Azure: è possibile crearne una gratuitamente.

  • Istanza di Informazioni sui documenti nel portale di Azure. Per provare il servizio, è possibile usare il piano tariffario gratuito (F0). Dopo la distribuzione della risorsa, selezionare Vai alla risorsa per recuperare la chiave e l'endpoint.

Screenshot della posizione di chiavi ed endpoint nel portale di Azure.

Nota

Attualmente, Document Intelligence Studio non supporta i formati di file Microsoft Word, Excel, PowerPoint e HTML.

Documento di esempio elaborato con Document Intelligence Studio

Screenshot dell'elaborazione di lettura in Document Intelligence Studio.

  1. Nella home page di Document Intelligence Studio selezionare Lettura.

  2. È possibile analizzare il documento di esempio o caricare i propri file.

  3. Selezionare il pulsante Esegui analisi e, se necessario, configurare Analizza opzioni:

    Screenshot dei pulsanti Esegui analisi e Analizza opzioni in Studio di Informazioni sui documenti.

Lingue e impostazioni locali supportate

Vedere la pagina Lingue supportate - modelli di analisi dei documenti per un elenco completo delle lingue supportate.

Estrazione dei dati

Nota

Microsoft Word e il file HTML sono supportati nella versione 3.1 e versioni successive. Rispetto a PDF e immagini, le funzionalità seguenti non sono supportate:

  • Nessun angolo, larghezza/altezza e unità con ogni oggetto pagina.
  • Per ogni oggetto rilevato, non è presente alcun poligono o area di delimitazione.
  • L'intervallo di pagine (pages) non è supportato come parametro.
  • Nessun oggetto lines.

PDF ricercabile

La funzionalità PDF ricercabile consente di convertire un PDF analogico, ad esempio file PDF a immagini digitalizzate, in un PDF con testo incorporato. Il testo incorporato consente la ricerca di testo avanzato all'interno del contenuto estratto del PDF sovrapponendo le entità di testo rilevate sopra i file di immagine.

Importante

  • Attualmente, la funzionalità PDF ricercabile è supportata solo dal modello OCR di lettura prebuilt-read. Quando si usa questa funzionalità, specificare modelId come prebuilt-read, perché altri tipi di modello restituiranno un errore per questa versione di anteprima.
  • Il PDF ricercabile è incluso nel modello 2024-07-31-preview prebuilt-read senza costi aggiuntivi per la generazione di un output PDF ricercabile.
    • Il PDF ricercabile supporta attualmente solo i file PDF come input. Il supporto per altri tipi di file, ad esempio i file di immagine, sarà disponibile in un secondo momento.

Usare un PDF ricercabile

Per usare il PDF ricercabile, effettuare una richiesta POST usando l'operazione Analyze e specificare il formato di output come pdf:


    POST /documentModels/prebuilt-read:analyze?output=pdf
    {...}
    202

Eseguire il polling per il completamento dell'operazione di Analyze. Una volta completata l'operazione, eseguire una richiesta GET per recuperare il formato PDF dei risultati dell'operazione Analyze.

Al termine, il PDF può essere recuperato e scaricato come application/pdf. Questa operazione consente il download diretto della forma di testo incorporata del PDF anziché del codice JSON con codifica Base64.


    // Monitor the operation until completion.
    GET /documentModels/prebuilt-read/analyzeResults/{resultId}
    200
    {...}

    // Upon successful completion, retrieve the PDF as application/pdf.
    GET /documentModels/prebuilt-read/analyzeResults/{resultId}/pdf
    200 OK
    Content-Type: application/pdf

Pagine

La raccolta di pagine è un elenco di pagine all'interno del documento. Ogni pagina viene rappresentata in sequenza all'interno del documento e include l'angolo di orientamento che indica se la pagina viene ruotata e la larghezza e l'altezza (dimensioni in pixel). Le unità di pagina nell'output del modello vengono calcolate come illustrato:

Formato file Unità di pagina calcolata Pagine totali
Immagini (JPEG/JPG, PNG, BMP, HEIF) Ogni immagine = 1 unità di pagina Totale immagini
PDF Ogni pagina nel PDF = 1 unità di pagina Totale pagine nel PDF
TIFF Ogni immagine nel file TIFF = 1 unità di pagina Totale immagini nel TIFF
Word (DOCX) Fino a 3.000 caratteri = 1 unità di pagina, immagini incorporate o collegate non supportate Totale pagine fino a 3.000 caratteri ciascuna
Excel (XLSX) Ogni foglio di lavoro = 1 unità di pagina, immagini incorporate o collegate non supportate Totale fogli di lavoro
PowerPoint (PPTX) Ogni diapositiva = 1 unità di pagina, immagini incorporate o collegate non supportate Diapositive totali
HTML Fino a 3.000 caratteri = 1 unità di pagina, immagini incorporate o collegate non supportate Totale pagine fino a 3.000 caratteri ciascuna
    "pages": [
        {
            "pageNumber": 1,
            "angle": 0,
            "width": 915,
            "height": 1190,
            "unit": "pixel",
            "words": [],
            "lines": [],
            "spans": []
        }
    ]
    # Analyze pages.
    for page in result.pages:
        print(f"----Analyzing document from page #{page.page_number}----")
        print(
            f"Page has width: {page.width} and height: {page.height}, measured with unit: {page.unit}"
        )

Selezionare le pagine per l'estrazione di testo

Per i documenti PDF a più pagine di grandi dimensioni, usare il parametro di query pages per indicare numeri di pagina o intervalli di pagine specifici per l'estrazione di testo.

Paragrafi

Il modello Lettura OCR in Informazioni sui documenti estrae tutti i blocchi di testo identificati nella raccolta paragraphs come oggetto di primo livello in analyzeResults. Ogni voce di questa raccolta rappresenta un blocco di testo e include il testo estratto come contente le coordinate del polygon delimitatore. Le informazioni span puntano al frammento di testo all'interno della proprietà di primo livello content che contiene il testo completo del documento.

    "paragraphs": [
        {
            "spans": [],
            "boundingRegions": [],
            "content": "While healthcare is still in the early stages of its Al journey, we are seeing pharmaceutical and other life sciences organizations making major investments in Al and related technologies.\" TOM LAWRY | National Director for Al, Health and Life Sciences | Microsoft"
        }
    ]

Testo, righe e parole

Il modello Lettura OCR estrae il testo in stile stampato e scritto a mano come lines e words. Il modello restituisce le coordinate del polygon delimitatore e confidence per le parole estratte. La raccolta styles include qualsiasi stile scritto a mano per le righe, se rilevato insieme agli intervalli che puntano al testo associato. Questa funzionalità si applica alle lingue scritte a mano supportate.

Per Microsoft Word, Excel, PowerPoint e HTML, Document Intelligence Read model v3.1 e versioni successive estrae tutto il testo incorporato così come è. I testi vengono estratti come parole e paragrafi. Le immagini incorporate non sono supportate.


    "words": [
        {
            "content": "While",
            "polygon": [],
            "confidence": 0.997,
            "span": {}
        },
    ],
    "lines": [
        {
            "content": "While healthcare is still in the early stages of its Al journey, we",
            "polygon": [],
            "spans": [],
        }
    ]
    # Analyze lines.
    for line_idx, line in enumerate(page.lines):
        words = line.get_words()
        print(
            f"...Line # {line_idx} has {len(words)} words and text '{line.content}' within bounding polygon '{format_polygon(line.polygon)}'"
        )

        # Analyze words.
        for word in words:
            print(
                f"......Word '{word.content}' has a confidence of {word.confidence}"
            )

Stile scritto a mano per le righe di testo

La risposta include la classificazione di ogni riga di testo come stile di scrittura manuale o no, insieme a un punteggio di attendibilità. Per ulteriori informazioni, vedere Supporto per le lingue scritte a mano. L'esempio seguente mostra un frammento JSON.

    "styles": [
    {
        "confidence": 0.95,
        "spans": [
        {
            "offset": 509,
            "length": 24
        }
        "isHandwritten": true
        ]
    }

Se è stata abilitata la funzionalità di componente aggiuntivo tipo di carattere/stile, si ottiene anche il risultato del tipo di carattere/stile come parte dell'oggetto styles.

Passaggi successivi

Completare un argomento di avvio rapido di Informazioni sui documenti:

Esplorare l'API REST:

Trovare altri esempi in GitHub: