Descrizioni delle immagini

Visione di Azure AI può analizzare un'immagine e generare una frase leggibile che ne descrive il contenuto. Il servizio restituisce diverse descrizioni in base alle diverse caratteristiche visive e a ogni descrizione viene assegnato un punteggio di attendibilità. L'output finale è un elenco di descrizioni ordinate dall'attendibilità più alta a quella più bassa.

L'inglese è l'unica lingua supportata per la descrizione immagini.

Provare le funzionalità di didascalie delle immagini in modo rapido e semplice nel browser usando Vision Studio.

Esempio di descrizione immagine

La seguente risposta JSON illustra le informazioni restituite dall’API Analizza immagine quando descrive l'immagine di esempio in base alle caratteristiche visive rilevate.

Immagine in bianco e nero di edifici di Manhattan

{
   "description":{
      "tags":[
         "outdoor",
         "city",
         "white"
      ],
      "captions":[
         {
            "text":"a city with tall buildings",
            "confidence":0.48468858003616333
         }
      ]
   },
   "requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
   "metadata":{
      "height":300,
      "width":239,
      "format":"Png"
   },
   "modelVersion":"2021-05-01"
}

Usare l'API

La funzionalità di descrizione immagine fa parte dell'API Analizza immagine. È possibile chiamare questa API tramite un SDK nativo o con chiamate REST. Includere Description nel parametro di query visualFeatures. Quindi, quando si riceverà la risposta JSON completa, analizzare la stringa per individuare il contenuto della sezione "description".

Passaggi successivi

Informazioni sui concetti correlati relativi all'assegnazione di tag alle immagini e alla categorizzazione delle immagini.