Descrizioni delle immagini
Visione di Azure AI può analizzare un'immagine e generare una frase leggibile che ne descrive il contenuto. Il servizio restituisce diverse descrizioni in base alle diverse caratteristiche visive e a ogni descrizione viene assegnato un punteggio di attendibilità. L'output finale è un elenco di descrizioni ordinate dall'attendibilità più alta a quella più bassa.
L'inglese è l'unica lingua supportata per la descrizione immagini.
Provare le funzionalità di didascalie delle immagini in modo rapido e semplice nel browser usando Vision Studio.
Esempio di descrizione immagine
La seguente risposta JSON illustra le informazioni restituite dall’API Analizza immagine quando descrive l'immagine di esempio in base alle caratteristiche visive rilevate.
{
"description":{
"tags":[
"outdoor",
"city",
"white"
],
"captions":[
{
"text":"a city with tall buildings",
"confidence":0.48468858003616333
}
]
},
"requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
"metadata":{
"height":300,
"width":239,
"format":"Png"
},
"modelVersion":"2021-05-01"
}
Usare l'API
La funzionalità di descrizione immagine fa parte dell'API Analizza immagine. È possibile chiamare questa API tramite un SDK nativo o con chiamate REST. Includere Description
nel parametro di query visualFeatures. Quindi, quando si riceverà la risposta JSON completa, analizzare la stringa per individuare il contenuto della sezione "description"
.
Passaggi successivi
Informazioni sui concetti correlati relativi all'assegnazione di tag alle immagini e alla categorizzazione delle immagini.