Indexes - Analyze
Illustra come un analizzatore suddivide il testo in token.
POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2024-07-01
Nome | In | Necessario | Tipo | Descrizione |
---|---|---|---|---|
endpoint
|
path | True |
string |
URL dell'endpoint del servizio di ricerca. |
index
|
path | True |
string |
Nome dell'indice per il quale testare un analizzatore. |
api-version
|
query | True |
string |
Versione dell'API client. |
Nome | Necessario | Tipo | Descrizione |
---|---|---|---|
x-ms-client-request-id |
string uuid |
ID di rilevamento inviato con la richiesta per facilitare il debug. |
Nome | Necessario | Tipo | Descrizione |
---|---|---|---|
text | True |
string |
Testo da suddividere in token. |
analyzer |
Nome dell'analizzatore da usare per interrompere il testo specificato. Se questo parametro non è specificato, è necessario specificare invece un tokenizer. I parametri del tokenizer e dell'analizzatore si escludono a vicenda. |
||
charFilters |
Elenco facoltativo di filtri di caratteri da utilizzare quando si interrompe il testo specificato. Questo parametro può essere impostato solo quando si usa il parametro tokenizer. |
||
tokenFilters |
Elenco facoltativo di filtri di token da usare quando si interrompe il testo specificato. Questo parametro può essere impostato solo quando si usa il parametro tokenizer. |
||
tokenizer |
Nome del tokenizer da usare per interrompere il testo specificato. Se questo parametro non è specificato, è necessario specificare invece un analizzatore. I parametri del tokenizer e dell'analizzatore si escludono a vicenda. |
Nome | Tipo | Descrizione |
---|---|---|
200 OK | ||
Other Status Codes |
Risposta di errore. |
Esempio di richiesta
POST https://myservice.search.windows.net/indexes('hotels')/search.analyze?api-version=2024-07-01
{
"text": "Text to analyze",
"analyzer": "standard.lucene"
}
Risposta di esempio
{
"tokens": [
{
"token": "text",
"startOffset": 0,
"endOffset": 4,
"position": 0
},
{
"token": "to",
"startOffset": 5,
"endOffset": 7,
"position": 1
},
{
"token": "analyze",
"startOffset": 8,
"endOffset": 15,
"position": 2
}
]
}
Nome | Descrizione |
---|---|
Analyzed |
Informazioni su un token restituito da un analizzatore. |
Analyze |
Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token. |
Analyze |
Risultato del test di un analizzatore sul testo. |
Char |
Definisce i nomi di tutti i filtri di caratteri supportati dal motore di ricerca. |
Error |
Informazioni aggiuntive sull'errore di gestione delle risorse. |
Error |
Dettagli dell'errore. |
Error |
Risposta di errore |
Lexical |
Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca. |
Lexical |
Definisce i nomi di tutti i tokenizer supportati dal motore di ricerca. |
Token |
Definisce i nomi di tutti i filtri di token supportati dal motore di ricerca. |
Informazioni su un token restituito da un analizzatore.
Nome | Tipo | Descrizione |
---|---|---|
endOffset |
integer |
Indice dell'ultimo carattere del token nel testo di input. |
position |
integer |
Posizione del token nel testo di input rispetto ad altri token. Il primo token nel testo di input ha la posizione 0, il successivo ha la posizione 1 e così via. A seconda dell'analizzatore usato, alcuni token potrebbero avere la stessa posizione, ad esempio se sono sinonimi l'uno dell'altro. |
startOffset |
integer |
Indice del primo carattere del token nel testo di input. |
token |
string |
Token restituito dall'analizzatore. |
Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token.
Nome | Tipo | Descrizione |
---|---|---|
analyzer |
Nome dell'analizzatore da usare per interrompere il testo specificato. Se questo parametro non è specificato, è necessario specificare invece un tokenizer. I parametri del tokenizer e dell'analizzatore si escludono a vicenda. |
|
charFilters |
Elenco facoltativo di filtri di caratteri da utilizzare quando si interrompe il testo specificato. Questo parametro può essere impostato solo quando si usa il parametro tokenizer. |
|
text |
string |
Testo da suddividere in token. |
tokenFilters |
Elenco facoltativo di filtri di token da usare quando si interrompe il testo specificato. Questo parametro può essere impostato solo quando si usa il parametro tokenizer. |
|
tokenizer |
Nome del tokenizer da usare per interrompere il testo specificato. Se questo parametro non è specificato, è necessario specificare invece un analizzatore. I parametri del tokenizer e dell'analizzatore si escludono a vicenda. |
Risultato del test di un analizzatore sul testo.
Nome | Tipo | Descrizione |
---|---|---|
tokens |
Elenco di token restituiti dall'analizzatore specificato nella richiesta. |
Definisce i nomi di tutti i filtri di caratteri supportati dal motore di ricerca.
Nome | Tipo | Descrizione |
---|---|---|
html_strip |
string |
Filtro di caratteri che tenta di rimuovere i costrutti HTML. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
Informazioni aggiuntive sull'errore di gestione delle risorse.
Nome | Tipo | Descrizione |
---|---|---|
info |
object |
Informazioni aggiuntive. |
type |
string |
Tipo di informazioni aggiuntive. |
Dettagli dell'errore.
Nome | Tipo | Descrizione |
---|---|---|
additionalInfo |
Informazioni aggiuntive sull'errore. |
|
code |
string |
Codice di errore. |
details |
Dettagli dell'errore. |
|
message |
string |
Messaggio di errore. |
target |
string |
Destinazione dell'errore. |
Risposta di errore
Nome | Tipo | Descrizione |
---|---|---|
error |
Oggetto error. |
Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca.
Nome | Tipo | Descrizione |
---|---|---|
ar.lucene |
string |
Analizzatore Lucene per l'arabo. |
ar.microsoft |
string |
Analizzatore Microsoft per l'arabo. |
bg.lucene |
string |
Analizzatore Lucene per bulgaro. |
bg.microsoft |
string |
Analizzatore Microsoft per bulgaro. |
bn.microsoft |
string |
Analizzatore Microsoft per Bangla. |
ca.lucene |
string |
Analizzatore Lucene per catalano. |
ca.microsoft |
string |
Analizzatore Microsoft per catalano. |
cs.lucene |
string |
Analizzatore Lucene per ceco. |
cs.microsoft |
string |
Analizzatore Microsoft per ceco. |
da.lucene |
string |
Analizzatore Lucene per danese. |
da.microsoft |
string |
Analizzatore Microsoft per danese. |
de.lucene |
string |
Analizzatore Lucene per tedesco. |
de.microsoft |
string |
Analizzatore Microsoft per tedesco. |
el.lucene |
string |
Analizzatore Lucene per greco. |
el.microsoft |
string |
Analizzatore Microsoft per greco. |
en.lucene |
string |
Analizzatore Lucene per l'inglese. |
en.microsoft |
string |
Analizzatore Microsoft per la lingua inglese. |
es.lucene |
string |
Analizzatore Lucene per spagnolo. |
es.microsoft |
string |
Analizzatore Microsoft per spagnolo. |
et.microsoft |
string |
Analizzatore Microsoft per Estonian. |
eu.lucene |
string |
Analizzatore Lucene per basco. |
fa.lucene |
string |
Analizzatore Lucene per persiano. |
fi.lucene |
string |
Analizzatore Lucene per finlandese. |
fi.microsoft |
string |
Analizzatore Microsoft per il finlandese. |
fr.lucene |
string |
Analizzatore Lucene per francese. |
fr.microsoft |
string |
Analizzatore Microsoft per francese. |
ga.lucene |
string |
Analizzatore Lucene per irlandese. |
gl.lucene |
string |
Analizzatore Lucene per La Galizia. |
gu.microsoft |
string |
Analizzatore Microsoft per Gujarati. |
he.microsoft |
string |
Analizzatore Microsoft per l'ebraico. |
hi.lucene |
string |
Analizzatore Lucene per Hindi. |
hi.microsoft |
string |
Analizzatore Microsoft per Hindi. |
hr.microsoft |
string |
Analizzatore Microsoft per croato. |
hu.lucene |
string |
Analizzatore Lucene per ungherese. |
hu.microsoft |
string |
Analizzatore Microsoft per ungherese. |
hy.lucene |
string |
Analizzatore Lucene per armeno. |
id.lucene |
string |
Analizzatore Lucene per indonesiano. |
id.microsoft |
string |
Analizzatore Microsoft per Indonesiano (Bahasa). |
is.microsoft |
string |
Analizzatore Microsoft per islandese. |
it.lucene |
string |
Analizzatore Lucene per italiano. |
it.microsoft |
string |
Analizzatore Microsoft per italiano. |
ja.lucene |
string |
Analizzatore Lucene per il giapponese. |
ja.microsoft |
string |
Analizzatore Microsoft per il giapponese. |
keyword |
string |
Considera l'intero contenuto di un campo come un singolo token. Ciò è utile per i dati, ad esempio i codici postali, gli ID e alcuni nomi di prodotto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
kn.microsoft |
string |
Analizzatore Microsoft per Kannada. |
ko.lucene |
string |
Analizzatore Lucene per coreano. |
ko.microsoft |
string |
Analizzatore Microsoft per coreano. |
lt.microsoft |
string |
Analizzatore Microsoft per lituano. |
lv.lucene |
string |
Analizzatore Lucene per lettone. |
lv.microsoft |
string |
Analizzatore Microsoft per lettone. |
ml.microsoft |
string |
Analizzatore Microsoft per Malayalam. |
mr.microsoft |
string |
Analizzatore Microsoft per Marathi. |
ms.microsoft |
string |
Analizzatore Microsoft per il malese (alfabeto latino). |
nb.microsoft |
string |
Analizzatore Microsoft per Norvegese (Bokmål). |
nl.lucene |
string |
Analizzatore Lucene per olandese. |
nl.microsoft |
string |
Analizzatore Microsoft per olandese. |
no.lucene |
string |
Analizzatore Lucene per Norvegese. |
pa.microsoft |
string |
Analizzatore Microsoft per Punjabi. |
pattern |
string |
Separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
pl.lucene |
string |
Analizzatore Lucene per polacco. |
pl.microsoft |
string |
Analizzatore Microsoft per polacco. |
pt-BR.lucene |
string |
Analizzatore Lucene per portoghese (Brasile). |
pt-BR.microsoft |
string |
Analizzatore Microsoft per portoghese (Brasile). |
pt-PT.lucene |
string |
Analizzatore Lucene per portoghese (Portogallo). |
pt-PT.microsoft |
string |
Analizzatore Microsoft per portoghese (Portogallo). |
ro.lucene |
string |
Analizzatore Lucene per romeno. |
ro.microsoft |
string |
Analizzatore Microsoft per romeno. |
ru.lucene |
string |
Analizzatore Lucene per russo. |
ru.microsoft |
string |
Analizzatore Microsoft per russo. |
simple |
string |
Divide il testo in lettere non e li converte in lettere minuscole. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
sk.microsoft |
string |
Analizzatore Microsoft per slovacco. |
sl.microsoft |
string |
Analizzatore Microsoft per sloveno. |
sr-cyrillic.microsoft |
string |
Analizzatore Microsoft per serbo (cirillico). |
sr-latin.microsoft |
string |
Analizzatore Microsoft per serbo (alfabeto latino). |
standard.lucene |
string |
Analizzatore Lucene standard. |
standardasciifolding.lucene |
string |
Analizzatore Lucene di riduzione ASCII standard. Vedere https://video2.skills-academy.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
stop |
string |
Divide il testo in corrispondenza di lettere non; Applica i filtri di token minuscoli e non significative. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
sv.lucene |
string |
Analizzatore Lucene per svedese. |
sv.microsoft |
string |
Analizzatore Microsoft per svedese. |
ta.microsoft |
string |
Analizzatore Microsoft per Tamil. |
te.microsoft |
string |
Analizzatore Microsoft per Telugu. |
th.lucene |
string |
Analizzatore Lucene per Thai. |
th.microsoft |
string |
Analizzatore Microsoft per thai. |
tr.lucene |
string |
Analizzatore Lucene per turco. |
tr.microsoft |
string |
Analizzatore Microsoft per turco. |
uk.microsoft |
string |
Analizzatore Microsoft per ucraino. |
ur.microsoft |
string |
Analizzatore Microsoft per Urdu. |
vi.microsoft |
string |
Analizzatore Microsoft per vietnamiti. |
whitespace |
string |
Analizzatore che usa il tokenizer di spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
zh-Hans.lucene |
string |
Analizzatore Lucene per il cinese (semplificato). |
zh-Hans.microsoft |
string |
Analizzatore Microsoft per il cinese (semplificato). |
zh-Hant.lucene |
string |
Analizzatore Lucene per il cinese (tradizionale). |
zh-Hant.microsoft |
string |
Analizzatore Microsoft per il cinese (tradizionale). |
Definisce i nomi di tutti i tokenizer supportati dal motore di ricerca.
Nome | Tipo | Descrizione |
---|---|---|
classic |
string |
Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
edgeNGram |
string |
Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
keyword_v2 |
string |
Genera l'intero input come singolo token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
letter |
string |
Divide il testo in corrispondenza di lettere non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html |
lowercase |
string |
Divide il testo in lettere non e li converte in lettere minuscole. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html |
microsoft_language_stemming_tokenizer |
string |
Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base. |
microsoft_language_tokenizer |
string |
Divide il testo usando regole specifiche della lingua. |
nGram |
string |
Tokenzza l'input in n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
path_hierarchy_v2 |
string |
Tokenizer per gerarchie simili al percorso. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
pattern |
string |
Tokenizer che usa criteri regex corrispondenti per costruire token distinti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
standard_v2 |
string |
Analizzatore Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
uax_url_email |
string |
Tokenzza url e messaggi di posta elettronica come un token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
whitespace |
string |
Divide il testo in corrispondenza degli spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html |
Definisce i nomi di tutti i filtri di token supportati dal motore di ricerca.