Snabbstart: Azure AI Vision v3.2 GA Read
OCR-utgåvor (läsversioner)
Viktigt!
Välj den Läs-utgåva som passar dina behov bäst.
Indata | Exempel | Läs utgåva | Förmån |
---|---|---|---|
Bilder: Allmänna, vilda bilder | etiketter, gatuskyltar och affischer | OCR för avbildningar (version 4.0) | Optimerad för allmänna bilder som inte är dokument med ett prestandaförbättrat synkront API som gör det enklare att bädda in OCR i dina användarupplevelsescenarier. |
Dokument: Digital och skannad, inklusive bilder | böcker, artiklar och rapporter | Läsmodell för dokumentinformation | Optimerad för textintensiva genomsökta och digitala dokument med ett asynkront API för att automatisera intelligent dokumentbearbetning i stor skala. |
Om Azure AI Vision v3.2 GA Read
Letar du efter den senaste ga-läsningen i Azure AI Vision v3.2? Alla framtida förbättringar av läs-OCR är en del av de två tjänster som listades tidigare. Det finns inga ytterligare uppdateringar av Azure AI Vision v3.2. Mer information finns i Anropa Azure AI Vision 3.2 GA Read API och Snabbstart: Azure AI Vision v3.2 GA Read.
Kom igång med Azure AI Vision Read REST API eller klientbibliotek. Med Läs-API:et får du AI-algoritmer för att extrahera text från bilder och returnera den som strukturerade strängar. Följ de här stegen för att installera ett paket i ditt program och prova exempelkoden för grundläggande uppgifter.
Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text från en bild. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten. Koden i det här avsnittet använder det senaste Azure AI Vision-paketet .
Dricks
Du kan också extrahera text från en lokal bild. Se ComputerVisionClient-metoderna, till exempel ReadInStreamAsync. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.
Referensdokumentation NuGet-exempel (Library Source Code | Package) | |
Förutsättningar
- En Azure-prenumeration – Skapa en kostnadsfritt.
- Visual Studio IDE eller den aktuella versionen av .NET Core.
- En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (
F0
) för att prova tjänsten och uppgradera senare till en betald nivå för produktion. - Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.
- När azure vision-resursen har distribuerats väljer du Gå till resurs.
- I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
- Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.
Skapa miljövariabler
I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.
Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshantering på sidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.
Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.
- Om du vill ange
VISION_KEY
miljövariabeln ersätter du<your_key>
med en av nycklarna för resursen. - Om du vill ange
VISION_ENDPOINT
miljövariabeln ersätter du<your_endpoint>
med slutpunkten för resursen.
Viktigt!
Om du använder en API-nyckel lagrar du den på ett säkert sätt någon annanstans, till exempel i Azure Key Vault. Inkludera inte API-nyckeln direkt i koden och publicera den aldrig offentligt.
Mer information om säkerhet för AI-tjänster finns i Autentisera begäranden till Azure AI-tjänster.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.
Läsa utskriven och handskriven text
Skapa ett nytt C#-program.
Använd Visual Studio och skapa ett konsolappsprojekt (.NET Framework) för C#, Windows, Console.
När du har skapat ett nytt projekt installerar du klientbiblioteket:
- Högerklicka på projektlösningen i Solution Explorer och välj Hantera NuGet-paket för lösning.
- I pakethanteraren som öppnas väljer du Bläddra. Välj Inkludera förhandsversion.
- Sök efter och välj
Microsoft.Azure.CognitiveServices.Vision.ComputerVision
. - I informationsdialogrutan väljer du projektet och väljer den senaste stabila versionen. Välj sedan Installera.
Öppna filen Program.cs i önskad redigerare eller IDE från projektkatalogen. Ersätt innehållet i Program.cs med följande kod.
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); ComputerVisionClient client = Authenticate(endpoint, key); // Extract text (OCR) from a URL image using the Read API ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait(); } public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("READ FILE FROM URL"); Console.WriteLine(); // Read text from URL var textHeaders = await client.ReadAsync(urlFile); // After the request, get the operation location (operation ID) string operationLocation = textHeaders.OperationLocation; Thread.Sleep(2000); // Retrieve the URI where the extracted text will be stored from the Operation-Location header. // We only need the ID and not the full URL const int numberOfCharsInOperationId = 36; string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId); // Extract the text ReadOperationResult results; Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}..."); Console.WriteLine(); do { results = await client.GetReadResultAsync(Guid.Parse(operationId)); } while ((results.Status == OperationStatusCodes.Running || results.Status == OperationStatusCodes.NotStarted)); // Display the found text. Console.WriteLine(); var textUrlFileResults = results.AnalyzeResult.ReadResults; foreach (ReadResult page in textUrlFileResults) { foreach (Line line in page.Lines) { Console.WriteLine(line.Text); } } Console.WriteLine(); } } }
Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du anropet
ReadAsync
som det visas. Hoppa över parametern eller använd"latest"
för att använda den senaste GA-modellen.// Read text from URL with a specific model version var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
Kör programmet.
- På felsökningsmenyn väljer du Starta felsökning.
Output
Azure AI Vision - .NET quickstart example
----------------------------------------------------------
READ FILE FROM URL
Extracting text from URL file printed_text.jpg...
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
Rensa resurser
Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.
Nästa steg
I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.
- OCR-översikt
- Källkoden för det här exemplet finns på GitHub.
Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text från en fjärrbild. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten.
Dricks
Du kan också läsa text från en lokal bild. Se Metoderna ComputerVisionClientOperationsMixin, till exempel read_in_stream. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.
Exempel på källkodspaket (PiPy) | för referensdokumentation | |
Förutsättningar
- En Azure-prenumeration – Skapa en kostnadsfritt.
- Python 3.x.
- Python-installationen bör innehålla pip. Du kan kontrollera om du har pip installerat och köra
pip --version
på kommandoraden. Hämta pip genom att installera den senaste versionen av Python. - En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (
F0
) för att prova tjänsten och uppgradera senare till en betald nivå för produktion. - Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.
- När azure vision-resursen har distribuerats väljer du Gå till resurs.
- I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
- Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.
Skapa miljövariabler
I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.
Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshantering på sidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.
Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.
- Om du vill ange
VISION_KEY
miljövariabeln ersätter du<your_key>
med en av nycklarna för resursen. - Om du vill ange
VISION_ENDPOINT
miljövariabeln ersätter du<your_endpoint>
med slutpunkten för resursen.
Viktigt!
Om du använder en API-nyckel lagrar du den på ett säkert sätt någon annanstans, till exempel i Azure Key Vault. Inkludera inte API-nyckeln direkt i koden och publicera den aldrig offentligt.
Mer information om säkerhet för AI-tjänster finns i Autentisera begäranden till Azure AI-tjänster.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.
Läsa utskriven och handskriven text
Installera klientbiblioteket.
Kör följande kommando i ett konsolfönster:
pip install --upgrade azure-cognitiveservices-vision-computervision
Installera Pillow-biblioteket.
pip install pillow
Skapa en ny Python-programfil quickstart-file.py. Öppna den sedan i önskad redigerare eller IDE.
Ersätt innehållet i quickstart-file.py med följande kod.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' OCR: Read File using the Read API, extract text - remote This example will extract text in an image, then print results, line by line. This API call can also extract handwriting style text (not shown). ''' print("===== Read File - remote =====") # Get an image with text read_image_url = "https://video2.skills-academy.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png" # Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True) # Get the operation location (URL with an ID at the end) from the response read_operation_location = read_response.headers["Operation-Location"] # Grab the ID from the URL operation_id = read_operation_location.split("/")[-1] # Call the "GET" API and wait for it to retrieve the results while True: read_result = computervision_client.get_read_result(operation_id) if read_result.status not in ['notStarted', 'running']: break time.sleep(1) # Print the detected text, line by line if read_result.status == OperationStatusCodes.succeeded: for text_result in read_result.analyze_result.read_results: for line in text_result.lines: print(line.text) print(line.bounding_box) print() ''' END - Read File - remote ''' print("End of Computer Vision quickstart.")
Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du -instruktionen på det
read
sätt som visas. Om du hoppar över parametern eller använder"latest"
automatiskt används den senaste GA-modellen.# Call API with URL and raw response (allows you to get the operation location) read_response = computervision_client.read(read_image_url, raw=True, model_version="2022-04-30")
Kör programmet med kommandot
python
på din snabbstartsfil.python quickstart-file.py
Output
===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]
End of Azure AI Vision quickstart.
Rensa resurser
Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.
Nästa steg
I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.
- OCR-översikt
- Källkoden för det här exemplet finns på GitHub.
Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text med läs-API:et. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten.
Dricks
Du kan också läsa text från en lokal bild. Se ComputerVisionClient-metoderna, till exempel readInStream. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.
Exempel på referensdokumentation (npm) | |
Förutsättningar
- En Azure-prenumeration – Skapa en kostnadsfritt.
- Den aktuella versionen av Node.js.
- En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (
F0
) för att prova tjänsten och uppgradera senare till en betald nivå för produktion. - Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.
- När azure vision-resursen har distribuerats väljer du Gå till resurs.
- I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
- Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.
Skapa miljövariabler
I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.
Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshantering på sidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.
Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.
- Om du vill ange
VISION_KEY
miljövariabeln ersätter du<your_key>
med en av nycklarna för resursen. - Om du vill ange
VISION_ENDPOINT
miljövariabeln ersätter du<your_endpoint>
med slutpunkten för resursen.
Viktigt!
Om du använder en API-nyckel lagrar du den på ett säkert sätt någon annanstans, till exempel i Azure Key Vault. Inkludera inte API-nyckeln direkt i koden och publicera den aldrig offentligt.
Mer information om säkerhet för AI-tjänster finns i Autentisera begäranden till Azure AI-tjänster.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.
Läsa utskriven och handskriven text
Skapa ett nytt Node.js-program.
I ett konsolfönster skapar du en ny katalog för din app och navigerar till den.
mkdir myapp cd myapp
Kör kommandot
npm init
för att skapa ett nodprogram med enpackage.json
-fil. Välj Retur för eventuella frågor.npm init
Installera klientbiblioteket genom att
ms-rest-azure
installera och@azure/cognitiveservices-computervision
npm-paketet:npm install ms-rest-azure npm install @azure/cognitiveservices-computervision
Installera async-modulen:
npm install async
Appens
package.json
fil uppdateras med beroendena.Skapa en ny fil, index.js, och öppna den i en textredigerare.
Klistra in följande kod i filen index.js .
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API * Extracts text from images using OCR (optical character recognition). */ console.log('-------------------------------------------------'); console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF'); console.log(); // URL images containing printed and/or handwritten text. // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff). const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg'; // Recognize text in printed image from a URL console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop()); const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL); printRecText(printedResult); // Perform read and await the result from URL async function readTextFromURL(client, url) { // To recognize text in a local image, replace client.read() with readTextInStream() as shown: let result = await client.read(url); // Operation ID is last path segment of operationLocation (a URL) let operation = result.operationLocation.split('/').slice(-1)[0]; // Wait for read recognition to complete // result.status is initially undefined, since it's the result of read while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); } return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff. } // Prints all text from Read result function printRecText(readResults) { console.log('Recognized text:'); for (const page in readResults) { if (readResults.length > 1) { console.log(`==== Page: ${page}`); } const result = readResults[page]; if (result.lines.length) { for (const line of result.lines) { console.log(line.words.map(w => w.text).join(' ')); } } else { console.log('No recognized text.'); } } } /** * * Download the specified file in the URL to the current local folder * */ function downloadFilesToLocal(url, localFileName) { return new Promise((resolve, reject) => { console.log('--- Downloading file to local directory from: ' + url); const request = https.request(url, (res) => { if (res.statusCode !== 200) { console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`); reject(); } var data = []; res.on('data', (chunk) => { data.push(chunk); }); res.on('end', () => { console.log(' ... Downloaded successfully'); fs.writeFileSync(localFileName, Buffer.concat(data)); resolve(); }); }); request.on('error', function (e) { console.log(e.message); reject(); }); request.end(); }); } /** * END - Recognize Printed & Handwritten Text */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();
Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du -instruktionen på det
read
sätt som visas. Om du hoppar över parametern eller använder"latest"
automatiskt används den senaste GA-modellen.let result = await client.read(url,{modelVersion:"2022-04-30"});
Kör programmet med kommandot
node
på din snabbstartsfil.node index.js
Output
-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF
Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.
-------------------------------------------------
End of quickstart.
Rensa resurser
Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.
Nästa steg
I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.
- OCR-översikt
- Källkoden för det här exemplet finns på GitHub.
Använd REST-API:et för optisk teckenigenkänning (OCR) för att läsa utskriven och handskriven text.
Kommentar
Den här snabbstarten använder cURL-kommandon för att anropa REST-API:et. Du kan också anropa REST-API:et med hjälp av ett programmeringsspråk. Se GitHub-exempel för exempel i C#, Python, Java och JavaScript.
Förutsättningar
- En Azure-prenumeration – Skapa en kostnadsfritt.
- cURL installerat.
- En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (
F0
) för att prova tjänsten och uppgradera senare till en betald nivå för produktion. - Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.
- När azure vision-resursen har distribuerats väljer du Gå till resurs.
- I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
- Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.
Läsa utskriven och handskriven text
Tjänsten optisk teckenigenkänning (OCR) kan extrahera synlig text i en bild eller ett dokument och konvertera den till en teckenström. Mer information om extrahering av text finns i OCR-översikten.
Anropa läs-API:et
Så här skapar du och kör exemplet:
Kopiera följande kommando till en textredigerare.
Gör följande ändringar i kommandot där det behövs:
- Ersätt värdet
<key>
för med din nyckel. - Ersätt den första delen av begärande-URL:en (
https://westcentralus.api.cognitive.microsoft.com/
) med texten i din egen slutpunkts-URL.Kommentar
Nya resurser som skapats efter den 1 juli 2019 använder anpassade underdomännamn. Mer information och en fullständig lista över regionala slutpunkter finns i Anpassade underdomännamn för Azure AI-tjänster.
- Du kan också ändra bild-URL:en i begärandetexten (
https://video2.skills-academy.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png
) till URL:en för en annan bild som ska analyseras.
- Ersätt värdet
Öppna ett kommandotolksfönster.
Klistra in kommandot från textredigeraren i kommandotolkens fönster och kör sedan kommandot.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://video2.skills-academy.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Svaret innehåller en Operation-Location
rubrik, vars värde är en unik URL. Du använder den här URL:en för att köra frågor mot resultatet av åtgärden Läs. URL:en upphör att gälla om 48 timmar.
Du kan också ange modellversionen
Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen använder du model-version=2022-04-30
som parameter. Om du hoppar över parametern eller använder model-version=latest
automatiskt används den senaste GA-modellen.
curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://video2.skills-academy.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Hämta läsresultat
Kopiera följande kommando till textredigeraren.
Ersätt URL:en med det
Operation-Location
värde som du kopierade i föregående procedur.Ersätt värdet
<key>
för med din nyckel.Öppna ett konsolfönster.
Klistra in kommandot från textredigeraren i konsolfönstret och kör sedan kommandot.
curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}"
Granska svaret
Ett svar som anger att åtgärden lyckades returneras i JSON. Exempelprogrammet parsar och visar ett lyckat svar i konsolfönstret enligt följande exempel:
{
"status": "succeeded",
"createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
"lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
"analyzeResult": {
"version": "3.2",
"readResults": [
{
"page": 1,
"angle": 0,
"width": 338,
"height": 479,
"unit": "pixel",
"lines": [
{
"boundingBox": [
25,
14,
318,
14,
318,
59,
25,
59
],
"text": "NOTHING",
"appearance": {
"style": {
"name": "other",
"confidence": 0.971
}
},
"words": [
{
"boundingBox": [
27,
15,
294,
15,
294,
60,
27,
60
],
"text": "NOTHING",
"confidence": 0.994
}
]
}
]
}
]
}
}
Rensa resurser
Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.
Nästa steg
I den här snabbstarten har du lärt dig hur du anropar Rest-API:et för läsning. Läs sedan mer om funktionerna i Läs API.
Förutsättningar
En Azure-prenumeration – Skapa en kostnadsfritt.
En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (
F0
) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.Anslut till Vision Studio.
- Du kan behöva logga in.
- När du har loggat in väljer du Visa alla resurser. Om det behövs väljer du Uppdatera. Kontrollera att resursen är tillgänglig.
Mer information finns i Kom igång använda Vision Studio.
Läsa utskriven och handskriven text
Under Optisk teckenigenkänning väljer du Extrahera text från bilder.
Under Testa bekräftar du att den här demonstrationen medför användning av ditt Azure-konto. Mer information finns i Prissättning för Azure AI Vision.
Välj en bild från den tillgängliga uppsättningen eller ladda upp en egen.
Om det behövs väljer du Välj en resurs för att välja din resurs.
När du har valt din bild visas den extraherade texten i utdatafönstret. Du kan också välja fliken JSON för att se JSON-utdata som API-anropet returnerar.
Under try-it-out-upplevelsen finns nästa steg för att börja använda den här funktionen i ditt eget program.
Nästa steg
I den här snabbstarten använde du Vision Studio för att komma åt läs-API:et. Läs sedan mer om funktionerna i Läs API.