Vad är Azure OpenAI-tjänsten?

Azure OpenAI Service ger REST API-åtkomst till OpenAI:s kraftfulla språkmodeller, inklusive modellserien o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo with Vision, GPT-4, GPT-3.5-Turbo och Embeddings. Dessa modeller kan enkelt anpassas till din specifika uppgift, inklusive men inte begränsat till innehållsgenerering, sammanfattning, bildtolkning, semantisk sökning och naturligt språk för kodöversättning. Användare kan komma åt tjänsten via REST-API:er, Python SDK eller i Azure AI Studio.

Funktionsöversikt

Funktion Azure OpenAI
Tillgängliga modeller o1-preview & o1-mini - (Begränsad åtkomst - Begär åtkomst)
GPT-4o & GPT-4o mini
GPT-4-serien (inklusive GPT-4 Turbo med vision)
GPT-3.5-Turbo-serien
Inbäddningsserie
Läs mer på sidan Modeller .
Finjustering GPT-4o-mini (förhandsversion)
GPT-4 (förhandsversion)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Pris Finns här
Mer information om GPT-4 Turbo with Vision finns i den särskilda prisinformationen.
Stöd för virtuellt nätverk och stöd för privata länkar Ja.
Hanterad identitet Ja, via Microsoft Entra-ID
Användargränssnittsupplevelse Azure Portal för konto- och resurshantering,
Azure AI Studio för modellutforskning och finjustering
Modell regional tillgänglighet Modelltillgänglighet
Innehållsfiltrering Frågor och slutföranden utvärderas mot vår innehållsprincip med automatiserade system. Innehåll med hög allvarlighetsgrad filtreras.

Ansvarsfull AI

På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. Generativa modeller som de som är tillgängliga i Azure OpenAI har betydande potentiella fördelar, men utan noggrann design och tankeväckande åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll. Microsoft har gjort betydande investeringar för att skydda mot missbruk och oavsiktlig skada, bland annat genom att införliva Microsofts principer för ansvarsfull AI-användning, anta en uppförandekod för användning av tjänsten, skapa innehållsfilter för att stödja kunder och tillhandahålla ansvarsfull AI-information och vägledning som kunderna bör överväga när de använder Azure OpenAI.

Hur gör jag för att få åtkomst till Azure OpenAI?

Ett registreringsformulär för begränsad åtkomst krävs inte för att få åtkomst till de flesta Azure OpenAI-modeller. Läs mer på sidan Begränsad åtkomst i Azure OpenAI.

Jämföra Azure OpenAI och OpenAI

Azure OpenAI Service ger kunderna avancerad språk-AI med OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper och text till talmodeller med säkerhet och företagslöfte för Azure. Azure OpenAI utvecklar API:erna tillsammans med OpenAI, vilket säkerställer kompatibilitet och en smidig övergång från en till en annan.

Med Azure OpenAI får kunderna säkerhetsfunktionerna i Microsoft Azure när de kör samma modeller som OpenAI. Azure OpenAI erbjuder privata nätverk, regional tillgänglighet och ansvarsfull AI-innehållsfiltrering.

Nyckelbegrepp

Frågor och slutföranden

Slutpunkten för slutföranden är kärnkomponenten i API-tjänsten. Det här API:et ger åtkomst till modellens text-in-, text-out-gränssnitt. Användarna behöver bara ange en indataprompt som innehåller det engelska textkommandot, och modellen genererar en textavslutning.

Här är ett exempel på en enkel fråga och slutförande:

Fråga: """ count to 5 in a for loop """

Slutförande: for i in range(1, 6): print(i)

Token

Texttoken

Azure OpenAI bearbetar text genom att dela upp den i token. Token kan vara hela ord eller teckensegment. Till exempel delas ordet "hamburgare" upp i tokens "skinka", "bur" och "ger", medan ett kort och vanligt ord som "päron" är en enda token. Många token börjar med ett tomt utrymme, till exempel "hello" och "bye".

Det totala antalet token som bearbetas i en viss begäran beror på längden på parametrarna för indata, utdata och begäranden. Mängden token som bearbetas påverkar även svarsfördröjningen och dataflödet för modellerna.

Bildtoken

Azure OpenAI:s bildbearbetningsfunktioner med GPT-4o, GPT-4o mini och GPT-4 Turbo with Vision-modeller använder bildtokenisering för att fastställa det totala antalet token som förbrukas av bildindata. Antalet förbrukade token beräknas baserat på två huvudfaktorer: bildinformationsnivån (låg eller hög) och bildens dimensioner. Så här beräknas tokenkostnader:

  • Lågupplösningsläge
    • Med låg detaljnivå kan API:et returnera snabbare svar för scenarier som inte kräver analys av hög bildupplösning. De token som används för bilder med låg detaljnivå är:
      • GPT-4o och GPT-4 Turbo med vision: Fast hastighet på 85 token per bild, oavsett storlek.
      • GPT-4o mini: Fast hastighet på 2833 token per bild, oavsett storlek.
    • Exempel: 4096 x 8192 bild (låg detaljnivå): Kostnaden är en fast 85 tokens, eftersom det är en låg detaljbild, och storleken påverkar inte kostnaden i det här läget.
  • Högupplösningsläge
    • Med låg detaljnivå kan API:et analysera bilder mer detaljerat. Bildtoken beräknas baserat på bildens dimensioner. Beräkningen omfattar följande steg:
      1. Storleksändring av bild: Bilden ändras så att den får plats inom en kvadrat på 2 048 x 2 048 bildpunkter. Om den kortaste sidan är större än 768 bildpunkter ändras bilden ytterligare så att den kortaste sidan är 768 bildpunkter lång. Proportionerna bevaras under storleksändringen.
      2. Panelberäkning: När bilden har storleksändrats delas den in i paneler på 512 x 512 bildpunkter. Eventuella partiella paneler avrundas upp till en fullständig panel. Antalet paneler avgör den totala tokenkostnaden.
      3. Tokenberäkning:
        • GPT-4o och GPT-4 Turbo med vision: Varje panel på 512 x 512 bildpunkter kostar 170 token. Ytterligare 85 bastoken läggs till i totalsumman.
        • GPT-4o mini: Varje panel på 512 x 512 bildpunkter kostar 5 667 token. Ytterligare 2 833 bastoken läggs till i totalsumman.
    • Exempel: 2048 x 4096 bild (hög detalj):
      1. Bilden ändras ursprungligen till 1 024 x 2 048 bildpunkter så att den får plats inom kvadraten 2 048 x 2 048 bildpunkter.
      2. Bilden ändras ytterligare till 768 x 1 536 bildpunkter för att säkerställa att den kortaste sidan är högst 768 bildpunkter lång.
      3. Bilden är uppdelad i 2 x 3 paneler, var och en 512 x 512 bildpunkter.
      4. Slutlig beräkning:
        • För GPT-4o och GPT-4 Turbo with Vision är den totala tokenkostnaden 6 paneler x 170 token per panel + 85 bastoken = 1 105 tokens.
        • För GPT-4o mini är den totala tokenkostnaden 6 paneler x 5 667 token per panel + 2833 bastoken = 36835 tokens.

Resurser

Azure OpenAI är ett nytt produkterbjudande i Azure. Du kan komma igång med Azure OpenAI på samma sätt som andra Azure-produkter där du skapar en resurs eller instans av tjänsten i din Azure-prenumeration. Du kan läsa mer om Azures resurshanteringsdesign.

Distributioner

När du har skapat en Azure OpenAI-resurs måste du distribuera en modell innan du kan börja göra API-anrop och generera text. Den här åtgärden kan utföras med hjälp av API:er för distribution. Med dessa API:er kan du ange den modell som du vill använda.

Promptkonstruktion

Modellerna GPT-3, GPT-3.5 och GPT-4 från OpenAI är promptbaserade. Med promptbaserade modeller interagerar användaren med modellen genom att ange en textprompt, som modellen svarar på med en textkomplettering. Detta är modellens fortsättning på indatatexten.

Även om dessa modeller är extremt kraftfulla, är deras beteende också mycket känsligt för prompten. Detta gör prompt engineering till en viktig färdighet att utveckla.

Snabb konstruktion kan vara svårt. I praktiken fungerar uppmaningen för att konfigurera modellvikterna för att slutföra den önskade uppgiften, men det är mer av en konst än en vetenskap, som ofta kräver erfarenhet och intuition för att skapa en lyckad prompt.

Modeller

Tjänsten ger användarna åtkomst till flera olika modeller. Varje modell har olika funktioner och prispunkter.

DALL-E-modellerna (vissa i förhandsversion, se modeller) genererar bilder från textanvisningarna som användaren tillhandahåller.

Whisper-modellerna kan användas för att transkribera och översätta tal till text.

Text till tal-modeller, som för närvarande är i förhandsversion, kan användas för att syntetisera text till tal.

Läs mer om varje modell på konceptsidan för våra modeller.

Nästa steg

Läs mer om de underliggande modeller som driver Azure OpenAI.