Was ist Azure OpenAI Service?
Azure OpenAI Service bietet REST-API-Zugriff auf die leistungsstarken Sprachmodelle von OpenAI, einschließlich der Modellserien o1-Vorschau, o1-Mini, GPT-4o, GPT-4o Mini, GPT-4 Turbo mit Vision, GPT-4, GPT-3.5-Turbo und Embeddings. Diese Modelle können problemlos an Ihre spezifische Aufgabe angepasst werden, einschließlich, aber nicht beschränkt auf die Erstellung von Inhalten, die Zusammenfassung, die Bildanalyse, die semantische Suche und die Übersetzung von natürlicher Sprache in Code. Benutzer können über REST-APIs, das Python-SDK oder im Azure KI Studio auf den Dienst zugreifen.
Featureübersicht
Funktion | Azure OpenAI |
---|---|
Verfügbare Modelle | o1-Vorschau und o1-Mini - (Eingeschränkter Zugriff - Zugriff anfordern) GPT-4o & GPT-4o mini GPT-4-Serie (einschließlich GPT-4 Turbo mit Vision) GPT-3.5-Turbo-Serie Einbettungsserie Mehr dazu erfahren Sie auf der Seite Modelle. |
Feinabstimmung | GPT-4o-mini (Vorschau) GPT-4 (Vorschau) GPT-3.5-Turbo (0613) babbage-002 davinci-002 . |
Preis | Hier verfügbar Ausführliche Informationen zu GPT-4 Turbo mit Vision finden Sie in den Sonderpreisinformationen. |
Unterstützung für virtuelle Netzwerke und private Verbindungen | Ja. |
Verwaltete Identität | Ja, über Microsoft Entra ID |
Benutzeroberfläche | Azure-Portal für die Konto- und Ressourcenverwaltung, Azure KI Studio für Modellerkundung und Feinabstimmung |
Regionale Modellverfügbarkeit | Modellverfügbarkeit |
Inhaltsfilterung | Aufforderungen und Vervollständigungen werden anhand unserer Inhaltsrichtlinien mithilfe automatisierter Systeme bewertet. Inhalt mit dem Schweregrad „Hoch“ wird gefiltert. |
Verantwortungsvolle KI
Microsoft engagiert sich für die Weiterentwicklung von KI auf der Grundlage von Prinzipien, die den Menschen in den Mittelpunkt stellen. Generative Modelle wie diejenigen, die Azure OpenAI zur Verfügung stehen, bieten potenziell bedeutende Vorteile, aber ohne ein sorgfältiges Design und eine durchdachte Risikominderung können solche Modelle auch falsche oder sogar schädliche Inhalte erzeugen. Microsoft hat erhebliche Investitionen unternommen, um Sie vor Missbrauch und unbeabsichtigtem Schaden zu schützen. Dazu gehören die Einbeziehung von Microsofts Grundsätzen für die verantwortungsvolle KI-Verwendung, die Einführung eines Verhaltenskodex zur Verwendung des Dienstes, das Erstellen von Inhaltsfilter zur Unterstützung von Kundschaft, und die Bereitstellung verantwortlicher KI-Informationen und -Anleitungen, die Kund*innen bei der Verwendung von Azure OpenAI berücksichtigen sollten.
Erste Schritte mit Azure OpenAI Service
Um mit Azure OpenAI Service zu beginnen, müssen Sie in Ihrem Azure-Abonnement eine Azure OpenAI Service-Ressource erstellen.
Beginnen Sie mit dem Leitfaden Erstellen und Bereitstellen einer Azure OpenAI Service-Ressource.
Sie können eine Ressource über das Azure-Portal, die Azure CLI oder Azure PowerShell erstellen.
Wenn Sie über eine Azure OpenAI Service-Ressource verfügen, können Sie ein Modell wie GPT-4o bereitstellen.
Wenn Sie ein bereitgestelltes Modell haben, können Sie Folgendes tun:
- Probieren Sie die Azure AI Studio-Spielplätze aus, um die Fähigkeiten der Modelle zu erkunden.
- Sie können auch einfach API-Aufrufe an den Dienst über die REST-API oder SDKs senden.
Zum Beispiel können Sie Echtzeit-Audio und Assistenten auf Spielplätzen oder über Code ausprobieren.
Hinweis
Für den Zugriff auf einige Azure OpenAI-Servicemodelle oder -Funktionen ist ein Registrierungsformular mit eingeschränktem Zugriff erforderlich. Weitere Informationen finden Sie auf der Seite für Azure OpenAI Limited Access.
Vergleich von Azure OpenAI und OpenAI
Azure OpenAI Service bietet Kunden eine fortschrittliche Sprach-KI mit OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper und Sprachsynthesemodellen mit dem Sicherheits- und Unternehmensversprechen von Azure. Azure OpenAI entwickelt die APIs gemeinsam mit OpenAI, um Kompatibilität und einen reibungslosen Übergang von einer zur anderen zu gewährleisten.
Mit Azure OpenAI erhalten Kunden die Sicherheitsfunktionen von Microsoft Azure, wobei sie die gleichen Modelle wie OpenAI ausführen. Azure OpenAI bietet private Netzwerke, regionale Verfügbarkeit und verantwortungsvolle KI-Inhaltsfilterung.
Wichtige Begriffe
Prompts und Vervollständigungen
Der Vervollständigungsendpunkt ist die Kernkomponente des API-Diensts. Diese API bietet Zugriff auf die Texteingabe- und Textausgabeschnittstelle des Modells. Benutzer*innen müssen einfach einen Prompt mit dem englischen Textbefehl bereitstellen, und das Modell generiert eine Vervollständigung für den Text.
Hier sehen Sie ein Beispiel für eine einfache Befehlszeile und Vervollständigung:
Befehlszeile:
""" count to 5 in a for loop """
Vervollständigung:
for i in range(1, 6): print(i)
Token
Texttoken
Azure OpenAI verarbeitet Text, indem er in Token unterteilt wird. Token können Wörter oder einfach nur Zeichenblöcke sein. Beispielsweise wird das Wort „Hamburger“ in die Token „Ham“, „bur“ und „ger“ unterteilt, während ein kurzes Wort wie „Brot“ ein einzelnes Token ist. Viele Token beginnen mit einem Leerzeichen, z. B. „ Hallo“ und „ Tschüss“.
Die Gesamtzahl der in einer bestimmten Anforderung verarbeiteten Token hängt von der Länge Ihrer Eingabe-, Ausgabe- und Anfrageparameter ab. Die Menge der zu verarbeitenden Token wirkt sich auch auf die Reaktionszeit und den Durchsatz der Modelle aus.
Bildtoken
Die Bildverarbeitungsfunktionen von Azure OpenAI mit GPT-4o, GPT-4o mini und GPT-4 Turbo mit Vision-Modellen verwenden Bildtokenisierung, um die Gesamtanzahl der durch Bildeingaben verbrauchten Token zu ermitteln. Die Anzahl der verbrauchten Token wird basierend auf zwei Hauptfaktoren berechnet: der Menge der Bilddetails (niedrig oder hoch) und der Abmessungen des Bilds. Die Tokenkosten werde folgendermaßen berechnet:
- Modus mit niedriger Auflösung
- Niedrige Details erlauben es der API, schnellere Antworten für Szenarien zurückgeben, für die keine Analyse mit hoher Bildauflösung erforderlich ist. Die Anzahl der Token, die für Bilder mit geringen Details verbraucht werden, lautet:
- GPT-4o und GPT-4 Turbo mit Vision: Pauschal 85 Token pro Bild, unabhängig von der Größe.
- GPT-4o mini: Pauschal 2.833 Token pro Bild, unabhängig von der Größe.
- Beispiel: Bild mit 4096 × 8192 (wenige Details): Die Kosten betragen bei GPT-4o pauschal 85 Token, da es sich um ein Bild mit geringer Detailtiefe handelt und die Größe in diesem Modus keine Auswirkungen auf die Kosten hat.
- Niedrige Details erlauben es der API, schnellere Antworten für Szenarien zurückgeben, für die keine Analyse mit hoher Bildauflösung erforderlich ist. Die Anzahl der Token, die für Bilder mit geringen Details verbraucht werden, lautet:
- Modus mit hoher Auflösung
- Durch die hohe Detailgenauigkeit kann die API Bilder detaillierter analysieren. Die Bildtoken werden basierend auf den Abmessungen des Bilds berechnet. Die Berechnung umfasst die folgenden Schritte:
- Ändern der Bildgröße: Das Bild wird so angepasst, dass es in ein Quadrat mit 2048x2048 Pixeln passt. Wenn die kürzeste Seite länger als 768 Pixel ist, wird die Größe des Bilds weiter geändert, sodass die kürzeste Seite 768 Pixel lang ist. Das Seitenverhältnis wird beim Ändern der Größe beibehalten.
- Berechnen der Kachel: Nach der Größenänderung wird das Bild in Kacheln mit 512x512 Pixeln unterteilt. Unvollständige Kacheln werden auf eine vollständige Kachel aufgerundet. Die Anzahl der Kacheln bestimmt die Gesamtkosten der Token.
- Berechnung der Token:
- GPT-4o und GPT-4 Turbo mit Vision: Jede Kachel mit 512x512 Pixeln kostet 170 Token. Zur Gesamtsumme werden zusätzlich 85 Basistoken hinzugefügt.
- GPT-4o mini-: Jede Kachel mit 512x512 Pixeln kostet 5.667 Token. Zur Gesamtsumme werden zusätzlich 2.833 Basistoken hinzugefügt.
- Beispiel: Bild mit 2.048×4.096 (hohe Details):
- Das Bild wird zunächst auf 1.024x2.048 Pixel verkleinert, damit es in das 2.048x2.048-Pixelquadrat passt.
- Das Bild wird weiter auf 768x1.536 Pixel verkleinert, um sicherzustellen, dass die kürzeste Seite maximal 768 Pixel lang ist.
- Das Bild wird in 2x3 Kacheln mit jeweils 512x512 Pixel unterteilt.
- Endgültige Berechnung:
- Für GPT-4o und GPT-4 Turbo mit Vision betragen die Gesamttokenkosten 6 Kacheln x 170 Token pro Kachel + 85 Basistoken = 1.105 Token.
- Für GPT-4o mini betragen die Gesamttokenkosten 6 Kacheln x 5.667 Token pro Kachel + 2.833 Basistoken = 36.835 Token.
- Durch die hohe Detailgenauigkeit kann die API Bilder detaillierter analysieren. Die Bildtoken werden basierend auf den Abmessungen des Bilds berechnet. Die Berechnung umfasst die folgenden Schritte:
Ressourcen
Azure OpenAI ist ein neues Produktangebot in Azure. Der erste Schritt in Azure OpenAI ist wie bei jedem anderen Azure-Produkt die Erstellung einer Ressource (Dienstinstanz) in Ihrem Azure-Abonnement. Informieren Sie sich über das Design der Ressourcenverwaltung von Azure.
Bereitstellungen
Nachdem Sie eine Azure OpenAI-Ressource erstellt haben, müssen Sie ein Modell bereitstellen, bevor Sie mit dem Erstellen von API-Aufrufen und Generieren von Text beginnen können. Dafür können Sie die Bereitstellungs-APIs verwenden. Bei diesen APIs können Sie das Modell angeben, das Sie verwenden möchten.
Prompt Engineering
Die Modelle GPT-3, GPT-3.5 und GPT-4 von OpenAI sind promptbasiert. Bei prompt-basierten Modellen interagiert der Benutzer mit dem Modell, indem er einen Textprompt eingibt, auf den das Modell mit einer Textvervollständigung antwortet. Diese Vervollständigung ist die Fortsetzung des Eingabetexts durch das Modell.
Obwohl diese Modelle äußerst leistungsfähig sind, ist ihr Verhalten auch sehr vom eingegebenen Prompt abhängig. Dies macht das Prompt Engineering zu einer wichtigen Fähigkeit, die es zu entwickeln gilt.
Das Erstellen von Prompts kann schwierig sein. In der Praxis fungiert der Prompt, um die Modellgewichte so zu konfigurieren, dass sie die gewünschte Aufgabe erfüllen. Aber dies ist eher eine Kunst als eine Wissenschaft und es erfordert häufig Erfahrung und Intuition, einen erfolgreichen Prompt zu erstellen.
Modelle
Dieser Dienst bietet Benutzern Zugriff auf viele verschiedene Modelle. All diese Modelle bieten unterschiedliche Funktionen und Preispunkte.
Die DALL-E-Modelle (einige in der Vorschau; sieh Modelle) generieren Bilder aus Textaufforderungen, die der Benutzer bereitstellt.
Die Whisper-Modelle können zur Transkription und zur Übersetzung von gesprochener Sprache in Schrifttexte genutzt werden.
Die Sprachsynthesemodelle, die sich derzeit in der Vorschau befinden, können verwendet werden, um Text in Sprache zu synthetisieren.
Auf unserer Seite mit Modellkonzepten erfahren Sie mehr über die einzelnen Modelle.
Nächste Schritte
Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.